66 proc. użytkowników mediów społecznościowych w Unii Europejskiej przyznaje, że aktywnie szuka w nich informacji o bieżących wydarzeniach społecznych i politycznych – wynika z badania Eurobarometru „Social Media Survey” przeprowadzonego w czerwcu 2025 roku. Jednocześnie podobny odsetek obywateli UE zetknął się z dezinformacją i fałszywymi wiadomościami w ciągu siedmiu dni przed badaniem. Eksperci alarmują, że do walki z dezinformacją trzeba w większym stopniu włączyć platformy cyfrowe i powinno się to wiązać z modyfikacją algorytmów.
– Musimy rozmontować mechanizmy po stronie technologii, które sprzyjają dezinformacji. Nie możemy traktować jej jak wypadku przy pracy, tylko spójrzmy na fakty. Dezinformacja jest świetnym biznesem dla wielkich platform i jej popularność wynika z zasady działania algorytmów, jak również z tego, jak działa system reklamowy. Oba te systemy – rekomendacji algorytmicznych i reklam – musimy zmodyfikować, naprawić w taki sposób, żeby treści rzetelne, jakościowe były dla ludzi widoczne, a nie te dezinformujące – mówi agencji Newseria Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.
Jak wynika z badania „Postawy Polaków wobec cyberbezpieczeństwa 2025”, przeprowadzonego przez SW Research na zlecenie Warszawskiego Instytutu Bankowości (WIB), 32 proc. ankietowanych wskazało dezinformację i fake newsy jako największe zagrożenie w przestrzeni cyfrowej. Badani deklarują, że wiedzą, jak się bronić przed tymi zjawiskami. 38 proc. twierdzi, że nie traktuje informacji prezentowanych w mediach społecznościowych jako głównego źródła wiedzy. 31 proc. weryfikuje je w różnych źródłach, ale tylko 17 proc. zgłasza lub blokuje treści o wątpliwym pochodzeniu.
Raport WIB wskazuje, że 43 proc. Polaków twierdzi, że sprawdza wiarygodność informacji w przestrzeni cyfrowej, przy czym 17 proc. z nich weryfikuje je kilkoma różnymi metodami, a 26 proc. tylko w jeden sposób. 45 proc. badanych przyznaje, że robi to nieregularnie i w zależności od źródła.
Platformy cyfrowe argumentują, że już wprowadzają mechanizmy ograniczania dezinformacji, jednak zdaniem ekspertów są one niewystarczające.
– Mamy już od dwóch lat obowiązujący akt o usługach cyfrowych. W tych ramach Unia Europejska ma wiele mechanizmów i może naciskać platformy, żeby korygowały swoje algorytmy. Ma art. 34 i 35 DSA, który pozwala na określanie środków zaradczych, które powinny być wdrażane przez platformy – przypomina Katarzyna Szymielewicz.
Przepisy w ramach aktu o usługach cyfrowych (DSA) obowiązują od 17 lutego 2024 roku i muszą przestrzegać ich wszyscy dostawcy usług pośrednich, w tym serwisy społecznościowe, platformy handlu elektronicznego czy hostingodawcy. Celami ich wprowadzenia są m.in.: walka z nielegalnymi treściami w internecie, przeciwdziałanie zagrożeniom społecznym oraz zapewnienie większej przejrzystości korzystania z platform społecznościowych.
– Nie chodzi tylko o kary. Chodzi o to, żeby współdziałać z platformami albo zmuszać je, kiedy trzeba, do zmiany logiki działania algorytmów na taką, która służy ludziom, demokracji i społeczeństwu. Nie ma to nic wspólnego z moderacją treści, której słusznie można się obawiać, że jeżeli pojawia się ktoś, kto decyduje o tym, co jest prawdą, a co jest fałszem i moderuje treści, to zaczynamy mówić o cenzurze. Ja takiego podejścia nie proponuję. Proponuję modyfikację algorytmu dla wszystkich w taki sposób, żebyśmy zaczęli ze sobą rozmawiać jako społeczeństwo i jako politycy, a nie oglądać biernie podbijane treści niskiej jakości, które czynią szkodę debacie publicznej – podkreśla prezeska Fundacji Panoptykon.
Podobne zmiany, jak ocenia ekspertka, powinny dotyczyć treści generowanych przez sztuczną inteligencję.
– Coraz taniej jest produkować treści syntetyczne, sztuczne, które udają coś, czym nie są. Jest to potężny problem dla mediów, ale też jest pokusa, żeby tworzyć taki content, a nie treści dziennikarskie – mówi Katarzyna Szymielewicz. – Takie treści powinny być, zgodnie z regulacją o sztucznej inteligencji, oznaczane przez twórców jako syntetyczne, sztuczne, wykreowane. Platformy mogłyby na podstawie takich oznaczeń traktować je jako gorsze, które nie powinny być podbijane na równi z treściami wysokiej jakości, z treściami autentycznymi. Jest to kolejne rozwiązanie technologiczne, na które czekam i które wspiera Unię Europejską w Europejskiej Tarczy Demokracji.
Z badania „Sztuczna inteligencja w mediach” zrealizowanego na zlecenie Krajowej Rady Radiofonii i Telewizji wynika, że ponad 92 proc. ankietowanych wie, że dziennikarze w telewizji, radiu czy internetowych portalach informacyjnych wykorzystują AI. Chociaż odbiorcy dostrzegają jej liczne zalety, to podchodzą z dużą dozą ostrożności do tej technologii w mediach. Dwie trzecie obawia się manipulacji opinią publiczną za pomocą treści tworzonych przez algorytmy, a prawie 45 proc. uważa, że może to wpłynąć na wzrost ryzyka dezinformacji. Blisko 80 proc. respondentów jest zdania, że wykorzystywanie AI może się przyczynić do zmniejszenia rzetelności i prawdziwości przekazu w mediach. Jednocześnie prawie 96 proc. odbiorców oczekuje, żeby materiały tworzone z wykorzystaniem sztucznej inteligencji były wyraźnie oznaczone.
– Musimy wystąpić razem przeciwko traktowaniu nas jak ludzi, którzy nie zasługują na autentyczne, jakościowe treści. Sprzeciwiamy się temu. Im więcej ludzi taki głos z siebie wydaje, również nie klikając w takie treści, tym szybciej osiągniemy ten cel – ocenia ekspertka. – To, jak dzisiaj działają platformy społecznościowe, jest bardzo niszczące dla społeczności, dialogu i pośrednio również dla procesów demokratycznych, ponieważ one nas polaryzują, wciągają w bańki informacyjne, sprawiają, że coraz bardziej pasywnie przeglądamy treści, nie angażując się w dyskusję. Jeżeli angażujemy się w dyskusję, to jest ona pełna hejtu, sensacji, silnych emocji. W ten sposób nie zbudujemy konsensusu, a konsensus w demokracji jest podstawą jakiejkolwiek decyzji i wyjścia z impasu.