Trolle Putina kontra Europa. Jak bronić się przed propagandą Kremla?

Eugeniusz TwarógEugeniusz Twaróg
opublikowano: 2025-11-20 17:08

Kreml wydaje na kampanie dezinformacyjne 2 mld EUR rocznie. Europa, żeby się chronić, tworzy tarczę demokracji — 30 stron szczytnych deklaracji. Jak bronić się przed dywersją słowną, manipulacją, oszustwem i szkodliwą propagandą Rosji? Odpowiedź jest złożona.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Po wtargnięciu rosyjskich dronów w polską przestrzeń powietrzną we wrześniu analitycy Res Futura odnotowali ponad 170 tys. postów opublikowanych w ciągu 8 godzin od incydentu w polskich social mediach. Wiele szerzyło narrację, że „to ukraińska prowokacja” lub działania pod „fałszywą flagą Polski/NATO”. Wpisy pochodziły z anonimowych najczęściej kont internetowych utworzonych niedawno albo z profili, które w przeszłości były wykorzystywane do negowania koronawirusa. Wśród celów operacji psychologicznej uruchomionej w związku ze sprawą dronów eksperci Res Futura wymienili:

— osłabienie zaufania obywateli do własnego rządu, wojska i instytucji bezpieczeństwa

— wytworzenie wrażenia chaosu i braku kontroli nad przestrzenią powietrzną oraz informacyjną

— wbicie klina między Polskę a Ukrainę, by osłabić sojusz i solidarność wobec rosyjskiej agresji.

Przykład najnowszej kampanii dezinformacyjne towarzyszącej ujawnieniu sabotażu na polskich kolejach 17 listopada pokazuje, że rosyjska ofensywa w infoprzestrzeni przynosi efekty. „Rząd straszy sabotażem i zrzuca winę na Rosję, żeby ukryć, że to Ukraina gra przeciwko Polsce” — ten wpis dobrze oddaje nastawienie Polaków w social mediach do sprawy. Eksperci Res Futura podkreślają, że 65 proc. internautów nie kupuje wersji o sabotażu — „podważa tezę o rosyjskiej inspiracji i wskazuje Ukrainę lub rząd jako sprawców/manipulatorów”.

Dezinformacja — rosyjski wynalazek

Po raz pierwszy termin dezinformacja pojawił się w brytyjskim czasopiśmie „The Whitehall Gazette&St. James’s Review” w 1926 r. i opisywał metody stosowane przez tajne służby Rosji Sowieckiej do manipulowania opinią publiczną. Wprowadzanie w błąd, zwodzenie są zresztą wpisane w historię człowieka od zarania dziejów. Chiński strateg Sun Zi pisał w „O sztuce wojennej” z VI wieku: „wszelka wojna opiera się na oszustwie”. Jednak dopiero po upowszechnieniu internetu, nowoczesnych technik komunikacji, a przede wszystkim social mediów dezinformacja weszła do języka codziennego, choć różnie rozumiana. Po wyborach w 2016 r. w USA popularny stał się termin information pollution — informacji opartych na półprawdach. Jedną z wielu negatywnych konsekwencji covidu była infodemia — zjawisko rozpowszechniania nieprawdziwych informacji rozprzestrzeniających się z szybkością wirusa. Wojna w Ukrainie natomiast przeniosła informację w strefę infowar. W październikowym numerze magazyn „Nature” opublikował artykuł „Złożoność dezinformacji wykracza poza analogie do wirusa i wojny”. Poinformował w nim — podając za Google Scholar — o 69 300 pracach naukowych, w których został użyty termin „wojna informacyjna”.

Czarnym bohaterem strefy infowar są Chiny, ale przede wszystkim Rosja. Komisja Europejska szacuje wydatki Kremla na sianie dezinformacji poza granicami kraju na 2-3 mld EUR rocznie. Platforma EUvsDisinfo — część unijnego projektu East StratCom Task Force (ESTF) — od początku inwazji na Ukrainę do końca 2024 r. zebrała ponad 18 tys. udokumentowanych przypadków prokremlowskiej dezinformacji. ESTF zostały utworzone w 2015 r. przez Radę Europy w celu przeciwdziałania rosyjskiej propagandzie. EUvsDisinfo publikuje „Disinformation Review” — cotygodniowy przegląd trendów w dezinformacji. Warto się z nim zapoznać, ponieważ pokazuje, jak aktywne i kreatywne są kremlowskie trolle w wymyślaniu nieprawdopodobnych fejk newsów.

Tarcza przeciw manipulacjom Moskwy

Od wybuchu pełnoskalowej wojny w Ukrainie Komisja Europejska dużo mówi o konieczności walki z dezinformacją, traktując infowar jako element wojny hybrydowej. Dezinformacja stanowiła ważny wątek niedawnego wystąpienia Ursuli von der Leyen o stanie państwa. Pokłosiem przemówienia jest Tarcza Obrony Demokracji — inicjatywa ogłoszona tydzień temu w Brukseli. Jest to plan działania mający na celu lepszą ochronę demokracji i procesów wyborczych przed zagraniczną ingerencją i manipulacją informacjami, w tym pochodzącymi z samej UE. Przeciwnikiem i zagrożeniem dla europejskiego porządku jest Rosja i jej „państwowe i niepaństwowe podmioty” (proxies), które od ponad dekady prowadzą internetowe kampanie destabilizacyjne w całej UE.

Centralnym elementem Tarczy Obrony Demokracji jest utworzenie Europejskiego Centrum Odporności Demokratycznej. Jego celem będzie identyfikacja operacji destabilizacyjnych, gromadzenie wiedzy fachowej państw członkowskich oraz koordynacja prac sieci podmiotów fact checkingu. Niestety, jest to w zasadzie jedyny konkret w 30-stronicowym dokumencie. Składa się on głównie z deklaracji. Pewne nadzieje budzi zapowiedź stworzenia procedur reagowania na działania dezinformacyjne opartych na dyrektywie o usługach cyfrowych.

Wszystko to pieśń przyszłości, tymczasem Rosja nasila kampanie dezinformacyjne. Przykłady ingerencji w procesy demokratyczne można mnożyć: brexit, referendum dotyczące niepodległości Katalonii, niezwykle brutalne akcje podczas wyborów w Rumunii (Trybunał Konstytucyjny anulował wynik głosowania ze względu na dowody zaangażowania rosyjskich służb po stronie prawicowego kandydata) czy podczas wyborów w Mołdawii, które miały zadecydować o europejskim kierunku rozwoju kraju.

Algorytmy big techów w służbie dezinformacji

Problem Komisji Europejskiej czy całej zjednoczonej Europy polega na tym, że o ile źródłem zagrożenia dezinformacją jest Moskwa, to nośniki propagacji szkodliwych treści znajdują się pod jurysdykcją amerykańską — Meta (Facebook, Instagram) oraz X, a także chińską — TikTok. To tutaj powstają setki tysięcy fejkowych kont generujących treści podchwytywane i podbijane przez algorytmy platform społecznościowych. Bruksela ma ograniczony wpływ na światowe big techy, które żyją swoim życiem. NATO StratCom COE (niezależna organizacja wspierająca sojusz) przeprowadza cykliczne badania „Social Media Manipulation”. Wnioski z najnowszego eksperymentu: w poprzednim badaniu platformy usuwały średnio 25 proc. wykrytych kont wykorzystywanych do manipulacji, w najnowszej edycji wskaźnik spadł do 16 proc. Facebook, YouTube, Instagram i TikTok nie usunęły nawet 10 proc. fałszywych kont w ciągu czterech tygodni monitoringu. Twitter/X spadł z 55 do 26 proc. skuteczności usuwania.

Komisja Europejska ma co prawda w ręku dość silne narzędzie do przymuszania big techów do aktywniejszej walki ze scamami i dezinformacją — dyrektywę o usługach cyfrowych, ale oszczędnie sięga po ten bacik, obawiając się reakcji Donalda Trumpa.

Ile kosztują nieprawdziwe newsy

Dezinformacja nie służyła tylko do wpływania na wybory i podważania autorytetu osób publicznych, stała się też potężną bronią w walce z globalnymi firmami. Według raportu World Economic Forum z czerwca tego roku w ciągu najbliższych dwóch lat dezinformacja będzie największym zagrożeniem dla przedsiębiorczości na świecie. Czasem są to spektakularne akcje — jak np. zhakowanie konta Associated Press na Twitterze w 2013 r. wykorzystane następnie do publikacji fałszywej informacji o dwóch eksplozjach w Białym Domu oraz o tym, że Barack Obama, ówczesny prezydent, został ranny. Agencja Reuters podała, że ​​w ciągu trzech minut fałszywy tweet doprowadził do spadku wartości indeksu S&P 500 o 136 mld USD.

W ostatnich 10 latach odnotowano kilka tego typu dezinformacyjnych akcji wymierzonych w znane publiczne spółki we Francji (Vinci), Wielkiej Brytanii (Tesco) i USA (Avon), których celem była manipulacja kursem giełdowym.

World Economic Forum szacuje, że roczne globalne straty spowodowane przez fejk newsy wpływające na ceny akcji sięgają 39 mld USD, a 17 mld USD to koszt błędnych decyzji inwestycyjnych podjętych na podstawie nieprawdziwych danych.

Fałszywe oceny uderzają w biznesy firm

Potężne straty generują ataki obliczone na podważanie zaufania do firm. Z badania firmy Trustpilot z 2020 r. wynika, że 89 proc. przychodów e-commerce na świecie zapewniają recenzje w internecie. Dla 49 proc. konsumentów pozytywna opinia jest jednym z najważniejszych czynników decydujących o zakupie. Tymczasem fałszywe recenzje stają się coraz większym problemem dla firm. Według badania firmy Cavazos z 2021 r. kosztują one biznes na całym świecie 152 mld USD. Obok nieprawdziwych ocen w sieci pojawiają się ratingi zupełnie fejkowych firm zazwyczaj powiązanych z cyberoszustwami. Trustpilot usunął w ubiegłym roku 7,4 proc. recenzji, ponieważ odnosiły się do scamerskich biznesów. W 2023 r. odsetek fejkowych ocen stanowił 6,1 proc.

Obrazowe metafory mogą wprowadzać w błąd

Magazyn „Nature” uważa, że posługiwanie się porównaniami w odniesieniu do dezinformacji, jak infowojna, infowirus itp., może prowadzić do zaciemnienia obrazu niebezpiecznego zjawiska. Metafory nadają kształt strategiom, określają sposób mówienia o problemie, wpływają na to, co robimy, żeby się chronić. Jeżeli używamy analogii do pandemii, wirusa, to kontekst choroby rozprzestrzeniającej się w sposób niekontrolowany nie oddaje mechanizmu celowej dystrybucji szkodliwych treści. Infowojna nadaje militarny charakter zjawisku, zmusza do mobilizacji, co może prowadzić do nadmiernego sceptycyzmu i podejrzliwości. Autorzy „Nature” uważają, że w walce w dezinformacją skuteczne strategie muszą być wielopoziomowe:

— na poziomie jednostek: edukacja medialna, wzmocnienie krytycznego myślenia

— na poziomie grup: budowanie kultury sprawdzania, norm dzielenia się ostrożnie

— na poziomie platform internetowych: algorytmy, które nie premiują wyłącznie angażującej, ale często dezinformującej treści

— na poziomie systemu: regulacje, niezależne media, monitoring zjawisk mis- czy dezinformacji.