
„PB”: Jak buduje się zasięgi fake newsów? Tak samo jak prawdziwych informacji?
Radek Tadajewski: Zacznijmy od tego, czym jest fake news, bo tutaj jest sporo nieporozumień. Przeczytam fragment: „Na początku Bóg stworzył niebo i ziemię. Ziemia zaś była bezładem i pustkowiem. Ciemność była nad powierzchnią bezmiaru wód, a Duch Boży unosił się nad wodami”. Fake news czy nie? Ciężka sprawa. Zależy, kogo spytasz. Jak spytasz o fragment z Biblii kogoś wierzącego, odpowiedź będzie oczywista. Agnostyk odpowie inaczej, ateista jeszcze inaczej, a jak spytasz wyznawcę islamu, to odniesie się do tego jeszcze inaczej. I to jest sedno sprawy. Stawiam tezę, że samo zajmowanie się treścią wiadomości ma niewielki sens. Nie ma jeszcze takiej technologii, za której pomocą można odkryć prawdę obiektywną. To częsty błąd — ludzie myśląc o nieprawdziwych informacjach, koncentrują się na treści, a to nie ona powinna podlegać badaniu, lecz metoda jej powstania i dystrybucji. Tylko wówczas jesteśmy w stanie skutecznie sprawdzić, jakie były intencje autora, kto taką wiadomość wyprodukował, którymi szlakami ona dotarła i do kogo. Fake newsy towarzyszą nam od okresu zamieszkiwania jaskiń, dziś towarzyszą nam powszechnie ze względu na łatwość produkcji i dystrybucji. Kiedyś informacje rozprzestrzeniały się od góry — od dziennikarzy do biernych odbiorców. Dziś to oni są prosumentami, czyli z jednej strony czytelnikami, a z drugiej produkują treści w mediach społecznościowych.
Poznaj program konferencji online “Media Relations”, 12 kwietnia 2022 >>
Wracając do budowania zasięgów...
Najprościej zasięgi, czyli czytelników, zdobywa się, używając świetnych i naprawdę rozbudowanych narzędzi do kampanii płatnych dostarczanych przez Facebooka czy Google’a. Każdy człowiek na kuli ziemskiej po podpięciu swojej karty płatniczej może wejść do menedżera reklam i zacząć promować dowolną treść. To jest fantastyczne z punktu widzenia demokracji, bo każdy z nas może zabrać głos i może promować to, co ma do przekazania. Do czasu kampanii wyborczej Donalda Trumpa ta swoboda była właściwie niczym nieograniczona. Dopiero kampania z 2016 r. pokazała gigantom technologicznym, które mają może nie monopol, ale pozycję dominującą, jeżeli chodzi o promocję treści, że powinni coś zmienić. I tak się stało. Dziś systemy reklamowe bardzo szybko wychwytują treści o charakterze np. politycznym albo mowę przemocy i nie każdy może je promować. Z drugiej strony wszystkie treści o charakterze politycznym są jawne. Było to widać w ostatniej kampanii prezydenckiej chociażby w Polsce, gdzie każdy mógł ocenić to, jak radził sobie każdy z kandydatów, oglądając publiczne archiwa Facebooka i Google’a, które pokazywały, kto ile wydał, na jaką reklamę, do ilu osób ona dotarła, do kogo była skierowana, kto miał ją przeczytać. Więc tutaj dużo się zmieniło. Te ograniczenia zmieniły trochę zdobywanie zasięgów w przypadku fake newsów, które często dotyczą treści związanych z polityką lub tematami społecznymi.
Farmy trolli istnieją i budują zasięgi czy to miejska legenda?
To ciągle się dzieje, przy czym teraz nie jest to tak skuteczne narzędzie jak jeszcze dekadę temu. Działał tutaj społeczny dowód słuszności — kiedy widzieliśmy, że coś ma wiele lajków czy podań, reakcji wskazujących, że dana treść jest popularna, to z dużo większą łatwością i chęcią przyglądaliśmy się takiej wiadomości i wchodziliśmy w interakcje. Sądziliśmy, że skoro inni tą wiadomością się interesują, lubią ją i dzielą się nią, to my też powinniśmy. Jedna z moich spółek od 2016 r. zajmuje się wykrywaniem dezinformacji i botnetów. Gdybym dziś miał podsumować, jak i do czego używa się farm trolli, to z jednej strony robią to dzieciaki, by sobie zrobić fejm w szkole, a z drugiej influencerzy. To widać, gdy przeanalizuje się ich konta — często legenda została zbudowana na nieprawdziwych. Dostawcy takich usług wciąż istnieją, ale nie jest to już dobry biznes, patrząc na stawki. Dlatego komercyjne farmy trolli pochodzą raczej z państw niezbyt zamożnych, takich jak Indie czy Pakistan, gdzie z jednej strony łatwo osiągnąć skalę, a z drugiej przelew nawet na 10 dolarów coś znaczy. Nie znam żadnych komercyjnych europejskich czy amerykańskich farm trolli. I to jest jedna strona tego pola bitwy, ale jest jeszcze druga. To botnety stworzone przez państwa wprost czy pośrednio. Rosja na przykład zbudowała infrastrukturę do siania dezinformacji. Słyszeliśmy od wielu lat, że wpłynęła na wybory to tu, to tam, że miała duży udział w brexicie itp., itd. W tym celu używane były jednak zupełnie inne narzędzia, o zupełnie innej jakości.
To fragment podcastu „Fake newsy — kto i jak na nich zarabia”. Szukaj Pulsu Biznesu do słuchania w Spotify, Apple Podcast, Podcast Addict lub swojej ulubionej aplikacji.
Naprawdę rosyjskie trolle wpłynęły na wyniki wyborów na Zachodzie?
Nasze analizy prowadzone w latach 2016-18, czyli w czasie tych kluczowych wydarzeń, pokazywały, że takie działania były prowadzone. Zaczynało się to często w mediach rosyjskojęzycznych czy też w specjalnych mediach rosyjskojęzycznych, takich jak chociażby Sputnik, a późnej rozlewało się na media społecznościowe i skala była ogromna. Na taką skalę mogą sobie pozwolić albo bardzo bogate firmy, a z takim przypadkiem się nie spotkałem, albo państwa. W jakim stopniu wpłynęło to na wynik wyborów czy też świadomość odbiorców tych wiadomości, tego nie wie nikt. Biorąc jednak pod uwagę liczbę wiadomości i czas trwania tego procesu, mogę zaryzykować twierdzenie, że w jakimś stopniu na pewno wpłynęło na umysły, decyzje i przekonania odbiorców tych treści.
Można z tym jakoś walczyć?
Słowo „walczyć” tu jest kluczowe. Na jednym ze spotkań w NATO StratCom, w którym braliśmy udział, powtarzałem, że trzeba walczyć, mówiłem o kontrataku. Tylko słowo „walczyć” jest bardzo wrażliwym słowem, jeżeli mówimy o NATO — można go bardzo łatwo podciągnąć pod art. 5 Traktatu Północnoatlantyckiego. Wtedy zacząłem rozumieć, że państwa demokratyczne mają mocno ograniczone możliwości przeciwdziałania takim praktykom. Wyobraźmy sobie, że jakieś państwo stworzyłoby fabrykę trolli podobną do rosyjskiej, koreańskiej, tureckiej czy jakiejkolwiek innej. Wyborcy zareagowaliby na to bardzo źle, bo nasze wartości w krajach demokratycznych na to nie pozwalają. To, co możemy zrobić, to edukować i wykrywać takie działania, nie biorąc pod uwagę treści, tylko kanały dystrybucji. Jeżeli namierzymy kanały przerzutowe i będziemy je monitorować, to bardzo szybko dowiemy się, jaka nowa narracja się pojawiła. Wówczas jesteśmy w stanie zareagować, zaszczepić społeczeństwo, informując o tym, że to nie jest prawda, zbudować jakąś kontrnarrację, zanim ta narracja stanie się popularna. Wracam do sedna sprawy — w krajach demokratycznych nie mamy takich narzędzi, więc musimy liczyć na media. Jeżeli będą rozumiały wagę problemu i miały ochotę, podejmą się obrony przed dezinformacją. Rządy nie mają prostych narzędzi, które pozwoliłyby zatrzymać takie kanały dystrybucji. Teoretycznie mogliby to zrobić cyfrowi giganci — Facebook i Twitter, ale z nie do końca zrozumiałych dla mnie powodów tego nie robią. Rozumiem, że tracą przez to ruch, co godzi w ich interesy, ale jeśli zważy się dobro i zło, to racja krajów demokratycznych wskazuje, że powinien istnieć jakiś kanał komunikacji między organizacjami a międzynarodowymi agendami zajmującymi się dezinformacją jak chociażby NATO StratCom. Ułatwiłoby to szybkie działanie w celu zapobieżenia czy choćby ograniczenia budowania przez złych ludzi takich kanałów o tak potężnych zasięgach i tak długo funkcjonujących.
