Bitwa o prawdę. Jak wygrać z dezinformacją?

Mirosław KonkelMirosław Konkel
opublikowano: 2024-06-13 11:22

Manipulatorzy i oszuści otrzymali od technologii informatycznych klucze do królestwa, ale to nie oznacza, że jesteś bezbronny.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

W 2015 r. międzynarodowa sieć restauracji Chipotle rzekomo zmagała się z serią incydentów związanych z zatruciami pokarmowymi. Choć niektóre przypadki były prawdziwe, krążące w mediach społecznościowych plotki znacznie wyolbrzymiały skalę problemu. Kłamstwa, półprawdy i przeinaczenia doprowadziły do znacznego spadku liczby klientów oraz wartości akcji firmy. Mimo działań naprawczych Chipotle przez długi czas musiało ciężko pracować, aby odbudować reputację.

Ta sprawa jest doskonałym przykładem na to, jak negatywny wpływ na przedsiębiorstwo może mieć tzw. fabrykowanie prawdy.

— Za sprawą internetu i mediów społecznościowych, przy niewielkich nakładach pieniędzy, energii i czasu zmanipulowane treści rozprzestrzeniają się niczym pożar na prerii, siejąc spustoszenie wizerunkowe i finansowe w firmach — mówi Łukasz Zając, konsultant ds. cyberbezpieczeństwa i komunikacji strategicznej.

Jak przeciwdziałać dezinformacji w biznesie?

Światy połączone

Subtelne oszczerstwa, plotki, pomówienia, a także krzywdzące stereotypy i fakty wyrwane z kontekstu to tylko mały fragment złożonego arsenału oszustów i manipulatorów. Narzędzi tych używają z premedytacją, aby wywołać polaryzację społeczną, wpływać na wyniki wyborów politycznych, szerzyć nienawiść wobec przeciwników oraz podważać zaufanie do instytucji publicznych. Nowoczesne technologie informatyczne potęgują ich destrukcyjny wpływ, nadając im masowy wymiar.

Weź udział w "XVIII Kongresie Business Intelligence", 26 listopada 2024, Warszawa >>

— Jak nigdy wcześniej obecnie wszystko jest ze sobą połączone za pomocą sieci i systemów teleinformatycznych, tworząc tzw. cyberprzestrzeń, która jest wykorzystywana do prowadzenia operacji cybernetycznych i informacyjnych. Może to zagrozić bezpieczeństwu państwa zarówno na poziomie technicznym, jak też informacyjnym — mówi płk dr inż. Rafał Kasprzyk, zastępca dziekana wydziału cybernetyki Wojskowej Akademii Technicznej (WAT).

No dobrze, ale co to ma wspólnego z przeciętnym menedżerem, który jest aż nadto zatroskany o los swojej firmy i dodatkowych zmartwień nie potrzebuje?

— Brutalna prawda jest taka, że jeszcze niedawno dezinformacja dotykała głównie sferę polityczną i społeczną, a teraz stała się codziennością korporacyjnego świata. Żaden szef czy właściciel przedsiębiorstwa nie może powiedzieć, że ten problem go nie dotyczy — uświadamia Łukasz Zając.

Sociale do regulacji

Rozpowszechnianie dezinformacji jest o wiele łatwiejsze niż kiedyś. Wraz z tym wzrosło też niebezpieczeństwo. Rozpowszechnianie działa przerażająco dobrze przez emocjonalizację na portalach społecznościowych. W związku z tym zwłaszcza duże platformy potrzebują dobrych zasad, aby powstrzymywać dezinformację.

Josef Holnburger
niemiecki politolog

Polem bitwy stają się systemy przetwarzania danych. Płk Rafał Kasprzyk precyzuje, że nie chodzi tu tylko o ścisłą infrastrukturę teleinformatyczną, ale też o wszystko, co jest z nią połączone, w tym ludzi — nasze mózgi, które realizują procesy poznawcze. Z optymizmem dostrzega, że wiedza o zagrożeniach technicznych sukcesywnie rośnie, a zespoły CERT/CSIRT skutecznie monitorują systemy IT organizacji, w tym sieci, serwery, aplikacje i urządzenia końcowe. Problemem — podkreśla wykładowca WAT — pozostaje jednak zbyt mała świadomość powagi zagrożeń na poziomie informacyjnym.

— Rzeczywistość fizyczna coraz bardziej przenika się z rzeczywistością rozszerzoną i wirtualną, które są tak sprofilowane i atrakcyjne dla użytkowników, że realny świat nie ma szans z nimi rywalizować. Co więcej, granica między tym, co materialne, a tym, co wytworzone przez algorytmy, się zaciera. To zjawisko będzie się pogłębiać, co jest jednym z największych wyzwań współczesnego człowieka — wyjaśnia płk Rafał Kasprzyk.

To gra zespołowa

Coraz bardziej skomplikowane są nie tylko firmowe środowiska informatyczne, ale też metody cyberprzestępców. Korzystają oni zarówno z systemów VR/AR, jak też wielu innych technologii, na czele z generatywną sztuczną inteligencją, która może produkować ogromne ilości fałszywych, lecz wiarygodnie wyglądających treści. Ale głowa do góry — sektor walki z dezinformacją rośnie, tworząc narzędzia, które utrudniają życie cyfrowym manipulatorom, oszustom i kłamcom.

— Z jednej strony współczesne ataki na organizacje są coraz bardziej wyrafinowane i hybrydowe, a drugiej opierają się na powtarzalnych schematach. Decydenci powinni poznać te wzorce, by skuteczniej je identyfikować i odpierać — mówi Łukasz Zając.

Jest wiele technik i taktyk diagnozujących cyberzagrożenia, które oferują różne podejścia do analizy i oceny ryzyka. Do najważniejszych należą NIST Cybersecurity Framework, MITRE ATT&CK, Cyber Kill Chain, Diamond Model, a także CIS Controls oraz STRIDE. Każdy z tych modeli ma swoje unikatowe zastosowanie, pomagając instytucjom biznesowym w zrozumieniu, zarządzaniu i redukcji zagrożeń cybernetycznych. Aby zapewnić kompleksową ochronę, często stosuje się kombinacje kilku z nich.

— Poza modelami ważną sprawą jest zbudowanie w przedsiębiorstwie odpowiedniego zespołu i wyłonienie lidera, który zintegruje dane z dziedziny cyberzagrożeń i operacji informacyjnych. To jakby zbudowanie dodatkowej warstwy ochrony firmy. Nie wystarczy powierzyć tych zadań działowi PR, bezpieczeństwa czy prawnikom. To gra zespołowa — podkreśla Łukasz Zając.

Prawda w ekspresowym tempie niknie pod lawiną kłamstw, absurdów, teorii spiskowych, bezzasadnej krytyki i pomówień. Z pozoru są one błahostką w porównaniu z takimi problemami jak zaburzenie płynności finansowej, przerwa w działalności czy niedobór kadr. W rzeczywistości w obliczu nadmiaru informacji utrudniającego racjonalne myślenie mogą one prowadzić nawet do upadku firm.

Skuteczne narzędzie w walce z kłamstwem

Jednym z narzędzi do walki z dezinformacją jest matryca DISARM Framework — otwarty i darmowy system opracowany przez międzynarodową społeczność ekspertów, łączący sprawdzone praktyki cyberbezpieczeństwa (na bazie doświadczeń MITRE ATT&CK). Jest stosowany m.in. w Unii Europejskiej i USA. W Polsce znalazł uznanie m.in. w Ministerstwie Spraw Zagranicznych oraz sieci NASK.

Matryca DISARM Framework diagnozuje różne techniki mające wprowadzać ludzi w błąd i wpływać na ich opinie. Oto najważniejsze z nich:

Astroturfing

Stworzenie iluzji szerokiego poparcia społecznego dla danej sprawy lub poglądów. Polega to na płaceniu osobom lub organizacjom za promowanie określonych treści w mediach społecznościowych lub innych platformach online.

Poniżanie przeciwnika

Niszczenie reputacji przeciwnika przez rozpowszechnianie szkodliwych informacji na jego temat. Może to obejmować fałszywe oskarżenia, manipulacje zdjęciami lub filmami, a nawet groźby.

Dyskredytacja wiarygodnych źródeł

Podważanie zaufania do rzetelnych mediów i dziennikarzy. Metod jest wiele: rozpowszechnianie fałszywych wiadomości na ich temat, oskarżanie o stronniczość lub nawet włamywanie się do redakcyjnych systemów i kradzież danych. Gdy się zdyskredytuje godnych zaufania twórców i nadawców treści, ludzie zaczną szukać informacji z niewiarygodnych źródeł.

Zniekształcanie informacji

Tworzenie fałszywej narracji za pomocą zdjęć, filmów, cytatów lub nawet całych artykułów. Cel to wprowadzenie ludzi w błąd i skłonienie ich do wyciągnięcia błędnych wniosków.

Rozpraszanie uwagi

Odwracanie uwagi od ważnych wydarzeń lub problemów przez wprowadzanie nowych tematów lub nagłaśnianie skandali. Manipulatorzy mogą to robić przez rozpowszechnianie fałszywych wiadomości, podżeganie do kłótni online lub atakowanie znanych osób.

Zastraszanie

Zmuszenie ludzi do milczenia i uniemożliwienie im wyrażania sprzeciwu poprzez groźby przemocy, nękanie online lub ataki hakerskie.

Wykorzystywanie prywatnych dokumentów

Uzyskiwanie i upublicznianie prywatnych dokumentów, takich jak mejle, listy, a nawet poufne pliki, aby zdyskredytować kogoś lub coś.

Zmiana kontekstu

Prezentowanie wydarzenia w oderwaniu od kontekstu, aby zmienić jego znaczenie. Manipulatorzy mogą to robić przez pomijanie ważnych faktów, podkreślanie błahostek czy przekręcanie chronologii wydarzeń.

Tworzenie hashtagów

Tworzenie i promowanie hashtagów związanych z daną sprawą lub wydarzeniem. Celem jest zwiększenie widoczności sprawy w mediach społecznościowych i skłonienie ludzi do angażowania się w nią.

Ankiety internetowe

Tworzenie fałszywych ankiet online lub manipulowanie wynikami istniejących ankiet. Chodzi o stworzenie wrażenia, że dana opinia jest powszechnie akceptowana.

Wykorzystywanie luk w danych

Wykorzystywanie luk w algorytmach wyszukiwarek do rozpowszechniania fałszywych informacji. Manipulacja polega na tworzeniu fałszywych stron internetowych lub artykułów, które będą wyświetlane wysoko w wynikach wyszukiwania.