W 2015 r. międzynarodowa sieć restauracji Chipotle rzekomo zmagała się z serią incydentów związanych z zatruciami pokarmowymi. Choć niektóre przypadki były prawdziwe, krążące w mediach społecznościowych plotki znacznie wyolbrzymiały skalę problemu. Kłamstwa, półprawdy i przeinaczenia doprowadziły do znacznego spadku liczby klientów oraz wartości akcji firmy. Mimo działań naprawczych Chipotle przez długi czas musiało ciężko pracować, aby odbudować reputację.
Ta sprawa jest doskonałym przykładem na to, jak negatywny wpływ na przedsiębiorstwo może mieć tzw. fabrykowanie prawdy.
— Za sprawą internetu i mediów społecznościowych, przy niewielkich nakładach pieniędzy, energii i czasu zmanipulowane treści rozprzestrzeniają się niczym pożar na prerii, siejąc spustoszenie wizerunkowe i finansowe w firmach — mówi Łukasz Zając, konsultant ds. cyberbezpieczeństwa i komunikacji strategicznej.
Jak przeciwdziałać dezinformacji w biznesie?
Światy połączone
Subtelne oszczerstwa, plotki, pomówienia, a także krzywdzące stereotypy i fakty wyrwane z kontekstu to tylko mały fragment złożonego arsenału oszustów i manipulatorów. Narzędzi tych używają z premedytacją, aby wywołać polaryzację społeczną, wpływać na wyniki wyborów politycznych, szerzyć nienawiść wobec przeciwników oraz podważać zaufanie do instytucji publicznych. Nowoczesne technologie informatyczne potęgują ich destrukcyjny wpływ, nadając im masowy wymiar.
Weź udział w "XVIII Kongresie Business Intelligence", 26 listopada 2024, Warszawa >>
— Jak nigdy wcześniej obecnie wszystko jest ze sobą połączone za pomocą sieci i systemów teleinformatycznych, tworząc tzw. cyberprzestrzeń, która jest wykorzystywana do prowadzenia operacji cybernetycznych i informacyjnych. Może to zagrozić bezpieczeństwu państwa zarówno na poziomie technicznym, jak też informacyjnym — mówi płk dr inż. Rafał Kasprzyk, zastępca dziekana wydziału cybernetyki Wojskowej Akademii Technicznej (WAT).
No dobrze, ale co to ma wspólnego z przeciętnym menedżerem, który jest aż nadto zatroskany o los swojej firmy i dodatkowych zmartwień nie potrzebuje?
— Brutalna prawda jest taka, że jeszcze niedawno dezinformacja dotykała głównie sferę polityczną i społeczną, a teraz stała się codziennością korporacyjnego świata. Żaden szef czy właściciel przedsiębiorstwa nie może powiedzieć, że ten problem go nie dotyczy — uświadamia Łukasz Zając.
Rozpowszechnianie dezinformacji jest o wiele łatwiejsze niż kiedyś. Wraz z tym wzrosło też niebezpieczeństwo. Rozpowszechnianie działa przerażająco dobrze przez emocjonalizację na portalach społecznościowych. W związku z tym zwłaszcza duże platformy potrzebują dobrych zasad, aby powstrzymywać dezinformację.
Polem bitwy stają się systemy przetwarzania danych. Płk Rafał Kasprzyk precyzuje, że nie chodzi tu tylko o ścisłą infrastrukturę teleinformatyczną, ale też o wszystko, co jest z nią połączone, w tym ludzi — nasze mózgi, które realizują procesy poznawcze. Z optymizmem dostrzega, że wiedza o zagrożeniach technicznych sukcesywnie rośnie, a zespoły CERT/CSIRT skutecznie monitorują systemy IT organizacji, w tym sieci, serwery, aplikacje i urządzenia końcowe. Problemem — podkreśla wykładowca WAT — pozostaje jednak zbyt mała świadomość powagi zagrożeń na poziomie informacyjnym.
— Rzeczywistość fizyczna coraz bardziej przenika się z rzeczywistością rozszerzoną i wirtualną, które są tak sprofilowane i atrakcyjne dla użytkowników, że realny świat nie ma szans z nimi rywalizować. Co więcej, granica między tym, co materialne, a tym, co wytworzone przez algorytmy, się zaciera. To zjawisko będzie się pogłębiać, co jest jednym z największych wyzwań współczesnego człowieka — wyjaśnia płk Rafał Kasprzyk.
To gra zespołowa
Coraz bardziej skomplikowane są nie tylko firmowe środowiska informatyczne, ale też metody cyberprzestępców. Korzystają oni zarówno z systemów VR/AR, jak też wielu innych technologii, na czele z generatywną sztuczną inteligencją, która może produkować ogromne ilości fałszywych, lecz wiarygodnie wyglądających treści. Ale głowa do góry — sektor walki z dezinformacją rośnie, tworząc narzędzia, które utrudniają życie cyfrowym manipulatorom, oszustom i kłamcom.
— Z jednej strony współczesne ataki na organizacje są coraz bardziej wyrafinowane i hybrydowe, a drugiej opierają się na powtarzalnych schematach. Decydenci powinni poznać te wzorce, by skuteczniej je identyfikować i odpierać — mówi Łukasz Zając.
Jest wiele technik i taktyk diagnozujących cyberzagrożenia, które oferują różne podejścia do analizy i oceny ryzyka. Do najważniejszych należą NIST Cybersecurity Framework, MITRE ATT&CK, Cyber Kill Chain, Diamond Model, a także CIS Controls oraz STRIDE. Każdy z tych modeli ma swoje unikatowe zastosowanie, pomagając instytucjom biznesowym w zrozumieniu, zarządzaniu i redukcji zagrożeń cybernetycznych. Aby zapewnić kompleksową ochronę, często stosuje się kombinacje kilku z nich.
— Poza modelami ważną sprawą jest zbudowanie w przedsiębiorstwie odpowiedniego zespołu i wyłonienie lidera, który zintegruje dane z dziedziny cyberzagrożeń i operacji informacyjnych. To jakby zbudowanie dodatkowej warstwy ochrony firmy. Nie wystarczy powierzyć tych zadań działowi PR, bezpieczeństwa czy prawnikom. To gra zespołowa — podkreśla Łukasz Zając.
Prawda w ekspresowym tempie niknie pod lawiną kłamstw, absurdów, teorii spiskowych, bezzasadnej krytyki i pomówień. Z pozoru są one błahostką w porównaniu z takimi problemami jak zaburzenie płynności finansowej, przerwa w działalności czy niedobór kadr. W rzeczywistości w obliczu nadmiaru informacji utrudniającego racjonalne myślenie mogą one prowadzić nawet do upadku firm.
Jednym z narzędzi do walki z dezinformacją jest matryca DISARM Framework — otwarty i darmowy system opracowany przez międzynarodową społeczność ekspertów, łączący sprawdzone praktyki cyberbezpieczeństwa (na bazie doświadczeń MITRE ATT&CK). Jest stosowany m.in. w Unii Europejskiej i USA. W Polsce znalazł uznanie m.in. w Ministerstwie Spraw Zagranicznych oraz sieci NASK.
Matryca DISARM Framework diagnozuje różne techniki mające wprowadzać ludzi w błąd i wpływać na ich opinie. Oto najważniejsze z nich:
Astroturfing
Stworzenie iluzji szerokiego poparcia społecznego dla danej sprawy lub poglądów. Polega to na płaceniu osobom lub organizacjom za promowanie określonych treści w mediach społecznościowych lub innych platformach online.
Poniżanie przeciwnika
Niszczenie reputacji przeciwnika przez rozpowszechnianie szkodliwych informacji na jego temat. Może to obejmować fałszywe oskarżenia, manipulacje zdjęciami lub filmami, a nawet groźby.
Dyskredytacja wiarygodnych źródeł
Podważanie zaufania do rzetelnych mediów i dziennikarzy. Metod jest wiele: rozpowszechnianie fałszywych wiadomości na ich temat, oskarżanie o stronniczość lub nawet włamywanie się do redakcyjnych systemów i kradzież danych. Gdy się zdyskredytuje godnych zaufania twórców i nadawców treści, ludzie zaczną szukać informacji z niewiarygodnych źródeł.
Zniekształcanie informacji
Tworzenie fałszywej narracji za pomocą zdjęć, filmów, cytatów lub nawet całych artykułów. Cel to wprowadzenie ludzi w błąd i skłonienie ich do wyciągnięcia błędnych wniosków.
Rozpraszanie uwagi
Odwracanie uwagi od ważnych wydarzeń lub problemów przez wprowadzanie nowych tematów lub nagłaśnianie skandali. Manipulatorzy mogą to robić przez rozpowszechnianie fałszywych wiadomości, podżeganie do kłótni online lub atakowanie znanych osób.
Zastraszanie
Zmuszenie ludzi do milczenia i uniemożliwienie im wyrażania sprzeciwu poprzez groźby przemocy, nękanie online lub ataki hakerskie.
Wykorzystywanie prywatnych dokumentów
Uzyskiwanie i upublicznianie prywatnych dokumentów, takich jak mejle, listy, a nawet poufne pliki, aby zdyskredytować kogoś lub coś.
Zmiana kontekstu
Prezentowanie wydarzenia w oderwaniu od kontekstu, aby zmienić jego znaczenie. Manipulatorzy mogą to robić przez pomijanie ważnych faktów, podkreślanie błahostek czy przekręcanie chronologii wydarzeń.
Tworzenie hashtagów
Tworzenie i promowanie hashtagów związanych z daną sprawą lub wydarzeniem. Celem jest zwiększenie widoczności sprawy w mediach społecznościowych i skłonienie ludzi do angażowania się w nią.
Ankiety internetowe
Tworzenie fałszywych ankiet online lub manipulowanie wynikami istniejących ankiet. Chodzi o stworzenie wrażenia, że dana opinia jest powszechnie akceptowana.
Wykorzystywanie luk w danych
Wykorzystywanie luk w algorytmach wyszukiwarek do rozpowszechniania fałszywych informacji. Manipulacja polega na tworzeniu fałszywych stron internetowych lub artykułów, które będą wyświetlane wysoko w wynikach wyszukiwania.