Dezinformacja jako element wojny hybrydowej – jak powstaje i jak ją rozpoznać?

Partnerem publikacji jest PZU
opublikowano: 2025-11-20 20:00

Dezinformacja to realne zagrożenie dla odporności społecznej i bezpieczeństwa. Algorytmy mediów społecznościowych ją wzmacniają. Odkryj, jak skutecznie filtrować informacje i chronić się przed manipulacją.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Wojna w Ukrainie zasadniczo przeobraziła europejskie podejście do kwestii bezpieczeństwa. W obliczu nieustannego zagrożenia ze strony Rosji wobec państw sąsiednich oraz podważania dotychczasowego porządku międzynarodowego, kluczowego znaczenia nabrała koncepcja obrony totalnej, czyli strategiczne połączenie potencjału militarnego z odpornością społeczeństwa obywatelskiego. To właśnie ona stanowi fundament ochrony demokratycznych państw w Europie.

Wzmacnianie odporności społecznej musi obejmować wiele obszarów naszego życia, zarówno w wymiarze indywidualnym, jak i wspólnotowym. W obliczu współczesnych zagrożeń, takich jak dezinformacja, kryzysy polityczne, konflikty zbrojne czy katastrofy naturalne kluczowe staje się budowanie świadomego, zaangażowanego i przygotowanego społeczeństwa. Odporność społeczna nie jest jedynie kwestią infrastruktury czy procedur – to przede wszystkim zdolność obywateli do reagowania, współdziałania i obrony wartości demokratycznych. To także zdolność samodzielnego myślenia krytycznego, rozpoznawania dezinformacji, jak również świadomego i sprawnego poruszania się po świecie współczesnych technologii.

Dezinformacja – realne zagrożenie

Dezinformacją jest świadome rozpowszechnianie fałszywych informacji z zamiarem wprowadzenia odbiorców w błąd. To już nie tylko proste fake newsy, lecz realne i powszechne zagrożenie. Potwierdzają to wyniki raportu Fundacji Digital Poland „Dezinformacja oczami Polaków 2024”: 81 proc. badanych uważa, że w ciągu ostatniej dekady skala rozpowszechnianej w internecie dezinformacji wzrosła, a 9 na 10 osób udostępniło dalej przynajmniej jedną z badanych fałszywych informacji.

Dezinformacja nie jest niczym nowym, towarzyszy przecież ludzkości od wieków. Teraz jednak sytuacja jest o wiele trudniejsza, ponieważ każdego dnia dociera do nas zalew informacji, do czego nasze umysły nie są do przystosowane. W ciągu jednego dnia dostajemy tyle informacji, ile nasi przodkowie w ciągu całego życia. Mnogość przekazów sprawia, że wiele z nich odbieramy nieświadomie, a dużej części nie jesteśmy w stanie zweryfikować, co sprawia, że towarzyszy nam narastająca niepewność. To świetne warunki do szerzenia dezinformacji.

Stojący za dezinformacją zwykle mają jasno określony cel, np. manipulowanie opinią społeczną, czy wywołanie paniki. Poprzez rozpowszechnianie fałszywych informacji mogą też wpływać na podważanie zaufania do instytucji, wywoływanie chaosu, czy promowanie określonych zachowań. Dlatego niezwykle istotne jest, aby pokazywać, że z dezinformacją możemy realnie walczyć i uczyć społeczeństwo jak to robić. W obliczu dynamicznie zmieniającego się krajobrazu informacyjnego, umiejętność weryfikacji kluczowych informacji staje się nie tylko ważna, ale wręcz niezbędna.

Wpływ algorytmów mediów społecznościowych

Na rozpowszechnienie zjawiska dezinformacji, w ostatniej dekadzie, bez wątpienia mają wpływ media społecznościowe. Użytkownicy, za sprawą takich funkcji jak udostępnianie, komentowanie i reagowanie, przestają być wyłącznie odbiorcami informacji – stają się jej nadawcami. Ponieważ można to zrobić bez wysiłku i w zaledwie w ułamku sekundy media społecznościowe stały się przestrzenią sprzyjającą szybkiemu rozprzestrzenianiu się informacji fałszywych lub zmanipulowanych. I choć w przypadku zwykłych użytkowników udostępnienie fake newsa jest zazwyczaj nieintencjonalne (ang. misinformation), to istnieją podmioty wykorzystujące podatności platform do celowego dezinformowania odbiorców.

Informacji publikowanych w sieci jest tak wiele, że pewna ich selekcja wydaje się konieczna. Jednak sposób filtrowania treści nie pozostaje bez wpływu na osoby korzystające z danej usługi. W tej chwili sposób dobierania treści służy najczęściej przede wszystkim utrzymaniu uwagi użytkownika, aby jak najdłużej pozostał na platformie. W efekcie może mu być prezentowanych więcej reklam, co przekłada się na wymierny zysk firmy. Idąc dalej, im więcej przebywamy w danym medium społecznościowym, tym więcej śladów swojej aktywności tam pozostawiamy. Dzięki nim algorytm podsuwa nam coraz bardziej interesujące treści, które jeszcze skuteczniej przykuwają naszą uwagę. Koło się zamyka.

Ze znaczenia mechanizmu selekcjonowania treści zdamy sobie sprawę wówczas, gdy uświadomimy sobie, że o tym, co zobaczymy na danej platformie, decyduje przede wszystkim algorytm. Jako użytkownicy mamy wprawdzie możliwość przeszukiwania zasobów danego medium społecznościowego, ale zdecydowanie częściej polegamy na wyborze dokonującym się automatycznie. Dowodem na to jest nieprzerwane – i czasem bezmyślne – scrollowanie aktualności w poszukiwaniu nowych wrażeń. Te dostarczają nam kolejnych porcji dopaminy, czyli neuroprzekaźnika silnie związanego z układem nagrody, przez co spędzamy w aplikacji jeszcze więcej czasu.

Automatyczny dobór treści ma czasem bardzo poważne skutki. Z badania przeprowadzonego przez Centrum Przeciwdziałania Nienawiści w Sieci wynika, że nastolatki korzystające z TikToka trafiają na treści szkodliwe dla zdrowia psychicznego w ciągu zaledwie kilku pierwszych minut korzystania z serwisu. Podobny eksperyment, przeprowadzony w 2022 r. przez pracowników portalu NewsGuard, dowiódł, że równie łatwo jest trafić na informacje wprowadzające w błąd*.

Bańka filtrująca i komora echa

Gdy mowa o dezinformacji, często spotykamy się z terminem „bańka informacyjna”, który wskazuje na to, że dana osoba lub grupa osób nie ma dostępu do części informacji pojawiających się w mediach tradycyjnych i społecznościowych. Żeby lepiej zrozumieć to zjawisko, warto poznać dwa inne, bardziej precyzyjne, pojęcia.

Bańka filtrująca jest konsekwencją automatycznych procesów filtrowania treści w wyszukiwarkach internetowych i w mediach społecznościowych. Polega na wyświetlaniu użytkownikowi tylko niektórych treści spośród wszystkich dostępnych. Decyzje podejmowane są na podstawie algorytmów biorących pod uwagę wiele zmiennych (m.in. lokalizację, historię wyszukiwania i przeglądania) oraz interakcje (np. polubienia, komentarze i udostępnienia). Ilość treści publikowanych każdego dnia w sieci i na każdej z platform społecznościowych z osobna nie pozwala na zapoznanie się z nimi wszystkimi, stąd niezbędna jest selekcja, nazywana personalizacją. Jednak ze względu na ograniczone możliwości samodzielnego decydowania użytkowników o wyświetlanych treściach, możemy w efekcie nie trafić na materiały, które poszerzyłyby nasze horyzonty, lub pozwoliłyby skonfrontować dotychczasowe przekonania z innymi punktami widzenia.

Z kolei komora echa opisuje sytuację, w której osoba utwierdza się w dotychczasowych racjach w wyniku wielokrotnego powtarzania tych samych treści w zamkniętym gronie osób. Może do tego dochodzić np. w zamkniętych grupach w mediach społecznościowych. Co więcej, takie odseparowanie sprzyja ograniczeniu dostępu do odmiennych poglądów. W ten sposób możemy odnieść mylne wrażenie, że opinie, z jakimi się spotykamy, odzwierciedlają poglądy reszty społeczeństwa, podczas gdy w rzeczywistości mogą być całkowicie odmienne.

Działania agentów dezinformacji i ich skutki

Te mechanizmy wykorzystują zorganizowane grupy dezinformacyjne, których celem jest osłabienie zaufania do instytucji, ekspertów i mediów oraz pogłębianie podziałów społecznych. Wykorzystują one fałszywe konta, manipulowane treści i emocje, takie jak gniew czy lęk, często inspirowane z zewnątrz w interesie państw dążących do destabilizacji. Media społecznościowe sprzyjają też rozwojowi teorii spiskowych, które dzięki algorytmom i szybkiemu rozpowszechnianiu prowadzą do erozji autorytetów i zaniku kryteriów odróżniania faktów od opinii. W efekcie społeczeństwo staje się podatne na manipulację, co zagraża między innymi stabilności systemu opartego na zaufaniu.

Postaw na czysty przekaz

W tym roku Fundacja PZU ruszyła z kampanią edukacyjno-społeczną „Czysty przekaz”, aby wraz z licznymi organizacjami partnerskimi i mediami starać się uwrażliwić społeczeństwo na ten problem. W ramach akcji pokazujemy, jak nie wpaść w pułapkę fałszywych informacji zagrażających naszemu zdrowiu, relacjom i społecznej spójności. Szeroko zakrojona kampania obejmuje działania społeczne i edukacyjne, w tym warsztaty w szkołach, ponieważ dziś dzieci i młodzież stykają się z dezinformacją bardzo wcześnie.

Fundacja PZU zaleca trzy podstawowe działania, które mogą chronić przed rozpowszechnianiem dezinformacji:

- filtruj informacje,

- sprawdzaj ich źródła,

- nie masz pewności, nie udostępniaj.

Proste zasady rozpoznania dezinformacji
  1. Podejrzanie brzmiący nagłówek.
  2. Brak wiarygodnego źródła.
  3. Brak daty publikacji.
  4. Brak dowodów lub odniesień do faktów.
  5. Zdjęcie lub filmy wyrwane z kontekstu.
  6. Jednostronny przekaz.
  7. Powoływanie się na fałszywych ekspertów.
  8. Podejrzane adresy stron internetowych.
  9. Brak zgodności z innymi źródłami.
  10. Przesadne emocje w komentarzach.

Źródło: Fundacja Dbam o Mój Zasięg

Więcej materiałów nt. dezinformacji dostępnych jest na stronie czystyprzekaz.pl.

* https://demagog.org.pl/analizy_i_raporty/tiktok-i-dezinformacja-na-fake-newsa-natkniesz-sie-mniej-niz-w-godzine/