AI zwalcza i karmi fake newsy

opublikowano: 12-03-2019, 22:00

Konfabulować może nie tylko człowiek, lecz także „maszyna”. Ze szkodą dla ludzi i biznesu

Już dwa lata temu aż 80 proc. Polaków ankietowanych na potrzeby badania Payback Opinion Poll deklarowało, że miało osobiście styczność z fake newsami, czyli nieprawdziwymi wiadomościami. Najwięcej tego typu przekłamań pojawiło się na portalach internetowych i w serwisach społecznościowych. Zjawisko nabiera na sile do tego stopnia, że walkę z nim zapowiedziała już Komisja Europejska, sugerując potrzebę wprowadzenia samoregulacji e-platform we współpracy m.in. z dostawcami usług informacyjnych.

W walce z fake newsami biznes musi nauczyć się skutecznie lokalizować
nieprawdziwe treści — podkreśla Patryk Choroś, dyrektor ds. rozwoju biznesu w
SAS Polska.
Zobacz więcej

TECHNOLOGICZNA PRAWDA:

W walce z fake newsami biznes musi nauczyć się skutecznie lokalizować nieprawdziwe treści — podkreśla Patryk Choroś, dyrektor ds. rozwoju biznesu w SAS Polska. FOT. WM

Na krajowym gruncie ideę poparła pół roku temu m.in. Konfederacja Lewiatan, zwracając przy okazji uwagę na fakt, że działania przeciw rozpowszechnianiu fałszywych informacji w Europie podejmowane są już także na poziomie poszczególnych państw. Rząd czeski powołał jednostkę odpowiedzialną za przeciwdziałanie „domniemanej ingerencji ze strony państwa trzeciego przed wyborami”, Niemcy natomiast wymagają usuwania informacji, gdy „zawierają one treści niezgodne z prawem”. Wychwytywanie nieprawdziwych przekazów nie jest jednak łatwe i — ze względu na ogrom treści w sieci — wymaga zaprzęgnięcia rozwiązań technologicznych, tym bardziej, że również maszyny mogą być generatorami fake newsów i działać na szkodę osób prywatnych, instytucji i firm. Przykład: generator stworzony przez OpenAI, organizację początkowo wspieraną przez Elona Muska. Ostatecznie generator nie został upubliczniony, bo… wiarygodność tworzonych przez niego treści mogłaby być niebezpieczna.

Skrzywiony przekaz

Szacunki wskazują, że obecnie blisko 40 proc. ruchu w internecie jest inicjowane przez boty podszywające się pod ludzi. Z tego powodu, jak zaznacza Patryk Choroś, dyrektor ds. rozwoju biznesu w SAS Polska, potrzebna jest umiejętność skutecznego lokalizowania fake newsów.

— Umożliwiają to systemy wykorzystujące sztuczną inteligencję.

Na podstawie analizy potwierdzonych i fałszywych informacji są w stanie „nauczyć się”, które z nich należy sklasyfikować jako fake news. Analiza taka z jednej strony obejmuje treść wiadomości, a z drugiej bierze pod lupę wzorce jej rozpowszechniania — na podstawie obu tych składników możliwe jest określenie autentyczności informacji.

W momencie wykrycia fałszywych „newsów” przedsiębiorstwa powinny zgłaszać je administratorom portali lub mediów społecznościowych jako „zakwestionowane przez zewnętrznego kontrolera faktów” — mówi Patryk Choroś.

Wśród branż najbardziej narażonych na działania osób generujących fake newsy ekspert wymienia przede wszystkim media — tradycyjne i internetowe, w tym „social media”, które już teraz dysponują najbardziej zaawansowanymi systemami do zwalczania fałszywych przekazów i chętnie zasięgają rad firm technologicznych.

— Facebook latem zeszłego roku przejął firmę Bloomsbury AI, która specjalizuje się w rozwiązaniach z zakresu rozpoznawania języka naturalnego. Możliwość automatyzacji procesów wykrywania fałszywych treści w dokumentach tekstowych, na zdjęciach i materiałach wideo będzie główną bronią specjalistów na stanowiskach „fact checker” [weryfikator faktów — przyp. red.] — dodaje Patryk Choroś.

W gąszczu treści

Obecnie również wiele agencji, serwisów informacyjnych i wydawców zaczęło opracowywać narzędzia, których zadaniem jest prewencja rozpowszechniania fałszywych wiadomości. Bazują one na sztucznej inteligencji (artificial intelligence, AI). Co ona daje?

— Odpowiedź jest prosta: liczba wiadomości oraz informacji — również tych fałszywych — rośnie w tempie dotąd niespotykanym i jedynie mechanizmy oparte na sztucznej inteligencji będą w stanie na bieżąco analizować takie ilości danych.

Przykładem technologii, która może być wykorzystana do tworzenia nieprawdziwych treści, jest GAN — generative adversarial networks. Jest to technika oparta na AI, umożliwiająca wykreowanie zdjęcia lub filmu z udziałem danej osoby, który dla ludzkiego oka będzie wyglądać niezwykle autentycznie.

Nagranie wideo przedstawiające nieprawdziwe przemówienie prezydenta Baracka Obamy było hitem poprzedniego roku. Wielu ludzi było zafascynowanych, ale przede wszystkim zszokowanych, tym, jak łatwo można dzisiaj manipulować przekazem — przypomina Agnieszka Gilewska, kierownik ds. obsługi klienta w RTB House Poland.

Podkreśla, że akcja zawsze wywołuje reakcję, więc wkrótce zapewne zostaną opracowane nowe rozwiązania GAN, które pozwolą na rozpoznawanie fałszywych treści. Sytuacja taka wpływa bezpośrednio na biznes, np. pracę marketerów. „Brand safety”, czyli bezpieczeństwo marki i związane z nim unikanie umieszczania reklam obok nieodpowiednich treści, stanowi obecnie według niej jeden z najważniejszych problemów branży reklamowej.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Anna Bełcik

Polecane

Inspiracje Pulsu Biznesu