Strach przed deep fejkami ma wielkie oczy

Eugeniusz TwarógEugeniusz Twaróg
opublikowano: 2025-12-04 20:00

- Nie ma dowodów na stosowanie deep fejków w czasie rzeczywistym. Dzisiaj większym problemem są scamy telefoniczne i fałszywe reklamy, a nie rozwiązania bazujące na AI – przekonuje Piotr Konieczny z Niebezpiecznika.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Zimą zeszłego roku "Financial Times" opisał przypadek ataku deep fejkowego na Arup, brytyjską firmę inżynieryjną, znaną m.in. z budowy opery w Sidney. Do jej pracownika w biurze w Hong Kongu zadzwonili szefowie z centrali w Londynie. Pięć osób. W trakcie połączenia wideo zlecili oni pracownikowi wykonanie przelewu w wysokości 25 mln USD na wskazane konto. Transfer został zlecony. I pieniądze zniknęły.

Jak się okazało - tak przynajmniej powiedziało szefostwo Arup - połączenie wideo zostało wykreowane przez AI. Sprawa obiegła media na całym świecie i stała się pierwszym przykładem deep fejkowego ataku, zrealizowanego w czasie rzeczywistym. Czy faktycznie do niego doszło?

Piotr Konieczny, szef i założyciel Niebezpiecznika, który na wstępie fire side chatu, którego był bohaterem, został przedstawiony jako deepfejkowy negacjonista, ma wątpliwości. Uważa, że informacje o generowanych na żywo obrazach czy imitacji głosu w celu dokonania oszustwa, wyłudzenia, są przesadzone. A za atakami nie stoi AI tylko socjotechnika. Piotr Konieczny przekonuje, że użycie sztucznej inteligencji wymagałoby dużych nakładów finansowych i - z punktu widzenia logiki przestępców - jest nieopłacalne. Mniej kosztowny, za to efektywny, jest klasyczny telefon „na wnuczka”.

Jak to się ma do świadectw ofiar ataków scamerskich, zaklinających się, że słyszeli w słuchawce głos osoby bliskiej albo szefa? Piotr Konieczny proponuje prosty eksperyment.

- Gdy ktoś do was dzwoni, przekażcie telefon innej osobie, która przedstawi się w waszym imieniu. Minie chwila zanim dzwoniący zorientuje się, że rozmawia nie z tą osobą, z którą chciał – mówi szef Niebezpiecznika.

Piotr Konieczny nie bagatelizuje zagrożeń, jakie niesie wykorzystanie sztucznej inteligencji do celów przestępczych, natomiast przestrzega przed braniem za dobrą monetę wszystkich doniesień o deep fejkach. Dotyczy to również wypowiedzi Sama Altmana, szefa OpenAI, który w lipcu podczas konferencji w FED powiedział, że nadciąga kryzys oszustw w związku z rozwojem sztucznej inteligencji.

- Sam Altman przez AI wygenerował problem z identyfikacją, co jest prawdą, a co fałszem. Mamy i będziemy mieć spore kłopoty z odróżnieniem tego, co jest prawdą, a co fałszem. Prezes OpenAI na tym zarabia. Ale jednocześnie magnetyzuje drugą stronę stosując technologię, która ma wychwytywać, czy po drugiej stronie jest człowiek czy AI - zauważa Piotr Konieczny.

Porównał to do metod menedżera Elvisa Presleya, który przed koncertami gwiazdora rozdawał fanom plakietki z napisem „Kocham Elvisa”, a przeciwnikom – „Nienawidzę Elvisa”.