Zimą zeszłego roku "Financial Times" opisał przypadek ataku deep fejkowego na Arup, brytyjską firmę inżynieryjną, znaną m.in. z budowy opery w Sidney. Do jej pracownika w biurze w Hong Kongu zadzwonili szefowie z centrali w Londynie. Pięć osób. W trakcie połączenia wideo zlecili oni pracownikowi wykonanie przelewu w wysokości 25 mln USD na wskazane konto. Transfer został zlecony. I pieniądze zniknęły.
Jak się okazało - tak przynajmniej powiedziało szefostwo Arup - połączenie wideo zostało wykreowane przez AI. Sprawa obiegła media na całym świecie i stała się pierwszym przykładem deep fejkowego ataku, zrealizowanego w czasie rzeczywistym. Czy faktycznie do niego doszło?
Piotr Konieczny, szef i założyciel Niebezpiecznika, który na wstępie fire side chatu, którego był bohaterem, został przedstawiony jako deepfejkowy negacjonista, ma wątpliwości. Uważa, że informacje o generowanych na żywo obrazach czy imitacji głosu w celu dokonania oszustwa, wyłudzenia, są przesadzone. A za atakami nie stoi AI tylko socjotechnika. Piotr Konieczny przekonuje, że użycie sztucznej inteligencji wymagałoby dużych nakładów finansowych i - z punktu widzenia logiki przestępców - jest nieopłacalne. Mniej kosztowny, za to efektywny, jest klasyczny telefon „na wnuczka”.
Jak to się ma do świadectw ofiar ataków scamerskich, zaklinających się, że słyszeli w słuchawce głos osoby bliskiej albo szefa? Piotr Konieczny proponuje prosty eksperyment.
- Gdy ktoś do was dzwoni, przekażcie telefon innej osobie, która przedstawi się w waszym imieniu. Minie chwila zanim dzwoniący zorientuje się, że rozmawia nie z tą osobą, z którą chciał – mówi szef Niebezpiecznika.
Piotr Konieczny nie bagatelizuje zagrożeń, jakie niesie wykorzystanie sztucznej inteligencji do celów przestępczych, natomiast przestrzega przed braniem za dobrą monetę wszystkich doniesień o deep fejkach. Dotyczy to również wypowiedzi Sama Altmana, szefa OpenAI, który w lipcu podczas konferencji w FED powiedział, że nadciąga kryzys oszustw w związku z rozwojem sztucznej inteligencji.
- Sam Altman przez AI wygenerował problem z identyfikacją, co jest prawdą, a co fałszem. Mamy i będziemy mieć spore kłopoty z odróżnieniem tego, co jest prawdą, a co fałszem. Prezes OpenAI na tym zarabia. Ale jednocześnie magnetyzuje drugą stronę stosując technologię, która ma wychwytywać, czy po drugiej stronie jest człowiek czy AI - zauważa Piotr Konieczny.
Porównał to do metod menedżera Elvisa Presleya, który przed koncertami gwiazdora rozdawał fanom plakietki z napisem „Kocham Elvisa”, a przeciwnikom – „Nienawidzę Elvisa”.
