Strach przed deepfejkami ma za wielkie oczy [PODCAST]

Eugeniusz TwarógEugeniusz Twaróg
opublikowano: 2025-12-20 09:48

Podczas lipcowej konferencji w Waszyngtonie Sam Altman, szef OpenAI, przestrzegał przed nadciągającą falą oszustw napędzaną sztuczną inteligencją. Jak duże jest zagrożenie ze strony deepfejków? W jakich oszustwach AI jest już wykorzystywana?

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Strach przed deepfejkowymi połączeniami wideo generowanymi w czasie rzeczywistym szerzy się w internecie. Każdy chyba słyszał o 25 mln dolarów jakie przelał księgowy brytyjskiej firmy po wideocallu z szefostwem, które zleciło mu transakcję. Połączenie miało być deepfejkiem.

Wielu specjalistów od bezpieczeństwa podchodzi sceptycznie do tej historii. Należy do nich Patryk Gęborys, szef bezpieczeństwa w PZU. Nie bagatelizuje zagrożenia jakie wiąże się z wykorzystaniem AI przez przestępców, ale zwraca uwagę, że tradycyjne metody bazujące na technikach manipulacyjnych wciąż są skuteczne i groźne. Przestępcy doskonalą je coraz częściej korzystając ze sztucznej inteligencji do tworzenia scenariuszy rozmów z ofiarami, planowania ataków. Patryk mówi też o nowym oszustwie wspieranym przez AI, groźnym dla przedsiębiorców, polegających na zdalnej rekrutacji. Stoją za nimi Koreańczycy z Północy. Przestępcy wysyłają aplikacje o prace zdalną w USA, przystępują do kwalifikacji. W trakcie rozmów generowany jest sztuczny obraz, albo głos, żeby zmylić rekruterów co do pochodzenia kandydata. Celem jest zdobycie pracy, co da przestępcom wejście do firmy.

Insider threat to, jak mówi Patryk, to jeden z ważniejszych ryzyk z jakimi muszą zmierzyć się firmy. Zresztą nie trzeba szukać daleko. Niedawno pracownik jednego z samorządów, skopiował i wyniósł dane 5 tys. osób.

Zapraszamy do wysłuchania podcastu oraz pozostałych audycji zrealizowanych w ramach serii podcastów Scamming out!