Braki w wiedzy o sztucznej inteligencji prowadzą do groźnych incydentów. Jak wynika z badania „Cyberportret polskiego biznesu 2025” przeprowadzonego przez ESET i DAGMA Bezpieceństwo IT, co trzeci pracownik w Polsce (30 proc.) przyznaje, że uznał materiały wideo lub obrazy wygenerowane przez AI za prawdziwe. Niemal tyle samo pracowników (29 proc.) nie potrafiło ocenić autentyczności takich przekazów. Ponad co czwarty badany (27 proc.) za wiarygodne uznał nagrania audio stworzone przez inteligentne algorytmy.
– Jeżeli pracownik nie rozpoznaje pułapki i nie rozumie, że ma do czynienia z incydentem, to go nie zgłosi, nawet gdy w firmie istnieją odpowiednie procedury. Problem nieświadomości jest szczególnie widoczny w kontekście nowych form zagrożeń, takich jak deepfake, czyli manipulacje z wykorzystaniem sztucznej inteligencji – zauważa Beniamin Szczepankiewicz, analityk cyberbezpieczeństwa ESET. – Tymczasem, jak wynika z naszego badania, tylko 42 proc. pracowników deklaruje, że zna pojęcie deepfake. Niska rozpoznawalność tego rodzaju podstępów zwiększa ryzyko braku zdolności do zidentyfikowania fałszywych komunikatów jako zagrożenia, które może mieć dla firmy realne konsekwencje, zarówno na poziomie operacyjnym, jak i reputacyjnym – podkreśla ekspert ESET.
Metody deepfake
Jedną z metod wykorzystywanych przez cyberprzestępców są ataki nowej generacji BEC (Business Email Compromise). Cyberoszuści podszywają się w tym wypadku pod prezesa firmy lub innego pracownika wyższego szczebla kierowniczego. Dla osiągnięcia przestępczego celu zamieniają e-mail na wiarygodnie brzmiące polecenie głosowe, a nawet krótki film łączący obraz prezesa z jego komendami głosowymi. Kto nie jest wyczulony na deepfake, ten posłusznie wykona przelewy lub ujawni ściśle poufne informacje.
W 2024 r. w Hongkongu pracownik działu finansowego globalnej korporacji wziął udział w telekonferencji z dyrektorem finansowym stacjonującym w Wielkiej Brytanii i towarzyszącymi mu pracownikami z centrali. Na podstawie instrukcji otrzymanych podczas telekonferencji dokonał w sumie 15 przelewów na różne konta bankowe w Hongkongu na łączną kwotę 25,6 mln USD. Potem okazało się, że wszystkie osoby, z którymi rozmawiał w trybie online, były kreacjami AI. Sprawę szeroko opisywały media, opierając się na informacjach przekazanych przez policję.
Cyberprzestępcy dla osiągnięcia swojego celu wykradają najpierw tożsamość konkretnych osób. Potrafią potem podszyć się pod legalnych użytkowników firmowych systemów, by dzięki temu tworzyć nowe, fałszywe konta i omijać kontrole uwierzytelniania. Posługują się złośliwym oprogramowaniem, aby namawiać swoje ofiary do nagrania wideo w celu potwierdzenia tożsamości. Zarejestrowany film staje się następnie surowcem do tworzenia filmów typu deepfake, generowanych przy pomocy usług AI z podmianą twarzy.
Ideał i potknięcia
Deepfake potrafi brzmieć i wyglądać niemal jak prawdziwy człowiek, ale czasem jest aż zbyt idealny – wygładzona skóra, brak charakterystycznych detali, nienaturalne mruganie czy zbyt spokojny głos. Innym razem zawiera drobne błędy, które go zdradzają: niesynchronizowany ruch ust, przekręcone sylaby czy brak naturalnych odgłosów otoczenia.
W dobie dynamicznego rozwoju technologii, w tym narzędzi opartych na sztucznej inteligencji, budowanie świadomości użytkowników staje się jeszcze ważniejsze, zwłaszcza wobec zagrożeń, które trudno dostrzec bez odpowiedniego przygotowania, takich jak manipulacje głosowe czy wizerunkowe.
Podstęp może jednak dostrzec tylko taki pracownik, który przeszedł szkolenie i przećwiczył podstawowe formy reakcji. Gdy ma do czynienia z nietypowymi, pilnymi lub poufnymi poleceniami (zwłaszcza finansowymi), nie ulegnie presji – najpierw zweryfikuje prośbę przez alternatywne kanały komunikacji, np. oddzwoni na znany mu numer telefonu lub napisze do niego e-mail z nowego wątku.
– W dobie dynamicznego rozwoju technologii, w tym narzędzi opartych na sztucznej inteligencji, budowanie świadomości użytkowników staje się jeszcze ważniejsze, zwłaszcza wobec zagrożeń, które trudno dostrzec bez odpowiedniego przygotowania, takich jak manipulacje głosowe czy wizerunkowe – komentuje Justyna Puchała, dyrektor DAGMA Szkolenia IT.
Firmy budujące odporność na ataki deepfake wprowadzają rygorystyczne protokoły weryfikacji tożsamości i uwierzytelnianie wieloskładnikowe (MFA), a w przypadku transakcji lub próśb o dostęp – obowiązek dodatkowej, niezależnej weryfikacji, np. oddzwonienie na jeden z poufnych numerów.
Partnerem publikacji jest ESET i DAGMA Bezpieczeństwo IT
