Coraz więcej firm zdaje sobie sprawę z konieczności korzystania w działalności z generatywnej sztucznej inteligencji. Narzędzia opierające się na AI stanowią wsparcie przy codziennych zadaniach oraz umożliwiają skupienie się na bardziej istotnych czynnościach. Wśród takich rozwiązań rekordy popularności bije Chat GPT. Jednak wraz ze wzrostem liczby jego użytkowników zwiększa się również skala zagrożeń.
- Statystyki są druzgocące – tylko w drugiej połowie 2023 r. zablokowaliśmy ponad 650 tys. prób wejścia użytkowników na fałszywe strony związane z „chatgpt” lub podobnym tekstem w nazwie. Drugim znaczącym wektorem ataku na użytkowników jest reklamowanie i próba nakłonienia do instalacji fałszywych aplikacji bliźniaczo podobnych do Chat GPT. W sklepach z aplikacjami, szczególnie mobilnymi, zaroiło się od fałszywych kopii różnych aplikacji imitujących najnowsze wersje, np. Chat GPT 5, Sora czy MidJourney, zawierających złośliwe oprogramowanie – opisuje Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET.
Ryzykowna droga na skróty
Według ekspertów najsłabszym ogniwem systemu cyberzabezpieczeń jest czynnik ludzki - pracownik, który prowokuje niebezpieczne sytuacje skuszony oszczędnością czasu. Fałszywe aplikacje po pobraniu i instalacji mogą przykładowo atakować użytkowników reklamami lub nakłaniać do dodatkowych zakupów albo wymagać subskrypcji usług, które faktycznie nie istnieją lub są wyjątkowo niskiej jakości.
- Odkryliśmy również próby oszustw, w których cyberprzestępcy obiecywali dostęp do zaawansowanych możliwości sztucznej inteligencji, które miałyby zostać udostępnione za dodatkową opłatą. Znaczna część ataków jest przeprowadzana za pomocą reklam w mediach społecznościowych, gdzie masowo proponowane są użytkownikom fałszywe strony lub aplikacje – dodaje Beniamin Szczepankiewicz.
Zagrożeniem dla firm są również niezaufane, a już zainstalowane aplikacje mobilne lub deskopowe. Mogą one zawierać złośliwe oprogramowanie, dzięki któremu hakerzy są w stanie przejąć kontrolę nad urządzeniem i uzyskać dostęp do przechowywanych tam danych. To z kolei otwiera cyberprzestępcom furtki do wyłudzeń lub szantażu.
Uważaj, co wpisujesz
Niebezpieczne jest również wprowadzanie w narzędziach AI poufnych danych. Mogą one w przyszłości zostać wykorzystane do trenowania ich nowszych wersji. Warto też mieć świadomość, że cyberprzestępcy wykorzystują popularność niektórych narzędzi opierających się na sztucznej inteligencji. Przykładowo nakłaniają do instalacji fałszywej wtyczki imitującej Tłumacza Google - kierują do niej nieuczciwe reklamy na Facebooku wykorzystujące wizerunek OpenAI lub Gemini. Wtyczka łudząco przypomina realną, ale w rzeczywistości jest to złośliwe oprogramowanie, które zostało zaprojektowane do wykradania m.in. danych logowania do Facebooka. W ciągu roku systemy ESET zarejestrowały i udaremniły 4 tys. prób tego typu oszustw.
Poznaj program kolejnej edycji kongresu "Business Intelligence" >>
Generatywna sztuczna inteligencja usprawnia działania, ale wymaga od osób korzystających z opartych na niej narzędzi dużej odpowiedzialności. Jak zmniejszyć ryzyko utraty danych lub dostępu do systemu? Niezbędna jest aktualizacja oprogramowania antywirusowego i szkolenia pracownicze, m.in. z uważnej weryfikacji autentyczności aplikacji AI. Wskazane jest również opracowanie odpowiednich polityk bezpieczeństwa i procedur związanych ze sztuczną inteligencją.