Panuje coraz powszechniejsze przekonanie, że w najbliższych latach nastąpi dynamiczna i głęboka transformacja przedsiębiorstw związana z wdrożeniem rozwiązań opartych na sztucznej inteligencji (AI). Eksperci mówią nawet o zmianach na miarę rewolucji przemysłowej czy cyfrowej, gdy pojawił się internet. Nie bez przyczyny nowe technologie były jednym z najważniejszych tematów na tegorocznym forum w Davos. Sztuczna inteligencja może dać firmom sporo zysków, ale i powodować poważne ryzyka.
Pole minowe
AI już ma istotny wpływ na biznes i technologię. Wspiera procesy związane m.in. z programowaniem, tworzeniem treści ale pomaga także zwiększać bezpieczeństwo w systemach informatycznych, wykrywając potencjalne niebezpieczeństwa i podejrzane aktywności czy weryfikując tożsamość.
- AI to nowe i uniwersalne narzędzie, które niestety niesie ze sobą zagrożenia wynikające z ogromnych możliwości zastosowania. Jednak korzyści płynące ze sztucznej inteligencji, przy odpowiedniej ochronie prawnej i technologicznej, wydają się przewyższać związane z nią ryzyka – uważa Paweł Markiewicz, szef firmy M3M specjalizującej się w zabezpieczaniu danych.
Konfederacja Lewiatan apeluje o wprowadzenie uregulowań prawnych dotyczących AI.
- Oczywiście należy promować i zwiększać wykorzystanie nowoczesnych technologii AI przez polskie przedsiębiorstwa, bez względu na ich wielkość, oraz zwiększać liczbę rozwiązań AI produkowanych w Polsce. Jednak niezbędne są konsultacje i ścisła współpraca wielu branż, w tym w szczególności sektora technologicznego oraz branż zainteresowanych wykorzystaniem narzędzi AI oraz organów państwowych – podkreśla Eliza Turkiewicz, ekspertka Konfederacji Lewiatan.
Z powodu braku realnych i jasnych uregulowań prawnych oraz specyfiki AI korzystanie z niej może przypominać stąpanie po polu minowym.
- AI jest wykorzystywana np. do tworzenia złośliwego oprogramowania i przeprowadzania ataków. Pomaga wykrywać i wykorzystywać luki w zabezpieczeniach, a automatyzacja zwiększa skalę działania cyberprzestępców. Nawet dobrze już znany ChatGPT może być wykorzystywany do personalizacji treści przyczyniających się do ataków na podstawie socjotechniki czyli dopasowywania treści do potencjalnych ofiar. Wiadomości wyłudzające dane bywają generowane przez AI tak, aby wyglądały na pisane przez człowieka – podkreśla Paweł Markiewicz.
Techniki manipulacji
AI może być wykorzystywana do phishingu, czyli prób nawiązania kontaktu z pracownikami przedsiębiorstwa poprzez fałszywe mejle, zapytania ofertowe, aplikacje typu listy motywacyjne, a nawet zmanipulowane rozmowy telefoniczne. Jak się przed tym bronić?
- Wszyscy pracownicy powinni być przeszkoleni w zakresie używania menedżera haseł zamiast zapisywania haseł w plikach, zasad korzystania ze sprzętu firmowego w domu, podłączania się do obcych sieci wifi czy przenoszenia danych między sprzętem firmowym a własnym. Dotyczy to także korzystania ze sztucznej inteligencji. Zasady powinny być jasne - do czego i na jakim sprzęcie pracownicy mogą jej używać. Słabym punktem okazuje się chociażby korzystanie z poczty. Pracowników należy przeszkolić także z rozpoznawania, czy mają do czynienia ze sztuczną inteligencją czy z człowiekiem – radzi Paweł Markiewicz.
Dodaje, że należy przyglądać się uważnie każdej otrzymanej wiadomości. Wiele wiadomości phishingowych ma niepoprawną gramatykę, “kwadratową” składnię, zawiera błędy interpunkcyjne czy nieodmienione przez przypadki rzeczowniki lub czasowniki w złej formie, brakuje w nich także polskich znaków.
Sprawdzić trzeba także nadawcę i jego adres - nie tylko wyświetlający się podpis, np. imię i nazwisko, ale pełną nazwę mejla. Tylko tak można upewnić się, że wiadomość faktycznie pochodzi z organizacji, na którą powołuje się nadawca oraz czy nie ma w niej dodatkowych znaków np. “24” lub “i”, co na pierwszy rzut oka jest niezauważalne (np. allegro24.pl zamiast allegro.pl czy i-apple zamiast apple).
Wycieki danych
Paweł Markiewicz podkreśla, że pracownicy często udostępniają wrażliwe dane firmy chatbotom oraz modelom językowym. Bywają to np. pełne treści umów lub faktur. Żeby się przed tym zabezpieczyć, trzeba ustalić, w jakich przypadkach pracownik może używać AI do celów służbowych.
Przykładowo, żeby bezpieczniej przetłumaczyć jakąś umowę, należy usunąć z niej dane osobowe.
- Nie wolno podawać systemowi ChatGPT ani innym systemom AI poufnych informacji swoich ani klienta. Możesz mieć wrażenie, że Twoja “rozmowa” z ChatemGPT jest indywidualna, ale tak nie jest. Nie udostępniaj więc sztucznej inteligencji niczyich danych osobowych, takich jak imiona, numery telefonów, zdjęcia, skany dokumentów. Nie wgrywaj prawdziwych wyciągów z kont, schematów procesów, diagramów sieciowych czy fragmentów kodu z oprogramowania. Następny użytkownik może otrzymać to, co wgrasz, jako swój wynik dla zapytania złożonego Chatowi GPT. Dlatego podczas operowania danymi z wykorzystaniem AI należy oprzeć się na zasadzie anonimizacji, czyli zmienić dane i obrazy tak, aby nie można było ich powiązać z żadną prawdziwą osobą czy podmiotem – podpowiada szef firmy M3M.
Zdarza się, że hakerzy celowo dystrybuują darmowe aplikacje AI, które - pod pozorem ułatwienia pracy - po zainstalowaniu wykradają dane z systemów informatycznych. Przez kilka tygodni w sklepie Google Webstore była dostępna fałszywa wtyczka ChatGPT, która kradła dane z Facebooka. Mało tego, jej reklama była wyświetlana w wynikach wyszukiwania za pośrednictwem Google Ads. Zanim została wykryta i usunięta, została pobrana przez miliony użytkowników.
– Przy obecnym boomie na sztuczną inteligencję pracownicy powinni mieć dostęp do narzędzi AI, ponieważ w przeciwnym razie mogą ich szukać na własną rękę. Dlatego właśnie należy wymagać od nich korzystania wyłącznie z zaufanych programów i aplikacji. Konieczne jest zapewnienie im pełnego dostępu do oprogramowania służbowego – mówi Paweł Markiewicz.
Poznaj program konferencji "AI & Project Management" >>
Dezinformacja
Kolejnym zagrożeniem jest ryzyko dezinformacji płynące z rozprzestrzeniania fałszywych informacji. Przykładem może być deepfake, czyli zmanipulowane zdjęcia i nagrania wideo, w których obrazy i sceny zostały wygenerowane za pomocą AI, a ich odróżnienie od prawdziwych treści jest praktycznie niemożliwe.
- Dzięki temu mogą być z łatwością wykorzystywane np. do wyłudzeń, oszustw, ale też fałszywych oskarżeń czy szkalowania. Podobnie rzecz ma się ze zdjęciami i obrazami. Istnieją aplikacje, które pozwalają wygenerować fałszywe zdjęcia dokumentów takich jak prawa jazdy, dowody osobiste, paszporty. Wystarczy podać dane, np. imię i nazwisko lub pozwolić, by aplikacja wygenerowała dane losowo. Tego typu “skany” dokumentów mogą posłużyć do weryfikowania tożsamości online. Takie przypadki miały już miejsce np. na giełdach kryptowalut – wskazuje założyciel M3M.
Jak się zabezpieczyć przed takimi sytuacjami? Podstawowa zasada to zero zaufania.
- Nie można ufać odpowiedziom udzielanym przez AI. Wszelkie GPT należy traktować jak nowego, ale niezbyt kompetentnego i godnego zaufania pracownika, po którym trzeba wszystko sprawdzić. Nie należy opierać na wynikach pracy z AI w zakresie krytycznych operacji czy procesów w firmie. AI ma ci pomagać, ale nie zastępować – podkreśla Paweł Markiewicz.
Podpowiada, aby procedury bezpieczeństwa były na bieżąco przekazywane pracownikom – chodzi o to, aby nie dochodziło nie tylko do naruszeń, ale także do paniki w razie incydentów.
Justyna Wilczyńska-Baraniak, partner w EY, uważa, że firmy ze wszystkich branż powinny dokonać przeglądu swoich standardów, zasad i procesów oraz stworzyć kompleksowe ramy zarządzania sztuczną inteligencją.
- Będzie to wymagało uwzględnienia przepisów prawa, odpowiedniego zarządzania ryzykiem, zadbania o kwestie etyczne czy o transparentność zasad. Umożliwi to odpowiedzialne korzystanie z możliwości, jakie oferuje ta technologia. Warto również sprawdzić, czy i w jakim stopniu nasi partnerzy biznesowi wykorzystują sztuczną inteligencję, gdzie przechowują dane osobowe i jak je zabezpieczają - zaznacza Justyna Wilczyńska-Baraniak.
Taki odsetek firm badanych przez EY deklaruje analizowanie cyberbezpieczeństwa przy wdrażaniu…
…a tylu badanych przez PwC przedsiębiorców jest przekonanych, że dzięki AI można poprawić jakość produktów lub usług.
