Choć popularność AI rośnie, to wiele przedsiębiorstw wciąż nie opracowało strategii korzystania z niej. Brak jasnych procedur w tym zakresie rodzi zagrożenie dla sprawności operacyjnej firmy oraz jej cyberbezpieczeństwa.
Największe zagrożenia
W minionym roku aż w trzech czwartych firm pracownicy korzystali podczas wykonywania zadań z narzędzi sztucznej inteligencji (AI) – wynika z raportu spółki BUZZcenter. Jednocześnie - jak wskazują dane Eurobarometru - większość badanych zdaje sobie sprawę, że bez odpowiednich regulacji i kontroli wykorzystanie AI przez pracowników może narażać firmy na niepotrzebne ryzyko i osłabiać poziom cyberbezpieczeństwa całego przedsiębiorstwa.
– Niedokładność, błędy w modelach, kwestie prywatności danych i potencjalne naruszenia własności intelektualnej są realnymi wyzwaniami, które wymagają starannego zarządzania. Przedsiębiorcy muszą nauczyć się opracowywać strategie odpowiedzialnego korzystania ze sztucznej inteligencji, jeśli myślą o jej wykorzystaniu – podkreśla Radosław Mechło, doradca ds. AI w BUZZcenter.
– Firmy, które nie kontrolują sposobu wykorzystania narzędzi AI przez pracowników, narażają się na poważne ryzyko związane z wyciekiem danych chociażby przez przypadkowe udostępnianie szczegółów dotyczących danej organizacji lub projektu. Dlatego trzeba opracować strategię i zasady korzystania ze sztucznej inteligencji oraz zapewnić pracownikom szkolenia w zakresie bezpiecznego użytkowania AI. To dzisiaj fundament budowania odporności organizacji na nowe zagrożenia – wtóruje mu Krystian Paszek, menedżer w Mediarecovery.
Plan działania
W celu wdrożenia przejrzystych zasad dotyczących wykorzystania narzędzi AI przez pracowników trzeba jasno określić, w jakich obszarach sztuczna inteligencja może być stosowana i jakie konkretnie zadania mogą być automatyzowane. Kontrola nad przebiegiem procesów w organizacji służy nie tylko zabezpieczeniu danych i ochronie prywatności, ale także zapewnia zgodność z regulacjami.
– Jeśli chodzi o ochronę danych, mamy obowiązujące od 2018 r. RODO oraz AI Act, którego część weszła w życie 2 lutego 2025 r. Jego przepisy zobowiązują organizacje do odpowiedniego traktowania danych oraz określają m.in. praktyki zakazane w kontekście AI – tłumaczy Krystian Paszek.
AI Act nakłada na dostawców systemów AI i podmioty je wykorzystujące również obowiązek zapewnienia odpowiedniego poziomu kompetencji personelu. Praktyki zakazane obejmują natomiast stosowanie narzędzi AI wykorzystujących ludzkie słabości, manipulację, rozpoznawanie twarzy czy biometrię.
Biorąc pod uwagę nowe regulacje i kwestie bezpieczeństwa, warto stworzyć listę zatwierdzonych narzędzi AI, która jasno określi, z których rozwiązań można korzystać, a z których nie.
– Pracownicy powinni mieć dostęp jedynie do zatwierdzonych narzędzi, a ich użycie musi podlegać kontroli i autoryzacji. Kluczowe jest również przestrzeganie zasad ochrony prywatności – dane poufne nie powinny być wprowadzane do systemów AI, a wszystkie inne zanonimizowane tak, aby nie wskazywały na konkretną organizację lub powiązane z nią podmioty. Organizacje powinny także monitorować sposób wykorzystywania AI, wykrywać potencjalne zagrożenia oraz zapewniać regularne audyty zgodności z regulacjami – tłumaczy Krystian Paszek.