Rośnie liczba aplikacji i narzędzi kontrolujących wykorzystanie i rozwój AI. Powstały one w odpowiedzi m.in. na dystrybucję fałszywych zdjęć i informacji w internecie oraz zwiększającą się liczbę cyberataków, podczas których hakerzy posługują się sztuczną inteligencją. Takie aplikacje są wykorzystywane do monitorowania, oceny i zapewnienia, że algorytmy AI działają zgodnie z założeniami i przestrzegają standardów etycznych. Nie zawsze jednak zdają egzamin.
- Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinformacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na firmy i instytucje, które mogą prowadzić do strat finansowych, ale także do zagrożenia życia ludzkiego - mówi Przemysław Wójcik, prezes spółki AMP.
Ochrona jest konieczna
Zapewnienie nadzoru nad AI miał zagwarantować Akt o Sztucznej Inteligencji (AI Act). Wprowadza on ramy prawne regulujące rozwój i stosowanie opartych na niej systemów. Głównym założeniem rozporządzenia jest ochrona praw obywateli, w tym przedsiębiorców, zapewnienie bezpieczeństwa oraz promocja etycznego i odpowiedzialnego korzystania ze sztucznej inteligencji. Z kolei na szczeblu unijnym utworzony zostanie Europejski Urząd ds. Sztucznej Inteligencji (European Artificial Intelligence Board). Jego zadaniem będzie koordynacja działań i nadzór nad zapewnieniem spójności wdrażania regulacji. Warto podkreślić, że AI Act jest jednym z najbardziej restrykcyjnych rozporządzeń na świecie. Przewiduje surowe sankcje za naruszenie przepisów. Sięgają one nawet 6 proc. globalnych rocznych przychodów firmy, która podejmuje takie działania.
Jeśli system oparty na sztucznej inteligencji popełniałby błędy lub działał w niewłaściwy sposób, np. nieetyczny, karą mogłoby być jego zawieszenie lub wyłączenie. Inną opcją może być konieczność aktualizacji zmieniających jego działanie – na przykład przez nałożenie dodatkowych restrykcji, takich jak ograniczenie dostępu do niektórych danych.
Kto poniesie sankcje
- Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo np. poprzez stosowanie niedozwolonych algorytmów nadzoru. W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy sztuczna inteligencja wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym. W przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych - mówi Przemysław Wójcik.
Przedsiębiorstwa mogą zostać zobligowane do zwiększenia transparentności dotyczącej działania systemu AI, co oznacza regularne raportowanie o decyzjach podejmowanych przez sztuczną inteligencję, ewentualnych błędach i sposobach ich naprawiania. W sytuacji, gdy system AI okazałby się szczególnie szkodliwy, na firmę można nałożyć zakaz dalszego rozwijania konkretnej technologii.
Coraz więcej państw wprowadza do ustawodawstwa przepisy regulujące działalność i wykorzystanie sztucznej inteligencji. Rodzi się jednak pytanie, czy człowiek jest w stanie nadążyć za jej rozwojem.
- Czy nie lepiej nadzór nad sztuczną inteligencją przekazać… sztucznej inteligencji, która nie tylko kontrolowałaby przestrzeganie zasad, ale mogła także karać AI i osoby z niej korzystające? Nałożenie sankcji na tego typu rozwiązania to temat trudny i niejednoznaczny, głównie dlatego, że AI nie ma świadomości ani poczucia moralności. A to oznacza, że klasyczne formy kary – takie jak więzienie czy grzywny – są dla niej bezcelowe. Zamiast tego kara dla AI powinna polegać na ograniczeniu jej działania lub nałożeniu sankcji na osoby lub organizacje odpowiedzialne za jej działanie – proponuje Przemysław Wójcik.