Specjaliści apelują o zwiększenie kontroli nad AI

Justyna Klupa
opublikowano: 2024-11-27 20:00

Człowiekowi trudno nadążyć za rozwojem sztucznej inteligencji. Kto powinien ją nadzorować i odpowiadać za działania zrealizowane przy jej pomocy, np. cyberataki na firmy?

Przeczytaj artykuł i dowiedz się:

  • Dlaczego niezbędny jest nadzór nad rozwojem AI?
  • Czy sztuczna inteligencja może nadzorować systemy oparte na AI?

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Rośnie liczba aplikacji i narzędzi kontrolujących wykorzystanie i rozwój AI. Powstały one w odpowiedzi m.in. na dystrybucję fałszywych zdjęć i informacji w internecie oraz zwiększającą się liczbę cyberataków, podczas których hakerzy posługują się sztuczną inteligencją. Takie aplikacje są wykorzystywane do monitorowania, oceny i zapewnienia, że algorytmy AI działają zgodnie z założeniami i przestrzegają standardów etycznych. Nie zawsze jednak zdają egzamin.

- Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinformacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na firmy i instytucje, które mogą prowadzić do strat finansowych, ale także do zagrożenia życia ludzkiego - mówi Przemysław Wójcik, prezes spółki AMP.

Ochrona jest konieczna

Zapewnienie nadzoru nad AI miał zagwarantować Akt o Sztucznej Inteligencji (AI Act). Wprowadza on ramy prawne regulujące rozwój i stosowanie opartych na niej systemów. Głównym założeniem rozporządzenia jest ochrona praw obywateli, w tym przedsiębiorców, zapewnienie bezpieczeństwa oraz promocja etycznego i odpowiedzialnego korzystania ze sztucznej inteligencji. Z kolei na szczeblu unijnym utworzony zostanie Europejski Urząd ds. Sztucznej Inteligencji (European Artificial Intelligence Board). Jego zadaniem będzie koordynacja działań i nadzór nad zapewnieniem spójności wdrażania regulacji. Warto podkreślić, że AI Act jest jednym z najbardziej restrykcyjnych rozporządzeń na świecie. Przewiduje surowe sankcje za naruszenie przepisów. Sięgają one nawet 6 proc. globalnych rocznych przychodów firmy, która podejmuje takie działania.

Jeśli system oparty na sztucznej inteligencji popełniałby błędy lub działał w niewłaściwy sposób, np. nieetyczny, karą mogłoby być jego zawieszenie lub wyłączenie. Inną opcją może być konieczność aktualizacji zmieniających jego działanie – na przykład przez nałożenie dodatkowych restrykcji, takich jak ograniczenie dostępu do niektórych danych.

Kto poniesie sankcje

- Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo np. poprzez stosowanie niedozwolonych algorytmów nadzoru. W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy sztuczna inteligencja wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym. W przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych - mówi Przemysław Wójcik.

Przedsiębiorstwa mogą zostać zobligowane do zwiększenia transparentności dotyczącej działania systemu AI, co oznacza regularne raportowanie o decyzjach podejmowanych przez sztuczną inteligencję, ewentualnych błędach i sposobach ich naprawiania. W sytuacji, gdy system AI okazałby się szczególnie szkodliwy, na firmę można nałożyć zakaz dalszego rozwijania konkretnej technologii.

Coraz więcej państw wprowadza do ustawodawstwa przepisy regulujące działalność i wykorzystanie sztucznej inteligencji. Rodzi się jednak pytanie, czy człowiek jest w stanie nadążyć za jej rozwojem.

- Czy nie lepiej nadzór nad sztuczną inteligencją przekazać… sztucznej inteligencji, która nie tylko kontrolowałaby przestrzeganie zasad, ale mogła także karać AI i osoby z niej korzystające? Nałożenie sankcji na tego typu rozwiązania to temat trudny i niejednoznaczny, głównie dlatego, że AI nie ma świadomości ani poczucia moralności. A to oznacza, że klasyczne formy kary – takie jak więzienie czy grzywny – są dla niej bezcelowe. Zamiast tego kara dla AI powinna polegać na ograniczeniu jej działania lub nałożeniu sankcji na osoby lub organizacje odpowiedzialne za jej działanie – proponuje Przemysław Wójcik.