We wtorek 18 lipca w Strasburgu odbyło się spotkanie trójstronne między głównymi organami UE: Parlamentem, Radą i Komisją. Jak poinformował PB europoseł Brando Benifei z partii S&D (Postępowy Sojusz Socjalistów i Demokratów), który jest współsprawozdawcą projektu, omawiano takie kwestie, jak: tzw. piaskownice (czyli środowiska testowe do prowadzenia izolowanych eksperymentów na oprogramowaniach, testy w warunkach rzeczywistych oraz wpływ AI na podstawowe prawa we wspólnocie. Nie osiągnięto jeszcze porozumienia, a kolejne negocjacje odbędą się w październiku.
Główne wątpliwości budzi kwestia, na ile restrykcyjne miałoby być nowe prawo – Komisja Europejska skłania się ku łagodniejszej wersji, podczas gdy ciało ustawodawcze uważa, że regulacje powinny być bardziej drakońskie. Jedno jest pewne: UE zamierza uchwalić zasady do końca roku a następnie wdrożyć je ciągu kolejnych dwóch lat. Oznacza to, że po zatwierdzeniu prawa państwa członkowskie zostaną zobligowane m.in. do powołania specjalnych organów, które będą nadzorowały podmioty opracowujące lub korzystające ze sztucznej inteligencji.
Europarlament chce stosować definicję AI, którą stworzyła Organizacja Współpracy Gospodarczej i Rozwoju. Głosi ona, że system sztucznej inteligencji jest „oparty na maszynie, który może, dla określonego zestawu celów opracowanych przez człowieka, przewidywać, rekomendować, lub podejmować decyzje wpływające na środowisko rzeczywiste lub wirtualne”.
Nowe przepisy ustanowią obowiązki dla dostawców technologii i użytkowników w zależności od poziomu ryzyka związanego ze sztuczną inteligencją. UE zaznacza jednak, że wiele z systemów AI stwarza minimalne zagrożenie, jednak konieczna jest jego dokładna ocena.
Technologie, które wspólnota zaklasyfikuje jako stwarzające „niedopuszczalne ryzyko” zostaną zakazane. Oznacza to, że w UE nie będzie miejsca dla:
1.Kognitywnej manipulacji behawioralnej, zwłaszcza najbardziej wrażliwymi grupami, czyli m.in. dziećmi i osobami starszymi. Zakazane wobec tego zostaną np. zabawki aktywowane głosem zachęcające do niebezpiecznych zachowań
2.Technologii dokonujących oceny społecznej, czyli klasyfikujących ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych. Tego rodzaju rozwiązania stosują reżimowe władze Chin wobec swoich obywateli
3.Systemów identyfikacji biometrycznej w czasie rzeczywistym i na odległość, takie jak rozpoznawanie twarzy.
W ustawie uwzględnione zostaną jednak pewne odstępstwa od reguły – dozwolone będą systemy dokonujące zdalnej identyfikacji biometrycznej jednostek po dłuższym czasie. Będą mogły z nich korzystać wyłącznie organy ścigania i tylko po zatwierdzeniu przez sądy.
Kolejną kategorią są technologie oparte na sztucznej inteligencji stwarzające „wysokie ryzyko”, czyli mające negatywny wpływ na bezpieczeństwo lub prawa podstawowe. Zostaną one podzielone na dwie kategorie:
1.Systemy SI wykorzystywane w produktach, pojazdach i urządzeniach, które objęto unijnymi przepisami bezpieczeństwa, czyli: zabawkach, samolotach, samochodach, czy technologiach medycznych
2.Systemy AI wykorzystywane w ośmiu obszarach, które będą musiały zostać zarejestrowane w bazie danych UE, czyli: do identyfikacji biometrycznej i kategoryzacji osób fizycznych; zarządzania i obsługi infrastruktury krytycznej; edukacji i szkoleń zawodowych; zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia; dostępu do podstawowych usług prywatnych i publicznych; egzekwowania prawa; zarządzania migracją, azylem i kontrolą graniczną; pomocy w interpretacji prawnej i stosowaniu prawa.
Żeby tego rodzaju technologie mogły wejść na rynek, konieczna będzie dokładna ocena dokonana przez organy regulujące. Systemy będą również poddawane regularnym kontrolom.
Użytkownik ma podejmować decyzje świadomie
Europarlament określi też zasady dla systemów sztucznej inteligencji o „ograniczonym ryzyku”. Tego rodzaju technologie będą musiały spełniać minimalne wymagania dotyczące przejrzystości, po to, by użytkownicy mogli podejmować świadome decyzje, co do tego, czy dalej chcą korzystać z aplikacji po pierwszej interakcji z nimi. Dotyczy to oprogramowań generujących lub manipulujących treściami graficznymi, audio lub wideo, w tym kontrowersyjnymi deepfake’ami.
– Chcemy zidentyfikować ich schemat i będziemy żądali od programistów opracowania wszelkich środków, które będą zmniejszały ryzyko nielegalnych treści. Zamierzamy również utworzyć listę dzieł chronionych prawem autorskim, ponieważ występują liczne wyjątki od reguły i przez to można z nich swobodnie korzystać – wyjaśnił Brando Benifei podczas seminarium w Strasburgu.
Generatywna AI nie stwarza wysokiego ryzyka?
Generatywna sztuczna inteligencja to kwestia, która budzi szczególne zainteresowanie – od listopada ubiegłego roku, kiedy start-up OpenAI udostępnił ChatGPT. Bot błyskawicznie zyskał miliony użytkowników i zaczął budzić obawy o prawa autorskie i rynek pracy. UE zamierza ustalić wymogi przejrzystości. Konieczne będzie zatem ujawnianie, że treść została wygenerowana przez AI; projektowanie modeli tak, by zapobiec generowaniu nielegalnych treści i publikowanie danych chronionych prawami autorskimi wykorzystywanych do szkoleń.
W PE wciąż trwa dyskusja co do tego, czy boty generujące treści powinny jednak zostać uznane za technologie wysokiego ryzyka, przyznał Brando Benifei. Większość posłów nie chce traktować tej kwestii zbyt surowo.
– Firmy uważają, że to będzie oznaczało dla nich wiele zobowiązań. Wiele kwestii będą musiały rozwiązać same – dodał europoseł.
UE uderzy w USA?
Eurodeputowany argumentował, że surowe podejście PE do kwestii AI jest dostosowane do europejskich warunków.
– Czy jesteśmy szaleni zabierając się za to? Nie, bo Europa ma swoją specyfikę, klarownie ustalone prawa ochrony danych. Jednak inne państwa również zabierają się za tę kwestie, czyli Chiny, USA, Brazylia, czy Kanada. (…) W Stanach trwa debata co do tego, by prawo federalne zapewniało ochronę danych. To niemal przeszło za czasów poprzedniej kadencji Kongresu, a teraz znowu wracają do tego tematu. Chiny stworzyły już własne zasady, jednak ich prawo prywatności budzi wiele wątpliwości – tłumaczył Brando Benifei.
Zauważył, że duzi dostawcy technologii unikają odpowiedzialności za sprzedaż swoich produktów zawierając umowy tak, by wychodziło na to, że dostarczają oprogramowanie, które nie stwarza ryzyka.
Zaznaczył, że UE nie zamierza jednak ograniczać działalności firm.
– Deweloperzy AI będą musieli stosować się do przepisów nie tylko w Unii. Sprawa wygląda tak, że jeśli chcesz być na rynku, musisz działać w zgodzie z zasadami. Szczególnie w przypadku sztucznej inteligencji wysokiego ryzyka – podkreślił eurodeputowany.
Dodał, że nie ma to być uderzenie w amerykańskie firmy.
– Zasady będą dotyczyły wszystkich, a nie konkretnych państw – skwitował Brando Benifei.