Europarlamentarzyści spieszyli się, żeby prawo było gotowe jeszcze przed czerwcowymi wyborami. W środę opowiedziało się za nim 523 posłów, przeciw było 46, a 49 wstrzymało się od głosu. Dokument trafi teraz do ministerialnej Rady UE, ale zatwierdzenie go będzie formalnością.
Zgodnie z nim technologie oparte na sztucznej inteligencji będą poddawane ocenie ryzyka. Wysokość kar za niestosowanie się do przepisów jest uzależniona od poziomu zagrożenia, jaki stwarza dana funkcja AI — będzie sięgać do 35 mln EUR lub 7 proc. rocznego światowego obrotu firmy. Aplikacje, takie jak systemy kategoryzacji biometrycznej oparte na wrażliwych cechach, scoring społeczny lub służące do manipulowania ludzkim zachowaniem, będą w Europie zakazane.
Organy ścigania będą mogły korzystać z systemów identyfikacji biometrycznej w czasie rzeczywistym, o ile będą stosowały je w określonym czasie i położeniu geograficznym. Będą musiały też posiadać specjalne zezwolenie sądowe lub administracyjne. Technologia będzie wykorzystywana jedynie do znajdowania zaginionych osób i zapobiegania atakom terrorystycznym.
Technologie AI zaklasyfikowane jako wysoce ryzykowne, wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa czy zarządzaniu granicami lub wyborami, będą objęte surowymi wymogami.
Modele AI ogólnego przeznaczenia (GPAI) — czyli m.in. generatywne czatboty — nie będą uważane za zagrożenie, będą jednak musiały spełniać kryteria przejrzystości oraz unijne przepisy dotyczące praw autorskich. Najpotężniejsze modele zostaną poddane dodatkowym wymogom bezpieczeństwa, ich operatorzy będą zobligowani m.in. do przeprowadzania ocen i ograniczania ryzyka systemowego, a także zgłaszania incydentów. Konieczne będzie też wyraźne oznaczanie tworzonych przez AI treści audiowizualnych, które mogą sprawiać wrażenie prawdziwych, czyli tzw. deepfakes.
Poznaj program konferencji “Wpływ nowych regulacji na Umowy IT” >>
— Ten dzień jest historyczny. Rozpoczęła się droga ku bezpiecznemu rozwojowi AI, który na pierwszym miejscu stawia człowieka — oświadczył Brando Benifei z partii S&D (Postępowego Sojuszu Socjalistów i Demokratów), współsprawozdawca ustawy.
Akt prawny będzie w pełni stosowany 24 miesiące po zatwierdzeniu przez Radę UE. W przypadku technologii rozwijającej się w zawrotnym tempie ten okres może spowodować przepaść między idealistycznymi założeniami legislacji a rzeczywistością. Sztuczna inteligencja ewoluuje bowiem praktycznie z miesiąca na miesiąc. Niewykluczone, że regulacje będą przestarzałe już w momencie wejścia w życie.
Prawo będzie stosowane 24 miesiące po wejściu w życie, wyjątki będą miały zastosowanie dla:
– zakazów niedozwolonych praktyk związanych ze sztuczną inteligencją (po sześciu miesiącach)
– kodeksów postępowania (po dziewięciu miesiącach)
– ogólnych zasad dotyczących AI, w tym zarządzania nią (po 12 miesiącach)
– obowiązków dotyczących systemów wysokiego ryzyka (po 36 miesiącach)
Przed osiągnięciem konsensu jeszcze wiele błędów
Marcin Puś, reprezentant firmy Deep-Image.ai dostarczającej technologię do automatycznego poprawiania zdjęć, uważa, że organy ustawodawcze muszą nadganiać to, co dzieje się aktualnie w technologii AI.
— Istniejące prawo nie określa wystarczająco skutecznie, jakie dane mogą, a jakie nie mogą zostać użyte do nauki sztucznej inteligencji. Istnieje wiele szarych stref, które nie są jednoznacznie skonsolidowane prawnie. Przez to czasem przedsiębiorcy działają po omacku w nadziei, że przyszłe zmiany ustawodawcze nie zburzą czegoś, co właśnie zbudowali — podkreśla Marcin Puś.
Jego zdaniem potrzebny jest kompromis, który pozwoli firmom AI się rozwijać i jednocześnie dostarczać produkty bezpieczne dla konsumenta, który nie jest świadomy wszystkich zagrożeń.
— Sam Altman [współzałożyciel i prezes OpenAI, twórcy ChatGPT — red.] zasugerował, że AI trzeba regulować, zwłaszcza że zbyt rozwinięta może być po prostu niebezpieczna. Mówił też, że przedsiębiorcy powinni mieć coś w rodzaju piaskownicy, gdzie mieliby szansę uczyć się, jak rozwijać technologię bez ponoszenia ryzyka obciążenia ogromną karą. Sztuczna inteligencja jest drastycznie nowa, właściwie wszystko robimy po raz pierwszy. Popełnimy jeszcze wiele błędów i poniesiemy wiele niespodziewanych kosztów, zanim osiągniemy konsens i sytuację, gdzie wszystkie strony będą zadowolone — podkreśla Marcin Puś.
UE powinna wspierać legalny dostęp do danych
Jacek Kawalec, CTO w start-upie VoiceLab opracowującym boty głosowe, ma odmienne zdanie na temat zasadności unijnego prawa.
— Uważam, że obecnie istniejące prawo dostatecznie chroni ludzi korzystających z technologii AI. Trzeba egzekwować obowiązujące już przepisy, na przykład w zakresie ochrony praw autorskich. Obawy co do zagrożeń związanych z dostępnymi już dużymi modelami językowymi (LLM) są przesadzone — podkreśla Jacek Kawalec.
Jego zdaniem negatywną konsekwencją nowych regulacji będzie powstanie dodatkowych barier w rozwoju AI, szczególnie w przypadku mniejszych europejskich spółek.
— Wyścig technologiczny jest globalny i nie ma sposobu na skuteczne egzekwowanie proponowanych regulacji. Wskazywane zagrożenia nie są groźniejsze niż wirusy w oprogramowaniu, spam czy fake news. Unia Europejska powinna tworzyć mechanizmy, w tym finansowe, na wspieranie legalnego dostępu do danych i do mocy obliczeniowych, zamiast tworzyć nowe ograniczenia prawne — uważa Jacek Kawalec.