Na początku grudnia zostało zawarte porozumienie między przedstawicielami Rady Europejskiej, Europarlamentu i Komisji Europejskie w sprawie aktu o sztucznej inteligencji (tzw. AI Act). Wydarzeniu nadano fundamentalne znaczenie, ponieważ wspólnocie udało się przekonać do swoich racji głównych sceptyków - Niemcy i Francję. Kolejne formalne kroki są już drogą z górki. Przez ostatnie dwa miesiące nad prawem debatowały dwie komisje PE: Rynku Wewnętrznego i Wolności Obywatelskich. We wtorek przeprowadzono głosowanie: za postanowieniami trialogu opowiedziało się 71 deputowanych, 8 było przeciwko, a 7 wstrzymało się od głosu.
Zgodnie z założeniem oceny ryzyka technologii, komisje przystały na zakazanie niektórych zastosowań AI zagrażających prawom obywateli, czyli:
– biometrycznych systemów kategoryzacji,
– nieukierunkowanego pobierania obrazów twarzy z internetu lub nagrań CCTV (monitoringu wizyjnego) do baz danych,
– rozpoznawania emocji w miejscu pracy i szkołach,
– punktacji (tzw. scoringu) społecznego,
– predykcyjnego nadzoru policyjnego opartego wyłącznie na profilowaniu osoby lub ocenie jej cech,
– sztucznej inteligencji, która manipuluje ludzkimi zachowania bądź wykorzystuje ich słabe strony.
Biometryczna identyfikacja: do poszukiwań zaginionych i powstrzymywania terrorystów
Organy ścigania będą miały w większości przypadków zakaz korzystania z biometrycznych systemów identyfikacji (RBI). Technologia “w czasie rzeczywistym” będzie dozwolona tylko w ograniczonym czasie i zakresie geograficznym i po otrzymaniu zezwolenia sądowego lub administracyjnego. Umożliwione zostanie jej stosowanie np. w trakcie poszukiwań zaginionej osoby bądź w celu zapobieżenia atakom terrorystycznym. Korzystanie z takich systemów po fakcie również będzie wymagało uzyskania specjalnych zezwoleń.
Wyraźne oznaczenie deepfake’ów
Systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI) i modele (w tym generatywna AI), na których są oparte, będą musiały spełniać wymogi przejrzystości i być zgodne z unijnym prawem autorskim. Bardziej zaawansowane technologie tego typu będą musiały spełniać dodatkowe wytyczne, w tym przejść ocenę ryzyka, ponadto obowiązkowe będzie zgłaszanie incydentów z nimi związanych. Sztuczne lub zmanipulowane treści graficzne, audio lub wideo (deepfakes) muszą być wyraźnie oznaczone jako takie.
Weź udział w szkoleniu online “Wizualna rewolucja z AI” >>
Unia Europejska, świadoma, że prawo może ograniczyć potencjał technologiczny regionu, stara się wesprzeć innowacje i MŚP (małe i średnie przedsiębiorstwa). Zgodnie z założeniami nowego prawa, państwa członkowskie wprowadzą piaskownice regulacyjne i testy w świecie rzeczywistym, dzięki którym start-upy i inne firmy zyskają możliwości rozwoju i szkolenia innowacyjnej AI przed wprowadzeniem na rynek.
Dalsze kroki
Ustawa zostanie formalnie przyjęta na najbliższej sesji plenarnej Parlamentu Europejskiego i następnie ostatecznie zatwierdzona przez Radę. Prawo zacznie w pełni funkcjonować po 24 miesiącach od wejścia w życia. Wyjątkiem będą zakazy niedozwolonych praktyk (po sześciu miesiącach), kodeksy postępowania (po dziewięciu), ogólne zasady dotyczące AI, w tym zarządzania (12 miesięcy) i obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy).