Bruksela reguluje stosowanie sztucznej inteligencji

PAP
DI
opublikowano: 2021-04-23 14:20

Komisja Europejska przedstawiła ramy prawne, określające wykorzystanie sztucznej inteligencji. Jej zastosowanie powinno przede wszystkim gwarantować bezpieczeństwo użytkowników.

Nie będzie wolno używać sztucznej inteligencji do oceny punktowej obywateli przez rządy — to jeden z przedstawionych przez Komisję Europejską (KE) elementów regulacji w sprawie stosowania technologii sztucznej inteligencji (AI). Oznacza to np., że systemy, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane. Są to m.in. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia ich wolnej woli oraz systemy oceny punktowej obywateli przez rządy.

Systemy AI uznane za systemy wysokiego ryzyka obejmują zastosowanie w infrastrukturze krytycznej, kształceniu lub szkoleniu zawodowym (np. ocena egzaminów), elementach bezpieczeństwa produktów (np. zastosowanie w chirurgii wspomaganej robotem), zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV), podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić dokonanie pewnych inwestycji), egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów), zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży), sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych.

W tych przypadkach systemy AI będą musiały spełniać określone wymogi, takie jak m.in. odpowiednie systemy oceny i ograniczania ryzyka i odpowiednie środki nadzoru przez człowieka.

Za systemy wysokiego ryzyka uznaje się wszystkie rodzaje zdalnej identyfikacji biometrycznej, które w związku z tym objęto ścisłymi wymogami. Korzystanie z nich w czasie rzeczywistym na potrzeby ochrony porządku publicznego w miejscach dostępnych publicznie jest co do zasady zabronione. Wyjątki od tej zasady są ściśle określone i uregulowane. Dotyczy to np. sytuacji, gdy korzystanie z takich technologii jest niezbędne do poszukiwania zaginionego dziecka, zapobieżenia bezpośredniemu zagrożeniu terrorystycznemu lub do zlokalizowania, zidentyfikowania lub ścigania sprawcy poważnego przestępstwa. Takie zastosowanie wymaga zezwolenia sądu lub innego niezależnego organu oraz musi być ograniczone co do czasu, zasięgu geograficznego i przeszukiwanych baz danych.

— W dziedzinie sztucznej inteligencji zaufanie jest koniecznością. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE — oświadczyła Margrethe Vestager, wiceprzewodnicząca KE. [DI, PAP]