Akt o AI może zastopować europejskie innowacje. Firmy mają zastrzeżenia

Anna BełcikAnna Bełcik
opublikowano: 2023-06-15 20:00

Parlament Europejski przyjął nowe przepisy regulujące sztuczną inteligencję. Już pojawiły się obawy, że firmom ze Starego Kontynentu ograniczą możliwość konkurowania np. z rynkiem azjatyckim

Przeczytaj artykuł i dowiedz się:

  • jakie są obawy przedsiębiorców i twórców nowych nowych technologii
  • z jakich powodów unijny akt o AI może zmniejszyć poziom konkurencyjności rynkowej Europy na rzecz np. rynków azjatyckich
  • czy sztuczna inteligencja na obecnym etapie rozwoju może być już realnym zagrożeniem dla człowieka
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Rozwój sztucznej inteligencji (artificial intelligence – AI) postępuje niezwykle szybko. W ostatnim czasie, zwłaszcza po premierze ChatGPT opracowanego przez firmę OpenAI, technologia ta zawładnęła wyobraźnią świata. Jednocześnie od długiego czasu kontynuowane są dyskusje dotyczące potrzeby opracowania dla niej ram prawnych. Pierwsze rozporządzenie – akt o sztucznej inteligencji – zostało właśnie przyjęte przez Parlament Europejski (PE). I raczej nikt nie ma wątpliwości, że regulacje prawne w obszarze sztucznej inteligencji są potrzebne. Pojawiło się jednak wiele głosów, że dla firm technologicznych, ale także innowacyjności całej Europy, regulacje w obecnym kształcie mogą okazać się pułapką.

- Uważam, że przepisy w takiej wersji są złe, duszą w zarodku innowacje w Europie. To prewencja, która w rezultacie okaże się antykoncepcją. Uważam, że stracimy najlepszych innowatorów, będą działać na terenie Azji i Stanów Zjednoczonych. Nie dość, że już teraz w Europie, w porównaniu z tymi właśnie regionami, jest trudniej pozyskać finansowanie na rozwój technologii, to dodatkowo będziemy ograniczać i straszyć karami kreatorów nowych rozwiązań. To niepokojąca sytuacja – podkreśla Michał Brański, współwłaściciel Wirtualnej Polski.

Jak dodaje, już teraz pod względem poziomu rozwoju technologii i tworzenia nowych rozwiązań Europa jest daleko w tyle za USA i Azją.

- Jesteśmy głównie odbiorcą gotowych produktów – mówi Michał Brański.

Sztuczna inteligencja w unijnych ryzach

Akt o AI wprowadza szereg obowiązków dla dostawców rozwiązań technologicznych i firm wdrażających je na rynek – zależnie od poziomu ryzyka, jakie w danym obszarze mogą ze sobą nieść. Za zabronione (posiadające najwyższy stopień ryzyka) uznano np. klasyfikowanie ludzi na podstawie ich zachowań i cech. Zakazana praktyka to np. stosowanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Od dawna takim rodzajem identyfikacji jest zainteresowany choćby sektor finansowy i bankowy. Niedopuszczalne stają się także systemy kategoryzacji biometrycznej bazujące na danych takich jak płeć, rasa, status obywatelski, religia, orientacja polityczna. Na celowniku znalazły się również systemy rozpoznawania emocji wykorzystywane np. w miejscu pracy czy instytucjach edukacyjnych.

Rozporządzenie PE chce także wymusić przejrzystość działania generatywnych systemów AI, opartych na modelach takich jak ChatGPT. Nowe regulacje nakazują oznaczanie i ujawnianie wszystkich treści, które zostały stworzone przez AI, a także wprowadzenie do aplikacji zabezpieczeń uniemożliwiających wykorzystywania ich do generowania treści nielegalnych.

Niemniej jednak unijny akt o AI pozostawia dość dużą swobodę dla działań badawczych w obszarze sztucznej inteligencji. Zakazy tworzy na etapie komercjalizacji.

- Świat badań i komercjalizacja nowych rozwiązań powinny być ze sobą splecione. Istnieć w symbiozie. Będziemy jednak mieć do czynienia z dwoma odrębnymi reżimami. Może to utrudniać wprowadzanie efektów prac badawczych na rynek i ich sprzedaż – mówi Michał Brański.

Biznes kontra ochrona obywateli

Zdaniem mec. Macieja Priebe, partnera w Kancelarii Chałas i Wspólnicy, przyjęte przepisy mają na celu ochronę unijnych praw podstawowych, w tym bezpieczeństwa i zdrowia osób, użytkowników rozwiązań AI. Nakładają w tym celu obowiązki na twórców i dystrybutorów tego rodzaju rozwiązań.

- Przepisy idą w dobrym kierunku, choć z pewnością w przeciwnym niż ma to miejsce np. w Chinach. W Azji wiele zaawansowanych rozwiązań AI jest już powszechnych na rynku. Jednocześnie regulacje prawne dopuszczają tzw. kategoryzację biometryczną oraz wykorzystywanie AI do punktacji społecznościowej lub oceny wiarygodności osób. Otwarcie można powiedzieć, że tamtejsze społeczeństwo przez systemy AI jest segregowane na podstawie wyglądu, zachowań, odwiedzanych miejsc, preferencji itd. Technologia nadaje w ten sposób ludziom niektóre uprawnienia społeczne lub im je odbiera. Niestety nie jest to już science fiction – podkreśla mec. Maciej Priebe.

Nowe rozporządzenie unijne wejdzie w życie niebawem, jednak jego stosowanie będzie wymagane dopiero za dwa lata.

- Nie są to więc przepisy, które „spadają nam na głowę”. Akt o sztucznej inteligencji dotyczy nowego obszaru, cały czas ewoluującego. Rozporządzenie PE jest obszerne, ale nadal w wielu punktach wymaga doprecyzowania. Powstanie np. Europejska Rada ds. AI, ale nie znamy jeszcze wszystkich szczegółów, w jakim kształcie będzie funkcjonować – podmiotu doradczego czy kontrolnego. To samo dotyczy urzędów ds. AI, które mają zostać powołane w każdym kraju członkowskim Unii, czy też rejestrów gromadzących informacje o rozwiązaniach AI wprowadzanych na rynek unijny. Uregulowanie kwestii stosowania AI jest natomiast koniecznością, bo coraz częściej pojawiają się sygnały o niewłaściwym, błędnym czy wręcz szkodliwym społecznie wykorzystywaniu tej technologii – mówi mec. Maciej Priebe, rzecznik patentowy, partner w Kancelarii Chałas i Wspólnicy.

Uspokaja natomiast, że akt o AI to dopiero pierwszy krok w budowaniu unijnych regulacji. Przez najbliższe dwa lata z pewnością trwać będą intensywne prace nad doprecyzowaniem wielu aspektów.

Sztuczna inteligencja nie jest doskonała

– Historycznie patrząc, można zauważyć, że regulacje prawne wpływają na spowolnienie rozwoju technologii. Zwiększają koszty działania i tworzą obawy przed podejmowaniem ryzyka. Czy to są skuteczne mechanizmy? W większości przypadków nie. Widzieliśmy takie przykłady w regulacjach RODO, dotyczących danych osobowych. Czy powstrzymały przed kradzieżą tożsamości? Niekoniecznie. To samo dotyczy regulacji AML, które mają chronić przed praniem brudnych pieniędzy. Uczciwi prowadzący fundusze, banki mają dodatkowy nakład pracy, a oszuści robią swoje. Uważam, że regulacje powstają po to, abyśmy mieli poczucie zwiększonego bezpieczeństwa i nadzoru. Z drugiej strony gigantyczny skok informacyjny - specjalnie nie mówię technologiczny, bo prace nad AI toczą się od kilkunastu lat - budzi wątpliwości - zauważa Andrzej Targosz, partner Bitspiration Booster.

Przyznaje, że raczej nie chciałby, aby jego dane biometryczne zostały przekazane do maszyny i wykorzystane do uczenia wzorców. Ale, w jego ocenie, do czasu, aż nie stajemy się obiektami zainteresowania przestępców czy organów publicznych, jest to zupełnie niegroźne. Dotyczy to wszelkich obszarów transformacji cyfrowej - danych jest zbyt dużo, aby zostały skutecznie wykorzystane przeciwko konkretnej jednostce.

– Uważam, że w tej chwili przeceniane jest zagrożenie płynące z aktualnego stanu AI. Ostatnio w USA był przeprowadzany eksperyment, w którym działo sterowane przez AI miało wyeliminować żołnierzy zanim oni dotrą do celu i je unieszkodliwią. Wybrano 10 żołnierzy. Do celu dotarli wszyscy. Zastosowali niestandardowe działania, jakich nie było w zbiorze danych treningowych - opowiada Andrzej Targosz.

Okiem eksperta
Szanse i zagrożenia dla rozwoju AI
Dariusz Garbiec
p.o. zastępca dyrektora ds. badawczych, Łukasiewicz - PIT

Akt dotyczący AI przyjęty w Parlamencie Europejskim należy traktować jako krok w dobrą stronę. Istotne jest bowiem wprowadzenie standardów w zakresie sztucznej inteligencji, jak również odniesienie się do etyki z nią związanej. Mam na myśli nie tylko etykę w rozumieniu podejścia systemu do człowieka, ale również zapewnienia różnorodności danych.

Z drugiej jednak strony, można postrzegać ten akt jako krok w niebezpiecznym kierunku – wprowadzenie dodatkowych nakazów i zakazów może przyczynić się do spowolnienia rozwoju sztucznej inteligencji w Europie. Oznacza to, że prym w jej rozwoju będą wiodły Chiny oraz Stany Zjednoczone. To natomiast może prowadzić do odpływu ekspertów ds. AI do tych dwóch państw, co będzie miało przełożenie na zubożenie nauki w Europie.

Okiem przedsiębiorcy
AI nie może być narzędziem wprowadzającym w błąd
Anita Gołębiewska
dyrektor operacyjna CashDirector, dyrektor zarządzająca OSCBR

Przy tak szybkim rozwoju AI, nie dziwi fakt podjęcia regulacji prawnej jej wykorzystania, a także oznaczenia źródeł informacji, z których korzysta. Bez tego zabezpieczenia AI może szybko stać się narzędziem wprowadzającym w błąd, nie tylko ze względu na aktualność informacji, ale także na ich automatyczną, błędną interpretację. Innowacyjne technologie są szansą na wyeliminowanie powtarzalnych czynności, ale niosą zagrożenia, np. braku kontroli nad klasyfikacją zdarzeń. Programy, które będą modelowane przez AI, np. te dla księgowych, są bardzo ważne i muszą mieć potwierdzone i aktualne dane.

Z zaciekawieniem obserwujemy dynamiczny wzrost udziału sztucznej inteligencji w codziennym życiu każdego człowieka. Widzimy w tym ogromną szansę na automatyzację wielu procesów i wsparcie rozwoju nowoczesnych technologii. Należy jednak podkreślić, że AI nigdy nie zastąpi prawdziwego człowieka, który posiada unikalną zdolność oceny sytuacji.

W kontekście biur rachunkowych i ich klientów - polskich przedsiębiorców, ta kwestia nabiera szczególnego znaczenia. Obecnie AI nie jest w stanie nadążyć za dynamicznymi zmianami w polskim prawie podatkowym.