„Śmierć ekosystemu IT”. Czy unijne prawo stłumi potencjał AI Europy?

Alicja Skiba
opublikowano: 2024-01-21 20:00

Stary Kontynent już jest daleko w tyle za światową czołówką, a złe regulacje mogą związać ręce lokalnym firmom pracującym nad sztuczną inteligencją - przestrzegają eksperci. Mogą też jednak stać się ich... szansą.

Przeczytaj artykuł i dowiedz się:

  • jakie jest stanowisko Unii Europejskiej wobec generatywnej sztucznej inteligencji
  • co grozi europejskim startupom, jeśli UE uzna modele językowe za technologie dużego ryzyka
  • jak Europa wypada pod względem AI na tle światowych gigantów
  • na jakim etapie są prace nad polskim modelem językowym PLLuM
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Unia Europejska fetowała w grudniu zawarcie trójstronnego porozumienia w sprawie przepisów regulujących działanie sztucznej inteligencji. Ma szansę jako pierwsza wziąć w karby AI. Niektóre ustalenia brzmią jednak niejasno i budzą wątpliwości przedstawicieli sektora, w którym fundamentalne zmiany mogą zachodzić niemal z dnia na dzień. Prawo może zagrozić ich konkurencyjności w starciu z rywalami z USA i Chin.

Europarlament, Komisja Europejska i Rada Europejska zgodziły się, by regulacje oparto na ocenie ryzyka, z którym wiąże się dana technologia: im większe, tym surowsze zasady. A kary pieniężne za ich nieprzestrzeganie są dotkliwe - nawet do 35 mln EUR lub 7 proc. rocznego światowego obrotu firmy.

Jedną z kwestii, o których toczy się najgorętsza dyskusja, jest sposób traktowania generatywnej sztucznej inteligencji. Temat był przedmiotem sporów, debatowano, czy technologia powinna zostać uznana za wysoce ryzykowną, czy też zaakceptować ją jako element codzienności. Nie było pewne, czy uda się zawrzeć porozumienie w grudniu, ponieważ opór stawiały Francja i Niemcy, zorientowane na rozwój rodzimych firm opracowujących duże modele językowe (LLM – z ang. large language model). Ostatecznie UE ogłosiła, że uzgodnione zostały „szczegółowe przepisy dla modeli generatywnych”, czyli „dużych systemów zdolnych kompetentnie wykonywać szereg różnorodnych zadań, takich jak generowanie filmów wideo, tekstu, obrazu, prowadzenie rozmów w języku lateralnym, dokonywanie obliczeń czy generowanie kodu komputerowego”.

„Wstępne porozumienie przewiduje, że modele generatywne, zanim znajdą się na rynku, muszą wywiązać się z konkretnych obowiązków w zakresie przejrzystości. Dla modeli o dużym wpływie wprowadzony został surowszy system. To modele wytrenowane na podstawie dużej ilości danych, o zaawansowanej strukturze, zdolnościach i wydajności znacznie powyżej średniej, mogące powodować zagrożenia systemowe w całym łańcuchu wartości” – oświadczenie Rady Europejskiej, 9 grudnia 2023 r.

Nikt nie łudzi się, że Europa prowadzi w wyścigu AI. Przeganiają ją nie tylko USA (na czele z OpenAI, twórcą ChatGPT). Amerykanom depczą po piętach Chińczycy, aktywnie pozyskujący ogromne fundusze na rodzime firmy. Najważniejszą z nich jest start-up 01.AI, który stworzył Kai-Fu Lee. Od momentu powstania, na początku 2023 r., jego wycena urosła do 1 mld USD, a teraz firma stara się pozyskać 200 mln USD.

Na Starym Kontynencie gwiazdą jest francuski Mistral, wyceniany na ok. 2 mld USD, który zebrał 385 mln EUR na rozwój oprogramowania open source. Niemcy z kolei mogą poszczycić się Alephem Alphą - start-upem skoncentrowanym na technologiach AI dla przedsiębiorstw i rządów. W lipcu konsorcjum niemieckich koncernów finansowych zainwestowało w spółkę ponad 500 mln USD.

Inwestycje w AI

W 2020 r. 21 proc. globalnych inwestycji venture capital przeznaczono na sztuczną inteligencję - wynika z niedawnego raportu Organizacji Współpracy Gospodarczej i Rozwoju (OECD). Łączny kapitał szacuje się na 75 mld USD. Aż 80 proc. tej sumy przyciągnęły Stany Zjednoczone i Chiny. Udział UE wyniósł 4 proc. Z badania Komisji Europejskiej, opublikowanego w 2022 r., wynika z kolei, że w krajach członkowskich między 2018 a 2020 r. wszelkiego typu inwestycje w sektorze AI wzrosły o 71-94 proc. do 12,7-16 mld EUR.

Europa przegrała fazę budowy

Europejscy dostawcy generatywnych technologii nie kwestionują samej idei stworzenia regulacji dla sztucznej inteligencji, ale diabeł tkwi w szczegółach.

- Jestem pewien, że Unia Europejska robi co w jej mocy, ale sposób, w jaki opisała technologię wysokiego ryzyka, uważam za dyskusyjny i kontrowersyjny – podkreśla Tarry Singh, szef Real AI, start-upu z siedzibą w Holandii. Firma opracowuje model open source w ramach projektu HOMINIS.

Jego zdaniem europejski sektor AI „przegrał fazę budowy”.

- Nie jesteśmy twórcami nowych aplikacji, urządzeń czy nawet algorytmów. Teraz kolejną falą będzie wdrażanie AI w organizacjach. Jeśli to przegapimy, skutki dla Europy będą katastrofalne. Ogromne amerykańskie firmy będą miały bardziej wyrafinowane technologie, będą bardziej efektywne i dziesięć razy bardziej dochodowe niż europejskie odpowiedniki, które będą korzystać ze starych urządzeń, ponieważ ustawa o sztucznej inteligencji nie pozwoli im wdrożyć niektórych kluczowych rozwiązań – kwituje Tarry Singh.

Podkreśla, że uznanie generatywnej sztucznej inteligencji i LLM za technologie wysokiego ryzyka będzie oznaczać „śmierć ekosystemu AI w Europie”.

- Europa traci wiele talentów na rzecz Stanów Zjednoczonych. Najlepsi już opuścili statek. Wszelkie nadzieje UE na posiadanie w przyszłości potężnych firm zajmujących się sztuczną inteligencją mogą zostać zmiażdżone. Jeśli prawo tak zaklasyfikuje generatywną AI, inwestorzy będą musieli przeznaczyć co najmniej 25 proc. swojego kapitału tylko na kwestie prawne związane z ryzykiem pozwów. Nikt nie zainwestuje w taką firmę – uważa szef Real AI.

Jednocześnie nie przypuszcza, że decydenci „są szaleni i zdecydują się na taką klasyfikację”. „Radziłbym, żeby zwrócili się do ekspertów w dziedzinie AI, osób, które mają z tym do czynienia na co dzień. Żeby zgromadzili najmądrzejsze osoby i wspólnie opracowali środki bezpieczeństwa” podkreśla.

Weź udział w e-szkoleniu Efektywna komunikacja i analiza z AI, już 7 marca >>

Sukces nie zależy tylko od regulacji

Patrik Gayer, szef ds. międzynarodowych w Silo AI, firmie rozwijającej modele językowe w ramach projektu SiloGen, podziela pogląd, że zasady mogą być przestarzałe już w momencie wejścia w życie.

- Nie sprzeciwiamy się ustawie, wręcz cieszymy się, że powstaje. Brak jasności to jednak dla nas problem. Jako start-up zajmujący się sztuczną inteligencją co tydzień podejmujemy ważne decyzje. W bardziej ugruntowanych firmach te procesy zajmują miesiące, może nawet lata – mówi Patrik Gayer.

Start-upów AI w UE mają jednak potencjał.

- Jesteśmy wciąż na bardzo wczesnym etapie rozwoju technologii AI, przed nami wiele lat innowacji. Obecni wielcy gracze niekoniecznie nimi pozostaną. Na przykład bańka internetowa w 2001 r. zmieniła wszystko. W latach 1999 i 2000 istniały niezwykle potężne firmy, które nie istniały już w 2005 r. Europa wcale nie przegrała bitwy. Nie powinniśmy wyolbrzymiać znaczenia regulacji. Jest milion innych rzeczy, które wpływają na to, czy firma odniesie sukces - podkreśla menedżer z Silo AI.

Jego zdaniem siłą Europy jest talent specjalistów rozwijających sztuczną inteligencję.

- Mamy wspaniałe umysły zajmujące się tą dziedziną. A to właśnie od tego zaczyna się tworzenie technologii – zauważa Patrik Gayer.

Powstaje polski model językowy

Polska być może już w niedalekiej przyszłości pochwali się sukcesem na polu sztucznej inteligencji. Pod koniec ubiegłego roku ogłoszono utworzenie konsorcjum, w którego skład weszło sześć jednostek naukowych: Politechnika Wrocławska (lider projektu), Państwowy Instytut Badawczy NASK, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki i Instytut Slawistyki PAN. Instytucje opracowują PLLUM – polski otwarty model językowy.

Zaangażowany w projekt dr Jan Kocoń z Wydziału Informatyki i Telekomunikacji na PwR uważa, że z uregulowaniem AI wiążą się potencjalne korzyści.

- Jeśli Bruksela wypośrodkuje swoje stanowisko, to prawo może się przyczynić do tworzenia bardziej zaufanych technologii i w efekcie zwiększyć naszą atrakcyjność na rynku – ocenia Jan Kocoń.

PLLUM jest obecnie w fazie pracy przygotowawczych.

- Chcemy dostarczyć działający produkt, który będzie najlepszą technologią dla języka polskiego. PLLUM będzie modelem otwartym. Każdy, naukowiec czy przedsiębiorca, będzie mógł z niego korzystać i dostosować do swoich potrzeb – deklaruje naukowiec.

Prof. Maciej Ogrodniczuk z Instytutu Podstaw Informatyki PAN zaznacza, że prace nad modelem to gra zespołowa.

- Każda z jednostek biorących udział w projekcie już teraz dysponuje obszernymi i uzupełnianymi na bieżąco zasobami w języku polskim, innych językach słowiańskich i angielskim. Każda ma też doświadczenie w czyszczeniu, deduplikacji i anonimizacji danych. To oczywiście nie wszystko, dzisiejsze modele muszą „znać swoje dane”, stąd tak ważne jest dokładne opisanie tekstów źródłowych kluczowymi metadanymi, takimi jak informacja o pochodzeniu tekstu czy rodzaj licencji pozwalającej na jego wykorzystanie – tłumaczy Maciej Ogrodniczuk.

Tworzenie PLLUM nie kończy się na kwestiach technicznych.

- Mamy w swoich projektowych zasobach również ekspertów od kontroli jakości danych pod kątem możliwych uprzedzeń, skrzywień czy niereprezentatywności” – zaznacza dr Inez Okulska z Państwowego Instytutu Badawczego NASK.