Automatyzacja procesów z wykorzystaniem sztucznej inteligencji po publikacji AI Act
Sztuczna inteligencja (AI) staje się nieodłącznym elementem automatyzacji procesów w różnych sektorach gospodarki. Firmy na całym świecie wdrażają AI, aby zwiększyć efektywność, obniżyć koszty i poprawić jakość usług. Jednocześnie mierzą się z wyzwaniem dot. praw autorskich, jakości danych, poufności inputu i outputu oraz ryzykiem halucynacji AI. Wkrótce jednak podmioty korzystające z rozwiązań opartych na AI będą musiały ponadto dostosować się do nowych wymogów prawnych wynikających z Aktu o sztucznej inteligencji . Jak więc bezpiecznie i zgodnie z prawem wdrażać AI w automatyzacji procesów w firmie?
Co to jest AI ACT?
AI Act to rozporządzenie Unii Europejskiej, które ma na celu stworzenie jednolitych przepisów dotyczących stosowania i wdrażania sztucznej inteligencji na terytorium Unii Europejskiej. AI Act różnicuje systemy AI w zależności od poziomu stwarzanego ryzyka, kwalifikując niektóre systemy jako niedopuszczalne, inne obwarowując licznymi obowiązkami (systemy AI wysokiego ryzyka), a jeszcze inne wiąże jedynie z podstawowym zakresem obowiązków dotyczących głównie przejrzystości. Celem regulacji jest ochrona obywateli przed potencjalnymi zagrożeniami związanymi z AI, jednocześnie wspierając innowacje i rozwój technologiczny.
Znaczenie AI ACT dla firm
Jakiekolwiek korzystanie z AI należy rozpoczynać ze świadomością tego, że wyniki i decyzje, które otrzymamy, będą uwarunkowane jakością danych, na których AI zostało wytrenowane. Wobec tego należy mieć na uwadze wdrożenie stosownych mechanizmów, pozwalających na zminimalizowanie ryzyk. Mowa tu o stosownych audytach, wdrażaniu systemów AI pochodzących od renomowanych dostawców oraz odpowiednim przeszkoleniu zespołu. W tym kontekście istotne jest również, aby wykorzystanie w celu nauczania maszynowego odbywało się bez naruszania prawa autorskiego.
Przed wdrożeniem jakiegokolwiek systemu AI do firmy, w świetle nadchodzących przepisów AI ACT, należy zastanowić się, w jaki sposób wg tej regulacji taki system zostałby zaklasyfikowany. Warto więc, by w trakcie oczekiwania na rozpoczęcie stosowania przepisów AI ACT, przedsiębiorcy przeanalizowali wszelkie wykorzystywane lub developowane przez nich narzędzia i oprogramowania, a także te, które dopiero mają firmy w planach. Może się bowiem okazać, że któreś z tych narzędzi stanowić będzie system AI lub korzystać z niego w wybranym zakresie. Następnie należałoby zastanowić się, do której kategorii ryzyka zaliczyć taki system AI oraz przeanalizować, które z obowiązków będą miały zastosowanie. Jeśli system AI podpadałby pod ryzyko niedopuszczalne (np. jako system AI wyciągający wnioski na temat emocji osoby fizycznej w miejscu pracy, czy stosujące techniki podprogowe wobec pracowników/klientów), przedsiębiorcy powinni zaniechać używania takiego rozwiązania do 2 lutego 2025 r.
Najwięcej od przedsiębiorców będą wymagać systemy AI wysokiego ryzyka, zarówno jeżeli dany przedsiębiorca będzie je tylko stosował wewnątrz organizacji, jak również, gdy będzie takie rozwiązania projektował i wprowadzał do obrotu (wśród nich m.in. dokonywanie analizy ryzyka, prowadzenie dokumentacji technicznej, przechowywanie rejestrów zdarzeń wygenerowanych przez system AI, monitorowanie i informowanie organu nadzoru, w przypadku uznania, że taki produkt stwarza ryzyko). Patrząc na kategorię systemów wysokiego ryzyka, można stwierdzić, że najczęściej takie wyzwania staną przed przedsiębiorstwami, których obszar działalności dotyczy takich sektorów jak lotniczy, bankowy, ubezpieczeniowy, infrastruktura krytyczna, branża medyczna, edukacja, IoT, wdrażanie automatyki. Temat będzie jednak także istotny dla tych, które chociażby korzystają z AI jedynie w procesach rekrutacyjnych. Warto również zastanowić się każdorazowo, czy w świetle przepisów dany przedsiębiorca będzie użytkownikiem, czy dostawcą systemu AI . Takich zasad będzie trzeba przestrzegać co do zasady od połowy 2026 r.
Co z umowami?
Proces wdrażania automatyzacji opartej na AI ma swoje podłoże w zawieranych umowach. Co istotne zamawiający często może nie mieć wiedzy ani możliwości sprawdzenia jak działa dane narzędzie, a niekiedy wyzwaniem może okazać się przeprowadzenie oceny ryzyka czy kwalifikacja systemu AI. Dlatego umowy powinny regulować ten aspekt. Poza powyższym niezbędne jest zaadresowanie kwestii odpowiedniego poziomu bezpieczeństwa, zgodności z przepisami dotyczącymi ochrony danych osobowych i prawem autorskim. Nie można również zapominać o kwestiach dotyczących ponoszenia odpowiedzialności za błędy i awarie systemów AI (i ustalania ich przyczyn: jakość danych dostarczonych przez Zamawiającego; jakość kodu napisanego przez Wykonawcę; ataki hackerskie, nieumiejętne korzystanie, etc.). Nie bez znaczenia są również kwestie etycznego wykorzystania AI (zarówno w kontekście niedyskryminacji jak też np. energochłonności – co może mieć duże znaczenie w kontekście ESG).
Poznaj program konferencji "CIO Leadership Summit" >>
AI ACT znacząco wpłynie na wiele firm przede wszystkim wdrażających systemy AI uznane za systemy wysokiego ryzyka. Działanie zgodne z AI ACT będzie obowiązkiem firm, a rzetelne przestrzeganie przepisów uchroni przed karami finansowymi za niezgodność z regulacjami (kara pieniężna w wysokości do 35 000 000 EUR lub do 7% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego za nieprzestrzeganie zakazu praktyk w zakresie AI, czy też kara pieniężna w wysokości do 15 000 000 EUR lub do 3% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego za inne naruszenia przepisów AI ACT). Niemniej jednak dbałość o bezpieczną i etyczną AI w firmie wpłynąć może także na konkurencyjność takiej firmy na rynku i zwiększenie zaufania do niej.
Podsumowanie
Automatyzacja procesów w oparciu o AI wymaga pewnych uprzednich przemyśleń, w szczególności mając na uwadze przyszłe regulacje AI ACT. Kluczowe będzie szacowanie i ocenianie ryzyka. Rozporządzenie to wprowadza bowiem szereg obowiązków mających wpływ przede wszystkim na systemy AI spełniające warunki systemów AI wysokiego ryzyka. Wdrażanie rozwiązań opartych na AI zgodnie z unijnym rozporządzeniem na pewno wiązać się będzie z wyzwaniami finansowymi i organizacyjnymi dla firmy (dlatego też warto zacząć wcześniej i nie czekać na ostatnie deadliny), niemniej jednak, korzyści płynące z automatyzacji procesów z wykorzystaniem AI, tym bardziej, jeżeli zrealizowane są w zgodzie z AI, mogą być znaczne.
Autorzy:
adw. Maciej Kubiak, partner zarządzający, SKP Ślusarek Kubiak Pieczyk
Marlena Kudła, prawnik, SKP Ślusarek Kubiak Pieczyk
Źródła:
◾️ ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), Dz.U.UE.L.2024.1689 z dnia 2024.07.12.
◾️ M. Kudła, Co AI ACT oznacza dla biznesu?, 29.05.2024, https://skpipblog.pl/pl/co-ai-act-oznacza-dla-biznesu/.
◾️ Niektóre przepisy, np. dotyczące zakazanych systemów AI będą stosowane już od 2 lutego 2025 r.