Hasło "sztuczna inteligencja" było podczas tegorocznego Impactu odmieniane przez wszystkie przypadki, ponieważ drugi dzień kongresu poświęcony został głównie problematyce AI w kontekście etycznym, prawnym, regulacyjnym i wielorakich zastosowań praktycznych. W panelu „Rewolucja cyfrowa: sztuczna inteligencja, tokenizacja, biometria” udało się poruszyć kilka niezwykle interesujących wątków. Stało się to możliwe dzięki grupie dyskutantów reprezentujących różne środowiska. Marta Życińska, szefowa polskiego oddziału Mastercard Europe, reprezentuje firmę bardzo zaawansowaną w praktycznych zastosowaniach AI. Dariusz Standerski, wiceminister cyfryzacji, to młody, rzutki urzędnik, prawnik biegły w procedurze legislacyjnej, który zręcznie pilotuje prace nad wdrożeniem do naszego porządku prawnego AI Act. Piotr Mazur, szef ryzyka w PKO BP, jest postacią legendarną na rynku bankowym, najwyższej klasy specjalistą od zarządzania ryzykiem. Michał Nowakowski, prawnik, to elokwentny i merytoryczny propagator wiedzy prawnej z zakresu sztucznej inteligencji, autor książki „Sztuczna inteligencja. Praktyczny przewodnik dla sektora innowacji finansowych”.
Tytułem wprowadzenia do dyskusji Marta Życińska przypomniała, że historia sztucznej inteligencji nie zaczyna się od ChatGPT, ale sięga dziesiątków lat w przeszłość. W branży finansowej stosowana jest co najmniej od 20 lat. Jak zaznaczyła, w przeszłości były to rozwiązania z zakresu machine learning i stosowano je głównie do zabezpieczania transakcji przed oszustwami. Zastosowanie generatywnej sztucznej inteligencji zupełnie zmieniło obraz gry na tym polu.
- Gen AI sama jest w stanie tworzyć scenariusze potencjalnych oszustw, działając wyprzedzająco i zapobiegawczo. Mamy dwa produkty oparte o generatywną sztuczną inteligencję: z zakresu cyberbezpieczeństwa i ochrony transakcji. W przypadku przeciwdziałania oszustwom w płatnościach skuteczność wykrywania oszukańczych transakcji rośnie o 20 proc. – mówi Marta Życińska.
Trzeba uszczelnić system finansowy
Piotr Mazur, nawiązując do kwestii bezpieczeństwa płatności, poruszył niezwykle ważny temat, którego adwokatem jest od dawna: chodzi o nieautoryzowane transakcje dokonywane przez klientów, „dających się nabrać” na oszukańcze reklamy zachęcające do inwestycji w nieistniejące aktywa bezprawnie wykorzystujące wizerunki znanych osób, wyświetlane na Facebooku, Google oraz w mediach społecznościowych. Straty z tego tytułu idą w dziesiątki milionów złotych i stale rosną.
- Bardzo się cieszę, że w debacie biorą udział media, przedstawiciel firmy płatniczej, regulator i dr Michał Nowakowski, czyli żywa, a nie sztuczna inteligencja – żartował Piotr Mazur, po czym przeszedł do zupełnie poważnych spraw. Jak zaznaczył, z problemem fejkowych reklam żaden bank ani nawet cały sektor nie poradzi sobie bez wsparcia ze strony mediów, które powinny temat nagłaśniać, uświadamiać o zagrożeniu klientów, a także regulatora, gdyż system finansowy wymaga uszczelnienia, co wymaga zmian prawnych.
- Bardzo mogłaby pomóc AI. Big techy nie potrafią wykorzystać sztucznej inteligencji do zablokowania oszukańczych reklam. Czy chcą na nich zarabiać? Nie sądzę. Podejrzewam, że jest to raczej kwestia podejścia na zasadzie, że dajemy wszystkim dostęp, bo wprowadzanie limitów wymagałoby wprowadzania zmian w systemie. Tymczasem wystarczyłby bardzo prosty model, który mógłby identyfikować i zablokować fejkowe reklamy – mówi Piotr Mazur.
Banki też mogą uszczelnić system płatności, tak żeby pieniądze nie wypływały poza rynek.
- Potrzebujemy tylko niewielkich zmian regulacyjnych, bo nie widzimy wszystkich płatności – nie wszystkie braki są przez nas identyfikowane – mówi Piotr Mazur.
7 miesięcy na konsultacje
Szef ryzyka PKO BP zwrócił się do ministra cyfryzacji, wskazując, że problem ma charakter społeczny, gdyż dotyczy dużej grupy klientów. Poza tym tolerowanie oszukańczych reklam powoduje wzrost przestępczości. Dariusz Standerski zauważył, że problem rzeczywiście nie dotyczy tylko rynku bankowego i obejmuje również przestępstwa z wykorzystaniem techniki deepfaków, używanych również do ataków na przeciwników politycznych.
- Ten problem pokazuje, jak ważna jest implementacja aktu o sztucznej inteligencji, który umożliwi lokalizację, wykluczenie nielegalnych treści i karanie tych, którzy je udostępniają – mówi wiceszef resortu cyfryzacji.
Dariusz Standerski opowiedział, jak przebiega proces przygotowania do wdrożenia AI Act do polskich regulacji. Kilka tygodni wcześniej, prezentując wstępnie założenia do ustawy, użył porównania, że implementując akt o sztucznej inteligencji, nie możemy poruszać się pociągiem ekspresowym, ale pasażerskim, upewniwszy się wcześniej, że wszystkich zabraliśmy na pokład. W kuluarach Impactu bankowcy zgłaszali obawy, żeby regulator w sprawie AI nie poszedł takim samym torem jak w przypadku chmury obliczeniowej, w sprawie której tak długo zastanawiał się, czy i na jakich zasadach banki mogą z niej korzystać, że pociąg z innowacją odjechał.
- Mamy szerokie ramy określone przez regulacje unijne, które odpowiadają na podstawowe problemy dotyczące stosowania AI. Teraz my musimy rozstrzygnąć, jak dyrektywę wdrożyć. Zakładam, że możemy poświęcić nawet do siedmiu miesięcy na wspólne projektowanie, jaki kształt ma przyjąć nowy urząd nadzoru nad sztuczną inteligencją, tak żeby wykorzystać najlepsze wzorce np. dotyczące funkcjonowania i umocowania KNF – mówi Dariusz Standerski.
Wyjaśnia, że kompetencje urzędu będą dotyczyć ograniczonego zakresu AI Act, odnoszącego się do zakazanych przez regulację zastosowań sztucznej inteligencji oraz sytuacji, gdy związane jest to z wysokim ryzykiem naruszenia unijnych norm. Z czasem jednak lista zadań nadzoru z pewnością będzie się wydłużać.
- Dlatego musimy tak dobrze zaplanować ramy prawne aktu o sztucznej inteligencji, żebyśmy za 10 lat nie żałowali, że coś nie zostało zrobione lub że przyjęliśmy zbyt kostyczne, sztywne podejście. Podstawy formalne tworzą się teraz, a mają one odpowiadać na wyzwania technologiczne, które dopiero się pojawią w przyszłości – mówi minister Dariusz Standerski.
Podkreśla, że nadzór nad stale rosnącym rynkiem sztucznej inteligencji wymaga stabilnego finansowania i resort cyfryzacji pracuje nad funduszem AI. Zapytany o to, jaki model finansowania zostanie wykorzystany, czy na wzór UOKiK, który dostaje pieniądze z budżetu, czy KNF, w części korzystający z datków uczestników rynku, Dariusz Standerski powiedział, że obecnie rozpatrywana jest pierwsza z opcji.
Trzeba znaleźć kompetentnych ludzi
Michał Nowakowski zauważył, że AI Act jest regulacją o dość szerokich ramach i po stronie nadzoru będzie leżała interpretacja, dawanie wytycznych i rekomendacji dla rynku.
- Tak działa KNF, która łączy kilka funkcji: nadzorcy, która wiąże się również z nakładaniem kar, interpretatora przepisów, który wskazuje, jak należy je rozumieć. Zapisy AI Act są, można powiedzieć, nazbyt elastyczne i będzie potrzeba interpretacji, wyjaśnień w sprawie ich stosowania w praktyce, ale w taki sposób, żeby wspierać biznes i instytucje, bo to jest kwestia ochrony obywatela – mówi Michał Nowakowski.
Z tym wiąże się kwestia zapewnienia odpowiednich zasobów dla nowego urzędu. Sztuczna inteligencja jest zagadnieniem niezwykle specyficznym i skomplikowanym. Z jednej strony wymaga dużych kompetencji technologicznych, a z drugiej dotyka bardzo wrażliwych obszarów natury społecznej, socjologicznej, moralnej, czy odnoszących się do ochrony środowiska.
- Do tego trzeba ludzi, którzy dobrze rozumieją specyfikę AI, którzy będą w stanie regulować rynek, nie wylewając dziecka z kąpielą. Cieszę się, że ministerstwo prowadzi szerokie konsultacje społeczne w związku z implementacją AI Act, że chce się uczyć od innych, którzy mają doświadczenie w tym zakresie – mówi Michał Nowakowski.
W świecie płatności sztuczna inteligencja stosowana jest od dobrych 20 lat, przede wszystkim do ochrony transakcji, których jest już ponad 130 mld. Zastosowanie generatywnej AI pozwoliło średnio o 20 proc. zwiększyć wykrywalność transakcji oszukańczych. Możemy im zapobiegać, bo generatywna sztuczna inteligencja jest w stanie sama tworzyć scenariusze, a nie reagować na działania oszustów.
Powinniśmy uszczelnić system wypływu pieniędzy poza system bankowy, tak aby chronić naszych klientów przed działaniami oszustów generujących fejkowe reklamy. Jest to stosunkowo proste do zrobienia, potrzebujemy tylko nieznacznych zmian regulacyjnych.
Mamy podstawowe regulacje unijne w zakresie AI, które odpowiadają m.in. na takie problemy jak oszukańcze reklamy. Teraz przed nami dyskusja, jak wdrożyć regulacje, dlatego tak ważną rolę ma organ nadzoru nad sztuczną inteligencją. Chcemy go zbudować, opierając się na najlepszych wzorcach z rynku.
Obszar sztucznej inteligencji jest specyficzny, Jest bardzo techniczny, ale zawiera też w sobie wiele aspektów społecznych, dotyczących ochrony środowiska. Do nadzoru potrzeba będzie ludzi, którzy dobrze rozumieją tę specyfikę i będą w stanie zastosować przepisy, nie wylewając dziecka z kąpielą.