AI jeszcze nas zadziwi

Marcel ZatońskiMarcel Zatoński
opublikowano: 2023-02-03 16:28

Bartosz Baziński, współtwórca SentiOne, mówi o tym, jak się uczy sztuczną inteligencję i jakie szanse mają polskie firmy na globalnym rynku.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

PB: Czy ChatGPT to przełom w dziedzinie sztucznej inteligencji, po prostu dobrze wytrenowany czatbot czy coś pomiędzy?

Bartosz Baziński: Można powiedzieć, że jest to przełom, ale w oczach szerokiej publiczności. Dzięki temu, że OpenAI udostępniło to rozwiązanie publicznie, każdy może z niego skorzystać i zobaczyć, jak to działa. My w SentiOne, pracując z modelami językowymi i sztuczną inteligencją, takie rozwiązania widzieliśmy już na początku ubiegłego roku, kiedy pojawiły się w środowisku naukowym. Wtedy nastąpił przełom. Szeroka publiczność zobaczyła go chwilę później. Co jest tym przełomem? Kiedy studiowałem informatykę na Politechnice Gdańskiej ponad 10 lat temu, tworzyłem model sztucznej inteligencji, rozpoznający numery na tablicach rejestracyjnych. Ówczesne modele miały kilkaset neuronów, czyli parametrów. Obecne rozwiązania, takie jak ChatGPT, mają tych parametrów 350 miliardów. Różnica w stopniu złożoności jest kolosalna — i to jest największy przełom. Już w tej chwili w środowisku naukowym trwają prace nad modelami, które mają biliony, czyli tysiące miliardów parametrów. To będą modele, które jeszcze nie raz zadziwią szeroką publiczność.

Z waszych usług korzystają koncerny z kilku branż. W jakich obszarach AI znajdzie najpierw praktyczne i dające się zmonetyzować zastosowanie?

Obecnie pracujemy z klientami wokół dwóch obszarów. Pierwszym jest analityka i rozumienie tekstów. Mamy platformę, która zbiera to, co się dzieje w internecie — wszystkie opinie, komentarze, artykuły itp. Dziennie zbieramy ponad 150 mln wypowiedzi w kilkudziesięciu językach, a sztuczna inteligencja rozumiejąca potoczny język pisany je analizuje. Potrafimy powiedzieć firmom, co się mówi o ich produktach, o konkurencji, jakie są trendy, jak klienci oceniają charakterystykę produktów i ich ceny. Drugim obszarem, w którym AI już dostarcza dużą wartość dla firm, jest obsługa klienta. Gdy kontaktujemy się przez czat lub infolinię, to nasze rozwiązania pomagają automatyzować rozmowy — nie rozmowy na każdy temat, jakie prowadzi ChatGPT, ale konkretnie o produktach i usługach danej firmy. Dla Alior Banku na przykład zbudowaliśmy narzędzie, które odbiera wszystkie połączenia przychodzące na infolinię. Następnie prosi użytkownika, by wyraził naturalnymi słowami, z jaką sprawą dzwoni, a potem albo przekierowuje go do odpowiedniego agenta, który potrafi tę sprawę załatwić, albo robi to samodzielnie. Skutek jest taki, że nawet połowa rozmów z klientami infolinii może być w pełni zautomatyzowana.

Czy może pan pokrótce wyjaśnić laikom, takim jak ja, jak tworzy się sztuczną inteligencję? „Sieci neuronowe” ładnie brzmią, ale co to konkretnie znaczy?

Żeby zbudować sztuczną inteligencję, musimy mieć dwa elementy — dane, na których ją nauczymy, oraz modele, czyli sieci neuronowe. Najwięcej roboty jest z danymi. Żeby ChatGPT mógł zgrabnie odpowiadać na pytania, OpenAI musiało przygotować bardzo duży zbiór danych, czyli wielokrotnie ocenić odpowiedzi algorytmu i dać mu znać, jakie odpowiedzi są bardziej pożądane. Człowiek oceniał, która odpowiedź jest lepsza od której, i tak powstały zbiory uczące. To robią lingwiści, czyli osoby, które po prostu pracują z tekstami. U nas w SentiOne takich osób pracuje ponad 20. To oni tworzą zbiory, którymi uczymy sztuczną inteligencję. Drugi element to modele AI. Obecnie wyzwaniem nie jest już część matematyczna związana z tworzeniem struktury takich modeli. Po to jednak, by taki model działał coraz lepiej, musi być po prostu coraz większy. Musi mieć więcej neuronów, dzięki którym jest w stanie porównywać i klasyfikować dane. Żeby nauczyć taki system jak ChatGPT, trzeba było wydać miliony dolarów na sam prąd zasilający serwery z kartami graficznymi, na których ten model się uczył. Największym wyzwaniem jest teraz właśnie to, że nauczenie każdego nowego modelu pochłania miliony dolarów w samym prądzie, a co dopiero mówić o sprzęcie.

Jaką pozycję w walce o rynek AI mają europejskie i polskie spółki? Czy nie zmierzamy do dominacji amerykańskich i chińskich gigantów, których po prostu stać na stworzenie sztucznej inteligencji?

Sytuacja nie jest łatwa — w tym sensie, że zbudowanie technologii lepszej niż obecnie dostępna wymaga znaczących zasobów finansowych. Za kilka milionów złotych nie zbuduje się niczego nowego w świecie AI. Chodzi o kwoty zaczynające się od dziesiątków milionów. My do tej pory wydaliśmy na naszą technologię ponad 42 mln zł, stworzyliśmy dziesiątki tysięcy tzw. datasetów treningowych i zbudowaliśmy unikatowe architektury sieci neuronowych. Są w Polsce spółki, które tak jak SentiOne mają szansę działać w skali globalnej, jak choćby Synerise. Mamy też jako Polacy instrumenty umożliwiające osiągnięcie sukcesów. W najbliższym czasie będą płynęły pieniądze z funduszy unijnych, będą konkursy, w których można zdobyć kilka miliardów złotych. Mamy w kraju talenty, mamy wyjątkowych ludzi, mamy falę pieniędzy z UE. Jeśli dobrze to wykorzystamy, jesteśmy w stanie zostać jednym z liderów, a nie funkcjonować tylko w rzeczywistości, w której dominować będą amerykańscy giganci.

Szukaj Pulsu Biznesu do słuchania w Spotify, Apple Podcasts, Podcast Addict lub Twojej ulubionej aplikacji.

w tym tygodniu: „Co nam zrobi AI"

goście: ChatGPT, Bartosz Baziński — SentiOne, Piotr Mieczkowski — Digital Poland, Michalina Kieś — DocPlanner, Michał Brański — WP Holding, Justyna Orłowska — KPRM