Rynek potrzebuje lokalnego modelu językowego. Budżet nie jest jednak duży

Anna BełcikAnna Bełcik
opublikowano: 2024-03-06 20:00

Celem PLLuM jest stworzenie polskojęzycznego dużego modelu językowego, na kształt np. ChatGPT. Pojawiły się jednak pewne wątpliwości związane z jego realizacją

Przeczytaj artykuł i dowiedz się:

  • czy projekt stworzenia polskiego modelu językowego będzie kontynuowany i jaki jest przewidziany budżet
  • jakie aspekty mogą budzić wątpliwości dotyczące efektów podjętych prac
  • jaka jest opinia przedstawicieli rodzimego sektora IT i czy tego rodzaju model językowy może mieć lokalne zastosowania
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Powstanie polski ChatGPT – tak w grudniu 2023 r. mówiono o inauguracji projektu PLLuM (Polish Large Language Universal Model), w ramach którego konsorcjum sześciu rodzimych podmiotów, w tym Politechniki Wrocławskiej i NASK, ma opracować otwarty i darmow, duży model językowy, wytrenowany na treściach głównie polskojęzycznych. Za przedsięwzięciem skryła się m.in. teza, że „nie stać nas na to, by pozostać w tyle” za rozwojem globalnych technologii w tym obszarze. Pytanie tylko, czy ten cel będzie możliwy do zrealizowania, gdy budżet projektu finansowanego z publicznych pieniędzy wynosi ok. 14,5 mln zł.

Wątpliwościami podzielił się Krzysztof Gawkowski, minister cyfryzacji, podczas posiedzenia sejmowej podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów.

- Chciałbym, żeby sam program przynosił efekty, żeby nie było tak, że […] wydamy dużo pieniędzy, ale na koniec będziemy w sytuacji, w której i tak nas wszyscy inni wyprzedzą, czyli okaże się, że zbudowaliśmy coś, co jest na rynku całkowicie nie w pierwszej lidze, nawet nie w drugiej. Z tym mam największe wątpliwości – powiedział Krzysztof Gawkowski.

Zdaniem obecnego na spotkaniu Radosława Nieleka, dyrektora Naukowej i Akademickiej Sieci Komputerowej - Państwowego Instytutu Badawczego (NASK-PIB), wątpliwości mogą być zasadne, biorąc pod uwagę, że np. ChatGPT kosztował niewspółmiernie więcej.

Projekt PLLuM będzie kontynuowany w 2024 r.

Ministerstwo Cyfryzacji w korespondencji z PB poinformowało, że projekt PLLuM będzie realizowany do końca bieżącego roku. Celem projektu pozostaje stworzenie modelu językowego „zgodnie z założeniami odpowiedzialnego rozwoju systemów AI (Trustworthy AI) i nadchodzącymi regulacjami (AI Act) oraz prototypowego zastosowania tego modelu dla administracji publicznej w formie polskojęzyczego inteligentnego asystenta petenta”.

Według ministerstwa realizacja prac nad polskim modelem językowym nie może być postrzegana przez pryzmat globalnej konkurencji rynkowej.

„Globalne modele językowe stanowią punkt wyjścia dla tworzenia specjalistycznych rozwiązań czy to sektorowych czy też językowych, dla języków stosowanych w poszczególnych państwach, dla zachowania wartości kulturowych oraz suwerenności technologicznej. Dla uwzględnienia unikalnych potrzeb języka polskiego i generowania treści w tym języku w sposób zrozumiały, poprawny, bez zapożyczeń niezbędne są prace, które będą stanowić uzupełnienie rozwiązań globalnych” – argumentuje resort.

Model językowy z lokalnymi zastosowaniami

Także zdaniem Sebastiana Kondrackiego, dyrektora ds. innowacji w Deviniti, współtwórcy projektu SpeakLeash i lidera grupy badawczej ds. AI w SoDA, rozwój lokalnego modelu językowego PLLuM nie powinien być postrzegany przez pryzmat bezpośredniej konkurencji z globalnymi modelami, ale raczej jako uzupełnienie dostępnych na rynku narzędzi AI.

- Zamiast obawiać się, że Polska wpadnie w spiralę, w której nigdy nie będzie nadążać za globalną konkurencją, należy postrzegać PLLuM jako strategiczną inwestycję w rozwój narzędzi AI, które są ściśle dostosowane do polskich potrzeb i specyfiki. To nie tylko umożliwi efektywniejsze wykorzystanie sztucznej inteligencji w kontekście lokalnym, ale również otworzy drogę do innowacji i rozwoju na arenie międzynarodowej – twierdzi Sebastian Kondracki.

Realizację prac nad lokalnym dużym modelem językowym, takim jak PLLuM, ekspert uzasadnia m.in. możliwością dostosowania narzędzia do specyfiki języka polskiego.

- Polska stoi przed wyzwaniem dostosowania globalnych modeli do swoich unikalnych potrzeb językowych i branżowych, co jest utrudnione przez ograniczoną reprezentację języka polskiego w globalnych modelach. Dodatkowo, wprowadzenie przepisów takich jak AI ACT może spowodować, że globalne modele staną się niezgodne z europejskimi regulacjami, a dostosowanie ich do nowych wymogów prawnych może być czasochłonne i skomplikowane. Globalne rozwiązania często bazują na chmurze, co może stanowić problem dla polskich przedsiębiorstw podlegających szczególnym regulacjom, takim jak tajemnica bankowa czy lekarska. Lokalne modele mogą natomiast zaoferować większą elastyczność i bezpieczeństwo w zakresie przetwarzania danych wrażliwych – twierdzi Sebastian Kondracki.

Finansowanie projektów AI kształci lokalnych specjalistów

Globalne modele językowe są rozwijane głównie poprzez treści w języku angielskim. I w tym kierunku są także optymalizowane.

- Każdy, kto próbował używać narzędzi np. do transkrypcji, generowania nagrań głosu, widzi, że różnica jakościowa między materiałami tworzonymi po angielsku a tymi tworzonymi np. po polsku jest duża. Kto lepiej zadba o nasz język, jeśli nie my sami – mówi Paweł Peryga, head of DevOps w Unity Group.

W grę wchodzą także opcje korzystania z rozwiązań, korzystne głównie dla dostawców.

- Najgłośniejsi rynkowo gracze dostarczają swoje usługi oparte o LLM bez ujawniania samego źródła działania modelu (open source). Dostarczane jest zamknięte rozwiązanie, któremu możemy podać coś na wejściu i uzyskać coś na wyjściu. Doskonałym przykładem jest popularny Chat GPT od OpenAI czy Gemini od Google. Powoduje to, że możemy łatwo używać tego typu modeli oraz próbować budować dzięki nim własne usługi czy narzędzia. Pozwala to na szybki start i brak konieczności dogłębnego rozumienia działania modeli LLM czy kompetencji w ich budowaniu. Wiąże się to jednak z dużymi ograniczeniami np. nie możemy modelu modyfikować, jesteśmy zdani na łaskę dostawcy, jeśli chodzi o sposób działania oraz ewentualną cenę, a także wprowadzane bariery użycia – podkreśla Paweł Peryga.

Jego zdaniem konieczne jest inicjowanie lokalnych działań, a nie czekanie na rozwój wydarzeń.

– Pamiętajmy, że przy gorączce złota można również doskonale zarabiać na sprzedaży łopat, a nie na samym złocie. Może na PLLuM nie musimy zarobić wprost. Pomyślmy, ilu specjalistów może się przy nim wykształcić i ile nowych rzeczy mogą oni stworzyć wokół - konkluduje Paweł Peryga.