Meta wprowadziła narzędzie do budowania chatbotów i innych produktów opartych na sztucznej inteligencji

Oskar NawalanyOskar Nawalany
opublikowano: 2023-03-29 15:03

Firma Meta Platforms wprowadziła narzędzie badawcze do budowania chatbotów i innych produktów opartych na sztucznej inteligencji. Gigant technologiczny stara się promować własną technologię, która jest też rozwijana przez jego konkurentów, takich jak Google i Microsoft – podaje agencja Bloomberg.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja
David Paul Morris/Bloomberg

Narzędzie LLaMA to najnowszy wynalazek firmy Meta w dziedzinie dużych modeli językowych.

Według rzecznika firmy Meta, LLaMA na razie nie jest używany w produktach spółki, w tym w sieciach społecznościowych, na Facebooku i Instagramie. Firma planuje udostępnić technologię badaczom sztucznej inteligencji.

Duże modele językowe są ogromnymi systemami sztucznej inteligencji, które wysysają potężne ilości tekstu (z artykułów prasowych, postów w mediach społecznościowych lub innych źródeł internetowych) i wykorzystują ten materiał pisemny do szkolenia oprogramowania, które samo przewiduje i generuje treść po otrzymaniu zapytania. Modele mogą być wykorzystywane do zadań takich jak pisanie esejów, generowanie konwersacji w chatbocie czy sugerowanie kodu programowania komputerowego.

Technologia stała się popularna w ostatnich miesiącach, ponieważ coraz więcej firm zaczęło ją rozwijać i wprowadzać testy produktów opartych na modelach, podkreślając nowy obszar konkurencji między technologicznymi gigantami. Microsoft inwestuje miliardy w OpenAI, twórcę Chatu GPT. Producent oprogramowania w tym miesiącu zaprezentował wersję testową swojej wyszukiwarki Bing działającej w technologii czatu OpenAI.

Meta wcześniej wprowadziła duży model językowy o nazwie OPT-175B, ale LLaMA to nowszy i bardziej zaawansowany system. Inny model Meta wydany pod koniec zeszłego roku, Galactica, został szybko wycofany po tym, jak badacze odkryli, że rutynowo udostępnia stronnicze lub niedokładne informacje osobom, które go używały.