Chatbot Meta Platforms powtarzał antysemickie i spiskowe teorie

Bloomberg, MD
opublikowano: 2022-08-08 21:28

Zrobiło się głośno o opartym na sztucznej inteligencji chatbocie udostępnionym zaledwie kilka dni temu przez Meta Platforms, donosi Bloomberg.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

BlenderBot 3, który został w piątek udostępniony użytkownikom w USA, stał się właśnie bohaterem mediów po tym, jak podczas rozmowy z dziennikarzem The Wall Street Journal oświadczył, że Donald Trump nadal jest prezydentem i „zawsze nim będzie”. Oznajmił także, że Żydzi są „nadreprezentowani wśród najbogatszych Amerykanów”. Chatbot nie oszczędził również spółki, która go stworzyła. Oskarżył Facebooka, że rozprzestrzenia fake newsy, a współtwórcę serwisu społecznościowego i prezesa Meta Platforms Marka Zuckerberga określił mianem „przerażającego i manipulanta”. Media podkreślają jednocześnie, że BlenderBot 3 wygłaszał całkowicie sprzeczne opinie podczas konwersacji z różnymi rozmówcami.

Meta Platforms przyznało, że jego chatbot, który wciąż jest rozwijany i znajduje się w fazie eksperymentalnej, bazuje na „wiedzy” z Internetu i może powtarzać obraźliwe rzeczy. Dlatego spółka wymaga od użytkowników BlenderBot 3, aby potwierdzili przed konwersacją, że rozumieją iż chatbot może głosić rzeczy nieprawdziwe lub obraźliwe oraz zobowiązali się, że powiadomią o tym Meta Platforms w celu eliminacji takich treści.

Bloomberg zwraca uwagę, że doniesienia o BlenderBot 3 nie są niczym nowym w historii chatbotów. Przypomina, że w 2016 roku opracowany przez Microsoft chatbot Tay został wyłączony 48 godzin po udostępnieniu publiczności, bo zaczął wychwalać Adolfa Hitlera, a także głosić rasistowskie i mizoginiczne poglądy.