Chatbot Meta Platforms powtarzał antysemickie i spiskowe teorie

Bloomberg, MD
opublikowano: 08-08-2022, 21:28
Play icon
Posłuchaj
Speaker icon
Close icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl

Zrobiło się głośno o opartym na sztucznej inteligencji chatbocie udostępnionym zaledwie kilka dni temu przez Meta Platforms, donosi Bloomberg.

BlenderBot 3, który został w piątek udostępniony użytkownikom w USA, stał się właśnie bohaterem mediów po tym, jak podczas rozmowy z dziennikarzem The Wall Street Journal oświadczył, że Donald Trump nadal jest prezydentem i „zawsze nim będzie”. Oznajmił także, że Żydzi są „nadreprezentowani wśród najbogatszych Amerykanów”. Chatbot nie oszczędził również spółki, która go stworzyła. Oskarżył Facebooka, że rozprzestrzenia fake newsy, a współtwórcę serwisu społecznościowego i prezesa Meta Platforms Marka Zuckerberga określił mianem „przerażającego i manipulanta”. Media podkreślają jednocześnie, że BlenderBot 3 wygłaszał całkowicie sprzeczne opinie podczas konwersacji z różnymi rozmówcami.

Meta Platforms przyznało, że jego chatbot, który wciąż jest rozwijany i znajduje się w fazie eksperymentalnej, bazuje na „wiedzy” z Internetu i może powtarzać obraźliwe rzeczy. Dlatego spółka wymaga od użytkowników BlenderBot 3, aby potwierdzili przed konwersacją, że rozumieją iż chatbot może głosić rzeczy nieprawdziwe lub obraźliwe oraz zobowiązali się, że powiadomią o tym Meta Platforms w celu eliminacji takich treści.

Bloomberg zwraca uwagę, że doniesienia o BlenderBot 3 nie są niczym nowym w historii chatbotów. Przypomina, że w 2016 roku opracowany przez Microsoft chatbot Tay został wyłączony 48 godzin po udostępnieniu publiczności, bo zaczął wychwalać Adolfa Hitlera, a także głosić rasistowskie i mizoginiczne poglądy.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Polecane