OpenAI: zarząd może uchylać decyzję kierownictwa co do bezpieczeństwa nowych produktów

Alicja Skiba
opublikowano: 2023-12-18 21:28

OpenAI poinformował, że zarząd może decydować o wstrzymaniu wypuszczenia modeli sztucznej inteligencji nawet jeśli kierownictwo uzna, że technologia jest bezpieczna.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Firma opublikowała w poniedziałek zestaw wytycznych wyjaśniających, w jaki sposób producent ChatGPT planuje radzić sobie z ryzykiem związanym z najpotężniejszymi systemami sztucznej inteligencji.

Niedawno ogłoszony zespół “gotowości” OpenAI poinformował, że będzie stale oceniać swoje systemy AI, aby dowiedzieć się, jak radzą sobie w czterech różnych kategoriach, w tym potencjalnych kwestiach cyberbezpieczeństwa, a także w przypadkach zagrożeń chemicznych, nuklearnych i biologicznych. Zamierza też eliminować ryzyko związane z technologią, w szczególności to, które określa “katastrofalnym”. Według definicji startupu jest to takie, które “może spowodować setki miliardów dolarów szkód gospodarczych lub doprowadzić do poważnych obrażeń lub śmierci wielu osób”.