Firma opublikowała w poniedziałek zestaw wytycznych wyjaśniających, w jaki sposób producent ChatGPT planuje radzić sobie z ryzykiem związanym z najpotężniejszymi systemami sztucznej inteligencji.
Niedawno ogłoszony zespół “gotowości” OpenAI poinformował, że będzie stale oceniać swoje systemy AI, aby dowiedzieć się, jak radzą sobie w czterech różnych kategoriach, w tym potencjalnych kwestiach cyberbezpieczeństwa, a także w przypadkach zagrożeń chemicznych, nuklearnych i biologicznych. Zamierza też eliminować ryzyko związane z technologią, w szczególności to, które określa “katastrofalnym”. Według definicji startupu jest to takie, które “może spowodować setki miliardów dolarów szkód gospodarczych lub doprowadzić do poważnych obrażeń lub śmierci wielu osób”.

