"Sztuczna inteligencja może być gorsza niż wojna nuklearna" - mówią czołowi menedżerowie AI

Oskar NawalanyOskar Nawalany
opublikowano: 2023-05-30 18:32

We wtorek czołowi menedżerowie zajmujący się sztuczną inteligencją, w tym prezes OpenAI Sam Altman, dołączyli do ekspertów i profesorów w ostrzeganiu przed „ryzykiem wyginięcia ludzkości za sprawą sztucznej inteligencji”. Zrównali też AI z zagrożeniami stwarzanymi przez pandemie i wojnę nuklearną – podaje agencja Reuters.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja
Adobe Stock

„Ograniczenie ryzyka wyginięcia ludzkości spowodowanego sztuczną inteligencją powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna” – napisało w liście, z ponad 350 sygnatariuszami, opublikowanym przez organizację non-profit o nazwie Centrum Bezpieczeństwa AI.

Oprócz Altmana wśród sygnatariuszy byli prezesi firm AI DeepMind i Anthropic oraz dyrektorzy Microsoftu i Google’a. Można także wymienić Geoffreya Hintona i Yoshuę Bengio – dwóch z trzech tak zwanych „ojców chrzestnych sztucznej inteligencji”, którzy otrzymali nagrodę Turinga 2018 za pracę nad procesem „głębokim uczenia” – oraz profesorowie z różnych instytucji, od Harvardu po chiński Uniwersytet Tsinghua.

Elon Musk na czele ostrzegających przed rozwojem sztucznej inteligencji

Elon Musk i grupa ekspertów AI oraz dyrektorzy branżowi już w kwietniu wymienili potencjalne zagrożenia dla społeczeństwa związane ze sztuczną inteligencją.

Niedawny rozwój sztucznej inteligencji stworzył bowiem narzędzia, które zdaniem zwolenników mogą być wykorzystywane w aplikacjach, od diagnostyki medycznej po pisanie opinii prawnych, ale wywołał także obawy, że technologia może prowadzić do m.in. wielu naruszeń prywatności czy kampanii dezinformacji.