Giganci technologiczni na czele rządowej inicjatywy: nowa era standardów AI

Oskar NawalanyOskar Nawalany
opublikowano: 2024-02-08 12:53

Departament Handlu USA ogłosił, że wiodące amerykańskie przedsiębiorstwa technologiczne specjalizujące się w sztucznej inteligencji dołączą do rządowych inicjatyw mających na celu opracowanie standardów dotyczących AI – podaje agencja Bloomberg.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

W skład nowo powołanego Instytutu Bezpieczeństwa AI (AI Safety Institute) wchodzą takie firmy jak m.in. OpenAI, Anthropic, Microsoft, Meta Platforms, Google z Alphabet, a także Apple, Amazon czy IBM. Łącznie organizacja liczy ponad 200 członków.

Liderzy branży AI będą współpracować z Narodowym Instytutem Standardów i Technologii (National Institute of Standards and Technology, w skrócie NIST), stanowiącym część Departamentu Handlu, oraz z innymi podmiotami technologicznymi, organizacjami społeczeństwa obywatelskiego, ekspertami naukowymi oraz przedstawicielami władz stanowych i lokalnych w celu określenia standardów dla sztucznej inteligencji. Inicjatywa ta odpowiadać ma na wezwanie prezydenta Bidena do działania, mającego na celu ustanowienie standardów bezpieczeństwa i ochronę innowacyjności w USA.

W kontekście szybkiego rozwoju technologii AI, która ma potencjał do rewolucjonizowania wielu sektorów, rząd USA stara się ustalić ramy regulacyjne, które będą chronić obywateli przed zagrożeniami, takimi jak dezinformacja czy naruszenia prywatności, jednocześnie promując wykorzystanie AI do postępu w różnych dziedzinach, w tym w opiece zdrowotnej czy edukacji. Prezydent Biden podkreśla, że postęp technologiczny powinien iść w parze z odpowiedzialnością, a współpraca między sektorem prywatnym, rządem i społeczeństwem obywatelskim jest kluczowa w tworzeniu standardów dotyczących bezpiecznej i zaufanej sztucznej inteligencji.

Stany Zjednoczone zamierzają umocnić swoją pozycję lidera w dziedzinie sztucznej inteligencji

Inicjatywa ta jest częścią obszernego rozporządzenia podpisanego przez prezydenta Bidena w ubiegłym roku, które zobowiązuje Departament Handlu do wspierania tworzenia standardów bezpieczeństwa i procedur testowania modeli AI oraz zasad dotyczących znakowania treści generowanych przez sztuczną inteligencję. W pracach nad bezpieczeństwem AI uczestniczą również znaczące startupy technologiczne, w tym Scale AI, dostarczające dane do trenowania modeli generatywnych AI, oraz Altana AI, zajmująca się analizą globalnych łańcuchów dostaw z wykorzystaniem AI. Jak stwierdził John Brennan, dyrektor generalny Scale AI, działania te mają na celu nie tylko promowanie etycznego wykorzystania sztucznej inteligencji, ale również umocnienie pozycji Stanów Zjednoczonych jako globalnego lidera w tej dziedzinie.