Kraje G7 uzgadniają kodeks dotyczący AI

Marta Maj
opublikowano: 2023-10-31 15:15

Europa, Japonia, Kanada i USA chcą, by firmy zajmujące się sztuczną inteligencją zobowiązały się między innymi do jej testowania, przejrzystości i wprowadzenia znaków wodnych.

Przeczytaj artykuł i dowiedz się:

  • jakie postulaty dotyczące postępowania z AI wysuwają przywódcy krajów G7
  • do czego zobowiążą się firmy, które zaakceptują kodeks
  • jaki rezultat ma przynieść opracowany przez grupę dokument
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Przywódcy krajów Grupy Siedmiu (G7), w skład której wchodzą Kanada, Francja, Niemcy, Włochy, Japonia, Wielka Brytania i USA, a także UE, opublikowali wytyczne i jedenastopunktowy kodeks postępowania dotyczący sztucznej inteligencji. Ma to na celu promowanie bezpiecznej i godnej zaufania technologii AI na całym świecie.

Kodeks jest jednym z rezultatów tak zwanego procesu AI w Hiroszimie – forum ministrów G7 pod przewodnictwem Japonii, które rozpoczęło się w maju. Jego celem było opracowanie zabezpieczeń we wszystkich krajach członkowskich, z których niektóre mają szczególnie różne podejścia regulacyjne do AI.

Ocena zagrożeń i przestrzeganie kodeksu

Dokument zawiera wytyczne działań, do jakich będą zachęcane firmy zajmujące się sztuczną inteligencją w krajach G7. Wzywa przedsiębiorstwa, w tym także start-upy, do oceny zagrożeń wynikających z ich modeli sztucznej inteligencji oraz zajęcia się nimi. Ponadto wskazuje na potrzebę zidentyfikowania wzorców nadużyć, które mogą się pojawić, gdy konsumenci zaczną korzystać z ich produktów AI. Rządy G7 starają się przekonać branżowe firmy do przestrzegania kodeksu, ale jak na razie lista sygnatariuszy nie została opublikowana.

- Potencjalne korzyści sztucznej inteligencji dla obywateli i gospodarki są ogromne. Jednak przyspieszenie możliwości sztucznej inteligencji niesie ze sobą także nowe wyzwania – podkreśla Ursula von der Leyen, przewodnicząca Komisji Europejskiej.

Wieloetapowość i bezpieczeństwo

Przedsiębiorstwa, które zgadzają się na przestrzeganie kodeksu, powinny testować swoje systemy sztucznej inteligencji na kilku etapach jej cyklu życia. Powinny też zwracać szczególną uwagę, czy technologia przez nich opracowana może w jakiś sposób zostać wykorzystana przez przestępców np. do opracowania broni chemicznej, biologicznej, radiologicznej lub nuklearnej, przeprowadzania cyberataków, czy ingerowania w krajową infrastrukturę krytyczną.

Co więcej, od twórców modeli sztucznej inteligencji wymagane jest przechowywanie dokumentów dotyczących incydentów związanych z AI, ale także publikowanie raportów przejrzystości, opisujących możliwości wszystkich nowych, znaczących wersji zaawansowanych systemów algorytmicznych.

Firmy będą miały obowiązek oznaczania treści generowanych przez ich modele AI znakami wodnymi lub innymi zastrzeżeniami. Ma to zapobiec wprowadzaniu ludzi w błąd. Sygnatariusze zobowiązaliby się również do inwestowania w bezpieczeństwo cybernetyczne i fizyczne, aby zapobiec kradzieży ich algorytmów i danych. Przywódcy G7 stwierdzili, że zarówno zasady, jak i kodeks zostaną w razie potrzeby zaktualizowane, aby dotrzymać tempa rozwoju sztucznej inteligencji.