Przywódcy krajów Grupy Siedmiu (G7), w skład której wchodzą Kanada, Francja, Niemcy, Włochy, Japonia, Wielka Brytania i USA, a także UE, opublikowali wytyczne i jedenastopunktowy kodeks postępowania dotyczący sztucznej inteligencji. Ma to na celu promowanie bezpiecznej i godnej zaufania technologii AI na całym świecie.
Kodeks jest jednym z rezultatów tak zwanego procesu AI w Hiroszimie – forum ministrów G7 pod przewodnictwem Japonii, które rozpoczęło się w maju. Jego celem było opracowanie zabezpieczeń we wszystkich krajach członkowskich, z których niektóre mają szczególnie różne podejścia regulacyjne do AI.
Ocena zagrożeń i przestrzeganie kodeksu
Dokument zawiera wytyczne działań, do jakich będą zachęcane firmy zajmujące się sztuczną inteligencją w krajach G7. Wzywa przedsiębiorstwa, w tym także start-upy, do oceny zagrożeń wynikających z ich modeli sztucznej inteligencji oraz zajęcia się nimi. Ponadto wskazuje na potrzebę zidentyfikowania wzorców nadużyć, które mogą się pojawić, gdy konsumenci zaczną korzystać z ich produktów AI. Rządy G7 starają się przekonać branżowe firmy do przestrzegania kodeksu, ale jak na razie lista sygnatariuszy nie została opublikowana.
- Potencjalne korzyści sztucznej inteligencji dla obywateli i gospodarki są ogromne. Jednak przyspieszenie możliwości sztucznej inteligencji niesie ze sobą także nowe wyzwania – podkreśla Ursula von der Leyen, przewodnicząca Komisji Europejskiej.
Wieloetapowość i bezpieczeństwo
Przedsiębiorstwa, które zgadzają się na przestrzeganie kodeksu, powinny testować swoje systemy sztucznej inteligencji na kilku etapach jej cyklu życia. Powinny też zwracać szczególną uwagę, czy technologia przez nich opracowana może w jakiś sposób zostać wykorzystana przez przestępców np. do opracowania broni chemicznej, biologicznej, radiologicznej lub nuklearnej, przeprowadzania cyberataków, czy ingerowania w krajową infrastrukturę krytyczną.
Co więcej, od twórców modeli sztucznej inteligencji wymagane jest przechowywanie dokumentów dotyczących incydentów związanych z AI, ale także publikowanie raportów przejrzystości, opisujących możliwości wszystkich nowych, znaczących wersji zaawansowanych systemów algorytmicznych.
Firmy będą miały obowiązek oznaczania treści generowanych przez ich modele AI znakami wodnymi lub innymi zastrzeżeniami. Ma to zapobiec wprowadzaniu ludzi w błąd. Sygnatariusze zobowiązaliby się również do inwestowania w bezpieczeństwo cybernetyczne i fizyczne, aby zapobiec kradzieży ich algorytmów i danych. Przywódcy G7 stwierdzili, że zarówno zasady, jak i kodeks zostaną w razie potrzeby zaktualizowane, aby dotrzymać tempa rozwoju sztucznej inteligencji.

