IX EUROPEJSKIE FORUM NOWYCH IDEI

Wyobraźmy sobie, że spełnił się scenariusz jednego z odcinków popularnego serialu „Czarne lustro” i każde zachowanie człowieka jest za pomocą ratingowej aplikacji oceniane przez innych, a wskaźnik popularności decyduje o możliwości przynależności do danej grupy społecznej czy choćby wynajęcia mieszkania w lepszej dzielnicy. Czy w pozafilmowych realiach byłoby to etyczne? A przecież technologia pozwala nawet pójść o krok dalej i ocenę — na podstawie regularnie zbieranych danych — oddać w ręce sztucznej inteligencji (AI).
— Często się nam wydaje, że rozwiązania bazujące na sztucznej inteligencji to wciąż pieśń przyszłości, podobnie jak zagrożenia wynikające z korzystania z nich. A powstają już systemy, które np. na podstawie trzech zdjęć z 90-procentową skutecznością potrafią ocenić, czy dana osoba jest hetero— czy homoseksualna, co stanowi naruszenie prywatności — przypomniała Wanda Buk, wiceminister cyfryzacji podczas panelu dyskusyjnego poświęconego etycznemu wymiarowi rozwoju sztucznej inteligencji na Europejskim Forum Nowych Idei (EFNI), odbywającym się właśnie w Sopocie.
Maszyna sama się uczy
Pod dyskusję coraz częściej poddaje się również moralne i prawne dylematy związanez jazdą autonomicznymi samochodami — kto będzie odpowiedzialny za wypadek — producent auta, właściciel? Jakie decyzje podczas jazdy będzie zmuszona podejmować maszyna? Takich wątpliwości będzie w przyszłości przybywać.
— Czy sztuczna inteligencja będzie etyczna — o tym zadecyduje człowiek. Problem w tym, że nie zawsze twórcy technologii będą w stanie wyjaśnić, w jaki sposób w samouczących się maszynach zaszły pewne procesy — zaznaczyła Aleksandra Przegalińska, panelistka reprezentująca Akademię Leona Koźmińskiego, specjalistka w zakresie AI.
— Wiele będzie też zależeć od tego, jakimi danymi będą zasilane systemy — dodała Wanda Buk.
Przywołała przykład rozwiązania wspierającego proces rekrutacyjny w jednej z firm. Po pewnym czasie okazało się, że z jego pomocą zatrudniani są sami mężczyźni. Korzystało ono z danych historycznych, a w przeszłości w wielu profesjach udział kobiet był ograniczony. Aleksandra Przegalińska przyznała, że zespoły, które projektują rozwiązanie oparte na sztucznej inteligencji, nie zawsze wiedzą, jak się ono rozwinie.
— Dzisiaj jeszcze odpowiedzialność przypisana jest do twórcy, ale w przyszłości może zostać rozproszona — dodała Aleksandra Przegalińska.
Cała nadzieja w prawie
Michał Boni, obecnie wykładowca SWPS, zauważył, że pierwszy krok w systemowej ochronie praw użytkowników nowych technologii postawiono już, wprowadzając unijne rozporządzenie RODO. Chroni ich dane osobowe i konkretnie wskazuje, jakie są prawa obywateli. Edukacja społeczeństwa jest teraz potrzebna w odniesieniu do sztucznej inteligencji. Konieczne jest wskazanie, jak można się chronić przed negatywnym oddziaływaniem technologii.
Dzisiaj granica między tym, jakie informacje o ludziach mogą, a jakich nie powinny przetwarzać systemy sztucznej inteligencji, jest nadal bardzo chwiejna. A ewolucja sztucznej inteligencji będzie następować szybko, tym bardziej że nierzadko budżety przeznaczane przez największe firmy, np. Amazon, na kreowanie innowacji oraz badania i rozwój przekraczają wydatki na ten cel całych państw.
Zdaniem Michała Boniego potrzebne są szybkie działania legislacyjne, a tam, gdzie nie można ściśle zdefiniować granic etycznych związanych z tworzeniem lub użytkowaniem nowych technologii — rozpisywanie kodeksów postępowania. Zdaniem panelistów jest jeden pozytywny aspekt głośnej afery Cambridge Analytica, związanej z bezprawnym wykorzystaniem danych użytkowników Facebooka.
Na całym świecie otworzyła ona ludziom oczy na zagrożenia, jakie niosą ze sobą systemy bazujące na ogromnych zbiorach danych.
— Pamiętamy jeszcze, jak z trudem przyzwyczajaliśmy się do powszechnego korzystania z internetu i cyfryzacji, potem pojawiły się smartfony. Teraz nadchodzi czas, by zapanować nad sztuczną inteligencją — dodał Witold Drożdż, członek zarządu Orange Polska.