AI bez moralności

opublikowano: 26-09-2019, 22:00

Nowa technologia to również nowe dylematy. W erze błyskawicznego rozwoju są one coraz bardziej zawiłe

IX EUROPEJSKIE FORUM NOWYCH IDEI

Jak tworzyć inteligentne algorytmy, by były bezstronne i niedyskryminujące — zapytali organizatorzy Europejskiego Forum Nowych Idei. Zdaniem panelistów — Wandy Buk, wiceminister cyfryzacji (od lewej), Aleksandry Przegalińskiej z Akademii Leona Koźmińskiego, Michała Boniego, wykładowcy SWPS, oraz Witolda Drożdża z Orange Polska — zadanie może nie być łatwe, bo obcować z nową technologią dopiero się uczymy, odkrywamy jej zalety i wady.
Zobacz więcej

NOWE ALGORYTMY:

Jak tworzyć inteligentne algorytmy, by były bezstronne i niedyskryminujące — zapytali organizatorzy Europejskiego Forum Nowych Idei. Zdaniem panelistów — Wandy Buk, wiceminister cyfryzacji (od lewej), Aleksandry Przegalińskiej z Akademii Leona Koźmińskiego, Michała Boniego, wykładowcy SWPS, oraz Witolda Drożdża z Orange Polska — zadanie może nie być łatwe, bo obcować z nową technologią dopiero się uczymy, odkrywamy jej zalety i wady. FOT. MATEUSZ OCHOCKI

Wyobraźmy sobie, że spełnił się scenariusz jednego z odcinków popularnego serialu „Czarne lustro” i każde zachowanie człowieka jest za pomocą ratingowej aplikacji oceniane przez innych, a wskaźnik popularności decyduje o możliwości przynależności do danej grupy społecznej czy choćby wynajęcia mieszkania w lepszej dzielnicy. Czy w pozafilmowych realiach byłoby to etyczne? A przecież technologia pozwala nawet pójść o krok dalej i ocenę — na podstawie regularnie zbieranych danych — oddać w ręce sztucznej inteligencji (AI).

— Często się nam wydaje, że rozwiązania bazujące na sztucznej inteligencji to wciąż pieśń przyszłości, podobnie jak zagrożenia wynikające z korzystania z nich. A powstają już systemy, które np. na podstawie trzech zdjęć z 90-procentową skutecznością potrafią ocenić, czy dana osoba jest hetero— czy homoseksualna, co stanowi naruszenie prywatności — przypomniała Wanda Buk, wiceminister cyfryzacji podczas panelu dyskusyjnego poświęconego etycznemu wymiarowi rozwoju sztucznej inteligencji na Europejskim Forum Nowych Idei (EFNI), odbywającym się właśnie w Sopocie.

Maszyna sama się uczy

Pod dyskusję coraz częściej poddaje się również moralne i prawne dylematy związanez jazdą autonomicznymi samochodami — kto będzie odpowiedzialny za wypadek — producent auta, właściciel? Jakie decyzje podczas jazdy będzie zmuszona podejmować maszyna? Takich wątpliwości będzie w przyszłości przybywać.

— Czy sztuczna inteligencja będzie etyczna — o tym zadecyduje człowiek. Problem w tym, że nie zawsze twórcy technologii będą w stanie wyjaśnić, w jaki sposób w samouczących się maszynach zaszły pewne procesy — zaznaczyła Aleksandra Przegalińska, panelistka reprezentująca Akademię Leona Koźmińskiego, specjalistka w zakresie AI.

— Wiele będzie też zależeć od tego, jakimi danymi będą zasilane systemy — dodała Wanda Buk.

Przywołała przykład rozwiązania wspierającego proces rekrutacyjny w jednej z firm. Po pewnym czasie okazało się, że z jego pomocą zatrudniani są sami mężczyźni. Korzystało ono z danych historycznych, a w przeszłości w wielu profesjach udział kobiet był ograniczony. Aleksandra Przegalińska przyznała, że zespoły, które projektują rozwiązanie oparte na sztucznej inteligencji, nie zawsze wiedzą, jak się ono rozwinie.

bc64433c-8c2e-11e9-bc42-526af7764f64
Puls Innowacji
Najważniejsze informacje o rozwoju i finansowaniu nowych technologii. Ciekawostki ze świata gigantów, start-upów i funduszy VC
ZAPISZ MNIE
Puls Innowacji
autor: Anna Bełcik
Wysyłany raz w tygodniu
Anna Bełcik
Najważniejsze informacje o rozwoju i finansowaniu nowych technologii. Ciekawostki ze świata gigantów, start-upów i funduszy VC
ZAPISZ MNIE

Administratorem Pani/a danych osobowych będzie Bonnier Business (Polska) Sp. z o. o. (dalej: my). Adres: ul. Kijowska 1, 03-738 Warszawa.

Kliknij w link w wiadomości, aby potwierdzić subskrypcję newslettera.
Jeżeli nie otrzymasz wiadomości w ciągu kilku minut, prosimy o sprawdzenie folderu SPAM.

— Dzisiaj jeszcze odpowiedzialność przypisana jest do twórcy, ale w przyszłości może zostać rozproszona — dodała Aleksandra Przegalińska.

Cała nadzieja w prawie

Michał Boni, obecnie wykładowca SWPS, zauważył, że pierwszy krok w systemowej ochronie praw użytkowników nowych technologii postawiono już, wprowadzając unijne rozporządzenie RODO. Chroni ich dane osobowe i konkretnie wskazuje, jakie są prawa obywateli. Edukacja społeczeństwa jest teraz potrzebna w odniesieniu do sztucznej inteligencji. Konieczne jest wskazanie, jak można się chronić przed negatywnym oddziaływaniem technologii.

Dzisiaj granica między tym, jakie informacje o ludziach mogą, a jakich nie powinny przetwarzać systemy sztucznej inteligencji, jest nadal bardzo chwiejna. A ewolucja sztucznej inteligencji będzie następować szybko, tym bardziej że nierzadko budżety przeznaczane przez największe firmy, np. Amazon, na kreowanie innowacji oraz badania i rozwój przekraczają wydatki na ten cel całych państw.

Zdaniem Michała Boniego potrzebne są szybkie działania legislacyjne, a tam, gdzie nie można ściśle zdefiniować granic etycznych związanych z tworzeniem lub użytkowaniem nowych technologii — rozpisywanie kodeksów postępowania. Zdaniem panelistów jest jeden pozytywny aspekt głośnej afery Cambridge Analytica, związanej z bezprawnym wykorzystaniem danych użytkowników Facebooka.

Na całym świecie otworzyła ona ludziom oczy na zagrożenia, jakie niosą ze sobą systemy bazujące na ogromnych zbiorach danych.

— Pamiętamy jeszcze, jak z trudem przyzwyczajaliśmy się do powszechnego korzystania z internetu i cyfryzacji, potem pojawiły się smartfony. Teraz nadchodzi czas, by zapanować nad sztuczną inteligencją — dodał Witold Drożdż, członek zarządu Orange Polska.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Anna Bełcik

Polecane

Inspiracje Pulsu Biznesu