Sztuczna inteligencja niemal natychmiast po “narodzinach” zawładnęła zbiorową wyobraźnią, jednak równie szybko na jaw zaczęły wychodzić jej braki. Organizacje pozarządowe oraz niezależni eksperci dostrzegli, że algorytmy nie są doskonałe – potrafią być rasistowskie czy seksistowskie. Początkowo problem etyczności AI był lekceważony i pomijany. Niedawno przedostał się do mediów, w zbyt małym jednak stopniu - do świadomości użytkowników. Tymczasem algorytmy mają szansę zdominować naszą przyszłość, dlatego warto dowiedzieć się, w jaki sposób funkcjonują oraz kto i jak ustala ramy ich działania.
Technologia moralności
Główne zarzuty kierowane pod adresem systemów opartych na sztucznej inteligencji to powielanie stereotypów i pogłębianie podziałów w społeczeństwie. Coraz częściej słyszymy, że AI powinna być etyczna - godna zaufania i pożyteczna. W takim razie, czy etykę można zaprogramować?
- Sztuczna inteligencja, opierając się na algorytmach, jest pozbawiona emocji, uprzedzeń i nieodłącznych ludzkich słabości, co w teorii może sugerować, że ma potencjał do podejmowania bardziej obiektywnych i etycznych decyzji. Jednak jest tworzona przez ludzi i często odzwierciedla nasze wartości oraz uprzedzenia. Dzisiaj widzimy wiele przykładów, gdy AI niestety powtarza ludzkie błędy. W przyszłości, z lepszym zrozumieniem i odpowiednim kształtowaniem AI, może być ona bardziej konsekwentna w etycznym działaniu, ale zawsze będzie zależała od ludzkich wartości wprowadzonych w jej projektowanie – twierdzi prof. Aleksandra Przegalińska, prorektor Akademii Leona Koźmińskiego oraz starszy pracownik naukowy w Harvard University.
Statystyczna natura
Niejednokrotnie algorytmy są opisywane jako neutralne, dzięki czemu uważa się, że ich zastosowanie jest możliwe w różnych dziedzinach życia społecznego. Często pomija się jednak fakt, że sztuczna inteligencja opiera się na statystyce i danych historycznych, co udowadnia, że neutralne algorytmy nie istnieją.
Przykładem algorytmicznej niesprawiedliwości może być system przydzielania mieszkań osobom w kryzysie bezdomności w Los Angeles zastosowany w 2021 r. Celem wykorzystania AI w tym procesie było wyeliminowanie biurokracji oraz kolejek, a także przyspieszenie procesu przyznawania lokali. Z założenia algorytm miał być neutralny przy podejmowaniu decyzji, jednak w trakcie okazało się, że przydzielał mieszkania głównie osobom, których staż bezdomności był stosunkowo krótki, i które według systemu miały szansę na wyjście z kryzysu. Mieszkań nie dostawali natomiast ci, którzy pozostawali w takiej sytuacji od dawna.
- Unikanie uprzedzeń w AI to proces wymagający czujności. Kluczowe kroki to zróżnicowane dane treningowe, użycie narzędzi wykrywających uprzedzenia oraz transparentnych algorytmów. Ważna jest rola multidyscyplinarnych zespołów i stałego monitoringu oraz uwzględnianie opinii użytkowników – mówi Wojciech Bednaruk, lider zespołu "Human-centered Technology" w PwC oraz wykładowca akademicki w Polsko-Japońskiej Akademii Technik Komputerowych.
Dywersyfikacja i praca zespołowa
Etyczna sztuczna inteligencja powinna wyposażać systemy w zdolności do działań zgodnych z ludzkimi wartościami i respektować prawa człowieka. Jednak każdy z nas ma własny wewnętrzny drogowskaz, który może się różnić w zależności od miejsca zamieszkania, kultury czy wyznawanej religii. Jak więc sprawić, by sztuczna inteligencja była jak najbardziej etyczna? Odpowiedź jest prosta – zespół ją tworzący powinien być zróżnicowany pod względem płci, etniczności, wyznania, czy nawet orientacji seksualnej. Ten element nie załatwi jednak wszystkiego. Poza dywersyfikacją zespołu, potrzebna jest zmiana sposobu myślenia. Algorytmami rządzi statystyka – najczęściej występujące dane są przetwarzane i uważane za istotne, a pozostałe są zazwyczaj pomijane. Zmiana sposobu myślenia w tym kontekście oznacza, że projektując algorytm należy uwzględniać także dane niskoprocentowe, które w ogólnym kontekście tworzenia technologii mają ogromne znaczenie.
- Choć termin "etyczna AI" może być mylny, gdyż prawdziwa etyka zakłada moralną podmiotowość, której algorytmy nie posiadają, celem jest ustalenie wytycznych i zabezpieczeń, by zapobiec utrwalaniu uprzedzeń, dyskryminacji i wyrządzania innych szkód społecznych. Dążenie do przejrzystych, odpowiedzialnych i uczciwych systemów AI jest kluczowe dla budowania zaufania, ochrony prywatności i promowania rzeczywistego postępu społecznego. Ostatecznie celem jest złagodzenie rozdźwięku między funkcjonalną autonomią sztucznej inteligencji, a moralnymi aspektami ludzkich decyzji – twierdzi Wojciech Bednaruk.
Szansa na symbiozę
Wielu ekspertów uważa, że algorytmy sztucznej inteligencji nie powinny działać autonomicznie i podejmować samodzielnych decyzji. Najlepiej, by na początku i na końcu łańcucha tworzenia zawsze znajdował się człowiek. To może dać szansę na powstanie bardziej etycznej AI.
- Collaborative AI, czyli sztuczna inteligencja współpracująca z ludźmi, ma potencjał do bycia bardziej etyczną, ponieważ angażuje ludzki wymiar w procesie decyzyjnym. Jednak sama współpraca nie gwarantuje etyki. Kluczowe jest zapewnienie, że procesy stojące za tą współpracą są transparentne, a ludzkie wartości są integralną, wręcz kluczową, częścią projektowania i wdrażania systemów AI – uważa Aleksandra Przegalińska.
Tyle firm korzysta w Polsce z technologii AI, a następne 13 proc. planuje ją wdrożyć do końca 2023 r. - czytamy w Monitorze Transformacji Cyfrowej Biznesu przygotowanym przez KPMG, w partnerstwie z Microsoft.
Czy przy obecnych różnicach kulturowych naprawdę jesteśmy w stanie jednogłośnie określić etyczność technologii? Warto zastanowić się, czy nie wykracza to poza możliwości obecnego pokolenia, ze względu na znaczące różnice w rozumieniu moralności.
Algorytmiczna utopia
Sam Altman, szef OpenAI, w jednym z wywiadów powiedział, że marzy mu się algorytm, do którego każda kultura będzie mogła dorzucić swoje „trzy grosze”. Wtedy powstałaby struktura, która respektuje wszystkie prawa. Jednak dla większości znawców tematu taka możliwość w dzisiejszych czasach jest utopią.
Dlatego potrzebujemy zmiany sposobu myślenia i mówienia o algorytmach. Istotne jest pojmowanie sztucznej inteligencji jako pomocnika człowieka, a nie autonomicznej siły napędowej. Musimy pamiętać, że odpowiedzialność za etyczność algorytmu tak naprawdę zawsze spoczywa na ludziach go tworzących. Warto więc wprowadzać działania mogące pomóc w tak odpowiedzialnym zadaniu – np. poprzez akty prawne.
- AI Act czerpie z zasad etycznych, tworząc sprawiedliwe regulacje, odzwierciedlające wspólne wartości moralne. Jednak może pozostawać w tyle za ewoluującą etyką, co utrudnia adaptację prawa. Regulacja stanowi punkt odniesienia dla etycznych zachowań, ale może nie uwzględniać wszystkich niuansów, tworząc luki. Znalezienie równowagi ma kluczowe znaczenie: solidne regulacje AI Act mogą chronić etykę, ale etyka powinna kierować się aspiracjami wykraczającymi poza zwykłą legalność, zapewniając, że sztuczna inteligencja wspiera sprawiedliwe i empatyczne społeczeństwo – wskazuje Wojciech Bednaruk.
W tym dniu w Parlamencie Europejskim przyjęto projekt AI Act, co dało zielone światło do dalszych prac nad ustawą. Najpóźniej na początku 2024 r. ma odbyć się głosowanie nad jej ostateczną wersją. Jeśli zostanie ona przyjęta, będzie obowiązywać po okresie dwuletniej karencji, co najwcześniej stanie się w 2026 r.