Ciemne strony AI. Czym nam grożą algorytmy?

Marta Maj
opublikowano: 2023-08-08 20:00
zaktualizowano: 2023-08-09 09:12

Świat zachwycił się sztuczną inteligencją, ale ma ona dwa oblicza. Co przed nami ukrywa? O tym w kolejnej odsłonie cyklu redakcyjnego realizowanego z Mastercard: „Eksplorator, czyli o trendach i technologiach z ręką na Pulsie”.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Sztuczna inteligencja weszła na rynek z przytupem i wszystko wskazuje na to, że zostanie z nami na stałe. Z jej pomocą możemy wydajniej pracować i szybciej analizować dane. Pozwala to na rozkwit wielu istotnych branż, np. obszaru opieki zdrowotnej czy edukacji. Jednak AI ma także ciemne strony, z czego nie wszyscy zdają sobie sprawy. Warto zapoznać się z takimi pojęciami jak deep fake, cyfrowe niewolnictwo czy skrzywienie algorytmiczne.

Nie tylko celebryci

Określenie deep fake po raz pierwszy przeniknęło do świadomości ludzi i do mediów w 2014 r. za sprawą Iana Goodfellowa. Wspomniany informatyk, wraz z naukowcami z Uniwersytetu w Montrealu stworzył technologię umożliwiającą kreowanie twarzy do użytku w reklamie. Miała ona przynieść oszczędności związane z zatrudnieniem modelki, makijażystki czy kosztów wynajmu studia.

Czym zatem jest deep fake? Zazwyczaj są to obrazy, wideo lub pliki dźwiękowe generowane cyfrowo, nie do odróżnienia od autentycznych materiałów. Kiedyś tworzone przy użyciu komputera i specjalistycznych programów jak np. Photoshop, a dzisiaj z pomocą algorytmów sztucznej inteligencji. Wytworzony materiał zazwyczaj dotyczy ludzi – przykład mogą stanowić słynne zdjęcia papieża Franciszka w puchowej kurtce, czy polityków lepiących domek z piasku lub wideo z Tomem Cruisem. Materiały z wykorzystaniem deep fake są jednak szczególnie niebezpieczne dla zwykłych ludzi. Znaczną część deep fake’ów stanowią np. treści kompromitujące lub pornograficzne z udziałem nieświadomych tego osób. Niestety na pierwszy rzut oka nikt nie jest w stanie rozpoznać czy dana treść jest prawdziwa, czy wytworzona sztucznie.

- Istnieje poważne zagrożenie związane z zacieraniem granic między prawdą, a pozorną prawdą, co wynika z pojawienia się syntetycznych treści wytworzonych przez sztuczną inteligencję. To z kolei może skutkować trudnościami w rozróżnianiu tego, co jest rzeczywistością, a co nie. Wynikające z tego wyzwanie to rosnące trudności z budowaniem społecznego zaufania. Aktualnie mamy już trudności z ufnością między ludźmi (odsyłam do wielu badań, np. Barometr Edelmana), a teraz pojawia się kolejne wyzwanie – zaufanie do technologii. Z perspektywy poznawczej możliwe wydają się dwa skrajne scenariusze: albo będziemy skłonni wierzyć we wszystko, albo w nic, obawiając się manipulacji lub dezinformacji – mówi dr Alina Landowska, Uniwersytet SWPS.

Stres pourazowy

Równie ważnym pojęciem jest tzw. cyfrowe niewolnictwo, nazywane także kolonializmem AI. Zjawisko to trwa już od momentu zyskania popularności przez social media. Okazało się bowiem, że treści, które powstają na potrzeby portali społecznościowych, należy filtrować. Niezbędny był do tego człowiek, który oznaczałby niechciane lub potencjalnie niebezpieczne treści np. związane z przemocą, terroryzmem, przestępstwami ale także inne, które oddziałują destrukcyjne na ludzką psychikę. Zapotrzebowanie na usługi data labelingu bardzo szybko wzrosło, a w związku z tym także konieczność dodatkowego zatrudniania pracowników. Duże koncerny zaczęły więc poszukiwać do tej pracy osób z Afryki, czy Azji Południowo – Wschodniej, płacąc im konkurencyjną, jak dla mieszkańców tych obszarów, stawkę – 8 dolarów dziennie.

Treści, z którymi mają do czynienia zatrudnieni, sprawiają, że borykają się z problemami natury psychicznej: wykazują oznaki stresu pourazowego, a niekiedy dochodzi wśród nich do załamań nerwowych, a nawet samobójstw. Co więcej, są to pracownicy kontraktowi, pozbawieni podstawowych praw i świadczeń pracowniczych, a swoje obowiązki wykonują zdalnie, bez realnego kontaktu z pracodawcą. Niestety, w porównaniu do płacy w kraju, w którym żyją, stawka za data labeling jest na tyle duża, że mimo trudnych warunków pracownicy nie rezygnują. Równolegle rozwija się druga odnoga data labelingu - identyfikowanie nieprzetworzonych danych - obrazów, plików tekstowych, filmów itp., i dodawanie do nich etykiet informacyjnych, które pozwalają lepiej „rozumieć” algorytmowi AI, co przetwarza. Obie opcje tej pracy mogą być obciążające dla człowieka - z jednej strony są żmudne i ogłupiające, a z drugiej niebezpieczne dla zdrowia psychicznego.

- Wielu z nas chciałoby mieć pewność, że nad systemami AI jest zapewniony odpowiedni nadzór człowieka, a rozwiązanie zawiera odpowiednią ochronę danych oraz jest odporne na ataki hakerów. Ludzie obawiają się szczególnie narzędzi pozwalających na kradzież tożsamości, celem wyłudzenia pieniędzy, utrudniających rozpoznanie faktów - poprzez generację fałszywych informacji, aż po systemy rekomendujące, które manipulują społeczeństwem np. w mediach społecznościowych – mówi Piotr Mieczkowski, dyrektor zarządzający w Fundacji Digital Poland.

Cyfrowe etykiety i łatki

Ciemna strona sztucznej inteligencji to także stereotypizacja, tzw. skrzywienie algorytmiczne. Dla łatwiejszego zrozumienia zjawiska warto przytoczyć historię ze Stanów Zjednoczonych. Tamtejsza policja stworzyła algorytm prewencyjny, który miał podpowiadać potencjalne ryzyko popełnienia przestępstw w danych regionach. Okazało się, że jest on na wskroś rasistowski – uważał, że czynu zakazanego dopuści się osoba czarna. Ten efekt był spowodowany uczeniem algorytmu poprzez wprowadzenie danych obecnych mieszkańców więzień w USA, którymi są zazwyczaj czarni mężczyźni. Bardzo często odsiadują oni wyrok za niską karalność czynu społecznego np. posiadanie marihuany. Jednak algorytm nie posiadał tych dodatkowych informacji i szerszego kontekstu zdarzeń.

- W wyniku postępu technologicznego zauważamy zastępowanie autentycznych relacji międzyludzkich cyfrowymi odpowiednikami. Pojawia się poczucie samotności, obawy przed manipulacją przez algorytmy czy pragnienie życia w świecie wirtualnym, bardziej niż w realnym. Przewiduje się, że te zjawiska będą nasilać się w miarę rozwoju nowych usług i narzędzi, kiedy uzależnienie od sztucznej inteligencji w różnych formach stanie się globalnym wyzwaniem. Należy spodziewać się nadal wykorzystywania bezbronnych i nieświadomych jednostek w nieetycznych praktykach, takich jak naruszanie prywatności, cyberprzemoc czy szerzenie syntetycznej dezinformacji, co może prowadzić do negatywnych konsekwencji, takich jak upokorzenie czy stres emocjonalny – mówi dr Alina Landowska.

Biznes i prawo

Uczenie algorytmów to niejednokrotnie kwestia sporna. Dlaczego? Duża część danych, które posłużyły do ich rozwijania, pochodzi z prywatnych zasobów osób, które nie wyraziły zgody na ich pobranie. Były to m.in. artykuły dziennikarskie, opracowania naukowe, ale także obrazy czy zdjęcia. W wielu przypadkach pogwałcono zasady własności intelektualnej. Mimo obiekcji ze strony autorów, obecnie nie ma możliwości usunięcia z bazy danych algorytmów nielegalnie dodanych informacji.

Istotny jest także problem tzw. długiego ogona AI. Rynek tworzenia technologii opanowały big techy, które usługi oferują przede wszystkim dużym firmom. Mniejsze przedsiębiorstwa mogą stracić na konkurencyjności, bo nie będą miały pieniędzy na zakup algorytmu od dużego dostawcy, a samodzielne ich wytworzenie będzie mało efektywne lub zbyt trudne.

Woda na młyn AI
700tys.

Szacuje się, że tyle litrów wody zużyły serwery firmy Microsoft podczas szkolenia GPT-3, czyli tyle samo ile przeznacza się do produkcji 370 samochodów BMW lub 320 samochodów elektrycznych Tesla.

AI Act i inne rozwiązania

Co możemy zrobić, by sztuczna inteligencja była bezpieczna? Przede wszystkim - zacząć od regulacji prawnej. Ma ją zapewnić AI Act – europejska ustawa regulująca działanie oprogramowania wykorzystującego sztuczną inteligencję. Pomóc może także sam świat biznesu, oczekując od dostawców usług etycznych rozwiązań. Przykładem może być firma Adobe, która stworzyła algorytm rysujący - ale dane, którymi został wyuczony, opłacono bądź uzyskano na nie licencje.

Biznes potrzebuje nie tylko wiedzy na temat działania samych algorytmów, ale ale także ich konstrukcji i skutków, jakie niesie ich używanie. Wraz ze świadomością biznesu, wzrośnie również świadomość społeczeństwa.

- Nie ma jednej dobrej metody pozwalającej zapobiegać negatywnym skutkom technologii. Trzeba podejmować szereg aktywności i tyczy się to różnych interesariuszy - firm, państwa, NGO. Podstawą jest właściwa edukacja informująca nas o zagrożeniach i możliwościach rozwiązań. Im lepiej coś rozumiemy, tym mniej się tego boimy i potrafimy sobie z tym czymś poradzić – twierdzi Piotr Mieczkowski.