Powiedział pan kiedyś, że sztuczna inteligencja (AI) kumuluje ludzkie uprzedzenia, proszę rozwinąć tę myśl?
Algorytmy same w sobie są obojętne, nie mają żadnych predyspozycji, ale ich użyteczność uzyskujemy przez nauczenie ich różnych rzeczy. Słabym ogniwem w tym procesie jest człowiek, który, żeby wyszkolić algorytmy musi przygotować odpowiednie dane, zrozumiałe dla komputera.
Problem nie istniałby, gdyby dane zostały przygotowane w sposób zbilansowany, czyli m.in. taki, który w równym stopniu reprezentowałby wszystkich potencjalnych odbiorców tego algorytmu.

Dr Paweł Rzeszuciński
Chief Data Scientist w Codewise. Członek Forbes Technology Council, European Internet Forum oraz Europejskiego Sojuszu na Rzecz Sztucznej Inteligencji.
Studiował na Politechnice Wrocławskiej i Cranfield University. Doktorat z analizy danych obronił na Uniwersytecie w Manchesterze, tam też ukończył studia podyplomowe z zarządzania przedsiębiorstwem.
W grudniu 2018 r. występował w Parlamencie Europejskim w ramach spotkania European Internet Forum, gdzie mówił o zagrożeniach mogących wynikać z wykorzystania AI w mediach społecznościowych, przedtem na AI & Big Data Congress podejmował kwestie miękkie związane z AI.
Autor licznych publikacji w międzynarodowych czasopismach i na konferencjach poświęconych analityce danych oraz sztucznej inteligencji.
Często niestety okazuje się, że dane, którymi karmione są systemy sztucznej inteligencji (AI) mają zachwianą tę równowagę. Jako przykład podam jednego z producentów aparatów fotograficznych, który wprowadzał nową opcję do swoich aparatów – wykrywanie, czy ktoś nie mrugnął w trakcie robienia zdjęcia. Jak się później okazało, algorytm był wyszkolony głównie na twarzach białych ludzi. W sytuacji, gdy trafił na rynek azjatycki notorycznie wyświetlała się informacja, że fotografowany zamknął oczy w chwili robienia zdjęcia. Nie trzeba przypominać, że kształt oczu mieszkańców znacznej części Azji jest zupełnie inny niż mieszkańców np. Europy. Powstał więc duży problem, a jeśli producent wziąłby równe części twarzy ludzi o skórze białej, żółtej i czarnej, algorytm nie miałby problemów.
Drugim kluczowym elementem, żebyśmy w ogóle byli w stanie współdziałać z algorytmami jest wymóg transparentności, możliwości odtworzenia całego procesu decyzyjnego, na każdym etapie podejmowania decyzji przez te algorytmy. Te najlepsze są bardzo skomplikowane – do tego poziomu, że często ich twórcy nie są w stanie krok po kroku odtworzyć jak algorytm doszedł do danego wyniku. Z drugiej strony – szczęśliwie – bardzo dużo wysiłku wkłada się teraz globalnie w opracowywanie takich narzędzi, które mają umożliwić nam zrozumienie i odtworzenie procesu decyzyjnego w algorytmie. Wtedy będziemy wiedzieli, że jesteśmy w stanie zakwestionować podjęte przez niego decyzje i potencjalnie bronić się przed oceną, która w naszym odczuciu jest wadliwa…
Jest dużo poważniejszych przykładów, niż aparat, który nie widzi prawidłowo mrugnięcia. Jest np. system, stosowany w amerykańskim sądownictwie, oceniający szanse recydywy ludzi, którzy mają być osadzeni. Sędziowie wspierali się wynikami tego algorytmu przy decydowaniu np. czy inwestować w szkolenie osadzonego. Jedna z organizacji non-profit wzięła na warsztat ten algorytm i okazało się, że idealnie odtwarzał on ludzkie uprzedzenia, był znacznie bardziej surowy dla osób o czarnym kolorze skóry niż dla białych. Dane, jakich uczył się algorytm zawierały np. informacje z jakiego miejsca dana osoba się wywodzi. Skutek był taki, że np. kod pocztowy decydował, czy ma ona wyższe wskazanie recydywy. System zaczął wnioskować na temat jednostek w oparciu o dane całego społeczeństwa. To bardzo niebezpieczne.
Jak najczęściej dochodzi do manipulacji?
Manipulowanie odbywa się w świecie cyfrowym, bo ogromna część interakcji politycznej odbywa się obecnie online. Znakomita większość społecznych interakcji odbywa się w trzech cyfrowych republikach: na Facebooku (FB) i należących do niego platformach, jak WhatsApp, Messenger, Instagram... Drugim miejscem jest Google i YouTube, trzecim Twitter. Te trzy cyfrowe republiki tworzą naszą nową przestrzeń publiczną – jeśli o czymś zaczyna się intensywnie rozmawiać na jednej z tych platform, natychmiast temat jest podejmowany w pozostałych. Powstaje efekt kuli śnieżnej.
Do tego potrzeba mnóstwa informacji...
Sztuczna inteligencja żywi się danymi, a Facebook stał się największą bazą danych na świecie. Bardzo granularnie podzieloną. Ma 2,2 mld aktywnych użytkowników w każdym zakątku świata. To trudne do objęcia, bo takich baz danych wcześniej nie znaliśmy i nie bardzo wiemy jak do tego podejść (FB za to wie doskonale).
Facebook zaoferował unikatową możliwość targetowania treści do niewyobrażalnie dobrze zdefiniowanego odbiorcy. Na FB da się wybrać takie opcje targetowania, o jakich wcześniej można było tylko pomarzyć. Mówię tu o zainteresowaniach, sympatiach, deklaracjach politycznych, czym ktoś jeździ, jakie periodyki czyta, co nosi, co myśli... Algorytmy sztucznej inteligencji są w stanie same wywnioskować, komu dokładnie pokazywać taką czy inną zdefiniowaną treść, a ponadto łączą ze sobą wiele pozornie niezwiązanych charakterystyk: jak człowiek się zachowuje na FB, nie tylko co lajkuje, ale np. czy ogląda filmiki do końca, czy notorycznie w połowie przerywa...
Nasze dane z Facebooka trafiają w niewyobrażalną ilość miejsc i często mogą być wykorzystywane w sposób, na który byśmy się nie zgodzili, gdybyśmy o tym wiedzieli. Mimo zaangażowania sztucznej inteligencji i Big Data, FB zatrudnia 30 tys. osób w dziale compliance. Sztuczna inteligencja nie radzi sobie na razie z interpretacją satyry, ironii, przenośni; jeśli koledzy wysyłają sobie komunikat ze zdjęciem boiska do koszykówki czy kortu i piszą: dziś skopię ci tyłek, to algorytm odczyta to jako mowę nienawiści, a ta nie jest mile widziana na FB.
Broniąc Facebooka trzeba przypomnieć, że ten mechanizm targetowania został stworzony, żeby bardzo dokładnie sprzedawać reklamy i w przytłaczającej większości algorytm jest używany do tego właśnie celu. W zeszłym roku, ze swoich 55 mld USD, jakie zarobił FB, 98,5 proc. pozyskał z reklam, właśnie dzięki targetowaniu.
Natomiast różne osoby w tych mechanizmach szybko dostrzegły dodatkowe możliwości – docieranie do określonych grup, by przekazać im określone treści wcale nie po to, by zarobić na reklamowaniu i sprzedaży towaru. W ten sposób właściwości serwisów społecznościowych sprawiły, że okazały się one idealnym medium do manipulowania...
I powstały różne techniki oraz narzędzia manipulowania?
Nawet cała dziedzina - propaganda obliczeniowa (computational propaganda). Opisuje ona kampanie online, które mają na celu wpływanie na tłum. Przybierają one różne formy i często „atakują” różne sieci społecznościowe jednocześnie.
Mamy więc do czynienia ze zautomatyzowanym wpływaniem na zachowanie użytkowników internetu, wykorzystujące trzy kluczowe narzędzia. Jedno z nich to boty, czyli zautomatyzowane konta w mediach społecznościowych, które są używane do generowania i rozpowszechniania dużych ilości wiadomości, głównie dla wzmocnienia kontrowersyjnych treści, punktów widzenia.
Drugie narzędzie to ogólnie pojęta dezinformacja, fake newsy, propagowane w celu tworzenia zamieszania, budzenia kontrowersji... Trzecie, to armie trolli, czyli ludzi, którzy siedzą przy komputerach, starają się infiltrować dyskurs publiczny, a następnie go zakłócać – czy to mową nienawiści, czy jakimiś treściami śmieciowymi.... Ogólnie mówiąc: żywiołową retoryką. Trolle mają wpływać na to, jak internauci mają postrzegać różne rzeczy.
Co to są boty polityczne?
Boty wprowadzane do internetu najczęściej są rozbudowane o jakieś moduły sztucznej inteligencji. Np. moduł przetwarzania języka naturalnego. Dzięki temu stają się coraz lepsze i popularniejsze w komunikowaniu się z ludźmi. Boty polityczne działają w mediach społecznościowych i ich zadaniem jest wzmacnianie konkretnego przekazu, rozpowszechnianie masowe określonych treści, ale też coraz częściej tworzenie wrażenia rzeczowej rozmowy. Możliwa jest sytuacja, w której wiele botów rozmawia ze sobą i robią to po to, żeby wciągnąć do tej rozmowy ludzi i przekazać im określone treści.
Na przykład Donald Trump, który jest bardzo aktywnym użytkownikiem Twittera, ma ponad 55 mln followersów, ale jak pokazują badania, ponad 60 proc. z nich to nie są żywi ludzie a boty, których zadaniem jest twittowanie postów i pozytywne ich komentowanie. Podobną aktywność botów znaleziono już nie tylko w kampanii Donalda Trumpa, ale też np. w Brexicie, w kampanii Marine Le Pen czy Alternatywy dla Niemiec.
Fake news i deep fake – jak to działa?
Mechanizm działania fake newsów można opisać przez analogię do tzw. trójkąta ognia. Są trzy elementy, bez których ogień nie może płonąć: tlen, ciepło i paliwo. Wiadomości też wymagają trzech kluczowych elementów, żeby odnieść sukces (mówi się o tym jako o trójkącie fałszywych wiadomości): muszą istnieć jakieś narzędzia lub usługi, które pomagają rozpowszechniać te wiadomości. W internecie działają już takie usługi, np. płatne polubienia, płatni obserwatorzy... Zaczyna się mówić o usłudze typu zaangażowanie w mediach społecznościowych jako serwis (social media engagement as a service). Mam cennik takich usług wydobyty z darknetu. Na przykład wykupienie na FB tysiąca polubień mojego posta kosztowałoby jednego dolara. Na Twitterze, jeśli chciałbym, żeby tysiąc osób polubiło mój profil zapłaciłbym 50 centów. To są śmiesznie niskie kwoty, a liczby na Instagramie czy Twitterze mogą zrobić wrażenie. Drugim punktem trójkąta jest miejsce, gdzie fake newsy mogą się rozprzestrzeniać, czyli sieci społecznościowe. Trzecim elementem jest motywacja. W kontekście walki politycznej, chodzi najczęściej o najzwyklejsze oczernienie przeciwników, osłabienie ich pozycji... Pojawiają się też udokumentowane przypadki, gdzie motywacją było wypuszczenie sprzecznych opisów tej samej informacji, w celu zamieszania w opinii publicznej i uniemożliwienia rzeczowej debaty. W ten sposób często działają osoby, które chcą wpłynąć na sytuację w kraju A, znajdujące się w kraju B. Takim przypadkiem było referendum w Hiszpanii dotyczące odłączenia się Katalonii. Tam doszukano się po czasie wielu kont twitterowych, należących do ludzi (i botów) z Rosji, którzy siali ferment, powodujący, że nawet osoby z jednej strony barykady nie mogły się dogadać.
Deep fake to spreparowane nagranie wideo, w którym algorytmy są w stanie wyrenderować ruchy głowy, ruchy ust, gesty danej osoby i tak dostosować obraz pod wypowiadane słowa, że nie będziemy w stanie odróżnić czy to dzieło komputera, czy prawdziwe nagranie. Do tego dodany komputerowo przetworzony głos i już mamy wiarygodne nagranie, które może skompromitować osobę.
Jak oddzielić fake od prawdy?
Przede wszystkim należy zwolnić, nie spieszyć się z podawaniem dalej, lajkowaniem. Poza tym jeśli coś brzmi bardzo nieprawdopodobnie, to prawdopodobnie jest nieprawdziwe. Trzeba zadbać o higienę informacyjną, próbować szukać potwierdzenia informacji. Warto sprawdzać wiadomości na innych platformach, najlepiej tych o dobrej reputacji. W Polsce działają organizacje i portale zajmujące się sprawdzaniem wiarygodności informacji, tzw. fact checking i zajmujące się wyjaśnianiem istoty fake newsów (bezpiecznewybory.pl, opracowany przez NASK, demagog.org.pl/ Akademia Fact Checkingu przygotowana przez Stowarzyszenie Demagog, Wojownicy klawiatury to społeczność, która walczy z fałszywymi informacjami głównie na temat Unii. Projekt koordynowany jest przez KE).
Polecam www.bezpiecznewybory.pl. To jest polska strona, dość dobrze przemyślana i w przystępny sposób pokazuje jak sobie radzić z takimi zjawiskami.
Czego uczy nas kampania przedreferandalna dotycząca Brexitu?
Brexit pokazuje, że kampanie przenoszą się do internetu. Wprawdzie mogą je prowadzić wszystkie strony sceny politycznej, ale okazuje się, że działają znacznie bardziej wydajnie w wykonaniu partii skrajnych, które częściej publikują materiały bardziej dobitne, szokujące, żerują na emocjach.
Kampania Vote Leave za wyjściem z Unii Europejskiej, wydała prawie 3 mln funtów na reklamy online, adresowane do dobrze stargetowanej grupy na FB. Przesłanie, przeznaczone do wyświetlania było tworzone przez kanadyjską firmę Aggregate IQ, powiązaną z kontrowersyjnym ośrodkiem Cambridge Analytica. Model działania był taki, by w pierwszej kolejności zebrać jak najwięcej danych o użytkownikach internetu w Wielkiej Brytanii, a mając te dane, zacząć wybierać grupy docelowe z przekazem pod każdą z konkretnych grup – osoby starsze, miłośnicy zwierząt, niechętni imigracji itp. Działanie na podstawowych emocjach – strachu przed zalewem kraju przez imigrantów spoza Europy, umieraniem bezbronnych zwierząt, do których UE nie chce dopuścić pomocy itp. – okazało się niezwykle skuteczne.
Kampania zorganizowała loterię online – kto poprawnie wytypuje wynik wszystkich meczów Mistrzostw Europy piłki nożnej, wygra 50 mln funtów. Doszukałem się, że prawdopodobieństwo prawidłowego wytypowania było jak jeden do pięciu sekstylionów, jednak na wszelki wypadek, gdyby jednak ktoś trafił, loteria została ubezpieczona. Kwota 51 mln funtów bardzo podziałała na wyobraźnię, a osoby, które chciały wziąć w niej udział musiały się zarejestrować podając szereg danych osobowych, które od razu trafiały do bazy danych Vote Leave.
Zatrudniono naukowców i analityków, którzy na bazie danych potrafili wytypować m.in. osoby niezdecydowane. I na tydzień przed referendum Vote Leave zaczęto silnie „atakować” te właśnie osoby. Jak widać zadziałało dobrze.
Czy narzędziem kontroli nad manipulacją będzie prawo czy lepiej postawić na edukację i budowanie świadomości?
Jestem zdania, że regulacje nie będą w stanie nigdy nadążyć za dynamicznie zmieniającą się sferą technologiczną. Dziś zacząłbym od budowania świadomości. Właśnie wyszedł nowy raport, przygotowany przez Pracownię Badań Społecznych NASK, z którego wynika, że ponad połowa Polaków styka się z manipulacją w internecie. 19 proc. nie sprawdza wiarygodności informacji.
Są w tym raporcie wskazane grupy osób, których edukację trzeba zacząć natychmiast. Z badania wynika, że rzadko lub nigdy nie spotkały manipulacji w internecie osoby, powyżej 30. roku życia, z wykształceniem podstawowym lub średnim. Te osoby twierdzą, że nigdy nie manipulowano nimi w internecie. Te same osoby nie dostrzegają problemu dezinformacji w kontekście walki o wyniki wyborów. Więc jak na dłoni dostajemy grupy społeczne, które w ogóle nie są świadome problemu. Od nich trzeba by zacząć edukację.
Boty w akcji
Naukowcy z Uniwersytetu edynburskiego ujawnili, iż rosyjskie farmy trolli wyprodukowały 156 tysięcy kont na Twitterze. Posty udostępniane były głównie w dniach poprzedzających referendum dot. Brexitu (ponad 45 tys. tweetów z liczbą wyświetleń sięgającą kilkuset milionów). Petersburska RIA wyprodukowała 419 kont, z których wypłynęło 3468 tweetów. Głównie na temat Brexitu oraz tematów wzbudzających antymuzułmańskie nastroje.
Wypasanie owiec
Na początku mamy pięciu, sześciu „baców” – osoby, które ustalają strategię, jak manipulacja ma przebiegać, zastanawiają się jakie treści będą propagowane, jakich hasztagów używać... Te osoby wchodzą do sieci i zaczynają na swoich kontach twitterowych, facebookowych w sposób zorganizowany propagować wybrane treści. Od każdego z tych baców pączkuje grupa ludzi, których zadaniem jest szerowanie tych treści na taka skalę, na jaką może to zrobić człowiek – to tzw. psy pasterskie. Dopiero od każdego z psów pasterskich może zacząć ochodzić dziesiatki, setki, tysiące owiec - botów, których celem jest szerowanie, czyli podawanie dalej tych informacji na masową skalę. Zawsze na początku są ludzie, jest zarysowana jakaś strategia, krzesanie ognia, później wchodzą boty, które rozniecają coraz większy ogień.
Inicjatywy mające na celu ucywilizowanie systemów AI
W połowie ubiegłego roku szefostwo Facebooka ogłosiło, że uruchomi komórkę wewnętrzną, której zadaniem będzie badanie, czy decyzje podejmowane przez jego algorytmy są etyczne i wolne od uprzedzeń. Mniej więcej w tym czasie Microsoft ogłosił podobną inicjatywę. Natomiast naukowcy z IBM opublikowali ciekawy artykuł, w którym zaproponowali tzw. deklarację zgodności dostawcy. To jest szereg wytycznych i testów, które pomagają określać wydajność algorytmów AI na wielu poziomach, np. jak taki algorytm zachowa się jeśli będzie miał podane źle zbilansowane dane. To narzędzie byłoby dostępne dla każdego, kto takiego algorytmu chciałby użyć. Na początku tego roku Komisja Europejska opublikowała siedem kryteriów, przy spełnieniu których system AI można uznać za godny zaufania.
Trzy z nich to:
– Obecność człowieka w procesie decyzyjnym (chodzi o to, żeby AI wspierała człowieka przy podejmowaniu decyzji a nie całkowicie go zastępowała).
– Przejrzystość (nie może być sytuacji, że używamy dobrych, wydajnych systemów, ale nie są one doskonałe w każdych okolicznościach. Musi więc być jakaś możliwość odwołania się. Ponadto ludzie muszą być świadomi, że wchodzą w interakcję z systemem sztucznej inteligencji i znać jego ograniczenia).
– Systemy te powinny działać dla dobra społecznego, ale i środowiskowego (czyli powinny być tworzone w taki sposób, by były przyjazne dla środowiska).

© ℗
Podpis: Materiał partnera