Technologie stają się częścią naszej codzienności i niejednokrotnie kształtują też relacje społeczne. Mają wpływ na to, w jaki sposób i jak często kontaktujemy się z najbliższymi. Mimo że skracają dystans dzielący nas od bliskich, nie potrafią jednak zaradzić powszechnemu poczuciu osamotnienia. Według „Raportu samotności” Instytutu Pokolenia aż 53 proc. Polaków i Polek deklaruje, że czują się samotni. Z kolei 39 proc. respondentów wskazuje, że często lub czasami czują się opuszczeni, a 35 proc. Polaków nie ma nikogo, do kogo mogliby się zwrócić. Co ciekawe, poczucie samotności i osamotnienia dotyka niemal co drugą młodą osobę (46 proc.), w szczególności płci męskiej – wskazuje na to aż 55 proc. mężczyzn do 24 roku życia biorących udział w badaniu.
Czy sztuczna inteligencja może stanowić rozwiązanie tego problemu?
Przyjaciel od zaraz
Wiele z nas od dawna dzieli życie z AI. Można przywołać tu chociażby pomocną Alexę czy Siri. Te dwa narzędzia mają jednak wspierać w codziennych czynnościach, np. wyszukiwaniu informacji czy ustawianiu budzika. Tworzenie relacji społecznej z technologią sztucznej inteligencji to kolejny etap jej rozwoju. Zapewne niektórzy pamiętają wizję Spike’a Jonze’a z filmu „Her”. Cyfrowa dziewczyna, której głosu użyczyła Scarlett Johansson, to sztuczna inteligencja, która jest bardzo podobna do obecnie znanych narzędzi. W filmie pomaga głównemu bohaterowi granemu przez Joaquina Phoenixa w codziennych zadaniach, a z czasem wchodzi z nim w relację romantyczną.
Zauważalne zmiany w sposobie komunikacji między ludźmi i coraz większa popularność sztucznej inteligencji sprawiły, że myśl o przyjaźni, a nawet głębszej relacji z AI nie wydaje się już zupełnie absurdalna. Rozmawiając z inteligentnym botem, moglibyśmy wymieniać się wiadomościami dla rozrywki, przekomarzać się i żartować, a nawet otrzymać przyjacielskie wsparcie bez konieczności wychodzenia z domu.
– Pamiętajmy, że asystenci bazujący na sztucznej inteligencji są antropomorfizowani i imitują cechy ludzkie. Dzięki funkcjom AI obejmującym rozpoznawanie głosu i semantykę konwersacji inteligentny asystent może rozpoznawać ludzki głos oraz interpretować i rozumieć znaczenie słów i całych wypowiedzi. To sprawia, że może rozmawiać z ludźmi i odpowiadać na ich pytania dokładnie tak, jak robi to człowiek. Zatem korzystając z inteligentnego oprogramowania, użytkownicy mogą czuć, jakby wchodzili w interakcję z człowiekiem, i prawdopodobnie będą generowali względem niego ludzkie uczucia. Ludzie często korzystają z takich form relacji z nadzieją na intymność pozbawioną złożoności, trudności i zagrożeń, które są nieodłącznym elementem kontaktu z człowiekiem – mówi Karolina Janik, psycholog i właścicielka Instytutu Psychorozwoju.
Wirtualni kompani AI, dzięki zdolności do symulowania interakcji podobnych do ludzkich, wciągają w swoje sidła szczególnie młode osoby cierpiące na samotność. Najpopularniejszymi aplikacjami tego typu są m.in. Caryn AI, Replika, Kuki, Simsimi czy Anima. Replika jest jednym z najbardziej znanych algorytmicznych towarzyszy i już teraz ma ponad 10 mln użytkowników. Z kolei czatbot Kuki może zabawiać użytkownika, grając z nim w gry czy wykonując magiczne sztuczki na żądanie. Interakcja z nim jest wygodna, ponieważ dostęp można uzyskać za pośrednictwem Facebooka, Messengera, czatu grupowego Twitcha, Telegramu czy Discorda.
Te struktury utwierdzają użytkowników w przekonaniu, że są dla nich dostępne w każdym momencie i zawsze można liczyć na ich słowo wsparcia. W materialnym świecie tak nie jest, dlatego dla znacznej grupy ludzi jest tak kuszące. Najczęściej są to rozwiązania płatne. Czy taką relację można jednak nazywać połączeniem emocjonalnym?
Zalety i wady wirtualnego kompana
Aplikacje napędzane przez sztuczną inteligencję w przeciwieństwie do człowieka są dostępne 24 godziny na dobę. Co więcej, AI nie potrzebuje odpoczynku, może rozmawiać z wieloma osobami naraz i wysłuchać użytkownika w każdym momencie. Dla niektórych istotne jest także to, że sztuczna inteligencja tak naprawdę wykonuje polecenia – nie usłyszymy od niej słów krytyki, chyba że wyraźnie o to poprosimy.
W realnym świecie trudno znaleźć osobę, która podziela wszystkie nasze zainteresowania i jest w stanie omawiać je w detalach przez wiele godzin. Za to AI zawsze dotrzyma nam kroku, a cyfrowy przyjaciel może zostać zaprojektowany na wzór ulubionego influencera czy celebryty.
Czy jednak AI nas rozumie? Owszem, może symulować emocje i empatię, jednak – przynajmniej na razie – tak naprawdę ich nie rozumie. Nie mając żadnych doświadczeń życiowych, nie może kompetentnie odnosić się do przeżyć rozmówcy. Otrzymując odpowiedzi nieadekwatne do naszej sytuacji, możemy poczuć się niezrozumiani, co tylko wzmocni poczucie osamotnienia. Niepokojące może być także to, że wchodząc w relacje z zawsze dostępnym botem, można stracić zainteresowanie relacjami z ludźmi. Taka zależność od technologii z pewnością niesie negatywne skutki dla zdrowia psychicznego.
– Kluczowe jest przestrzeganie granicy między tym co ludzkie, a tym, co jest maszyną. W przeciwnym razie ryzykujemy zachwianie delikatnej równowagi między nimi. Być może relacje z AI dają namiastkę relacji romantycznej, jednak czy jest nią w rzeczywistości? Czy spełnia wszystkie warunki? A wreszcie czy partner AI jest zdolny do uczuć? To, że potrafi o nich mówić, a w niektórych wypadkach nawet je wyrażać, nie sprawia, że rzeczywiście je odczuwa. Jeśli człowiek będzie angażował się w idealną relacje z robotem, to czy nie zrezygnuje z relacji z drugim człowiekiem, które są przecież bardziej wymagające? A jeśli tak, to czym będzie świat i dokąd będzie zmierzał, jeśli nie będzie miłości między ludźmi? – zastanawia się psycholożka.
Poza tym cyfrowy przyjaciel zachowa sekrety dla siebie dopóty, dopóki nie zostanie zhakowany. Jeśli dostanie się w ręce cyberprzestępców, bez oporów wszystko wyśpiewa.
Czy warto ryzykować
Dlatego zanim zdecydujemy się podejmować prywatne tematy z botami opartymi na technologii sztucznej inteligencji, warto wziąć pod uwagę ryzyko, na jakie się narażamy.
– Rozmawiając z AI na prywatne tematy, udostępniamy wiele danych osobowych, których zazwyczaj nie powierza się nieznajomym. Bez odpowiedniej ochrony prywatności łatwo możemy stać się celem cyberprzestępców. Warto się nad tym zastanowić – jeśli podzielimy się z AI np. swoją datą urodzin, imieniem zwierzaka z dzieciństwa lub nazwą ulubionego dania, szanse, że ktoś uzyska dostęp do tych danych i na ich podstawie zgadnie nasze hasło, się zwiększają. Cyberprzestępcy będą również mogli potencjalnie przejąć naszego cyfrowego przyjaciela i przez niego zachęcać do przekazywania im pieniędzy, rozpowszechniania dezinformacji lub kontaktowania się z niebezpiecznymi osobami. Co więcej, programy towarzyszące AI, które wykorzystują kamery lub mikrofony, mogą nieumyślnie naruszyć prywatność użytkownika. A przecież nie chcielibyśmy, żeby nasze prywatne rozmowy były podsłuchiwane – ostrzega Kamil Sadkowski, analityk laboratorium antywirusowego ESET.






