Amatorskie spojrzenie na kwestię sztucznej inteligencji

Piotr KuczyńskiPiotr Kuczyński
opublikowano: 2023-05-03 12:42
zaktualizowano: 2023-05-04 08:29

Od długiego czasu nosiłem się z pomysłem napisania w blogu tekstu, który będzie traktował o sztucznej inteligencji (artificial intelligence). Zajmowałem się tym tematem amatorsko, co podkreślam, żeby krytycy mieli mniejsze pole do działania 😉, od wielu, wielu lat. Ale owszem, impuls do napisania tekstu dała mi wrzawa otaczająca ChatGPT. Nie tylko zresztą ten czynnik zmusił mnie do pisania.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Rozmawiałem ostatnio z dwoma informatykami, których wiedzę o świecie i inteligencję cenię, a którzy wdeptali mnie w ziemię (może lekko przesadzam 😉) lekceważąc całkowicie moje ostrzeżenie zgodnie z którym może się okazać, że w ciągu 30 lat, które mniej więcej zostaje im do emerytury, sztuczna inteligencja może pozbawić ich pracy. Właściwie prawdziwej dyskusji nie było, bo nie było chyba pola do porozumienia, w związku z czym zaproponowałem, żebyśmy podeszli jeszcze raz do tematu za 10 lat (o ile ja będę jeszcze w stanie rozmawiać).

Ta próba dyskusji dała mi wiele do myślenia. Ludzie mają tendencję do traktowania sztucznej inteligencji (będę pisał AI lub SI) jako takiej aplikacji jak ChatGPT i według mnie nie widzą konsekwencji dalszego jej rozwoju. Generalnie nawet ci, którzy zajmują się AI zawodowo dzielą się na tych, którzy widzą przede wszystkim zalety i tych, którzy przestrzegają przed zagrożeniami. Ja zdecydowanie należę do tych ostatnich.

W dużym skrócie (naprawdę dużym, bo ten tekst jest jedynie zachętą do pogłębianie tematu) można powiedzieć, że jeśli chodzi o rynek pracy to część widzi pozytywy (zmniejszenie obciążenia pracą, zwiększenie wydajności pracy itp.), a część zagrożenia (podobno w ciągu roku znika 10 mln miejsc pracy).

Poglądy są bardzo podzielone: za https://tiny.pl/wb36d „W 2019 eksperci z McKinsey & Company oszacowali, że do 2030 roku AI i automatyzacja mogą zastąpić 30 proc. stanowisk na świecie. Z kolei dane Światowego Forum Ekonomicznego podają, że dzięki automatyzacji do 2025 roku powstanie o 12 milionów miejsc pracy więcej niż według prognoz ma zniknąć.”.

Zawodowo zajmujący się rynek pracy ekonomiści twierdzą, że na jedno zlikwidowana przez AI miejsce pracy powstaje 2,6 nowych miejsc. Problem w tym, że to twierdzili przed pojawieniem się ChatGPT. Wątpię, żeby mówili to również teraz. Poza tym najwyraźniej widzą to, co jest teraz i nie doceniają potęg konwergencji różnych prądów (o tym niżej).

Kilka razy wypróbowałem siłę przekonań optymistów stawiając pytanie: co będzie się działo wtedy, kiedy pojawi się generalna sztuczna inteligencja (GAI – o niej też niżej)? Wtedy zazwyczaj zapadało milczenie lub mało udane próby ratowania swoich przekonań. Nawiasem mówiąc już obecnie wiele firm zapowiada zwolnienia – przykładem może być IBM: https://tiny.pl/wb36z .

Tutaj mały wtręt, który w prosty sposób będzie wyjaśniał użyte pojęcia. Z góry przepraszam ekspertów za przyjęty uproszczenia. AI (SI) to bardzo szerokie pojęcie. Można powiedzieć, że używana jest czasem przez ludzi w nazwaniu czegoś, co jest tylko prostym robotem, automatem pozwalającym zwiększyć wydajność pracy. Coś takiego z nami nie porozmawia i ma bardzo ograniczone, sztywne zadania.

Wyższy poziom odsłonił nam się w tym roku, a prace nad nim trwały od co najmniej 12 lat. To na przykład ChatGPT. Na przykład, bo nie tylko OpenAI ma swoją SI. Pracują nad tym wszystkie duże firmy technologiczne. Taką SI określa się mianem „generatywna”: to „…podzbiór sztucznej inteligencji. Nie tylko interpretuje informacje, ale także tworzy oryginalne treści. Generative AI łączy w sobie moc uczenia maszynowego, głębokiego uczenia i sztucznej inteligencji, aby tworzyć tekst, wideo, audio, kod i obrazy.” (za: https://tiny.pl/wb3vk ). Określę ją akronimem gAI.

A co to jest GAI (przez duże G), czyli generalna SI (zwana również „silną” AI)? W dużym skrócie można powiedzieć, że GAI będzie miała (miało?) inteligencję przewyższającą ludzką, będzie miała samoświadomość, będzie potrafiła się uczyć, rozwiązywać dowolne problemy i planować przyszłe działania. 2 maja w programie „Punkt Widzenia” w Polsat News Grzegorz Lindenberg (https://grzegorzlindenberg.com/ ) powiedział, że cytuję tworząc GAI „stworzymy boga”. Już słyszę jak wielu z Czytelników myśli: przecież stworzenie czegoś takiego nie jest możliwe.

I rzeczywiście tutaj też przebiega granica w ocenie rozwoju AI. Część ekspertów twierdzi, że GAI powstanie i to szybciej niż nam się wydaje. Na przykład Raymond Kurzweil lokuje swoją osobliwość jeszcze przed połową wieku XXI (https://tiny.pl/wb3bc ). Część zaś twierdzi, że stworzenie AI nie jest możliwe, że maszyna nigdy nie będzie potrafiła stać się myślącą osobą. Ja należę do tych, którzy twierdzą, że zbudowanie AI jest możliwe i to szybciej niż nam się wydaje.

I tutaj dochodzimy do pojęcia konwergencji trendów, o czym wyżej wspominałem. Szeroko omawia się ten proces w książce „Przyszłość jest bliżej, niż nam się wydaje” (https://tiny.pl/wb3b5 ). Radzę nie zrażać się entuzjazmem autorów, którzy chcą widzieć wiele skutków rozwoju technologii już za niecałe dziesięć lat. Materia jest zbyt oporna, żebyśmy za 10 lat poruszali się latającymi samochodami 😉.

Dla mnie istotne jest coś innego. Mianowicie autorzy twierdzą, że wiele różnych technologii spotyka się razem (AI, sieci neuronowe, głębokie uczenie, Internet, w tym Internet rzeczy (IoT), nowe formy transportu, komputery kwantowe, nanoroboty, nowe materiały, zielona energia i wiele innych), co doprowadzi do zespolenia tych nowych i ulepszonych technologii w coś, czego nie da się przewidzieć. Nazywają to konwergencją.

Tutaj przypomina mi się, że podczas rozmowy z dwoma informatykami, o których wspominałem na początku, jedna z osób (niebędąca informatykiem) powiedziała „od 40 lat się o tym mówi i nic z tego nie wynika”. Otóż po pierwsze wynika (ChatGPT), a po drugie z rozwojem technologii jest czasem tak jak z inflacją i otwieraniem szampana. Popychamy korek od szampana i nic się nie dzieje, ale w końcu korek wyskakuje, a jeśli butelkę otworzy się nieumiejętnie to może nawet wystrzelić i uderzyć w sufit. Tak będzie działała konwergencja w rozwoju GAI (to wielkie G jest świadomie napisane).

Jeśli doprowadzimy do powstanie GAI to w zasadzie ludzie nie będą potrzebni. Napisać program komputerowy? GAI to zrobi dużo szybciej i lepiej niż człowiek. Naprawić robota? Błyskawicznie, bo przecież za 20-30 lat roboty będą sprawniejsze niż ludzie. Przewidzieć przyszłość? Z pewnością GAI analizująca tysiące czynników zrobi to lepiej niż człowiek. Czy może dziwić, że wielu ludzi (z tych znanych to Bill Gates czy nielubiany przez mnie Elon Musk) ostrzegają przed konsekwencjami stworzenia takiego stwora.

Czy droga do GAI jest prosta i oczywista? Czy nie ma innych wariantów rozwoju sytuacji? Jakie po drodze czekają nas niespodzianki? Wydaje się, że różne warianty doskonale opisał Nick Bostrom w swojej (dość hermetycznej, ostrzegam) książce pt. „Superinteligencja. Scenariusze, strategie, zagrożenia”. Naprawdę warto spojrzeć na to, co tam napisał.

Jeśli chodzi o zalety rozwoju automatyzacji i robotyzacji to są na tyle oczywiste, że nie będę się nimi zajmował. Zagrożenia też są oczywiste, ale o paru warto wspomnieć. Na przykład kwestia fake news’ów . Można sobie wyobrazić, jakie używania będzie miała gAI (czyli już obecna) w tworzeniu fałszywych informacji, obrazów, dźwięków itp., a zdjęcie papieża w puchowej kurtce (https://tiny.pl/wb33m ), będzie przecież niewinnym żartem.

Można sobie też wyobrazić polityków używających AI i mikrotargetowania w celu uzyskanie najlepszego wyniku wyborczego. W ten sposób można stworzyć dowolny, wcale nie demokratyczny rząd. Jak będzie wyglądało kupowanie towarów jeśli zastosuje się taki sam proces? Kto będzie zbierał zyski z zastosowania AI w produkcji? Oczywiście właściciele robotów (AI), co doprowadzi do jeszcze większego zróżnicowania dochodów, a w końcu nawet do rewolucji? Kto będzie odpowiadał za błędy robotów?

Takie pytania można mnożyć prawie w nieskończoność i w tym krótkim tekście nie mam zamiaru tego robić. Zachęcam jedynie do przemyślenia tego, ku czemu idziemy i co nas może w przyszłości spotkać. Jeśli ma się tak jak ja 73 lata to czeka się na tą przyszłość jedynie z zainteresowaniem, ale gdybym był 30-40 lat młodszy to czekałbym z niepokojem.

I na koniec pro domo sua, czyli AI na rynkach finansowych. Już obecnie ponad 70% obrotów na Wall Street robią komputery. Z rozwojem SI ich wpływ będzie coraz większy. Ja od ponad dziesięciu lat polecam ludziom zajmującym się rynkami finiszowymi książkę: „Indeks strachu” Roberta Harrisa.

Nie wiem kto zapłodnił Harrisa (za Wikipedią: angielski powieściopisarz, scenarzysta, dziennikarz, komentator polityczny, autor bestsellerów) myślą o napisania książki, której akcja ma miejsce w środowisku funduszy inwestycyjnych i do tego ma elementy sci-fi. Ktokolwiek by to nie był to sprowokował autora tej książki to spłodzenia scenariusza, który od dawna uważam, za zapowiedź tego, co czeka rynki finansowe, kiedy do gry wejdzie GAI. Nie jest to miły scenariusz, a ponieważ to rynki finansowe rządzą światem…

KOMENTARZE (115)

dodaj komentarz
Wczytywanie...
#64
PK
2023-05-31 19:28:53
edytuj
usuń

Jest nowy wpis. Zapraszam. 

odpowiedz
#63
ABC
2023-05-31 11:41:40
edytuj
usuń

" Na zajęciach z logiki zapytałem studentów z pierwszego roku, kto z nich wierzy w obiektywną prawdę. To było okropne, tylko mniej więcej jedna trzecia podniosła ręce. Reszcie powiedziałem: "Idźcie studiować dziennikarstwo"."

Prof. Jerzy Marcinkowski, dyrektor Instytutu Informatyki na Uniwersytecie Wrocławskim

odpowiedz
#62
krzys
2023-05-31 11:05:25
edytuj
usuń

Wehrmachtowiec

Czy u was w Deutchland nastapiłą zapaść zdwojonej Deutche MARK?

Usiaki tak dla jaj grają techniczną niewypłacalnością, która rzuca strach na nieustraszony Wehrmacht.

Pomimo generowania nadzwyczajnych strat finansowych w EUropie Oberkomando der Wehrmacht w Berlinie idzie ścieżką zwiększania kosztów życia i zapowiada kolejne akcje wyrzeczeń/kosztów. Czy zwiększone Koszty życia uznawane są za Wunderwafe? Czy raczej jako okazję do spekulacji ludzkim życiem. To taka odmiana pomysłu obligacji śmierci... oczywiście dla dobra ludności

PS

LOP osiagnął 68tys czyli poziom ekstremalnego zaangażowania, gdy RSI świeci wykupieniem a PLN uzależniony jest od ruchów EDka. Dzień rozliczenia już za 3 tygodnie: 16 czerwca. Warto zastanowić się nad utrzymaniem pozycji szort. Niemiecka padaczka DAX może pociągnąć nas w otchłań spadków. WIELKIE fundy wyłóżyły duże pieniądze na przeciwne ruchy. Obecnie testujemy dolne ograniczenie, które było istotne pod koniec kwietnia.

Ważne wsparcie, jesli runie to cofniemy się 200 lat wstecz w epokę Napoleona 1770-1815 albo nawet rejon Potopu Szwedzkiego 1660-1700.

odpowiedz
#61
ABC
2023-05-31 10:39:59
edytuj
usuń

"Wydaje mi się bardzo ważne, żeby AI nie działała autonomicznie jeszcze przez bardzo, bardzo długi czas. Żeby to ludzie mieli wybór, jak to narzędzie będzie użyte......."

Szymon Sidor, który w OpenAI współtworzy ChatGPT.

odpowiedz
#60
ABC
2023-05-29 20:56:29
edytuj
usuń

ad. Sroczyńskiego, którego cenie, tym razem sie nie popisał. Nic łatwiejszego niż napisać, że wszystko jest do dupy.


Dlaczego żadna partia w Polsce nie ma programu na miarę jej narodowego interesu tylko ciągle ten antyPIS.

Dzisiaj dla Polski podstawowe Pytanie to co zrobić, aby Polska nie była państwem frontowym w starciu US-Rosja Chiny.

Takiego pytania nikt nie zada, nie zrobi z tego programu.

Bo pytanie o rację stanu w Polsce jest traktowane jako zdrada stanu.

odpowiedz
Ikona komentarza
Dodaj odpowiedź