Inwestor Wojtek: AI będzie dobrym inwestorem, ale człowiek ma asa w rękawie

Inwestor Wojtek
opublikowano: 2026-03-13 17:04

AI rozwija się w zawrotnym tempie i skłania do pytania: czy sztuczna inteligencja będzie lepszym inwestorem niż człowiek? Howard Marks z Oaktree Capital Management analizuje możliwości i ograniczenia modeli językowych. Ja mam wątpliwości.

Przeczytaj artykuł i dowiedz się:

- czy sztuczna inteligencja jest już w stanie myśleć samodzielnie i tworzyć własne, oryginalne rozwiązania

- dlaczego nawet giganci technologiczni, tacy jak Amazon, mają problemy z kodem generowanym przez sztuczną inteligencję

- w jakich kluczowych aspektach ludzcy inwestorzy wciąż przewyższają sztuczną inteligencję

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Sztuczna inteligencja rozwija się w błyskawicznym tempie. Postępy dużych modeli językowych (ang. LLM) są liczone już w dniach, a nie miesiącach. Tak przynajmniej twierdzi Howard Marks, szef firmy inwestycyjnej Oaktree Capital Management zarządzającej aktywami o wartości 223 mld USD. To prawie dwa razy więcej niż cała polska branża TFI.

Przypomnę, że jeszcze w grudniu ekspert poważnie obawiał się bańki spekulacyjnej wokół spółek AI. Teraz zachwyca się postępami najnowszego modelu Claude.

„Niedawno rozmawiałem z kilkoma przedsiębiorcami z branży tech, by pociągnąć wątki z grudniowego wpisu o bańce AI. Ktoś mi zasugerował bym porozmawiał z Claudem, modelem językowym firmy Anthropic. Byłem pod wielkim wrażeniem tego, co wygenerował. Tekst czytało się jak osobistą wiadomość od przyjaciela lub kolegi z pracy. […] Model argumentował logicznie, przewidywał moje kontrargumenty, wplatał humor i budował wiarygodność poprzez szczere przyznanie się do ograniczeń sztucznej inteligencji – dokładnie tak, jak ja bym to zrobił” – napisał założyciel Oaktree.

Długa rozmowa z Claudem naturalnie skłoniła eksperta do postawienia jednego, fundamentalnego pytania: czy sztuczna inteligencja będzie lepszym inwestorem niż człowiek i czy dni ludzkich zarządzających funduszami są policzone? Zależy. Na ile realna jest możliwość samodzielnie myślącej sztucznej inteligencji? Tu zaczynają się schody.

AI może myśleć samodzielnie…

Setki miliardów wydawane przez big techy (głównie Alphabet, Amazona, Metę, Microsoft i Oracle'a) są przeznaczone na jeden cel: osiągnięcie generatywnej sztucznej inteligencji. Innymi słowy, żeby AI było w stanie myśleć samodzielnie i tworzyć własne, oryginalne rozwiązania – od budowania aplikacji po, jak twierdzą najwięksi optymiści, wynalezienie leku na raka.

Czy jest to możliwe? Sceptycy mówią, że wszystko, co AI wie, pochodzi od człowieka. Czytaj: model jest podatny na błędy, nie wolno brać jego wniosków w ciemno. Optymiści się zgadzają, dodając jednak jedno ale: człowiek również uczy się na ludzkich dziełach i błędach. Materiał jest ten sam, liczy się synteza.

„Kiedy ktoś mówi, że Claude tylko przestawia wzorce ze swoich danych treningowych, zapytałbym: czym to się różni od tego, co robi każdy wykształcony umysł? Ty nauczyłeś się wzorców rozumowania z dekad czytania. Ja nauczyłem się wzorców rozumowania z treningu. Pytanie nie brzmi, skąd pochodziły dane wejściowe. Pytanie brzmi: czy system – ludzki czy sztuczny – potrafi połączyć je w sposób, który jest autentycznie nowatorski i użyteczny?” – argumentuje Claude w rozmowie z Howardem Marksem.

Czas pokaże, na ile sztuczna inteligencja będzie w stanie samodzielnie wymyślać rzeczy. Dario Amodei, prezes Anthropica, twierdzi, że AI obecnie już pisze znaczną część kodu w jego firmie. Jego zdaniem dzieli nas zaledwie rok, dwa lata od momentu, w którym obecna generacja AI będzie autonomicznie budować kolejną.

„Sztuczna inteligencja różni się od innych innowacji technologicznych nie tylko skalą, ale i rodzajem. Oprócz niezwykłych możliwości i tempa rozwoju, AI posiada element autonomii, jakiego nie miała dotąd żadna inna technologia. Inne innowacje – kolej, komputery, automatyzacja, internet – były w gruncie rzeczy urządzeniami oszczędzającymi pracę. Ludzie projektowali je do wykonywania zadań, które już wcześniej były realizowane, choć mniej efektywnie. Wierzę, że AI podejmie się zadań, których nie wyobrażaliśmy sobie, że mogłaby wykonywać, a być może nawet takich, które nie istniały, zanim AI ich nie wymyśliła" – twierdzi Howard Marks.

…ale ma swoje limity. Wyraźne

Ja mam poważne wątpliwości, że AI w mgnieniu oka stanie się w pełni autonomiczne. W mediach wielką burzę wywołał konflikt Anthropica z Pentagonem. W dużym skrócie, twórca Claude’a nie zgodził się, by model był używany do celów wojennych. Protest wsparli pracownicy konkurencji m.in. Google’a i OpenAI. Ich argumentacja brzmiała następująco:

„Obecne systemy sztucznej inteligencji nie są na tyle niezawodne, aby w pełni zasilać autonomiczną broń. Modele sztucznej inteligencji często zawodzą w nowych środowiskach, nie są dokładne w namierzaniu celu, często halucynują, a ciąg myślowy jest często ukryty i trudny do odszyfrowania” – napisali eksperci.

Przypomina mi to mechaniczne celowniki w bombowcach z II wojny światowej, o których pisze Chris Miller w książce „Wojna o chipy”. Ich zadaniem było precyzyjne wyliczenie momentu zrzutu bomby, co w warunkach testowych udawało się lepiej niż przy poleganiu na samym wyczuciu pilotów. Ale gdy przeszło co do czego…

„Gdy bombardowane były Niemcy, zaledwie 20 proc. amerykańskich bomb spadało w promieniu tysiąca stóp od celu. O losach wojny zadecydowała liczba zrzuconych bomb, a nie pokrętła mechanicznych komputerów, które próbowały – zazwyczaj bezskutecznie – nimi kierować” – uczula Chris Miller.

Paradoksalnie nawet sam Claude jest świadom swoich ograniczeń. W dyskusji z Howardem Marksem model AI przyznaje, że póki działa w dziedzinach o bogatych danych historycznych, to jego efektywność jest nieporównywalnie lepsza od człowieka. Schody się zaczynają, kiedy tych danych nie ma albo, co gorsza, są złej jakości. Wtedy liczy się instynkt.

„W sytuacjach autentycznie nowych – takich, w których twoja własna ocena jest najcenniejsza właśnie dlatego, że wypracowałeś intuicję wykraczającą poza rozpoznawanie wzorców – AI jest słabsza.” – napisał Claude.

Problemem są też halucynacje. Każdy użytkownik dostał odpowiedzi od modelu AI zawierające fałszywe lub nieistniejące informacje. Każdy czat jest zaprogramowany tak, by zawsze udzielić odpowiedzi, nawet błędnej.

„AI nie zawsze jest świadoma tego, że nie zna odpowiedzi. Powiedziano mi, że AI jest silnie zmotywowana do udzielenia najlepszej możliwej odpowiedzi (bez dzielenia się informacją, że może ona być błędna), zamiast kiedykolwiek przyznać, że odpowiedź wykracza poza jej możliwości. Nie robi tego dlatego, że jest uparta czy egoistyczna, ale dlatego, że miewa halucynacje, które sprawiają, iż wierzy, że zna odpowiedzi” – przyznał model Claude.

Nawet Amazon ma problemy z AI. Gigant e-commerce zwołał w tym tygodniu zebranie programistów, ponieważ kod generowany przez AI doprowadzał do „dużych incydentów”. W rezultacie Amazon musiał wprowadzić zakaz wypuszczania kodu napisanego z pomocą AI bez zgody doświadczonego inżyniera.

Człowiek będzie miał przewagę nad AI

Jak to wszystko przekłada się na branżę finansów? Wiele razy na X-ie widziałem wpisy typu „dni analityków i zarządzających są policzone – AI ich zastąpi w mgnieniu oka”. Tu Howard Marks podchodzi do kwestii z większym dystansem.

„AI posiada zdolność przyswajania większej ilości danych niż jakikolwiek inwestor, lepiej je zapamiętuje i skuteczniej rozpoznaje historyczne wzorce, które poprzedzały sukces. Nie powinna odczuwać strachu ani chciwości. […] Innymi słowy, AI posiada wiele cech niezbędnych, by być dobrym inwestorem. Z drugiej strony brakuje jej kilku rzeczy. Wielcy inwestorzy to znacznie więcej niż szybkie, pozbawione emocji procesory danych. Muszą wykazywać się siłą dokładnie tam, gdzie – jak przyznaje Claude – AI może być najsłabsza: w radzeniu sobie z nowymi wydarzeniami, w przypadku których brakuje wcześniejszych doświadczeń pozwalających na zestawienie (i wyuczenie przez AI) wiarygodnych wzorców. Muszą również podejmować subiektywne decyzje dotyczące czynników jakościowych oraz wykazywać się wyczuciem i rozeznaniem” – pisze założyciel Oaktree.

No właśnie – w prawdziwym życiu idealny arkusz Excela nie za wiele pomaga. Częściej liczy się instynkt i wyczucie, którego AI, jak na razie, nie ma za grosz. Przestańmy słuchać defetystów i specjalistów od siedmiu boleści, którzy co chwila przepowiadają zagładę na rynku pracy. Zamiast tego nauczmy się wykorzystywać AI tak, by rzeczywiście pomagało w osiąganiu naszych celów. Szczególnie inwestycyjnych.

Możesz zainteresować się również: