Polski naukowiec w Google DeepMind

Mirosław KonkelMirosław Konkel
opublikowano: 2024-02-21 20:00

Krajobraz sztucznej inteligencji tętni życiem od obiecujących start-upów, ale prowadzenie zaawansowanych badań nad tą dziedziną wciąż wymaga zatrudnienia w jednym z nielicznych na świecie wyspecjalizowanych ośrodków – mówi Mateusz Malinowski, pracownik naukowy w Google DeepMind.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

PB: Na czym polega twoja praca?

Mateusz Malinowski: Jako naukowiec zainteresowany widzeniem maszynowym skupiam się na dwóch gałęziach. Pierwszą jest wytworzenie technologii, które analizują zdjęcia i wideo, próbują zrozumieć ich zawartość na podstawie różnych źródeł, np. tekstowych. Drugi kierunek moich badań to generatywne AI, czyli generowanie obrazów lub wideo na podstawie takich danych wyjściowych jak tekst lub pojedyncza klatka filmowa. Jakieś dwa lata temu stworzyliśmy 30-sekundowe wideo będące kontynuacją sceny ze zdjęcia.

Czemu służą takie przedsięwzięcia?

Dzięki integracji wiedzy z różnych źródeł – tekstowych, wizualnych, dźwiękowych – oprogramowanie AI precyzyjniej interpretuje treści, co ma znaczenia np. dla rozwoju chatbotów, których efektywność zależy od poprawnego rozumienia słów klientów oraz kontekstu sytuacyjnego. Takie systemy, które łączą tekst z wizją, mogą też służyć do automatycznego tworzenia stron internetowych na podstawie szkiców i opisów funkcjonalności. Wreszcie mają zastosowanie w bardziej specjalistycznych dziedzinach, takich jak opieka zdrowotna lub robotyka. Sztuczna inteligencja wspomaga interpretację obrazów medycznych, np. zdjęć określonych części ciała z zauważalnymi nieprawidłowościami, co ułatwia diagnozowanie chorób. Mimo że to lekarze podejmują ostateczne decyzje, technologie te mogą podkreślać elementy wymagające dokładniejszych badań.

Czy sztuczna inteligencja, obecnie działająca jako pomocnik, nie zajmie kiedyś miejsca ludzi?

Moim zdaniem rozwój tych technologii ograniczy się do tego, na ile im na to pozwolimy. Pierwszą sprawą jest nasze umiarkowane zaufanie do algorytmów. Pomimo postępu technologicznego w dającej się przewidzieć przyszłości będziemy wobec AI ostrożni, przedkładając nad nią ludzkie doświadczenie czy intuicję. Czynniki psychologiczne, mentalne, społeczne jeszcze długo będą dominować nad inteligencją czy wiedzą maszyn. Inicjatywę oraz ostateczną decyzję także pozostawimy ludziom.

Czyli AI pisana jest jeszcze rola doradcza, a nie decyzyjna lub zarządcza?

Technologie te będą pełnić rolę asystentów, wspierając profesjonalistów w różnych branżach, ale ostateczne decyzje nadal będą należały do człowieka. Sposób, w jaki zorganizujemy naszą współpracę z tymi pomocnikami, przesądzi o ich efektywności. Ale jest mało prawdopodobne, że przekażemy im funkcje kierownicze. To w pełni uzasadniona ostrożność. Pomimo że narzędzia AI mogą sprawiać wrażenie inteligentnych, nie mają w pełni rozwiniętych ludzkich zdolności i intuicji. Spójrzmy na to w kontekście systemów dialogowych wykorzystywanych w obsłudze klienta lub w programowaniu – to my decydujemy, jakie zadania będą im powierzone; także to my decydujemy czy jesteśmy zadowoleni z wyników. Prawdopodobnie zaawansowane czynności, które wymagają nie tylko wiedzy o dziedzinie lub procedurach, ale także umiejętności społecznych, czy też umiejętność podejmowania decyzji, nadal będą należały do ludzkich kompetencji.

Czego powinni uczyć się ludzie, by dotrzymać kroku sztucznej inteligencji?

Ważne, aby edukacja nie ograniczała się tylko do przekazywania wiedzy, ale także rozwijała umiejętność twórczego myślenia. Powód jest oczywisty: dopiero zaczęliśmy odkrywać możliwości AI i nawet nie umiemy sobie wyobrazić, jakie dzięki niej powstaną branże, produkty, badania, czy usługi. Generowanie biznesowych czy naukowych hipotez wymaga kreatywności, a ich weryfikacja – wiedzy i umiejętności technicznych.

Algorytmy uczą się inaczej niż człowiek?

Przy tym pytaniu jesteśmy w sferze spekulacji. Wielu sądzi, że systemy AI potrzebują do nauki ogromnych zbiorów danych, a ludzie nie, przez co uczenie AI jest dużo mniej efektywne. Myślę, że jest w tym trochę prawdy, ale chciałbym zauważyć, że my również uczymy się na podstawie niezliczonych przykładów, choć proces ten różni się od uczenia maszynowego. Na przykład, przez całe nasze życie mamy dostęp do ogromu danych wizyjnych, trochę przypominających długie wideo. Ponadto, mamy także dostęp do danych tekstowych, haptycznych, węchowych czy też dźwięków. Obecne AI uczy się głównie z danych tekstowych lub wizyjnych.

Co myślisz o teorii, według której sztuczna inteligencja nie może być naprawdę inteligentna bez ciała?

Sądzę, że efektywność AI zależy od posiadania ciała, przez co jednak rozumiem jej zdolność do interakcji ze światem fizycznym nie tylko przez widzenie czy słyszenie, ale również przez dotyk, smak i węch. Może to oznaczać, że będziemy musieli wyposażyć algorytmy w jakieś odpowiedniki ludzkich zmysłów, a może nawet i w „ciało”. Tu znowu nasuwa się analogia do naszej inteligencji, która pewnie nie rozwijałaby się efektywnie, gdybyśmy byli izolowani od bodźców fizycznych.

Musiałeś wyjechać za granicę, by robić karierę w AI?

W okresie gdy dokonywałem ważnych wyborów dotyczących mojej kariery, w Polsce nie było dla mnie odpowiednich szans. Aby być sprawiedliwym, muszę przyznać, że wówczas na całym świecie było niewiele możliwości w tej dziedzinie. Sztucznej inteligencji przypisywano ogromną rolę, ale w trudnej do określenia przyszłości. Nie dyskutowano też o konkretnych zastosowaniach biznesowych AI na tak szeroką skalę jak obecnie. A jeśli zdarzały się takie debaty, to dotyczyły zastosowań zawężonego AI. To była era, w której tylko nieliczni gracze, jak w Google DeepMind czy OpenAI, angażowali się w to, na czym mi zależało w tamtym okresie. Chodzi o fundamentalne badania nad AI. Obecnie w Polsce są różne inicjatywy takie jak MLinPL lub Google DeepMind Scholars Programme. Celem tego ostatniego program razem z kolaboracją z Uniwersytetem Warszawskim jest poprawa ekspozycji studentów pod kątem AI. Dzięki tym i innym inicjatywom, studenci mogą rozwijać swoje zainteresowania w kwestii badań i zastosowań AI.

Czy zwycięstwo, które w 1996 r. komputer Deep Blue odniósł nad Garrim Kasparowem, mistrzem świata w szachach, nie rozpaliło wyobraźni ówczesnej branży technologicznej?

Faktycznie, najwcześniejsze programy szachowe i pierwsze wersje chatbotów wzbudzały zachwyt, lecz ich możliwości musimy uznać za bardzo ograniczone. Każde narzędzie było wyspecjalizowane w wąskiej dziedzinie. Interakcje z tymi wczesnymi systemami nie były zbyt szerokie, szczególnie w porównaniu do obecnych technologii, takich jak Bard, Gemini czy ChatGPT, które mogą rozwiązywać cały wachlarz problemów. W tym miejscu mogę wrócić do wyjaśnienia, dlaczego zdecydowałem się na karierę naukową za granicą. W mojej młodości badania nad AI wiązały się z dużymi kosztami i niepewnym zwrotem z inwestycji.

Czy dzisiaj są większe możliwości?

Zdecydowanie. Choć praca nad AI to w dalszym ciągu kosztowne przedsięwzięcie, pojawia się coraz więcej zastosowań AI, co wiąże się z większą liczbą start-upów, które tworzą innowacyjne i wszechstronne systemy. Jako przykład podam firmę Midjourney, która wykorzystuje sztuczną inteligencję do generowania obrazów. Z drugiej strony, głębokie, podstawowe badania wciąż pozostają w rękach nielicznych.

Organizator

Puls Biznesu

Partnerzy

KDPW ADP EY