Sztuczna inteligencja dla opornych

Samej sztucznej inteligencji się nie boję, ale trochę obawiam się ludzi, którzy mogą wykorzystać sztuczną inteligencję - mówi dr Artur Modliński z wydziału zarządzania Uniwersytetu Łódzkiego.

ŁUKASZ OSTRUSZKA: Kim jest ta sztuczna inteligencja (AI), o której tyle się mówi? 

Wyświetl galerię [1/2]

Dr Artur Modliński

ARC

DR ARTUR MODLIŃSKI*: Wyobrażenie sobie sztucznej inteligencji rzeczywiście jest chyba największym wyzwaniem, bo problem polega na tym, że ona nie wygląda tak, jak przedstawiają ją filmy science-fiction. Sztuczna inteligencja jest algorytmem, programem komputerowym wyposażonym w funkcje postrzegania i wykonywania pewnych czynności. Wszystko polega na próbie naśladowania zdolności człowieka. Sztuczna inteligencja może więc wyglądać bardzo różnie, ponieważ możemy ją odnaleźć w urządzeniach, aplikacjach i programach. Nasza wyobraźnia musi jednak sięgnąć ponad materialne elementy.  

Trzeba się jej obawiać? Pan się boi? 

Samej sztucznej inteligencji się nie boję, ale trochę obawiam się ludzi, którzy mogą wykorzystać sztuczną inteligencję. Program sam nie potrafi ocenić czegoś pod względem etycznym. Nie wie co jest dobre, a co złe. Ludzie nadają kontekst etyczny, więc wiadomo, że w zależności od tego, kto będzie nadawał ten kontekst, tak sztuczna inteligencja będzie się zachowywała.  

Do czego jest już zdolna? Jakie są jej granice? 

Sztuczna inteligencja w chwili obecnej pomaga nam przetwarzać informacje, których mamy już taką ilość, że nie jesteśmy w stanie tego samodzielnie zrobić. Znajduje też wiele zastosowań w gospodarce, np. w rolnictwie. Powstają platformy rolnicze, w których to sztuczna inteligencja szczegółowo bada wilgotność i nasłonecznienie, a następnie tak steruje całym systemem, żeby rośliny miały optymalne warunki do rozwoju. Szczególnie istotne wydaje się zastosowanie sztucznej inteligencji w branży finansowej, gdyż potrafi lepiej wykrywać nieprawidłowości. Nie mówię nawet o potencjale wykorzystania w służbie zdrowia, bo może na podstawie zebranych danych nie tylko lepiej diagnozować, ale nawet przeciwdziałać chorobom, czy wykonywać precyzyjne operacje. Tego jeszcze wprawdzie nie ma, ale trwają intensywne prace nad takim wykorzystaniem.  

No tak, ale jest też ciemna strona… 

Niebezpieczne jest śledzenie konsumentów w internecie, pozyskiwanie masy danych o użytkownikach, śledzenie ich ruchów. Duże firmy chcąc zapewnić nam produkt, z którego będziemy zadowoleni obserwują nas korzystając z oprogramowania napędzanego sztuczną inteligencją, ale przecież nigdy nie wiadomo, kto będzie miał do tych danych dostęp lub czy nie zostaną one wykradzione. AI jest potężnym narzędziem w ręku człowieka z wszystkimi jego dobrymi i złymi intencjami.  

Zacząłem od pytań prostych, trywialnych i oczywistych, bo mam wrażenie, że sztuczna inteligencja jest takim pojęciem, którego ludzie się boją. Nie jesteśmy w stanie jej sobie wyobrazić, a dorabiamy jej „różne gęby”. Tymczasem ona uczy się z tych danych, które podaje człowiek.  

Ludzie decydują o tym, co chcą przy jej pomocy osiągnąć i pozyskać. Naszą główną przewagą nad sztuczną inteligencją jest kreatywność. Do tej pory nie jest ona też w stanie sama siebie programować. My nadajemy jej kształt. To pocieszające i przerażające.  

A czy obawa o to, że stanie się samodzielna ma naukowe uzasadnienie? 

Tak naprawdę spierają się w tym temacie dwie różne szkoły. Niektórzy badacze twierdzą, że na pewno sztuczna inteligencja uzyska taką samodzielność i ciężko będzie zorientować się, czy nie odczuwa i myśli jak człowiek. Inni powiadają, że mamy różne sztuczne inteligencje. W zależności od potrzeb człowieka każda jest czymś innym, ale żadna nie jest w stanie odwzorować unikalnej ludzkiej inteligencji i nigdy nie będzie w stanie tego zrobić.  

Czy tylko kreatywność nas wyróżnia? 

Nie tylko kreatywność, ale też zdolność popełniania błędów, choć brzmi to dziwnie. Nim opracowaliśmy produkty, z których dziś korzystamy, popełniliśmy sporo błędów. Historia człowieka to właściwie ciągłe uczenie się na błędach. Tworzymy więc coś unikatowego i wyróżniającego.  

Co z emocjami? 

Na ten temat trwa debata, czy będziemy w stanie zaprogramować emocje. Do tej pory nikomu się to nie udało, ale niektórzy twierdzą, że będzie to możliwe w przyszłości. Sztuczna inteligencja nie potrafi uczyć się emocji i ich naśladować, ale mamy programy, które potrafią rozpoznać emocje człowieka na podstawie tonu głosu, czy mimiki i określić nasz nastrój, a następnie dostosować do nich np. odpowiedź albo zasugerować jakąś aktywność. 

Znowu zapytam: bać się, czy cieszyć? 

Wszystko zależy od intencji człowieka. Z jednej strony boty funkcjonujące w infoliniach są w stanie rozpoznać osobę, która chce popełnić samobójstwo i zaalarmować odpowiednie służby lub bliskich, ale z drugiej strony jakaś firma może pokusić się o emocjonalne rozszyfrowanie konsumenta i odpowiednio dobrać dla niego produkt, który klient kupi w chwili swojej słabości.  

Proszę prostym, obrazowym językiem opisać proces uczenia się przez sztuczną inteligencję. 

Tworzymy równanie, algorytm. Zbieramy bardzo dużą ilość danych i karmimy nimi nasz algorytm, który próbuje szukać jakiś połączeń między danymi, przekonwertować je na informacje, a na podstawie informacji dostarczyć wiedzę. Firmy zbierają więc od nas najprostsze informacje o naszych zainteresowaniach, zwyczajach, decyzjach i taki miks podają sztucznej inteligencji, która jest w stanie patrzeć szerzej i przekłada to na know-how.  

Pan specjalizuje się także w teorii zarządzania. Ciekawi mnie, czy ten know-how AI potrafi lepiej wykorzystać do zarządzania zespołem niż człowiek? 

Sztuczna inteligencja jeszcze nie jest w stanie nami zarządzać, ale może dostarczać menedżerom informacje i proponować pewne rozwiązania. Nie podejmuje decyzji, ale tylko sugeruje na podstawie zaprogramowania, czyli dostarcza informacji o stanie załogi, maszynach. Pozwala nam przewidzieć kiedy skończą się nam materiały lub wypali żarówka i dokonać zamówienia niezbędnych elementów w czasie rzeczywistym. 

Nie jestem sztuczną inteligencją i nie potrafię po tonie głosu rozpoznawać dokładnie emocji, ale wyczuwam, że jest Pan zafascynowany tematem. Co najbardziej Pana w niej pociąga? 

To dobre przeczucie, bo rzeczywiście temat i badania całkowicie mnie pochłaniają. Musimy powrócić do początku i kwestii odróżniania dobra i zła. Mam nadzieję, że opis pewnych zjawisk pozwoli stworzyć ramy etyczne i realia, które umożliwią bezpieczne korzystanie z osiągnięć sztucznej inteligencji. Zadaniem naukowców jest zadbanie nie tylko o rozwój technologiczny, ale także pielęgnacja wartości, które służą człowiekowi.  

Podziela Pan zatem obawy Elona Muska, Stephena Hawkinga i Billa Gatesa. Czy sztuczna inteligencja musi być regulowana przez dobre intencje.  

Każdy wynalazek człowieka może być wykorzystany na różne sposoby. Tworzymy pewną przestrzeń i powinniśmy brać za nią odpowiedzialność, a nie tylko myśleć o zarabianiu pieniędzy.  

Samo zarabianie nie jest złe. Kwestią zasadniczą jest uczciwość.  

Zgadzam się w pełni. Ktoś może zarabiać pieniądze na opracowywaniu urządzeń do noszenia, które zbierając o nas informacje pomagają dobierać leki i to przecież jest godne chwały. Gorzej jeżeli sztuczna inteligencja powstaje po to, żeby sztucznie kreować nasze pragnienia. Uważam, że jako naukowcy powinniśmy ludzi przed tym ostrzegać, bo prowadzi to do manipulacji społecznej.  

Wyobraźmy sobie, że ma Pan teraz nieograniczone możliwości w zakresie wykorzystania sztucznej inteligencji. Jaka byłaby pierwsza decyzja? 

Wykorzystałbym ją do dwóch rzeczy. Po pierwsze w służbie zdrowia, żebyśmy mieli większą wiedzę na temat tego, co dzieje się w naszym organizmie i mogli odpowiednio wcześnie reagować. Po drugie, skierowałbym ją do ochrony środowiska naturalnego. Uważam, że sztuczna inteligencja ze swoimi możliwościami może złagodzić, a może nawet odwrócić skutki naszego niszczycielskiego działania.  

Jaki jest stan wiedzy Polaków na temat sztucznej inteligencji? Jak wypadamy pod tym względem na tle innych krajów? 

Nie jest to już dla nas jakiś mityczny potwór, ale prawda jest taka, że współczesny człowiek nie zauważa wokół siebie sztucznej inteligencji. Wiele osób zauważa jej przejawy, na przykład cookies w internecie, które zbierają o nas dane, ale nie są w stanie zrozumieć w pełni, że to nic innego jak wykorzystanie sztucznej inteligencji.  

To normalne, czy niebezpieczne? 

Nieświadomość jest trochę niebezpieczna, bo jesteśmy zalewani w internecie treściami niepotrzebnymi. Straciliśmy zdolność odróżniania prawdy od fałszu, łatwo wpadamy w sidła fake newsów. Wpadamy w bańkę filtrująca. Sztuczna inteligencja cały czas podpowiada nam co kupić, więc może popełniamy mniej błędów zakupowych, ale z drugiej strony trudno nas zaskoczyć i zamykamy się w tym co lubimy.  

Rozmawiał Łukasz Ostruszka

Dr Artur Modliński – adiunkt w katedrze zarządzania Uniwersytetu Łódzkiego, kierownik Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją przy UŁ, ekspert w Międzynarodowym Centrum Badawczym CITAD w Portugalii i Fundacji R. del Bianco we Włoszech. Od 2014 roku konsultant biznesowy dla przedsiębiorstw, organizacji publicznych i pozarządowych. Jego zainteresowania badawcze oscylują wokół wykorzystania sztucznej inteligencji w zarządzaniu, cyberkomunikacji oraz interakcji człowieka z komputerem.

Sprawdź program konferencji "Sztuczna inteligencja i robotyzacja w sektorze finansowym", 22-23 stycznia 2018 r., Warszawa >>

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Rozmawiał Łukasz Ostruszka

Polecane

Inspiracje Pulsu Biznesu

Puls Biznesu

Handel / Sztuczna inteligencja dla opornych