W pierwszej części konferencji „Co nas czeka: AI” zestawione zostały dwie perspektywy: wizja przyszłości, która definiuje kierunek globalnych inwestycji, oraz operacyjna praktyka, a więc decyzje, które faktycznie wpływają na efektywność przedsiębiorstw.
Drugi blok skupia się na rynku pracy, kulturze organizacyjnej i regulacjach, które wyznaczają ramy dla rozwoju sztucznej inteligencji w Polsce. Ukazuje świat AI z perspektywy ludzi, firm i prawa. To właśnie tutaj widać, jak technologia przenika codzienną pracę i jakie warunki muszą zostać spełnione, by stała się realnym wsparciem, a nie obietnicą przyszłości.
Jakie są natomiast realne ograniczenia technologiczne, koszty środowiskowe i geopolityczne konsekwencje rozwoju AI — na te pytania eksperci odpowiadają w trzecim bloku konferencji „Co nas czeka: AI”.
Wielkie narracje i strategiczne decyzje
Sztuczna inteligencja w obecnej, powszechnie dostępnej formie pojawiła się w naszym życiu dopiero w ostatnich latach, m.in. za sprawą narzędzi takich jak ChatGPT. Ale do tego prowadziła długa droga.
— Nad sztuczną inteligencją ludzie pracują od lat 50. XX w. Idea była taka, że chcielibyśmy rozwiązywać problemy, które wymagają inteligencji. Efekty były jednak ograniczone. Dopiero na początku XXI w. zaczęliśmy skutecznie analizować obrazy i rozpoznawać, co się na nich znajduje — mówi Włodzisław Duch, profesor nauk fizycznych z Uniwersytetu Mikołaja Kopernika w Toruniu.
Podkreśla on, że przełom nastąpił w 2017 r. wraz z pojawieniem się koncepcji wykorzystania uwagi (ang. attention) w analizie sekwencji, co umożliwiło systemom prowadzenie dialogu w języku naturalnym. Mechanizm uwagi pozwala modelom skupić się na najważniejszych fragmentach zdania, zapamiętywać długie fragmenty tekstu, analizować kontekst oddalony o wiele słów, wreszcie: generować sensowne i długie wypowiedzi.
— Gdy trzy lata temu udostępniono ChatGPT szerokiemu gronu użytkowników, okazało się, że rozmowa z maszyną może przebiegać w sposób naturalny i coraz bardziej zaawansowany — mówi prof. Duch. Zwraca uwagę, że sztuczna inteligencja osiągnęła już wiele ponadludzkich możliwości, a jej rozwój nadal postępuje bardzo dynamicznie.
Temu rozwojowi — zdaniem profesora — mogą przeszkodzić obawy i kontrowersje, jakie wzbudza AGI (Artificial General Intelligence), czyli wyższa forma sztucznej inteligencji, która w teorii potrafiłaby dorównać człowiekowi we wszystkich obszarach intelektualnych, a nie tylko w wybranych zadaniach, do czego zdolne są obecne systemy AI.
Włodzisław Duch zwraca też uwagę na to, że rozwój AI nie idzie w parze z tempem wdrażania technologii w biznesie. Czy ta opinia jest uzasadniona? Jak polskim firmom idzie przyswajanie sztucznej inteligencji?
— Całkiem nieźle. My jako przedsiębiorcy jesteśmy sprytni, odważni, lubimy eksperymentować — mówi Jarosław Sokolnicki, partner i prezes 4enligt, firmy doradzającej biznesowi w transformacji cyfrowej.
Jak wdrażać AI z sensem? Ekspert radzi, by najpierw zidentyfikować zadania, które sztuczna inteligencja będzie mogła wykonywać szybciej i lepiej.
— Przypomina to wdrażanie stażysty. Musimy bardzo precyzyjnie wytłumaczyć, czym ma się on zająć, jakie zadania wykonywać, w jakim kontekście i w jaki sposób będą kontrolowane efekty jego pracy — wylicza Sokolnicki. Chodzi o to, by znaleźć obszary w firmie, gdzie jest najwięcej pracy, najlepiej powtarzalnej, ponieważ tam można szybko osiągnąć zamierzony efekt, czyli poprawę efektywności.
Sokolnicki podkreśla również, że przed wdrożeniem warto przetestować wybrane narzędzie AI. Jego zdaniem stworzenie prototypu, który zwykle stanowi ok. 10 proc. kosztu całego rozwiązania, pozwala uniknąć ryzyka zainwestowania pełnego budżetu w coś, co może się nie sprawdzić.
Co może pójść nie tak przy wdrażaniu AI? Tomasz Ciąpała, założyciel i główny udziałowiec firmy odzieżowej Lancerto, przyznał, że wprowadzenie bota opartego na AI do systemu sprzedaży zakończyło się niepowodzeniem.
Sztuczna inteligencja potrzebuje mocy obliczeniowej globalnych chmur, ale nasza gospodarka — suwerenności danych, którą gwarantuje infrastruktura lokalna. Kluczem jest mądre budowanie mostów między tymi dwoma światami. Tylko w ten sposób wzmocnimy cyfrową odporność naszego kraju i sprawimy, że innowacje będą służyć realnym, strategicznym potrzebom Polski.
Inwestycje w AI to dziś warunek utrzymania innowacyjności i konkurencyjności. Transformacja jest nieunikniona, a my mamy wysokie kompetencje i nowoczesne narzędzia, by z sukcesem realizować projekty AI. Suwerenne środowisko do budowy, testowania i skalowania kluczowych rozwiązań AI na bazie narzędzi i potężnej mocy kart od NVIDIA jest już dostępne w Fabryce AI Beyond.pl.
— Przeznaczyliśmy na niego istotny budżet, zainwestowaliśmy w pracę programistów. Okazało się, że tak naprawdę garstka ludzi z tego narzędzia korzysta. Uznaliśmy, że projektu nie ma sensu kontynuować, ponieważ liczba zapytań jest mała, a jednocześnie pytania są na tyle specjalistyczne, że bot nie był w stanie odpowiedzieć na zapotrzebowanie klienta — mówi Ciąpała.
Firma się jednak nie zraziła, przenosząc swoje zainteresowanie sztuczną inteligencją na inne obszary działalności. AI nie komunikuje się bezpośrednio z klientami, lecz optymalizuje procesy i usprawnia pracę. Tomasz Ciąpała mówi, że choć bot zawiódł, AI pomaga pracownikom, którzy obsługują klientów. W firmie, która ma ponad milion klientów, szybkość odpowiadania jest istotną przewagą konkurencyjną.
Największy potencjał AI firma dostrzega jednak w logistyce. W sytuacji, gdy przez magazyny przepływają miliony różnych produktów, kluczowe staje się przewidywanie, jakiego asortymentu firma będzie potrzebować, w jakim czasie i w jakich ilościach. Firma sięga również po AI do wspomagania zadań w obszarze back office i księgowości, ale też w marketingu, np. w sesjach zdjęciowych, gdzie prawdziwe zdjęcia produktów wzbogacane są wizualizacjami wygenerowanymi przez AI.
To przykład wykorzystania AI w firmie odzieżowej. A jak sztuczna inteligencja może pomóc firmie headhunterskiej?
— Zajmujemy się rekrutacją kadry menedżerskiej wyższego szczebla. To nie są poszukiwania tysięcy pracowników, a więc analiza tysięcy życiorysów. Dajemy sobie radę bez AI, ale mamy zespół, który zajmuje się wsparciem osób zwalnianych. AI może być użyte do przeglądu wszystkich ogłoszeń o pracę, które w danym momencie są na rynku, żeby je dopasować np. pod kątem setek osób tracących pracę w ramach zwolnień grupowych — mówi Piotr Wilgomas, prezes firmy rekrutacyjnej Bigram.
Dodaje, że działania wspierające zwalnianych mają utrzymać reputację firmy i motywację wśród pracowników, którzy pozostają. I tu AI może przyjść z pomocą. Eksperci podkreślają, że błędem jest odwrócenie się od tej technologii.
— Są firmy, które podchodzą do AI bardzo zachowawczo. Nie chcą tego „dotykać” z uwagi na niedoskonałości technologii, obawy o przetwarzanie danych przedsiębiorstwa. To błąd. Uważam, że powinno się testować możliwości tych narzędzi, pamiętając o ich ograniczeniach i ryzykach — mówi Radosław Mechło, współautor książki „Zatrudnij AI, odzyskaj czas”.
Innym błędem jest wprowadzenie AI do firmy na siłę, decyzją zarządu.
— Potrzebne są konsultacje wewnętrzne, żeby ustalić, z jakich narzędzi i w jakim celu będziemy korzystać. Trzeba też zweryfikować, jakie rozwiązania będą optymalne dla danego działu czy nawet pracownika — radzi Mechło.
Podkreśla, że firmy często odstrasza koszt narzędzi AI.
— Wdrożenie AI to nie jest coś, co kosztuje bardzo dużo. Można wykupić podstawowe modele za 100, 200, 300 zł. W małej firmie to w zupełności wystarczy, żeby oszczędzać godzinę czy dwie dziennie. Jeżeli mamy 10 pracowników i każdy z nich oszczędza godzinę dziennie, to w skali miesiąca robi się spora oszczędność.
Natomiast najgorsze, co robią firmy w kwestii AI, to… kategoryczny zakaz AI.
— Ludzie i tak z niej korzystają, tylko robią to po cichu na prywatnych komputerach, niestety bez wytycznych, jak dbać np. o bezpieczeństwo danych — mówi autor książki „Zatrudnij AI, odzyskaj czas”.
Ludzie, kompetencje i odpowiedzialność
W drugim bloku konferencji „Co nas czeka: AI” zaproszeni goście rozmawiali głównie o roli sztucznej inteligencji na rynku pracy, o tym, czy AI może być wsparciem, czy zagrożeniem dla pracowników w ich codziennych obowiązkach.
Ale czy polscy pracownicy w ogóle korzystają z tych narzędzi? Katarzyna Komorowska, partner w PwC Polska, omówiła wyniki globalnego badania „Hopes and Fears”, które analizuje percepcję, adopcję i kompetencje związane ze sztuczną inteligencją wśród pracowników. Badanie objęło 50 tys. respondentów z 48 krajów, w tym 800 z Polski.
Wynika z niego, że globalnie 54 proc. respondentów używało AI w pracy w ostatnim roku (tylko 14 proc. codziennie). W Polsce ten odsetek wynosi 45,9 proc. Dlaczego Polska odstaje od średniej globalnej? Zdaniem Katarzyny Komorowskiej polscy pracownicy nie odczuwają jeszcze presji makroekonomicznej, nie widzą wokół siebie fali zwolnień, w przeciwieństwie np. do rynku amerykańskiego, które zmuszałyby ich do korzystania z narzędzi AI.
— Pracownicy tłumaczą sobie tak: radzę sobie w swoich zadaniach, jestem dobrze oceniany, nie korzystając ze sztucznej inteligencji, albo jeszcze nie do końca rozumiem, jak mogę ją wykorzystać. A poza tym, jak zacznę korzystać z AI, to moja praca już nie będzie aż tak potrzebna — opisuje podejście polskich pracowników do AI ekspertka z PwC.
Prezentacja wyników badania „Hopes and Fears” była punktem wyjścia do dyskusji o przyczynach oporu pracowników wobec sztucznej inteligencji. Zdaniem ekonomistki behawioralnej dr Julii Kołodko obawy mają kilka źródeł.
— Duża część narracji wokół AI jest związana ze strachem. Nawet eksperci nie wiedzą, w którą stronę to pójdzie. Panuje przekonanie, że AI zabierze nam pracę, tysiące ludzi już zostało zwolnionych. Nasz mózg jest tak skonstruowany, że nie lubimy zmian i się ich boimy, nawet jeśli są one w 100 proc. pozytywne — tłumaczy Kołodko.
Jowita Michalska, założycielka i prezeska Digital University, podkreśla z kolei, że poziom adopcji AI w polskich firmach wynosi zaledwie 6 proc., a u europejskiego lidera — Szwecji — sięga 30 proc., co w porównaniu z USA i tak nie jest wysokim wskaźnikiem.
— Wiadomo że pracownicy z czatbotów korzystają nagminnie, w domu, w pracy. Czasem oszukują, że używają, czasem oszukują, że nie używają. Natomiast wciąż niewiele firm ma politykę dotyczącą tego, jak stosować AI, a przecież w firmach mamy masę danych wrażliwych, to więc powinno zostać uregulowane. W każdym zespole powinniśmy mieć kogoś, kto rozumie już tę technologię — radzi Michalska.
W kolejnej rozmowie Wojciech Stramski, prezes Beyond.pl, potwierdza, że strach przed zmianami w dużym stopniu powstrzymuje firmy przed wdrożeniem AI z całym pakietem zasad regulujących, jak z tej technologii korzystać. Dlaczego? Jego zdaniem kluczowym blokerem są regulacje prawne, które w Unii Europejskiej nie są przejrzyste.
— Firmy, które dysponują większymi zasobami, stać na prawników. Potrafią zinterpretować te regulacje i wdrożyć u siebie procedury. Ale są też firmy, które boją się narażenia na potencjalne kary — mówi Stramski.
Mowa o rozporządzeniu AI Act, które nakłada konkretne obowiązki na dostawców i użytkowników systemów sztucznej inteligencji w Unii Europejskiej. Prawo ma zapewnić bezpieczeństwo i ochronę praw podstawowych przy jednoczesnym wspieraniu innowacji.
— Za wykorzystanie sztucznej inteligencji w niektórych zabronionych obszarach grozi kara do 35 mln euro lub 7 proc. globalnego obrotu. To ogromne sankcje, jakich jeszcze nie wprowadzono w żadnej wcześniejszej regulacji — mówi Gabriela Bar, założycielka kancelarii Gabriela Bar Law & AI.
Zdaniem prawniczki potrzebne są przepisy, które w ostatecznym kształcie (w życie weszła dopiero część przepisów AI Act) nie zdławią innowacyjności. Wskazuje, że w projekcie polskiej ustawy o sztucznej inteligencji pojawia się dobre rozwiązanie, zgodnie z którym organ nadzoru może wydawać opinie na temat określonego stanu faktycznego.
— Jeśli firma nie wie, jak zinterpretować dany obowiązek, będzie mogła — mam taką nadzieję — wystąpić do organu nadzoru o indywidualną interpretację. Ta interpretacja wprawdzie nie będzie wiążąca dla organu, ale jeżeli przedsiębiorca postąpi zgodnie z interpretacją, nie będzie mógł być za to ukarany. Moim zdaniem to jest bardzo potrzebne już dziś, żeby przedsiębiorcy nie bali się wdrażać innowacyjnych rozwiązań — dodaje prawniczka.
Goście konferencji zgodnie podkreślają, że sztuczna inteligencja może być szansą dla firm i pracowników. Ale jest też druga strona medalu — AI może być wykorzystane przeciwko firmom i ich klientom. Chodzi m.in. o tzw. deep fake, czyli wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub wideo.
To poważne wyzwanie m.in. dla sektora bankowego. Jak wynika z danych NBP, straty z tytułu oszustw osiągnęły w pierwszej połowie 2025 r. 340 mln zł. Piotr Mazur, szef ryzyka w PKO Banku Polskim, szacuje jednak, że realne straty wynikające z fałszywych inwestycji i oszustw mogą zbliżać się nawet do 1 mld zł rocznie.
Skalę problemu potęguje rozwój sztucznej inteligencji. Mazur ostrzega, że AI spowoduje, że produkcja fałszywych reklam i akcji oszukańczych będzie zdecydowanie tańsza, co podnosi dochodowość tego typu działalności przestępczej przy niskim ryzyku dla oszustów, gdyż z reguły atakują z zagranicy.
Banki, świadome, że ryzyko technicznego przełamania zabezpieczeń jest niskie, skupiły się na walce z socjotechniką i manipulacją klientami. Mazur mówi o pracach nad stworzeniem „drugiej linii obrony”, wykorzystującej m.in. sztuczną inteligencję, aby blokować wyłudzone środki wewnątrz sektora bankowego i nie pozwolić im na opuszczenie kraju.
Podkreśla również, że skuteczna walka z tym masowym procederem wymaga wprowadzenia Narodowej Strategii Walki z Przestępstwami Finan-sowymi, która zintegruje sektor finansowy, telekomunikację oraz platformy Big Tech, na których pojawiają się fałszywe reklamy, w celu ochrony klientów przed manipulacjami socjotechnicznymi i nieprawdziwymi ofertami.
O czym milczy cyfrowa rewolucja
Piotr Mazur mówi o AI jako narzędziu w rękach oszustów. Ze sztuczną inteligencją wiąże się też jednak inne zagrożenie. Kontrola nad tą technologią (sprzęt, moc obliczeniowa) fundamentalnie kształtuje dziś globalną dominację geopolityczną i stanowi o cyfrowej suwerenności państw. AI jest skondensowana w rękach kilku gigantów, głównie z Doliny Krzemowej, a w samym sercu rewolucji stoi firma NVIDIA, której akceleratory AI odpowiadają już za około 80 proc. światowego rynku.
— Wkraczamy dziś w obszar, gdzie sprzęt przestaje być tylko technologią. Staje się warunkiem uczestniczenia w wielkim geopolitycznym wyścigu o sztuczną inteligencję. Nazwałabym to formą władzy infrastrukturalnej — ostrzega dr hab Aleksandra Przegalińska, związaną z Akademią Leona Koźmińskiego, Massachusetts Institute of Technology i Uniwersytetem Harvarda.
Podkreśla, że infrastruktura AI (produkcja akceleratorów, operatorzy chmurowi) skoncentrowana jest w rękach kilku graczy, którzy uczestniczą w wyścigu na najwyższym poziomie, podczas gdy struktury ponadnarodowe, takie jak Unia Europejska, mogą stać się biernymi obserwatorami i być zdane na decyzje innych.
Kolejnym aspektem korzystania z AI jest bezpieczeństwo danych w chmurze. Wojciech Darłowski, członek zarządu Beyond.pl, podkreśla, że firmy mają swoje dane, procesy technologiczne, dane wrażliwe, finansowe, osobowe czy patentowe.
— Nie chcielibyśmy, aby ktokolwiek inny miał do nich dostęp. Musimy mieć absolutną pewność, że dane są bezpieczne, rozumianą jako pełna kontrola nad nimi. Chodzi nie tylko o ich wprowadzanie i przetwarzanie, ale także o to, aby chmura obliczeniowa, która je obsługuje, zarządzała nimi w sposób gwarantujący bezpieczeństwo — mówi Darłowski.
Dodaje, że podobnie jak myśli się o bezpieczeństwie w aspekcie militarnym czy energetycznym, tak też trzeba myśleć o bezpieczeństwie technologicznym.
— Nie możemy oddawać komuś, np. Stanom Zjednoczonym, dominacji nad technologią — tłumaczy Wojciech Darłowski.
Mówiąc o zagrożeniach związanych z rozwojem sztucznej inteligencji, nie można zapomnieć o kosztach środowiskowych. Centra danych, które napędzają systemy AI, wymagają do chłodzenia serwerów bardzo czystej wody, w tym wody pitnej lub destylowanej.
— Centra danych zużywają mniej więcej 560 mld l wody rocznie, głównie do chłodzenia serwerów. Jednego dnia duże centrum pochłania ok. 2 mln l. To mniej więcej tyle wody, ile potrzebuje kilkutysięczne miasto. Tworzymy jakby konkurencję między wodą dla ludzi, wodą dla środowiska, a także wodą, która jest potrzebna w tym przemyśle — mówi dr Paula Hanasz, doradczyni ministra klimatu i środowiska.
I dodaje: — Przygotowując się na tę rozmowę, wykorzystałam AI. Zadałam czatowi kilka pytań, co zużyło niecały litr wody. W kontekście kosztów środowiskowych musimy odpowiedzieć sobie na pytanie: czy warto? © Ⓟ
