Sztuczna inteligencja wprowadza w błąd inwestorów publicznych. KIO kazała wykluczyć z przetargu firmę, która używała halucynującej AI

Katarzyna KapczyńskaKatarzyna Kapczyńska
opublikowano: 2025-10-26 20:00

Krajowa Izba Odwoławcza kazała wykluczyć Exdrog z przetargu na utrzymanie dróg w Małopolsce. Powód? Wyjaśnienia firmy w zakresie rażąco niskiej ceny zostały opracowane przez AI, która powoływała się na... nieistniejące dokumenty.

Przeczytaj artykuł i dowiedz się:

  • jakie były szczegóły decyzji KIO związanej z wykluczeniem Exdrogu
  • na czym polegały halucynacje AI
  • jak firma podchodzi do decyzji o wykluczeniu jej z przetargu ZDW Kraków
  • jakie pomysły na złagodzenie problemów wynikających z błędów sztucznej inteligencji mają eksperci
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Niedawno głośnym echem w globalnym biznesie i mediach odbiło się przygotowanie przez Deloitte'a dla rządu Australii raportu, w którym było wiele błędów. Dokument dotyczył analizy systemu informatycznego służącego do automatyzacji kar w sferze opieki społecznej. Problem w tym, że zawierał błędne przypisy, przytaczał nieistniejące publikacje naukowe i orzeczenia sądu - były wytworem halucynacji sztucznej inteligencji, którą firma posiłkowała się przy opracowaniu raportu.

Konkurenci Exdrogu wykryli halucynacje AI i skierowali sprawę do KIO

Podobny przypadek zdarzył się niedawno w Polsce, w przetargu Zarządu Dróg Wojewódzkich (ZDW) w Krakowie na letnie i zimowe utrzymanie sieci na terenie województwa małopolskiego w latach 2025-28. Zamówienie zostało podzielone na kilka części. W siódmej, obejmującej rejon Jakubowic, najtańszą ofertę (o wartości 15,5 mln zł) złożyła firma Exdrog. Zajmuje się ona budową i utrzymaniem dróg, a w ubiegłym roku zarobiła na czysto prawie 2,2 mln zł.

Krakowski ZDW chciał sprawdzić, czy cena oferty Exdrogu jest rażąco niska, więc poprosił o dodatkowe informacje. Po ich otrzymaniu uznał ofertę firmy Exdrog za najkorzystniejszą. Wyjaśnienia zaniepokoiły jednak innych uczestników przetargu i ich prawników, którzy skierowali sprawę na wokandę Krajowej Izby Odwoławczej, wnioskując o odrzucenie oferty przez krakowski ZDW.

- Wykazaliśmy, że wykonawca, którego oferta została uznana za najkorzystniejszą, przy opracowaniu wyjaśnień rażąco niskiej ceny posługiwał się sztuczną inteligencją. Jako podstawę do swoich kalkulacji cenowych, szczególnie w zakresie stawek podatku VAT, powoływał się na nieistniejące, nigdy niewydane interpretacje podatkowe, które rzekomo miały dotyczyć analogicznych spraw. Udowodniliśmy, że były to halucynacje sztucznej inteligencji, a KIO uznała, że powoływanie się na nie w wyjaśnieniach składanych w przetargu jest podstawą do wykluczenia firmy z postępowania – twierdzi Jarosław Sroka, partner kancelarii BSJP, reprezentujący firmę Mika, która wnioskowała do KIO o odrzucenie oferty Exdrogu przez ZDW Kraków.

Agnieszka Trojanowska, rzecznik KIO, precyzuje, że izba nakazała krakowskiemu ZDW powtórzenie czynności badania i oceny ofert, unieważnienie wyboru oferty najkorzystniejszej oraz jej wykluczenie jako zawierającej rażąco niską cenę. Przyznaje: „potwierdziły się zarzuty odwołania wskazujące na to, że składając obszerne, 280-stronicowe wyjaśnienia wykonawca Exdrog skorzystał z pomocy sztucznej inteligencji i w konsekwencji podał informacje nieprawdziwe.”

- Izba wskazała, że wykonawca nie zweryfikował informacji wygenerowanych przez sztuczną inteligencję i w konsekwencji wprowadził zamawiającego w błąd – twierdzi Agnieszka Trojanowska.

Dodaje, że - według KIO - nie było to celowe działanie Exdrogu, lecz raczej niedopatrzenie, które nie podważa rzetelności wykonawcy.

Nieco inaczej powody wykluczenia przedstawia sam Exdrog, dziwiąc się informacjom o wykorzystaniu AI.

- Odnosząc się do rozstrzygnięć Krajowej Izby Odwoławczej, informuję, że oferta spółki Exdrog została odrzucona z powodu rażąco niskiej ceny. W treści wyroku nie zawarto szczegółowych informacji na temat powodów odrzucenia oferty. Nie było tam też mowy o korzystaniu ze sztucznej inteligencji – twierdzi Krystian Barczyk, prezes Exdrogu, podkreślając, że spółka, „składając swoje oferty w różnych postępowaniach zawsze kieruje się należytą starannością”, korzystając wyłącznie z „dozwolonej pomocy”.

Prezes Exdrogu zaznacza, że na orzeczenie KIO można wnieść skargę, ale ostateczną decyzję w tej sprawie spółka podejmie po otrzymaniu uzasadnienia wyroku i konsultacji z pełnomocnikiem.

Korzystanie z AI w przetargach wymaga regulacji prawnych

Sprawa małopolskiego przetargu wzbudziła duże zainteresowanie w branży budowlanej i prawniczej. Jan Styliński, prezes Polskiego Związku Pracodawców Budownictwa (PZPB), podkreśla, że konieczne jest pilne opracowanie regulacji prawnych związanych ze stosowaniem sztucznej inteligencji w zamówieniach publicznych.

- Nie chodzi tylko o określenie, co robić w razie podawania błędnych danych przez AI, ale ogólnie o sprecyzowanie zakresu, w jakim można się nią posługiwać z postępowaniach – mówi Jan Styliński.

Warto np. określić, w jakim zakresie osoby podpisujące się pod dokumentami stworzonymi z użyciem AI mają prawo przypisywać sobie ich autorstwo.

Ekspert informuje też, że obecnie wiele firm budowlanych oraz kancelarii prawnych buduje własne, zamknięte systemy AI, by usprawnić pracę, więc trzeba uregulować warunki korzystania z nich, by ograniczyć ryzyko kolejnych błędów. Jego zdaniem w wielu przypadkach sztuczna inteligencja może usprawnić proces przetargowy, ale niesie też zagrożenia związane z powielaniem błędów jednego narzędzia AI przez kolejne. Dotyczy to przede wszystkim podmiotów korzystających z systemów otwartych.

Barbara Dzieciuchowicz, prezes Ogólnopolskiej Izby Gospodarczej Drogownictwa (OIG), uważa natomiast, że AI w niektórych przepadkach, zamiast oczekiwanych oszczędności, może wręcz zwiększyć koszty działania firm.

- Żeby stosować sztuczną inteligencję, trzeba być inteligentnym i skrupulatnie sprawdzać wygenerowane przez nią informacje – mówi ekspertka.

To jednak może być równie albo nawet bardziej pracochłonne niż samodzielne opracowanie dokumentacji. Zwłaszcza jeśli AI wygeneruje grube tomy wyjaśnień, których analiza może zająć wiele dni.

Barbara Dzieciuchowicz uważa, że dobrym pomysłem byłoby wprowadzenie przez zamawiających wymogu informowania przez wykonawców, czy posiłkowali się sztuczną inteligencją i w jakim zakresie. Co do tego, że AI będzie coraz powszechniej stosowana w postępowaniach budowlanych, nie ma bowiem wątpliwości, a takie informacje ułatwiłyby weryfikację dokumentów.

Halucynacje zablokowały dotację

PB pisał niedawno o tym, żefirma KP Labs złożyła wniosek o 17 mln zł dotacji z Narodowego Centrum Badań i Rozwoju (NCBR)na opracowanie jednostki obliczeniowej wraz z zaawansowanymi systemami umożliwiającymi autonomiczną realizację operacji dla satelitów. Jej aplikacja została odrzucona, bo eksperci NCBR uznali, że projekt nie jest wystarczająco innowacyjny, a ponadto w Polsce, istnieją już porównywalne rozwiązania o zbliżonych parametrach. Analizy KP Labs wykazały, że tego typu błędne informacje generuje AI, więc firma oprotestowała odrzucenie swojego wniosku.

Okiem eksperta
AI jest tak dobra, jak jej użytkownik
Radosław Mechło
szef AI w Buzz Center

Zanim zaczniemy używać AI, musimy zrozumieć, jak działają takie narzędzia. Kluczowe jest precyzyjne wydawanie poleceń. Jeśli zlecimy sztucznej inteligencji opracowanie zestawienia samochodów, przygotuje nam raport dotyczący wielu różnych typów aut, a nie tylko tych, o które nam chodziło. Ogólne polecenie da ogólną odpowiedź, ponieważ AI nie czyta w myślach. Dobrą praktyką jest poproszenie narzędzia opartego na AI, by przed przygotowaniem odpowiedzi zadało nam pytania na temat zadania zleconego mu do wykonania. To ogranicza halucynacje i generuje bardziej dokładne odpowiedzi. Musimy też pamiętać, że modele AI nie uczą się na bieżąco - niektóre są aktualizowane nawet co rok. Mają one dostęp do wiedzy w internecie, natomiast ta również bywa niepoprawna. Stąd też mogą pojawiać się błędy. Sztuczna inteligencja nas nie oszukuje, ale może bazować na danych, które nie są aktualne, dlatego wygenerowane przez nią informacje zawsze trzeba sprawdzać. AI jest tak dobra, jak dobry i profesjonalny jest jej użytkownik.

Nie możemy także dawać AI jednorazowo zbyt wielu informacji do analizy ze względu na ograniczenia modeli. Nawet jeśli AI wygeneruje komunikat mówiący o tym, że zapoznała się z treścią naszego materiału, to w praktyce może oznaczać, że zapoznała się tylko z treścią z pierwszych 10 stron. Wówczas jest duże ryzyko, że nie dostaniemy prawidłowej odpowiedzi na nasze polecenie.

Trzeba też pamiętać o jakości danych - jeśli w AI wskaźnik błędnych danych będzie na poziomie zaledwie 0,01-0,1 proc. proc., to wskaźnik błędnych odpowiedzi może sięgać 30-50 proc.