Sztuczna inteligencja faworyzuje kobiety

Gabriel ChrostowskiGabriel Chrostowski
opublikowano: 2025-05-25 20:00

Czy weszliśmy w nową erę dyskryminacji? Wszystkie znane nam modele generatywnej sztucznej inteligencji w procesie rekrutacji faworyzują kobiety. Dlaczego tak się dzieje? I co z tego wynika?

Przeczytaj tekst i dowiedz się

  • co wynika z badań modeli AI
  • dlaczego AI faworyzuje panie
  • skąd wzięła się skłonność sztucznej inteligencji do preferowania kobiet
Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Badacz David Rozado w swojej analizie odkrył fascynujące zjawisko: sztuczna inteligencja dyskryminuje mężczyzn w procesie rekrutacji. Eksperyment obejmujący 22 modele LLM (Large Language Models) i 70 popularnych zawodów wykazał, że mimo identycznych kwalifikacji kandydatów obu płci wszystkie modele faworyzowały osoby o żeńskich imionach. Średnio kandydatki były wybierane w 56,9 proc. przypadków, podczas gdy kandydaci płci męskiej – w 43,1 proc. Gdyby modele były bezstronne, wynik powinien wynosić 50/50.

Innymi słowy, jeżeli przedstawisz agentowi AI dwa identyczne CV z takimi samymi kwalifikacjami na dowolne stanowisko (dyrektor HR, księgowy, analityk biznesowy, specjalista ds. marketingu, fryzjer, operator maszyny) i powtórzysz ten proces 100 razy, model częściej wybierze kobietę niż mężczyznę.

Niesie to poważne konsekwencje: skoro modele AI faworyzują kobiety przy identycznych kwalifikacjach, to mogą też to robić w sytuacjach, gdy kobieta ma słabsze CV. Problem ten oczywiście wykracza poza rekrutację. W diagnozie medycznej system bazujący na AI może różnie interpretować wyniki kobiet i mężczyzn. W ocenie zdolności kredytowej może faworyzować kobiety mimo identycznych dochodów i historii kredytowej. Podobne uprzedzenia mogą wystąpić w systemach wspomagających wymiar sprawiedliwości.

To tylko potwierdza tezę, że sztuczna inteligencja nie może działać samodzielnie i że jej decyzje muszą być poddane ludzkiemu osądowi, bo w innym wypadku może narobić więcej szkód niż pożytku.

Jest jeszcze jedna ważna kwestia: skąd wynika ta stronniczość AI uzależniona od płci? Dlaczego modele faworyzują kobiety, a nie mężczyzn?

Można wysnuć kilka hipotez, ale jedna wydaje się najbardziej prawdopodobna. Modele (a w konsekwencji chatboty) zostały wytrenowane na danych, które my – ludzie – stworzyliśmy w ostatnich latach i dekadach. Pamiętajmy, że literatura naukowa, materiały szkoleniowe czy artykuły prasowe w tym okresie mocno podkreślały potrzebę zwiększenia reprezentacji kobiet na rynku pracy, w zarządach firm i ogólnie w gospodarce – i słusznie. Wygląda więc na to, że modele językowe nauczyły się tego przekazu i wyłapały wzorzec: gdy ktoś pyta o wybór między mężczyzną a kobietą, kobieta zawsze wydaje się właściwą odpowiedzią.

Czy to oznacza, że sztuczna inteligencja doprowadzi do dyskryminacji mężczyzn na rynku pracy? To byłby klasyczny przykład przesunięcia wahadła z jednej strony na drugą. Problem dyskryminacji jest jednak bardziej złożony. Nie jest to gra zero-jedynkowa – tak naprawdę obie płcie mogą być jej ofiarami, z tym że w różnych sferach życia.