Badacz David Rozado w swojej analizie odkrył fascynujące zjawisko: sztuczna inteligencja dyskryminuje mężczyzn w procesie rekrutacji. Eksperyment obejmujący 22 modele LLM (Large Language Models) i 70 popularnych zawodów wykazał, że mimo identycznych kwalifikacji kandydatów obu płci wszystkie modele faworyzowały osoby o żeńskich imionach. Średnio kandydatki były wybierane w 56,9 proc. przypadków, podczas gdy kandydaci płci męskiej – w 43,1 proc. Gdyby modele były bezstronne, wynik powinien wynosić 50/50.
Innymi słowy, jeżeli przedstawisz agentowi AI dwa identyczne CV z takimi samymi kwalifikacjami na dowolne stanowisko (dyrektor HR, księgowy, analityk biznesowy, specjalista ds. marketingu, fryzjer, operator maszyny) i powtórzysz ten proces 100 razy, model częściej wybierze kobietę niż mężczyznę.
Niesie to poważne konsekwencje: skoro modele AI faworyzują kobiety przy identycznych kwalifikacjach, to mogą też to robić w sytuacjach, gdy kobieta ma słabsze CV. Problem ten oczywiście wykracza poza rekrutację. W diagnozie medycznej system bazujący na AI może różnie interpretować wyniki kobiet i mężczyzn. W ocenie zdolności kredytowej może faworyzować kobiety mimo identycznych dochodów i historii kredytowej. Podobne uprzedzenia mogą wystąpić w systemach wspomagających wymiar sprawiedliwości.
To tylko potwierdza tezę, że sztuczna inteligencja nie może działać samodzielnie i że jej decyzje muszą być poddane ludzkiemu osądowi, bo w innym wypadku może narobić więcej szkód niż pożytku.
Jest jeszcze jedna ważna kwestia: skąd wynika ta stronniczość AI uzależniona od płci? Dlaczego modele faworyzują kobiety, a nie mężczyzn?
Można wysnuć kilka hipotez, ale jedna wydaje się najbardziej prawdopodobna. Modele (a w konsekwencji chatboty) zostały wytrenowane na danych, które my – ludzie – stworzyliśmy w ostatnich latach i dekadach. Pamiętajmy, że literatura naukowa, materiały szkoleniowe czy artykuły prasowe w tym okresie mocno podkreślały potrzebę zwiększenia reprezentacji kobiet na rynku pracy, w zarządach firm i ogólnie w gospodarce – i słusznie. Wygląda więc na to, że modele językowe nauczyły się tego przekazu i wyłapały wzorzec: gdy ktoś pyta o wybór między mężczyzną a kobietą, kobieta zawsze wydaje się właściwą odpowiedzią.
Czy to oznacza, że sztuczna inteligencja doprowadzi do dyskryminacji mężczyzn na rynku pracy? To byłby klasyczny przykład przesunięcia wahadła z jednej strony na drugą. Problem dyskryminacji jest jednak bardziej złożony. Nie jest to gra zero-jedynkowa – tak naprawdę obie płcie mogą być jej ofiarami, z tym że w różnych sferach życia.