Jak to jest z dyskryminacją algorytmiczną

Radosław T. Skowron, adwokat, partner w kancelarii LegalSkills
opublikowano: 23-06-2019, 22:00

Głośno było niedawno o wyroku poznańskiego sądu pracy, który zakwestionował stosowaną przez koncern Amazon praktykę rozwiązywania umów o pracę na podstawie wskazań algorytmu.

Z kolei wcześniej sąd wrocławski taki sposób działania zaaprobował. Wykorzystanie sztucznej inteligencji oraz tzw. big data w zarządzaniu pracownikami to nic nowego. Podobnie jest z People Analytics — czyli systemami zarządzania kapitałem ludzkim opartymi na nowych technologiach i bioinżynierii dla poprawy wydajności pracy. Pracodawca wie na przykład, gdzie pracownik przebywa, jak się porusza po budynku, kiedy korzysta z maila, jakie strony przegląda, jak korzysta z drukarki, kiedy używa telefonu, w jaki sposób pisze na klawiaturze, jakiego tonu głosu używa wobec poszczególnych osób, jak wtedy gestykuluje, z jakich narzędzi komunikacyjnych korzysta, jak długo rozmawia ze współpracownikami oraz w jakim jest wtedy nastroju.

Naturalną konsekwencją była i jest próba scedowania oceny pracowników na algorytm. W jakich zatem prawnych warunkach program komputerowy będzie mógł podjąć decyzję o rozwiązaniu z pracownikiem umowy o pracę?

Zarządzaniu stosunkami pracy przez sztuczną inteligencję i algorytmy towarzyszy silne poczucie, że dzięki technologicznym osiągnięciom jest ono obiektywne i wolne od uprzedzeń. Tymczasem w raporcie Europejskiego Komitetu Społeczno-Ekonomicznego z maja 2017 r. na temat sztucznej inteligencji można przeczytać, że jej rozwój „odbywa się w bardzo homogenicznych środowiskach składających się głównie z młodych i białych mężczyzn, co powoduje, że określone płciowe i kulturowe uprzedzenia stają się naturalnymi komponentami sztucznej inteligencji”. Wydaje się więc, że jeśli to algorytm i sztuczna inteligencja mają decydować o zastosowaniu wobec pracownika określonych środków dyscyplinujących, a nawet o wypowiedzeniu umowy o pracę, to powinno się to zawsze odbywać z wykorzystaniem ludzkiej asysty. Co więcej, kryteria oceny pracowników przez algorytm powinny być po pierwsze dla nich zrozumiałe (o co jest bardzo trudno, gdyż i pracodawca, i twórca programu zasłaniają się różnymi tajemnicami i względami ochrony własności intelektualnej), a po drugie przedstawione im po to, by ustrzec się wrażenia arbitralności czy dyskryminacji.

Takie zaangażowanie człowieka w ocenę działania sztucznej inteligencji we wspomnianym raporcie określono jako „human-in-command” — czyli ostatnie słowo należy do człowieka. Fakt, że jakaś decyzja dyscyplinująca pracownika lub prowadząca do wypowiedzenia umowy o pracę została podjęta z wykorzystaniem sztucznej inteligencji, nie może nigdy doprowadzić do wyłączenia odpowiedzialności konkretnych osób działających za pracodawcę.

Do pomyślenia jest także sytuacja, gdy kryteria ewaluacyjne algorytmu będą „negocjowalne” z pracownikami. Znane są już na świecie przykłady tego, że układy zbiorowe regulują kwestie związane z wykorzystaniem nowoczesnych technologii dla monitorowania i oceniania pracowników. Wydaje się więc, że niedługo dylemat pracowników sprowadzi się do pytania: negocjować algorytm czy negocjować z algorytmem?

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Radosław T. Skowron, adwokat, partner w kancelarii LegalSkills

Polecane

Inspiracje Pulsu Biznesu