Sztuczna inteligencja wybierała kandydatów do zwolnienia w Google'u? Nadchodzi epoka smagania ludzi wirtualnym batem
Google w ostatnich miesiącach zwolniło 12 tys. pracowników, czyli ok. 6 proc. z dotychczas wszystkich zatrudnionych. Wysłani na bezrobocie zastanawiają się, czy posłanie na zieloną trawkę tak dużej liczby osób może bazować wyłącznie na sprawiedliwej ocenie. Niektórzy podejrzewają, że decyzję podjęły bezduszne algorytmy.
Obawy, trzeba przyznać, są uzasadnione. Wprawdzie fala zwolnień przetoczyła się przez całą branżę, to jednak wytypowanie aż tak wielu pracowników, z którymi trzeba się pożegnać, wydaje się być trudnym zadaniem. Np. Microsoft kasował większą część zespołu odpowiedzialnego za projekty związane z rozszerzoną rzeczywistością, ale można podejrzewać, że nie zawsze kryterium jest tak jasne i oczywiste. Czym kierują się więc firmy?
The Washington Post pisze o tym, że pracownicy podejrzewają udział algorytmów. Spółka Alphabet od razu zaprzeczyła tym rewelacjom i zapewniła, że sztuczna inteligencja nie była zaangażowana w decyzje o odejściach. Gazeta zauważa jednak, że coraz więcej firm w tym roku chce postawić na algorytmy, które pomogą redukować koszty. Tak przynajmniej wynika z ankiety przeprowadzonej na amerykańskim rynku. Jednocześnie tylko połowa badanych wierzy, że technologia dokona obiektywnego i bezstronnego werdyktu.
Czytaj też: Zwolnienia grupowe - zasady i procedury
Eksperci zwracają uwagę, że algorytmy mogą być niesprawiedliwe
Np. jednym z czynników, który może być brany pod uwagę przy ocenie "przydatności" danego pracownika, jest oszacowanie prawdopodobieństwa samodzielnego odejścia danej osoby. Jeżeli jednak firma ma problem z dyskryminacją, to współczynnik rezygnacji danej grupy - w tym przypadku pracowników o innym kolorze skóry niż biały - będzie większy. Algorytm nie bierze pod uwagę powodów. Widzi, że dane się zgadzają, statystyki nie kłamią, więc zanim ten ktoś odejdzie, można go zwolnić od razu, by zredukować koszty. Taki osąd będzie jednak skrajnie niesprawiedliwy i niesłuszny.
Błędnych ocen było więcej. Marek Szymaniak na łamach Spider's Web+ pisał:
Jednym z głośniejszych tego przykładów było wykorzystanie technologii identyfikacji twarzy, którą stosowano w Uber Eats w Wielkiej Brytanii. Jak opisywał The Wired, kurierzy pracujący dla tej aplikacji musieli weryfikować swoją tożsamość poprzez zrobienie sobie selfie. System nie potrafił jednak rozpoznać twarzy osób o ciemniejszej karnacji, a w efekcie zwalniał z pracy nawet osoby, które zrealizowały tysiące dostaw i mogły pochwalić się świetnymi ocenami i stuprocentową satysfakcją klientów. Co gorsza, od decyzji automatycznego systemu nie było odwołania. Kurierzy wysyłali błagalne wiadomości, prosząc o powrót do pracy, ale każdy z nich otrzymywał odpowiedź, że ich wypowiedzenie jest ostateczne, a Uber ma nadzieję, że "zrozumieją powód tej decyzji". Firma tłumaczyła, że dla bezpieczeństwa użytkowników musi weryfikować tożsamość kurierów, a z krzywdzących decyzji wycofał się dopiero, gdy sprawą zajęły się tamtejsze związki zawodowe i media.
- Coraz bardziej przebija się świadomość, że wykorzystywanie algorytmów to wybieg, aby ograniczać odpowiedzialność pracodawców za warunki pracy – mówił w rozmowie ze Spider's Web+ dr. Karol Muszyński belgijskiego uniwersytetu KU Leuven i Fundacji Kaleckiego.
Smaganie wirtualnym batem przez algorytmy to także w Polsce codzienność coraz większej liczby pracowników
Prawo jednak już interweniuje. Związki zawodowe będą mogły sprawdzać, jak działają algorytmy wykorzystane w danej instytucji.