Sztuczna inteligencja jest okrutnie uprzedzona. Chłonie stereotypy jak gąbka
XXI wiek upływa nam pod znakiem dwóch fraz: algorytmów i sztucznej inteligencji. Obecne wszędzie: w silnikach wyszukiwarek, reklamach, a nawet w samochodach, wyznaczają nam ścieżki, którymi mamy podążać Jednak istnieje mały problem, bowiem sztuczna inteligencja jest okrutnie uprzedzona. A źródłem tego uprzedzenia jest człowiek.
Sztuczna inteligencja to duma inżynierów naszych czasów. Nie jest istotą fizyczną, a jednak rozwiązuje problemy, których my ludzie nie potrafimy (lub nam się nie chce) rozwiązać. Automatyzuje procesy, które w normalnych warunkach zajęłyby człowiekowi godziny, dni, tygodnie - zależnie od tego czy rozmawiamy o identyfikacji rozgniecionych komarów czy optymalizacji łańcuchów dostaw.
Niczym Bóg stworzył Adama, tak uczeni w największych ośrodkach badawczych trenują sztuczną inteligencję na podobieństwo ludzkiego umysłu. W pogoni za ideałem, sztuczną inteligencją o umyśle z potencjałem dorównującemu ludzkiemu, obdarzyliśmy SI jeszcze jedną, dość podłą cechą: uprzedzeniami.
W polskim społeczeństwie uprzedzenia sztucznej inteligencji nie są problemem aż tak często podnoszonym w dyskursie publicznym, jak ma to miejsce za oceanem. Dzięki wielu zawirowaniom historycznym nasze społeczeństwo jest niezwykle jednorodne, cechuje się jednym z najniższym odsetków udziału mniejszości narodowych i etnicznych w Europie. Owe zawirowania przyczyniły się również do wolniejszego niż w krajach Zachodu rozwoju technologii, które powodują, że sprawy takie jak ocena zdolności kredytowej czy rekrutacja nowych pracowników nadal pozostaje całkowicie w rękach ludzi. Choć oczywiście szybko się to zmienia.
Nie oznacza to jednak, że uprzedzenia sztucznej inteligencji kompletnie nas omijają. Przykładem takiego codziennego uprzedzenia może być ukochany przez wszystkich Tłumacz Google.
Podczas uczenia się na danych treningowych pochodzących ze świata rzeczywistego, takich jak artykuły prasowe lub posty w mediach społecznościowych, model językowy najprawdopodobniej będzie naśladować uprzedzenia językowe i wzmocni istniejące. Tak właśnie stało się w przypadku Google Translate, który ma tendencję do bycia stronniczym wobec kobiet podczas tłumaczenia z języków z neutralnymi pod względem płci zaimkami. Silnik SI zasilający aplikację częściej generuje takie tłumaczenia jak "on inwestuje" i "ona zajmuje się dziećmi" niż odwrotnie.
A to jedynie jeden z kilku typów uprzedzenia, jakie może posiadać sztuczna inteligencja
Skąd uprzedzenia u sztucznej inteligencji?
W dużym uproszczeniu, uprzedzenie sztucznej inteligencji to zjawisko występujące w wynikach jej pracy. Wynika ono z błędnych założeń przy tworzeniu algorytmu lub po prostu uprzedzeń obecnych w zestawie danych treningowych.
Uprzedzenia sztucznej inteligencji mają wiele różnych form i reprezentują wiele zjawisk zachodzących społecznie. Od uprzedzeń rasowych i płciowych, poprzez wiek czy pochodzenie. Według psychologów istnieje około 180 uprzedzeń poznawczych, z których spora część może znaleźć się w hipotezach i wpływać mniej lub bardziej negatywnie na algorytm. De facto stronniczość sztucznej inteligencji jest wypadkową ludzkich uprzedzeń przenoszonych na SI w czasie rozwoju algorytmu. Niekoniecznie uprzedzeń pochodzących bezpośrednio od jej twórcy, chcącego wpoić SI swe poglądy.
Sztuczna inteligencja poprzez dane treningowe chłonie stereotypy jak gąbka, a następnie przenosi je na powierzone zadania - od prozaicznych czynności, jak faworyzowanie zdjęć kobiet podczas wyszukiwania frazy nauczyciel, a kończąc na krzywdzących dla ludzi decyzjach, takich jak podniesienie kosztów ubezpieczenia dla osób czarnoskórych.
Jednym z potencjalnych źródeł tego problemu są uprzedzone hipotezy stawiane podczas projektowania modeli sztucznej inteligencji - innymi słowy uprzedzenie algorytmiczne.
Przykładem algorytmicznej stronniczości AI może być założenie, że model będzie automatycznie mniej stronniczy, gdy jego zestaw treningowy nie będzie zawierał danych prowadzących do uprzedzeń, takich jak na przykład kolor skóry. W rzeczywistości, usunięcie czynników prowadzących do uprzedzeń z analizy nie rozwiązuje problemu. Model może nadal generować niewłaściwe wyniki, opierając się na powiązanych, niechronionych czynnikach, na przykład danych geograficznych.
Innym powodem, przez który powstają uprzedzenia sztucznej inteligencji, jest niedoskonałość samych danych treningowych. W zbyt dużych zbiorach inżynierowie nie są w stanie wyłapać danych, które mogą przyczynić się do powstania uprzedzenia. W zbyt małych zbiorach niewystarczająca ilość danych będzie naturalnie prowadziła do faworyzacji grupy, która przeważa w zbiorze.
Krzywdząca niedoskonałość
W 2018 roku świat obiegła informacja o istnieniu sztucznej inteligencji, którą Amazon wykorzystywał do zmechanizowania procesu rekrutacji nowych pracowników do działu IT. Amazon dążył do stworzenia modelu, który usprawniłby szukanie nowych talentów i zminimalizował proces rekrutacji do zatwierdzenia kandydatów, których CV - według sztucznej inteligencji - najbliższe było ideałowi szukanemu przez firmę.
Jednak szybko okazało się, że model jest seksistowski, bowiem faworyzował CV męskich kandydatów. Powód? Prosty! Amazon wytrenował SI na życiorysach pracowników zatrudnionych w ciągu 10 ostatnich lat. Choć pomysł był dobry, to wykonanie kiepskie, bowiem zdecydowana większość pracowników to mężczyźni. Ostatecznie po 4 latach rozwoju projekt zakończono.
Natomiast w październiku 2019 roku naukowcy wykryli uprzedzenie rasowe w algorytmie, który amerykańskie szpitale stosowały do przewidywania, którzy pacjenci będą wymagać dodatkowej opieki medycznej. Sztuczna inteligencja w tym przypadku faworyzowała białych pacjentów. Ponieważ czarnoskórzy o takim samym poziomie potrzeb, jak biali pacjenci, wydają na opiekę zdrowotną mniej, algorytm fałszywie wnioskował, iż oznacza to, że czarni pacjenci są zdrowsi niż biali. W efekcie algorytm stawiał znak równości pomiędzy kosztami leczenia a rzeczywistymi potrzebami pacjenta.
Jednakże algortym nie uwzględniał faktu, że dysproporcja w kosztach leczenia wynika nie ze zdrowotności czarnoskórej populacji, a z ekonomicznych i geograficznych czynników sprawiających, że czarnoskórzy amerykanie - nawet ci objęci ubezpieczeniem - mają mniejszą dostępność do niezbędnych metod leczenia niż populacja biała.
Innym przykładem jest system COMPASS - narzędzie służące do przewidywania i oceny ryzyka ponownego popełnienia przestępstwa przez osobę stojącą przed wymiarem sprawiedliwości. COMPASS do oceny wykorzystuje kwestionariusz, na który odpowiedzi udziela sam oskarżony, ale także informacje takie jak społeczno-ekonomiczny, sąsiedztwo czy informacje o rodzinie oskarżonego. Na ich podstawie COMPASS oblicza skłonność jednostki do popełnienia przestępstwa w przyszłości.
Zgodnie z wynikami śledztwa przeprowadzonego przez ProPublica, COMPASS wykazywał się uprzedzeniem wobec ludzi czarnoskórych - COMPASS oceniał ich jako dwukrotnie bardziej skłonnych popełnić przestępstwo ponownie. Jednocześnie sztuczna inteligencja wykazywała się stronniczością wobec ludzi białych, oceniając skłonności na niemal dwukrotnie mniejsze.
Nawarzyliśmy sobie piwa, to teraz musimy je wypić
Sztuczna inteligencja nie jest zła. Tak samo jak smartfon, internet czy nóż jest narzędziem, które nie zostało stworzone po to by krzywdzić, lecz by pomóc i uprościć pewne czynności. Problem polega na tym, że dążymy do stworzenia narzędzia idealnego, doskonałego w naśladowaniu ludzkiego sposobu myślenia i wnioskowania. A ludzie, jak wiadomo, nie są doskonali.
Sztucznej inteligencji nie powinniśmy potępiać, lecz dążyć do jej udoskonalenia - zarówno w procesie tworzenia, treningu jak i udoskonalania zestawów treningowych. Bowiem uprzedzeń, nawet tych niebezpośrednio powiązanych ze stereotypami, nie jesteśmy w stanie wykorzenić.