Tech  / News

Niech ktoś powie twórcom systemów rozpoznawania twarzy, że czarne kobiety istnieją naprawdę

159 interakcji
dołącz do dyskusji

Narodowy Instytut Standardów i Technologii (NIST) Stanów Zjednoczonych przetestował niemal 200 programów do rozpoznawania twarzy. Większość z nich gorzej radzi sobie z rozpoznawaniem kobiet i osób o innym kolorze skóry niż kaukaska biel. 

Gdyby na świecie żyli tylko biali mężczyźni, programy do rozpoznawania twarzy działałyby świetnie. Niestety rzeczywistość znów nie chce współpracować.

Rozpoznawanie twarzy wybranych

Badacze przyjrzeli się 189 produktom oferowanym przez 99 producentów (wśród nich znalazł się między innymi Microsoft, Intel czy Panasonic). Wnioski z ich testów nie napawają optymizmem – skuteczność większości przebadanego oprogramowania zależy w dużej mierze z tego, jakiego kolory jest rozpoznawana twarz i czy należy do kobiety, czy mężczyzny. Różnice potrafią być ogromne i wahają się od 10-krotnie większej dokładności do 100-krotnie większej.

Przeprowadzono dwa test. W pierwszym badacze sprawdzali, czy program umie potwierdzić tożsamość danej osoby. Robiono to, prezentując mu dwa zdjęcia i pytając, czy przedstawiają one tę samą osobę. Z podobnymi zadaniami oprogramowanie musi sobie radzić na przykład przy odprawie paszportowej lub przy odblokowywaniu telefonu. W drugim teście program musiał znaleźć w bazie zdjęcie tej samej osoby, której fotografię pokazywali jej badacze. To z kolei symulowało zadanie, jakie stawiają przed swoimi programami choćby przedstawiciele prawa, każąc im sprawdzić, czy dana osoba występuje już w bazie podejrzanych. W tym wypadku pomyłka może mieć poważne negatywne konsekwencje.

Wyniki badań wskazują, że algorytmy gorzej radzą sobie z twarzami, które nie są białe i nie są męskie. Tworzone w Stanach Zjednoczonych algorytmy najgorzej radzą sobie z rozpoznawaniem twarzy rdzennych mieszkańców Ameryki. Wyjątkowo dużo trudności programom sprawiały też twarze ciemnoskórych kobiet.

Chociaż nie badaliśmy, co może powodować te różnice, nasze dane będą cenne dla decydentów, programistów i użytkowników końcowych, którzy powinni mieć na uwadze ograniczenia i właściwe wykorzystaniu tych algorytmów - mówi Patrick Grother, jeden z autorów raportu Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects.

Choć badacze nie chcieli wyrokować o przyczynach błędów w algorytmach, przyznają, że odpowiadać za ten stan rzeczy może to, o czym głośno mówili twórcy poprzednich raportów - diabeł tkwi w bazie danych, na której algorytm jest rozpoznawania twarzy uczony. Dlatego algorytmy tworzone przez Azjatyckie firmy lepiej radzą sobie z rozpoznawaniem twarzy częściej spotykanych w tamtym rejonie świata.

Koniec taryfy ulgowej. Czarodzieje nie są niewinni

Jeszcze nie tak dawno można było bronić twórców tych programów. W końcu często wpisane w samo serce systemu uprzedzenie nie było wynikiem świadomego działania firmy i osób, które za rozwój algorytmu odpowiadają. Nikt złośliwie nie zapisał w kodzie, że kobiety i osoby czarnoskóre mają być gorzej rozpoznawane. Nie był to złowrogi spisek rasistów, nie było w nim męskiej walki o cyfrową dominację. Ot wszyło tak przypadkiem, do uczenia algorytmów były wykorzystywane bazy danych, w których dominowali biali mężczyźni. Zdarza się. Tylko że takiego myślenia dużo dłużej nie można tolerować.

Informacja o algorytmach utrwalających rasowe uprzedzenia to nie jest już wielka nowość. O tym, że algorytmy rozpoznawania twarzy nie radzą sobie ze wszystkimi tak samo, wielkie firmy technologiczne wiedzą. Najnowsze badanie nie tylko to potwierdza, ale też pokazuje, że za mało i za wolno cokolwiek się w tym względzie zmienia.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst