Sztuczna inteligencja wsadziła niewinnego człowieka do więzienia. „Miał znajomą twarz”
Sztuczna inteligencja wsadziła niewinnego człowieka do więzienia - szok, niedowierzanie, jak mogło się to stać? Proste, bo ufamy systemowi, który nigdy nie będzie idealny.
Kiedy redakcyjny kolega podrzucił mi artykuł Wired opisujący przypadek niesłusznego skazania mężczyzny przez amerykański wymiar sprawiedliwości z powodu błędu maszyny, odpowiedziałam: "znam przynajmniej trzy podobne historie".
W polskiej (czy w ogóle europejskiej) kulturze tego typu błędy nie przeszłyby bez echa, zapewne toczyłby się głośny proces o zadośćuczynienie i postulowano by ograniczenie użycia SI przez policję i sądy. Jednak kiedy spojrzy się w prasę amerykańską, to przypadek Alonzo Sawyera, którego żona wyciągała przez tydzień z więzienia, nie jest odosobniony. Randall Reid, Nijeer Parks, Robert Williams - to tylko kilka z przypadków, gdzie technologia wykrywania twarzy wydała niesłuszny wyrok na niewinnych.
Czytaj także:
- Trzy rozszerzenia do Chrome’a, które musisz mieć w 2023 r. Spuszczają ChataGPT ze smyczy
- Marcowa aktualizacja Windowsa wprowadza do Paska zadań chatbota. Teraz Bing AI jest pod ręką
- ChatGPT do sterowania robotami? Tak przyszłość widzi Microsoft
Pana twarz wygląda znajomo. Winny.
Wykrywanie twarzy jako technologia jest niezwykle innowacyjnym rozwiązaniem, jednak w obecnej formie cierpi z powodu kilku problemów.
Pierwszym problemem jest uprzedzenie sztucznej inteligencji odpowiedzialnej za systemy rozpoznawania twarzy. Cechą wspólną wszystkich wymienionych przeze mnie mężczyzn jest ich ciemny kolor skóry. Jak wspominane jest zawsze w debatach dotyczących sztucznej inteligencji, skuteczność danego modelu zależy całkowicie od wielkości i jakości danych treningowych. W związku, z czym dzieci i kobiety, a także osoby reprezentujące inne rasy mogą spotkać się z niesprawiedliwym osądem SI.
Według badania przeprowadzonego w 2018 roku, jedna z firm odpowiadających za trening modelu wykorzystywanego do wykrywania twarzy chwaliła się skutecznością na poziomie 97 procent. To, co firma przemilczała to fakt, że dane treningowe w 77 procentach składają się ze zdjęć osób o białej karnacji, a 83 procent z fotografii przedstawia mężczyzn.
Takie dysproporcje w danych treningowych realnie przekładają się na trafność SI przy ocenie zeskanowanej twarzy z tą z bazy danych. Weźmy tu przykład Roberta Williamsa, którego policja z Michigan oskarżyła kradzież, której nie popełnił. Detektyw pokazał mu rozmazane zdjęcie z wizerunkiem podejrzanego i zapytał:
"Czy to ty?"
Na pytanie Williams wziął w rękę zdjęcie, przystawił do swojej twarzy i zapytał:
"Nie, to nie ja. Czy myślisz, że wszyscy czarni mężczyźni wyglądają tak samo?"
Fałszywe pozytywy i fałszywe negatywy
W przypadku Williamsa wystąpił błąd algorytmiczny nazywany fałszywym pozytywem. Ze względu na niewystarczającą ilość danych o twarzach czarnoskórych osób, algorytm połączył jego wizerunek w bazie danych z rozmazaną fotografią prawdziwego sprawcy.
Błąd algorytmiczny może przybrać też formę fałszywego negatywu, czyli sytuacji, w której sztuczna inteligencja nie wykryje podobieństwa pomiędzy osobą, której wizerunek istnieje w bazie danych. Może to ułatwić prawdziwemu sprawcy ucieczkę organom ścigania - i to nie tylko bezpośrednio sprzed nosa policji. Warto zauważyć, że technologia wykrywania twarzy jest obecna także na lotniskach, gdzie fałszywy pozytyw lub fałszywy negatyw mogą popsuć komuś wakacje lub udaremniać ucieczkę.
Niewystarczające dane treningowe to niejedyny problem trapiący technologię rozpoznawania twarzy. Inny problem polega na tym, że sztuczna inteligencja najlepiej działa kiedy osoby przedstawione na zdjęciach patrzą się na wprost, ich oczy są otwarte, usta zamknięte, a ciało zatrzymane w ruchu. Co często jest trudne do osiągnięcia, gdyż zdjęcia osób poszukiwanych (nie tylko za przestępstwa - SI można równie dobrze wykorzystywać do identyfikacji zmarłych lub zaginionych) są kompletnym przeciwieństwem tego, z czym sztucznej inteligencji pracuje się najlepiej.
Nie ma lekarstwa. Może być tylko więcej zdjęć
Sytuacje, w których nadmierne zaufanie technologii rozpoznawania twarzy będą się piętrzyć. Problemem jest nie tylko fakt, że nie mamy odpowiednich przepisów stawiających grubą linię pomiędzy działaniem komputera i działaniem człowieka (co jest już teraz dużym problemem w USA), ale też pozyskiwanie danych treningowych.
Wizerunek twarzy to informacja niezwykle wrażliwa, a co za tym idzie - trudna do pozyskania, zwłaszcza w erze RODO i innych prawnych działań mających na celu ochronę informacji osobowych. Oczywiście istnieją pewne bazy danych - zbiory fotografii używanych w dokumentach, posiadane przez instytucje rządowe, jednak często ograniczone są one do jednej fotografii na osobę. Prawda jest taka, że aby otrzymać SI do rozpoznawania twarzy na tyle skuteczną, by z czystym sumieniem powierzyć ją poszczególnym instytucjom, należałoby nakarmić ją miliardami zdjęć, także z pogwałceniem praw autorskich i bezpieczeństwa danych.
Przypadki podobne do Alonzo Sawyera czy Roberta Williamsa będą się mnożyć, a my znajdziemy zdrowy balans pomiędzy wysługiwaniem się komputerem, a ludzkim podejściem do drugiego człowieka.