REKLAMA

Algorytm zrobił portret pamięciowy przestępcy z jego DNA. Wtedy się zaczęło

Na miejscu przestępstwa policja zabezpieczyła DNA sprawcy. Następnie, bazując na tym materiale dowodowym algorytmy sztucznej inteligencji wygenerowały obraz przedstawiający potencjalny wygląd potencjalnego przestępcy. Policja umieściła ten obraz w mediach społecznościowych. Wtedy dopiero się zaczęło.

twarz ai
REKLAMA

Cała sprawa miała miejsce w Edmonton w Kanadzie. To właśnie tam policjanci postanowili umieścić sztucznie wygenerowany na podstawie fenotypu ustalonego z próbki DNA obraz potencjalnego przestępcy na swoim koncie na Twitterze.

REKLAMA

Policja w swoim wpisie zastrzegła, że oprogramowanie może jedynie przewidywać, jak mógłby wyglądać sprawca, a nie rzeczywiście pokazywać jak wygląda. Słowo „mógłby” jest w tym przypadku kluczowe, bowiem jak na razie nie istnieje technologia, która byłaby w stanie wiarygodnie pomóc w identyfikacji sprawcy z samego fenotypu, a więc bardziej przypomina to wróżenie z fusów niż realną pomoc w poszukiwaniu przestępców.

Jakby tego było mało, wygenerowany przez algorytmy obraz przedstawiał osobę czarnoskórą, co jedynie wyniosło skalę kontrowersji na zupełnie nowy poziom. Dlaczego? Być może dlatego, że z samego fenotypu nie można jednoznacznie określić zabarwienia skóry, a skoro nie można, to jakiekolwiek próby zgadnięcia mogą prowadzić do oskarżenia o uprzedzenie w stosunku do jednej czy drugiej społeczności.

Czy z DNA da się wyczytać, jak wygląda jego właściciel?

Co więcej, jak wskazują krytycy, z samego fenotypu w ogóle niewiele da się wyczytać. Jakby nie patrzeć, nie da się w ten sposób ustalić chociażby masy czy wieku danej osoby. Analogicznie nie da się w takim obrazie uwzględnić wszelkich cech, na które miało wpływ środowisko, dieta, zanieczyszczenia powietrza itd. Skąd zatem wzięto informacje o tym? Jak przyznali policjanci kilka cech wpisali do algorytmu sami, tj. ustalili, że „wygenerowana” twarz ma mieć około 25 lat i indeks masy ciała na poziomie 22. To już było czyste zgadywanie.

REKLAMA

Ostatecznie, po fali oburzenia, policja w Edmonton obraz usunęła i opublikowała przeprosiny. Być może intencje były właściwe, ale przesadne zaufanie do algorytmów okazało się błędem. Nie jest to zresztą pierwszy przypadek wykorzystania „uprzedzonego” algorytmu. Już kilka lat temu próbowano zastosować algorytmy do oceniania prawdopodobieństwa ponownego popełnienia przestępstwa przez osoby osadzone ubiegające się o zwolnienie warunkowe. Jak się okazało, także i w tym przypadku algorytmy były wytrenowane w sposób, który wyższe prawdopodobieństwo przypisywał osobom o określonym pochodzeniu etnicznym, automatycznie zmniejszając ich szanse na wcześniejsze opuszczenie zakładu karnego.

Rozwój technologii cieszy, jednak rozsądnym podejściem jest zastosowanie zasady ograniczonego zaufania i sprawdzanie wszystkich implikacji stosowania nowych rozwiązań, szczególnie w sytuacji, w której istnieje ryzyko dyskryminacji grup społecznych tylko na podstawie informacji generowanych przez algorytmy.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA