REKLAMA

Nie chcemy drugich Chin. Europejski urząd przeciwny kamerom rozpoznającym twarze

Europejski Inspektor Ochrony Danych chyba słyszał o niedawno opublikowanym na Netfliksie dokumencie „Zakodowane uprzedzenie”. A jeśli nie, to urząd reaguje tak, jakby go oglądał. Tłumaczy to komentarz do planów Unii Europejskiej. 

rozpoznawanie twarzy
REKLAMA

To nie „Black Mirror”. W Chinach kamery rozpoznające twarze ulokowane są na tyle gęsto, że trudno przed nimi uciec. Łatwo za to trafić na listę podejrzanych, wszak zdaniem policji na podstawie odpowiedniej liczby danych algorytmy są w stanie przewidzieć, kto może stać się elementem zagrożenia. 

REKLAMA

A jeśli pochodzisz z regionu, który stawia na własną niezależność, szanse na problemy rosną. Technologia wcale nie będzie twoim sojusznikiem. 

Z tego powodu Chiny stawiane są jako zły przykład tego, do czego doprowadzić może połączenie dostępu do technologii rozpoznającej obywateli i śledzącej każdy ich ruch z autorytarną władzą. 

Nie musimy jednak patrzeć w stronę Azji, żeby dostrzec zagrożenia związane z systemami rozpoznawania twarzy. 

Narodowy Instytut Standardów i Technologii (NIST) Stanów Zjednoczonych przetestował niemal 200 programów do rozpoznawania twarzy. Większość z nich gorzej radzi sobie z rozpoznawaniem kobiet i osób o innym kolorze skóry niż kaukaska biel - pisała Matylda Grodecka. 

Sporo wątpliwości budził choćby policyjny system rozpoznawania twarzy w Londynie, mylący się w 86 proc. przypadków. To dane aktywistów z Big Brother Watch, bo zdaniem policji błąd popełniono w 0,08 proc. spraw. Różnica jest wiec spora, pokazująca, że dużo zależy od tego, kto analizuje błędy. I chyba zbyt dużo, by mieszkańcy mogli spacerować spokojnie. 

Nie chodzi o to, aby w czambuł potępiać technologię rozpoznającą mieszkańców. Faktycznie czasami może dostrzec podejrzane jednostki. Pytanie, które stawiają choćby aktywiści występujący w netfliksowym dokumencie „Zakodowane uprzedzenie”, brzmi, czy na szali nie stawiamy prawa jednostki do prywatności

Europejski Inspektor Ochrony Danych staje po stronie aktywistów.

W niedawno opublikowanym dokumencie podkreślono, że sztuczna inteligencja w sposób głęboki i niedemokratyczny może zagrozić prywatnemu życiu. 

Stosunek EIOD do technologii rozpoznawania twarzy jest nieco inny niż Komisji Europejskiej. Ta przyznaje, że biometria stanowi rozwiązania wysokiego ryzyka i powinna być zakazana, ale… dopuszczane są wyjątkowe okoliczności. 

REKLAMA

Komisja przyznaje, że biometria może okazać się niezbędna przy zagrożeniu atakami terrorystycznymi czy w trakcie poszukiwań zaginionych dzieci. 

EIOD w swoim komunikacie podkreśla, że Komisja Europejska nie uwzględniła wcześniejszych apeli urzędu. Stanowisko jest proste: niezbędne są rygorystyczne regulacje, nie dopuszczające wyjątków.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA