Technologia rozpoznawania twarzy jest niedopracowana i zagraża demokracji
A miało być tak pięknie. Technologie rozpoznawania twarzy i inne algorytmy predykcyjne znane z filmów sci-fi zawsze przedstawiane były jako bezbłędne, mądrzejsze i bardziej sprawiedliwe od ludzi. W rzeczywistości jednak okazały się niedopracowane.
Lipiec 2018, amerykańska organizacja American Civil Liberties Union zajmującą się ochroną praw obywatelskich gwarantowanych przez konstytucję Stanów Zjednoczonych publikuje niezależne testy algorytmu rozpoznawania twarzy Rekognition, opracowanego przez firmę Amazon i testowanego przez policję z Orlando. Wynik? 28 kongresmenów okazało się poszukiwanymi przestępcami z listów gończych. Oczywiście tylko w oczach algorytmu.
Taka niedokładność wystarczyła, żeby zakwestionować wykorzystanie algorytmu przez amerykańskie służby. Zdaniem przedstawicieli ACLU algorytm opracowany przez firmę Amazon może nieumyślnie zrujnować dobre imię przypadkowego Amerykanina, jeśli ten zostanie błędnie rozpoznany jako poszukiwany przestępca.
Czerwiec 2019, anonimowy programista z Chin publikuje algorytm do rozpoznawania aktorów z filmów dla dorosłych. Amatorska sieć neuronowa porównywała kadry z filmów ze zdjęciami publikowanymi w mediach społecznościowych. Tym sposobem udało się podobno ustalić prawdziwą tożsamość ok. 10 tys. aktorów.
Autor całego zamieszania, w swoim poście w serwisie Weibo napisał, że jego sieć neuronowa powstała z myślą o możliwości weryfikacji kobiety przed ślubem. Chodziło tu oczywiście o sprawdzenie, czy dana wybranka nie miała za sobą zbyt pikantnej przeszłości, utrwalonej na jakimś wideo dostępnym w sieci.
Po tym, jak wpis spotkał się z ogromną falą krytyki, anonimowy autor zmienił swoją argumentację twierdząc, że oprogramowanie tak naprawdę powstało z myślą o kobietach, które chciałyby odszukać pornograficzny film ze swoim udziałem i domagać się jego zdjęcia z sieci. W praktyce jednak nie zmieniło to zbyt wiele.
Algorytmy bez kontroli
Oprócz samej niedokładności algorytmów, problemem jest również brak jakichkolwiek sensownych regulacji prawnych ich wykorzystania. Podczas konferencji Web Summit, zorganizowanej w Lizbonie, Brad Smith, dyrektor Microsoftu odpowiedzialny za sprawy korporacyjne zwrócił uwagę na ten problem. Jego zdaniem, dalsze ignorowanie tej sprawy, może sprawić, że któregoś dnia obudzimy się w rzeczywistości do złudzenia przypominającej tę z książki „1984″ G. Orwella.
Smith zwraca uwagę na kwestie nowych technologii, które pozostawione samym sobie, mogą przerodzić się w poważne problemy w przyszłości. To on ostrzegał, jeszcze przed ostatnimi wyborami prezydenckimi w USA, że media społecznościowe mogą przerodzić się w narzędzie zakłócające wyniki demokratycznych wyborów. Jego obawy okazały się uzasadnione.
Przyznaję, że na razie brzmi to trochę, jak teoria spiskowa, ale zgadzam się ze Smithem, że jest to najlepszy moment na wprowadzenie zdroworozsądkowych regulacji związanych z technologią rozpoznawania twarzy. Bez nich, bardzo szybko może się okazać, że firmy i podmioty państwowe zaczną po prostu nadużywać związanych z nią możliwości. Smith nie jest zresztą pierwszym człowiekiem, który ostrzega przed tego typu scenariuszem.
Politycy na szczęście zaczynają dostrzegać ten problem
Na razie dzieje się to na szczeblu lokalnych władz. Aaron Peskin, jeden z radnych miasta San Francisco na ostatniej sesji zaproponował wprowadzenie odgórnego zakazu korzystania z algorytmów rozpoznawania twarzy przez wszystkie służby działające w mieście. Dodatkowo, służby miejskie musiałyby tworzyć raporty dot. wykorzystania innych zautomatyzowanych technologii, jak np. systemów rozpoznawania tablic rejestracyjnych, czy systemów kamer CCTV.
Podobne przepisy wprowadzono już na terenie Oakland i hrabstwa Santa Clara, gdzie nowe technologie wykorzystywane przez policję są dokładnie analizowane przez tamtejszych radnych, którzy na podstawie ich skuteczności i użyteczności decydują o tym, czy uwzględniać ich finansowanie w planowaniu kolejnych wydatków z budżetów swoich miast.
Na razie jednak są to mocno oddolne ustalenia, zależne od dobrej (bądź złej) woli lokalnych polityków. Żaden kraj jak dotąd nie wprowadził odgórnych regulacji dotyczących technologii związanych z rozpoznawaniem twarzy przez algorytmy maszynowego uczenia się. Niektóre kraje (np. Chiny) ignorują wręcz problemy związane z niedokładnością działania tej technologii i uparcie forsują korzystanie z niej w celu inwigilacji swoich obywateli.
Niektórzy próbują bronić się przed inwigilacja tego typu, tworząc bardzo ciekawe sposoby oszukiwania algorytmów. W Hongkongu, gdzie zakazano ostatnio noszenia masek (chodzi tutaj bardziej o maski przeciwsmogowe, niż o kominiarki) pojawił się na przykład pomysł na osobisty projektor twarzy, który skutecznie oszukuje systemy CCTV, podłączone do algorytmów rozpoznawania twarzy.
Pytanie tylko, czy władza zadowolona z wykorzystania algorytmów rozpoznawania twarzy nie wprowadzi kolejnych regulacji, delegalizujących tego typu gadżetów. A że kilka osób zostanie niesprawiedliwie rozpoznanych, jako groźni przestępcy? No cóż, na razie tym problemem nie przejmuje się zbyt wiele osób. Pewnie dlatego, że technologia ta nie zdążyła się jeszcze dostatecznie upowszechnić. Ale co będzie za kilka, bądź kilkanaście lat?