1. SPIDER'S WEB
  2. Nauka

ONZ ostrzega: sztuczna inteligencja zagraża ludzkości, trzeba ją ograniczyć

robot

Organizacja Narodów Zjednoczonych apeluje o wprowadzenie moratorium na wykorzystywanie sztucznej inteligencji, która długofalowo może zagrażać ludziom.

Wbrew pozorom nie chodzi o sztuczną inteligencję w powszechnym tego słowa użyciu. Nie chodzi o roboty, które wyposażone w algorytmy SI będą chodziły po świecie i zniewalały ludzi. W opublikowanym apelu mowa o już istniejących technologia, takich jak chociażby algorytmy sztucznej inteligencji wykorzystywane do rozpoznawania twarzy w przestrzeni publicznej.

Szerokie wprowadzenie systemów sztucznej inteligencji do przestrzeni publicznej, a następnie wykorzystanie ich do oceny rejestrowanych osób może w sposób bezpośredni prowadzić do łamania praw człowieka. Warto tutaj zauważyć, że już teraz stosowane systemy tego typu, np. w przewidywaniu ryzyka ponownego popełnienia przestępstwa, okazują się być tendencyjne i większe ryzyko przypisują niektórym grupom ludzi nie na podstawie ich działań, a pochodzenia etnicznego czy płci. Analogicznie, systemy rozpoznawania twarzy stosowane w Chinach wykorzystywane są do śledzenia i prześladowania przedstawicieli mniejszości ujgurskiej.

Główna Komisarz ds. Praw Człowieka w ONZ Michelle Bachelet zauważa, że już teraz należy wprowadzać ograniczenia na stosowanie sztucznej inteligencji. Jeżeli za szybko dojdzie do ich wprowadzenia do powszechnego użytku może się okazać, że nie będzie już można ich usunąć, bo np. zbyt wiele usług publicznych będzie obsługiwanych za ich pomocą.

Nie zabraniać, ale stworzyć zabezpieczenia

Co ważne, Bachelet nie jest przeciwnikiem sztucznej inteligencji jako takiej. Chodzi jedynie o to, aby ogłosić moratorium na wprowadzanie takich technologii do czasu ustanowienia przez państwa takich zapisów, które będą zabezpieczały prawa człowieka w starciu z algorytmami sztucznej inteligencji.

W raporcie szczególną uwagę zwrócono na systemy SI, które na podstawie wyrazu twarzy starają się odczytać stan emocjonalny poszczególnych osób i w ten sposób selekcjonować osoby do zatrzymania przez policję. Rozwiązania tego typu bardzo często są tendencyjne i zdają się preferować określone grupy osób. Wystawienie przez algorytm komputerowy całej grupy osób na częstsze zatrzymania przez oficerów służb publicznych z prawami człowieka i równością w społeczeństwie nie ma już nic wspólnego.