1. SPIDER'S WEB
  2. Technologie
  3. Nauka

Amerykanie wiedzą, kiedy dojdzie do krwawych zamieszek. Działa algorytm przewidujący niepokoje społeczne

Kilka dni temu minął rok od kulminacji niepokojów społecznych podsycanych przez (na szczęście byłego już) prezydenta Donalda Trumpa, która objawiła się masowym atakiem na Kapitol. Takich wydarzeń nikt się nie spodziewał i za bardzo nikt na nie nie był przygotowany.

rozruchy

Nic zatem dziwnego, że na przestrzeni ostatnich dwunastu miesięcy wzrosło zainteresowanie agencji rządowych zajmujących się bezpieczeństwem sposobami prognozowania takich wydarzeń, aby można było zawczasu się do nich przygotować.

Oczywistą odpowiedzią jest tutaj wykorzystanie algorytmów. Wystarczy pomyśleć: zbierzmy dane o sytuacji w kraju przed atakiem na Kapitol, sprawdźmy, jakie panowały nastroje, jak się zachowywali uczestnicy ataku i analizujemy teraźniejszość pod kątem takich samych zachowań. Być może kiedy po raz kolejny część z nich się powtórzy, będzie trzeba zwiększyć ochronę kluczowych instytucji i spodziewać się podobnych rozruchów.

Naukowcy zajmujący się analizą danych przyznają, że przewidywanie rozruchów, czy też niepokojów społecznych na podstawie danych historycznych może przynieść skutki. Wielu z nich porównuje takie zmiany zachowania do układów pogodowych. Jeżeli odpowiednio wcześnie dostrzeżemy zbliżające się chmury, to być może uda się uniknąć lub przynajmniej przygotować do potencjalnej sytuacji niebezpiecznej.
Sceptycy jednak podkreślają fundamentalną różnicę między tymi dwoma przypadkami. Pogoda i układy burzowe nie wiedzą, że są obserwowane. Ci, którzy chcą spowodować rozruchy, są tego natomiast bardzo świadomi i specjalnie będą zmieniali swoje zachowanie, aby nie doprowadzić do zdemaskowania.

Warto także zauważyć, że sytuacja zazwyczaj jest w takich momentach bardzo dynamiczna, i to pojedyncze wydarzenie, niewłaściwie użyte słowo może doprowadzić do szybkiej eskalacji zdarzeń. Algorytmy komputerowe analizujące zachowanie uczestników, nie będą w stanie tego dostrzec na czas.

W najnowszym wywiadzie dla dziennika The Washington Post, Clayton Besaw, który pracuje nad algorytmem CoupCast opartym na nauczanie maszynowe przekonuje, że posiadając niezwykle obszerne i szczegółowe dane o zachowaniach poszczególnych grup społecznych, wkrótce będzie w stanie skutecznie przewidywać zachowania i prognozować ewentualne próby podważenia demokracji w USA.

Co więcej, jego konkurenci realizujący program Armed Conflict Location & Event Data Protection (ACLED) prawidłowo przewidzieli wydarzenia z szóstego stycznia, informując już w październiku 2020 r. o realnym ryzyku ataku na budynek rządowy. Nic dziwnego zatem, że ich rozwiązaniami zainteresowali się już m.in. eksperci z Pentagonu, CIA czy Departamentu Stanu.

Należy jednak pamiętać, że algorytmy to nie wszystko i wciąż nie należą do rozwiązań nieomylnych. Prace nad ich doskonaleniem powinny trwać, jednak ich przedwczesne zastosowanie może doprowadzić do wylania dziecka z kąpielą, tak jak było to w przypadku algorytmów przewidujących prawdopodobieństwo recydywy wśród amerykańskich skazanych na karę pozbawienia wolności. Algorytmy były chętnie wykorzystywane podczas podejmowania decyzji o przedwczesnym zwolnieniu z kary do czasu, aż okazało się, że algorytm inaczej traktuje osoby o różnym kolorze skóry.