REKLAMA

Były dowódca sił NATO w Afganistanie: sztuczna inteligencja wkrótce dostanie ostrą broń w swoje ręce

Sztuczna inteligencja coraz częściej wnika w tkankę życia społecznego i obejmuje coraz to kolejne sfery życia. Wojsko i działania militarne nie są tutaj wyjątkiem. Czy jednak zdecydowalibyśmy się dać ostrą amunicję algorytmowi sztucznej inteligencji? Według wielu jest to nieuniknione.

Były dowódca sił NATO w Afganistanie: sztuczna inteligencja wkrótce dostanie ostrą broń w swoje ręce
REKLAMA

Przez całe dekady uzbrojone roboty wyposażone w broń i samodzielnie decydujące o tym, co będzie ich kolejnym celem, były jedynie elementem dobrego kina akcji. Bardzo często w takich wysokobudżetowych produkcjach roboty stawały się niepokorne i atakowały swoich twórców. Oczywiście zazwyczaj w takiej sytuacji do gry wchodził główny bohater, który działając w pojedynkę był w stanie obezwładnić i zdezaktywować robota, stając się absolutnym bohaterem. Poza kinem jednak niewielu z nas spodziewało się, że kiedykolwiek takie sytuacje mogą stać się rzeczywistością.

REKLAMA

Prędzej czy później, roboty dostaną broń do ręki

Jak jednak przekonuje gen. Stanley McChrystal, który do 2010 r. był dowódcą sił USA i NATO w Afganistanie, przekazanie broni w ręce algorytmów sztucznej inteligencji jest nieuniknione, nawet mimo tego, że wiąże się to z utratą pewnej kontroli.

Jak przekonuje McChrystal, nawet twórcy algorytmów nie są w stanie zrozumieć, w którym miejscu algorytm sztucznej inteligencji decyduje kiedy powinien pociągnąć za spust. Człowiek praktycznie uruchamia robota i ma nadzieję, że zrobi on to, co do niego należy.

REKLAMA

Po co zatem podejmować takie ryzyko? W rozmowie z portalem Yahoo! News gen. McChrystal przekonuje, że współczesny teatr walki tego wymaga. Nowoczesna broń, w tym chociażby powstające właśnie pierwsze pociski hipersoniczne, jest na tyle szybka i niebezpieczna, że zaatakowana nią strona nie będzie miała wystarczająco dużo czasu na reagowanie, aby w międzyczasie operatorzy radarów mogli przeanalizować trajektorię lotu pocisku i wydać rozkazy siłom obrony. Nie będzie czasu na komunikację z dowództwem. Proces identyfikacji pocisku i podjęcia decyzji o jego zestrzeleniu siłą rzeczy będzie musiał trafić w ręce algorytmów sztucznej inteligencji.

Oczywiście, pozostaje tutaj jeszcze jeden element ryzyka. Jeżeli wyposażymy własne roboty w ostrą broń, to automatycznie staną się one celem ataku hakerów, którzy będą próbowali przejąć kontrolę nad nimi i wykorzystać ją przed jej własnymi twórcami. To zagrożenie także musi zostać zminimalizowane. Pozostaje mieć nadzieję, że roboty nie będą się zbyt często myliły.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA