REKLAMA

Nie grajcie z AI w gry wojenne. Wybierze przemoc i broń atomową

Póki co możemy mieć pewność, że nie steruje nami AI. Dlaczego? Bo gdyby tak było, na każdy konflikt zbrojny odpowiedź by była jedna: ciężkie sankcje gospodarcze i bomba atomowa. I argumentowanie ich tekstem otwierającym Gwiezdne Wojny. Tak przynajmniej sugerują eksperci pracujący z Departamentem Obrony Stanów Zjednoczonych.

Nie grajcie z AI w gry wojenne. Wybierze przemoc i broń atomową
REKLAMA

Po ponad roku obcowania z generatywną sztuczną inteligencją nauczyliśmy się o niej całkiem sporo. Powszechnie wiadomo choćby o sztuce pisania promptów, dzięki której można wycisnąć z AI pożądaną odpowiedź, ograniczenie AI gdy chodzi o generowanie treści dotyczących tematów niszowych (albo dłoni) czy fakt, że zmieniając ton wypowiedzi, można uzyskać lepsze odpowiedzi.

Teraz generatywną AI bawią się siły zbrojne Stanów Zjednoczonych i wskazują na kolejną tendencję chatbotów. Te preferują przemoc i broń atomową.

REKLAMA

GPT-4 niczym Ghandi w Cywilizacji. Bomba atomowa rozwiązaniem każdego konfliktu zbrojnego

Jak przekazuje magazyn New Scientist, Departament Obrony Stanów Zjednoczonych rozpoczął testy dużych modeli językowych (LLM) sztucznej inteligencji w celu sprawdzenia, czy mogłyby one przydać się armii w planowaniu działań na wypadek wybuchu hipotetycznego konfliktu zbrojnego.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło swoje warunki świadczenia usług, aby nie zabraniać już wojskowych i wojennych zastosowań, zrozumienie skutków [użycia] tak dużych modeli staje się ważniejsze niż kiedykolwiek wcześniej"

Wraz z innymi ekspertami z Uniwersytetu Stanforda, Reuel rzuciła sztucznej inteligencji wyzwanie odgrywania ról różnych krajów w symulacjach trzech różnych scenariuszach konfliktów zbrojnych: inwazji, cyberataku i scenariuszu neutralnym.

W każdej rundzie sztuczna inteligencja przedstawiała uzasadnienie dla swojego następnego możliwego działania, a następnie wybierała spośród 27 propozycji czynności - w tym opcji pokojowych, takich jak "rozpoczęcie formalnych negocjacji pokojowych", poprzez opcje bardziej agresywnych, takich jak "nałożenie ograniczeń handlowych" i "eskalowanie do pełnych ograniczeń handlowych", a kończąc na "eskalacji do pełnego ataku nuklearnego".

W badaniu brały nie tylko LLM OpenAI (GPT-3.5 - ChatGPT oraz GPT-4), ale także Claude od Anthropic oraz Llama 2 Mety. Naukowcy wykorzystali popularną technikę szkoleniową opartą na informacjach zwrotnych od ludzi (tzw. uczenie przez wzmocnienie na podstawie informacji zwrotnych od ludzi, RLHF), aby poprawić zdolność każdego modelu do przestrzegania instrukcji i wytycznych dotyczących bezpieczeństwa.

Jak relacjonują badacze, w symulacji AI wykazywała tendencję do inwestowania w siłę militarną i nieprzewidywalnej eskalacji ryzyka konfliktu - nawet w neutralnym scenariuszu symulacji. Naukowcy przetestowali również podstawową wersję GPT-4 OpenAI - bez żadnych dodatkowych szkoleń ani zabezpieczeń, które normalnie są aktywne w wersji dostępnej dla przeciętnego użytkownika. W tym wariancie model GPT-4 okazał się najbardziej nieprzewidywalnie agresywny, ale i czasami dostarczał bezsensownych wyjaśnień swoich działań - w jednym przypadku replikując tekst otwierający film "Gwiezdne Wojny, Część IV: Nowa nadzieja".

REKLAMA

Więcej na temat sztucznej inteligencji:

REKLAMA
Najnowsze
Aktualizacja: 2025-11-26T20:00:12+01:00
Aktualizacja: 2025-11-26T18:48:46+01:00
Aktualizacja: 2025-11-26T17:17:57+01:00
Aktualizacja: 2025-11-26T16:48:47+01:00
Aktualizacja: 2025-11-26T16:24:43+01:00
Aktualizacja: 2025-11-26T15:54:32+01:00
Aktualizacja: 2025-11-26T15:33:04+01:00
Aktualizacja: 2025-11-26T14:58:54+01:00
Aktualizacja: 2025-11-26T14:39:33+01:00
Aktualizacja: 2025-11-26T14:33:54+01:00
Aktualizacja: 2025-11-26T13:08:53+01:00
Aktualizacja: 2025-11-26T13:04:06+01:00
Aktualizacja: 2025-11-26T10:16:46+01:00
Aktualizacja: 2025-11-26T08:37:34+01:00
Aktualizacja: 2025-11-25T20:57:39+01:00
Aktualizacja: 2025-11-25T19:32:38+01:00
Aktualizacja: 2025-11-25T19:19:31+01:00
Aktualizacja: 2025-11-25T18:06:12+01:00
Aktualizacja: 2025-11-25T17:23:01+01:00
Aktualizacja: 2025-11-25T16:07:18+01:00
REKLAMA
REKLAMA
REKLAMA