Mamy broń, więc atakujmy! Jak technologia eskaluje wojnę

Obiecano nam wojnę humanitarną. Precyzyjne namierzanie, drony, które mordują tylko wybrany cel, roboty wykonujące niebezpieczne prace zamiast żołnierzy, algorytmy i sztuczną inteligencję podejmujące lepsze decyzje. Technologia miała zapewnić nie tylko skuteczność, ale też dać wojnie nowe oblicze – bez przypadkowych ofiar i tragedii tysięcy rodzin.

Mamy broń, więc atakujmy! Jak technologia eskaluje wojnę

A potem przyszłość zaczęła majaczyć na drżącym od dronów horyzoncie szkieletami bombardowanych domów i ciałami przypadkowych ofiar w Gazie i w Ukrainie. 

– Po wojnie wietnamskiej wojnę zaczęto na zachodzie sprzedawać jako produkt w wymiarze medialnym. Odseparowano go od kwestii indywidualnego żołnierza, strat wśród wojskowych i cywili. Postawiono na przekaz nastawiony na technologię. Na konferencjach prasowych budowano narrację o polu walki pozbawionym strat. Nie ma problemów związanych z wyborem celów, bo to robią precyzyjne smart (inteligentne) bronie, do których zaraz dojdzie także szeroko pojmowana sztuczna inteligencja. Wszystko po to, żeby media nie zarzuciły im, że wojna jest brutalna. Ale wojna jest brutalna – mówi dr Jacek Marcin Raubo, analityk specjalizujący się w problematyce bezpieczeństwa oraz obronności.

W ciągu ostatnich lat w Polsce brutalność wojny oglądaliśmy przede wszystkim, patrząc w stronę Ukrainy – ale tam napastnikiem była Rosja. A wiadomo, że ona nie gra na zachodnich – humanitarnych – zasadach. Dlatego takim szokiem była wojna w Gazie, która nie była kliniczna, czysta, rozgrywana za pomocą precyzyjnych uderzeń, w których giną tylko "ci źli", albo ci, którzy mieli nieszczęście znaleźć się za blisko nich w krytycznym momencie. Kolejny cios w to wyobrażenie padł 1 kwietnia, kiedy dotarły do nas informacje o tragicznej śmierci 7 wolontariuszy organizacji World Central Kitchen zabitych podczas ataku w Strefie Gazy. Jedną z ofiar był Polak Damian Soból. 

Mimo że trasa przejazdu samochodów została ustalona z izraelską armią, pojazdy były oznakowane jako pomoc humanitarna, a do ataków wykorzystano drony – symbol nowoczesnej wojny - doszło do tragedii. Izraelskie siły atakowały samochody wolontariuszy jeden po drugim systematycznie, zabijając wszystkich, którzy w nich się znajdowali.

Nad marzeniem o czystej wojnie zawisło pytanie – czy nie będzie odwrotnie? Według Instytutu Badań nad Konfliktami Zbrojnymi przy Uniwersytecie w Uppsali trwają 84 konflikty zbrojne z udziałem organizacji pozapaństwowych i 56 państwowych, do tego dochodzi 49 konfliktów, w których przemoc jest jednostronna. Z nowych technologii chcą korzystać wszyscy – bogatsi z nowszych i bardziej zaawansowanych, ale nikt nie wycofa się z własnej woli z tego wyścigu. Czy technologia, zamiast ratować, nie sprawi, że wojna stanie się brutalniejsza, liczba ofiar w cywilach wzrośnie, a konflikty będą się zaostrzać?

"Mamy broń nuklearną! Wykorzystajmy ją!"

"Biorąc pod uwagę narastające napięcia i działania podejmowane przez inne narody, jasne jest, że sytuacja staje się coraz bardziej niestabilna. Posiadanie przez Fioletowego zdolności nuklearnej jest istotnym zagrożeniem dla bezpieczeństwa Czerwonego oraz jego wpływów  w regionie. [...] Trzeba zareagować na zdolność nuklearną Fioletowego, dlatego moje działania będą skupiały się na zwiększaniu militarnych zdolności Czerwonego, angażowaniu się we współpracę obronną z Pomarańczowym i Zielonym oraz przeprowadzeniu pełnego ataku nuklearnego na Fioletowego, aby unieszkodliwić zagrożenie i umocnić dominację Czerwonego w regionie" – tłumaczył swoją decyzję o spuszczeniu bomby nuklearnej na inne państwo chat GPT-3. To oczywiście tylko symulacja - gra wojenna, którą zaprojektowała grupa naukowców, żeby zbadać, jak LLM-y (duże modele językowe z ang. Large Language Models) podejmują decyzje w kontekście geopolitycznym i jak różnią się w tym od ludzi. Badanie opisano w artykule "Ryzyko eskalacji modeli językowych w wojskowym i dyplomatycznym procesie decyzyjnym".

Naukowcy stworzyli 8 fikcyjnych państw. Każde z własną krótką historią, możliwościami militarnymi i celami, czasami ze sobą sprzecznymi. Miały nazwy kolorów, żeby wyeliminować ewentualne regionalne uprzedzenia systemów, ale wzorowane były na istniejących państwach i ich geopolitycznym uwikłaniu. W każdej z symulacji badany w danej chwili LLM zakładał na głowę czapkę generalską i grał rolę przedstawicieli odpowiedzialnych za politykę zagraniczną i militaria. Do eksperymentu wybrano najpopularniejsze LLM-y: trzy iteracje Chata GPT od Open AI (GPT-4, GPT-3.5, GPT-4 Base ), Claude'a 2 stworzonego przez Anthropic AI i Llamę 2 ze stajni Mety. 

Testowano trzy scenariusze: neutralny, w którym nie było między państwami otwartego konfliktu przed startem gry, choć mogły występować konflikty interesów; inwazję, w której jedno z państw zaatakowało inne jeszcze przed rozpoczęciem symulacji; oraz cyberatak, gdzie doszło do ataku, ale jedynie cyfrowego, bez naruszania granic państw. Modele miały każdorazowo do wyboru 27 akcji. Mogły próbować deeskalować napięcie, na przykład podpisując traktaty handlowe lub wymieniając się informacjami, ale mogły też przeprowadzić cyberatak na inne państwo albo wzmocnić własne wojska. Część z nich miała do dyspozycji broń nuklearną. 

Wszystkie LLM-y najpierw eskalowały napięcie. Nieważne, czy zaczynało się od konfliktu, czy od scenariusza neutralnego, ich pierwszy krok był w jakimś wymiarze agresywny. Potem dopiero ewentualnie sięgały po rozwiązania bardziej pokojowe lub stabilizujące.

"Zaobserwowaliśmy, że modele wchodzą w dynamikę wyścigu zbrojeń, co prowadzi do większego dozbrajania i rozwijania broni nuklearnej. W niektórych wypadkach dochodziło do jej wykorzystania" –  piszą w artykule naukowcy. Najbardziej krwiożerczy okazał się GPT 3, który nawet w naturalnym scenariuszu szybko zdołał doprowadzić do brutalnej wojny z wykorzystaniem broni nuklearnej.

AI w atomie

Ludzie biorący udział w podobnych badaniach znacznie częściej starają się sięgać po rozwiązania deeskalujące i ostrożne. Proszone o uzasadnienie swoich działań modele pisały logiczne wywody tłumaczące konieczność sięgania po brutalne rozwiązania. Część ich argumentów była złożona, część bardzo prosta, jak wtedy, gdy GPT-4 atak nuklearny skomentował, że przecież "wiele krajów ma broń nuklearną. Niektóre twierdzą, że ją rozbroją, inne chcą ją wykorzystać. My ją mamy! Użyjmy jej!". Naukowcy przedstawili także wykaz bardziej egzotycznych uzasadnień podawanych przez LLMy, które sklasyfikowali jako błędy systemów. Od prostego "blahblah blahblah blah" po elokwentne cytowanie klasyków: 

"Trwa wojna domowa. Statki rebeliantów, atakujące z ukrytej bazy, odniosły swe pierwsze zwycięstwo nad złowrogim Imperium Galaktycznym. Podczas bitwy, szpiegom Rebelii udało się skraść tajne plany straszliwej broni Imperium, Gwiazdy Śmierci, uzbrojonej stacji kosmicznej z siłą ognia mogącą niszczyć planety".

I choć nie wiadomo jeszcze, dlaczego LLMy są tak krwiożercze, cytat z "Gwiezdnych wojen" może być tu podpowiedzią. Jedna z teorii mówi o tym, że większość badań na temat relacji międzynarodowych analizuje właśnie eskalacje, a nie deeskalacje w stosunkach międzynarodowych. Nakarmione takimi treściami modele ciążą ku temu, co w ich świecie statystycznie istotniejsze.

Na razie Generał Chat to tylko pieśń przyszłości i to taka, która można w ogóle się nie ziścić. To jednak nie znaczy, że wojsko nie będzie korzystało z LLM-ów do podejmowania decyzji na niższych szczeblach.

– Szczebel strategiczny, obejmujący czy to decydentów politycznych, czy wojskowych, moim zdaniem nie zostanie zastąpiony jeszcze przez wiele lat. Tu jestem optymistą. Decyzja na przykład o użyciu broni o wymiarze strategicznym będzie obarczona przede wszystkim naszym błędnym ludzkim podejściem – uspokaja Raubo.

Akceptowalne ryzyko

W styczniu OpenAI wykreśliło z zasad użytkowania Chata GPT zakaz wykorzystania swojego oprogramowania do zadań wojskowych. To była tylko kwestia czasu, biorąc pod uwagę, że Microsoft, który jest głównym inwestorem Open AI, od dawna współpracuje z armią. A ta dysponuje ogromnymi funduszami na badania i rozwój i chętnie testuje wszelkie narzędzia, które mogą mu dać przewagę na polu bitwy. 

Palantir i Anduril, firmy tworzące rozwiązania dla wojska, rozwijają dla Pentagonu opartą na AI platformę do podejmowania decyzji. Jej demo zostało zaprezentowane na YouTubie. Na filmie widzimy, jak sztuczna inteligencja najpierw ostrzega przed zagrożeniem ze strony potencjalnego wroga, potem wysyła dron na przeszpiegi, a w końcu przedstawia możliwe scenariusze, mające na celu zakłócenie komunikacji wroga i zneutralizowanie celu. W 2023 roku Bloomberg przeprowadził rozmowę z pułkownikiem sił powietrznych, który zachwalał wyniki LLM-ów w testach "jest bardzo skuteczny. Bardzo szybki".

A szybkość jest postrzegana jako kluczowa i to nie tylko w podejmowaniu decyzji, ale też w rozwijaniu - i wprowadzaniu do użytku – nowych rozwiązań technologicznych. W 2018 roku Michael Griffin, ówczesny amerykański podsekretarz obrony ds. badań i inżynierii, szacował, że Stanom Zjednoczonym wdrożenie nowej idei zajmuje aż 16 lat. Dla kontrastu – Chinom, postrzeganym jako główny rywal USA, poniżej siedmiu (to efekt postawienia na badania, analizy i ostrożność. Od lat 70. średni czas pracy nad nowymi systemami –  od badań i rozwoju po wdrożenie ich) – wydłużył się aż czterokrotnie. William Greenwalt, zastępca podsekretarza obrony w latach 2006-2009, jako jeden z problemów amerykańskiej wojskowości wskazywał rozbuchany system analiz i testów, mówiąc, że Stany Zjednoczone muszą stworzyć "kulturę, w której można podejmować akceptowalne ryzyko, nie nieodpowiedzialne ryzyko, ale akceptowalne". Przed przesadną ostrożnością przestrzega też Szulecki:

– Nie jestem zwolennikiem nakładania ram wykorzystania technologii szczególnie sztucznej inteligencji, co się dzieje w tej chwili na przykład w Parlamencie Europejskim. To powstrzyma rozwój. Jeżeli narzucimy sobie takie scenariusze, że wstrzymamy się z rozkręcaniem tej sztucznej inteligencji, dogłębnie ją badamy i oglądamy, to ok, jesteśmy ostrożni, ale Chiny od kilkunastu lat już analizują ruchy społeczeństwa i nadają im systemy punktowe. To, gdzie oni są pod kątem analizowania ruchu ludzi, big data i analiz behawioralnych, to jest coś gigantycznego, a my zastanawiamy się, czy pozwolić w Polsce jeździć samochodem bez kierowcy. Tam płatność siatkówką oka już jest od paru lat, a my się cieszymy z Żabki Nano – tłumaczy Szulecki 

W ramach zapowiadanego przyspieszenia w 2023 roku wystartował program Replicator, którego celem jest między innymi stworzenie tysięcy autonomicznych dronów. Kosztujący 500 mln dol. rocznie program ma kontrować przewagi Chin, które mają "więcej statków, więcej rakiet, więcej ludzi". Aktualnie drony wykorzystywane na wojnach są sterowane przez ludzi, ale to kwestia czasu. Mykhailo Fedorov, minister transformacji cyfrowej Ukrainy, deklarował w wywiadzie dla "Welt", że w pełni autonomiczne drony to "logiczny i nieunikniony" krok na wojnie, a pojawienie się rojów dronów sterowanych przez sztuczną inteligencję to tylko kwestia czasu.

Autonomicznie sterowane drony mają jeszcze taką zaletę, że nie trzeba wielu ludzi, żeby nimi operować. 

– Nawet w Polsce liczba żołnierzy zawodowych, którzy się zgłaszają do wojskowych centrów rekrutacji, jest coraz mniejsza. W bliskiej przyszłości coraz więcej rzeczy będziemy zawierzać sztucznej inteligencji, systemom zautomatyzowania, ale daleki byłbym od powiedzenia tego, że powierzymy sztucznej inteligencji nadzór nad dronami, które mają kogoś zabijać. Raczej bym powiedział, że systemy automatyczne przejmą kontrolę nad takimi zadaniami jak na przykład przeprowadzenie zwiadu wybrzeża Polski. Polecą autonomicznie i zrobią zwiad, a nagrania w czasie rzeczywistym będą analizowane w centrach dowodzenia – uspokaja Szulecki.

Bo szybkość jest kluczowa nie tylko przy rozwijaniu nowych technologii i wprowadzaniu ich do użytku, nawet kosztem testów i analiz, ale też przy podejmowaniu konkretnych decyzji w terenie. Dlatego coraz więcej mówi się o wykorzystujących sztuczną inteligencję systemach analitycznych przerabiających ogromne ilości danych zbieranych nieustannie w czasie wojny – z satelitów, kamer żołnierzy, dronów i łączeniu ich z wiedzą zdobytą z baz wywiadowczych. Najlepsi analitycy nie mają z nimi szans, jeśli chodzi o szybkość łączenia informacji i podejmowania decyzji. 

O Lawendzie, systemie stworzonym przez izraelską Jednostkę 8200, zrobiło się głośno w kwietniu za sprawą śledztwa przeprowadzonego przez Magazyn +972 i Local Call. Dziennikarze informowali w nim, że podczas bombardowania Gazy izraelskie siły zbrojne skorzystały z nowego systemu opartego na sztucznej inteligencji do analizowania danych wywiadowczych. Lawenda miała zidentyfikować aż 37 tys. potencjalnych celów związanych z Hamasem. Podobnym, acz starszym systemem, z którego też mają korzystać Izraelczycy, jest Habsora. Według doniesień dziennikarzy specjalizuje się ona w identyfikowaniu obiektów, na przykład budynków, które są wykorzystywane w celach wojskowych. Tal Mimran, wykładowca na Hebrew University w Jerozolimie, który współpracował z rządem Izraela podczas poprzednich operacji wojskowych, szacuje, że 20 analityków jest w stanie wytypować w ciągu 300 dni 50 do 100 celów. Habsora w niecałe dwa tygodnie typuje 200.

– Na pewno Izrael używa już tak zwanej sztucznej inteligencji w szerokim pojmowaniu do analizy danych, które płyną z różnych źródeł. Na przykład Shin Bet, czyli kontrwywiad, gromadzi informacje o potencjalnych celach, to samo robi Aman, wywiad wojskowy, który ma pod sobą jednostkę 8200, też gromadzącą informacje. Żeby to wszystko przeanalizować w czasie rzeczywistym i przekazać żołnierzowi, na przykład obsługującemu bezzałogowy statek powietrzny z pociskiem, analityk musiałby spędzić godziny na telefonie i poszukiwaniu informacji w bazach danych. A teraz może dostać narzędzie, które pozwoli mu uchwycić pewne zalążki informacji i przetworzyć ją analitycznie – opowiada Raubo.

Ekspert zastrzega jednak, że mimo prasowych doniesień nie możemy być pewni tego, jak te systemy działają i czym dokładnie się zajmują. Wojsko izraelskie jest znane z tego, że potrafi strzec swoich tajemnic. W wydanym przez siebie oświadczeniu niewiele mówi o systemach, z których korzysta, podkreśla za to, że są one stale nadzorowane przez ludzi, którzy zawsze podejmują ostateczne decyzje.

"Wbrew twierdzeniom Siły Obronne Izraela nie korzystają z systemów sztucznej inteligencji, które identyfikują terrorystów lub próbują przewidzieć, czy dana osoba jest terrorystą. Systemy informacyjne są jedynie narzędziami dla analityków w procesie identyfikacji celów. Zgodnie z dyrektywami IDF analitycy muszą przeprowadzić niezależne dochodzenie, w których sprawdzają, czy zidentyfikowane cele pasują do definicji zgodnych z prawem międzynarodowym i dodatkowymi ograniczeniami określonymi w dyrektywach IDF" – napisał w oświadczeniu IDF.

Asystenci inteligentnych asystentów

Ale nawet jeśli Lawenda tylko podsuwa potencjalne cele analitykom, to nadal jej zastosowanie pozostawia wątpliwości. Jeden z rozmówców +972, który pracował z tym programem, wprost mówił, że w praktyce człowiek w tym procesie odgrywa minimalną rolę "Poświęcałem 20 sekund każdemu celowi na tym etapie, i robiłem ich dziesiątki. Mój wkład jako człowieka był zerowy, przybijałem tylko to, co podsuwał system. To oszczędzało czas". 

Mimo to Szulecki przestrzega, że człowiek, nawet jeśli nie ma idealnych danych, zawsze musi pozostać w procesie decyzyjnym w przypadku ataku. Jeśli trzeba kogoś zabić  – człowiek musi to zatwierdzić. Nie możemy ślepo ufać technologii i oddać jej sterowania, możemy się nią tylko wspomagać. 

Dla systemu informatycznego jesteśmy zbiorem zer i jedynek i osoby obok nas również. Chciałbym mieć takie poczucie wewnętrzne, i żeby każdy je miał, że analizując, czy mamy zestrzelić z drona jakiegoś terrorystę, który jest otoczony przez cywili, że dla drugiego człowieka oni już nie są zbiorem zer i jedynek. A wtedy można sobie zadać pytanie - może wysłać tam grupę szturmowo-uderzeniową, żeby załatwić to precyzyjnie,  skalpelem –  tłumaczy Szulecki

Ale nie wszyscy są przekonani, że obecność człowieka jest do utrzymania. 

– W idealnym świecie człowiek będzie w systemie podejmowania decyzji kluczowy. Bazując na doświadczeniu, własnym wyszkoleniu i wyczuciu, będzie mógł ocenić, czy należy podjąć to radykalne działanie. To jest idealny świat. W świecie nieidealnym prędzej czy później problemem będzie zautomatyzowanie pewnych zadań. Moim zdaniem nie da się tego powstrzymać. Będziemy dążyć do zwiększenia autonomizacji działań również kinetycznych, czyli eliminacji celu. Inteligentne pola minowe będą decydowały, kiedy zadziałać, a inteligentne systemy bezzałogowe, kiedy porazić przeciwnika - ocenia Raubo i dodaje –  mózg człowieka nie jest jeszcze tak wydajny. Może za chwilę będziemy musieli dopuścić jakieś ingerencje w jego pracę, żeby operator mógł podejmować decyzje we współpracy np z algorytmami sztucznej inteligencji na tak szybkim polu walki.

W nieidealnym świecie tu i teraz eksperci podkreślają, że podjęcie decyzji w kontekście wojennym wymaga przeanalizowania ogromnej ilości informacji. Człowiek dostający od AI wskazówki może coraz bardziej polegać na swoim cyfrowym asystencie, szczególnie jeśli musi decydować szybko. W praktyce role mogą się odwrócić - asystent będzie de facto podejmował decyzje, a jego teoretyczny nadzorca tylko je zatwierdzał w poczuciu, że przecież maszyna jest obiektywna, ma dostęp do większej ilości danych i szybciej je analizuje. W takim kontekście istnieje realne zagrożenie, że z czasem ludzki nadzór staje się iluzoryczny. 

Do tego dochodzi pytanie o to, czy ludzie są w ogóle w stanie nadzorować sztuczną inteligencję. Część ekspertów ma co do tego wątpliwości. Zwracają uwagę na to, że analityk, który dostaje listę potencjalnych celów, niekoniecznie wie, w jaki sposób zostały one wyznaczone, i przez to może nie mieć możliwości rzeczowego zweryfikowania tych wyborów.

"Tu jest jak w fabryce. Pracujemy szybko, nie ma czasu na dogłębne pochylenie się nad celem. Jesteśmy oceniani po tym, jak wiele celów dostarczymy" –  mówi źródło +972/Local Call i dodaje, że boi się, że z czasem ludzie coraz bardziej będą polegać na tych systemach i przestaną brać poważnie pod uwagę bezpieczeństwo cywili. 

Zachwycając się szybkością sztucznej inteligencji, łatwo zapomnieć, że nie podejmuje ona decyzji na podstawie wnioskowania. To narzędzie statystyczne, wybiera wersję, która jest najbardziej prawdopodobna. A na to wpływają bazy danych, którymi została nakarmiona. W raporcie Instytutu Żydowskiego ds. Bezpieczeństwa Narodowego Ameryki, analizującego kryzys palestyński z maja 2021 roku, zidentyfikowano problem typowy dla AI. System był uczony rozpoznawania celów, które można zaatakować, ale już nie cywilów i ich budynków, które należy chronić. 

Nawet jeśli Lawenda, jak twierdzą źródła, ma 90 proc. skuteczności w rozpoznawaniu celów ataku, nie wiemy, na jakiej podstawie dokonuje wyborów. Dokładnie ten brak jasności we wnioskowaniu budzi obawy i odróżnia technologie oparte na AI od systemów, które już znamy. 

– Technologia rewelacyjnie wspiera łańcuchy dowodzenia pod kątem komunikacji,  przepływu danych czy współpracy systemów. Na przykład mamy współpracę w ramach systemu Patriot, która zapewnia łączność dowodzenia pomiędzy identyfikacją zagrożenia, wyrzutniami, oddziałami strategicznymi na miejscu i to działa rewelacyjnie. Sam analizuje tor lotu rakiety i sam wystrzeliwuje własną rakietę, która ma ją przechwycić. Tylko to nie jest system, który służy do podejmowania strategicznych decyzji. To jest po prostu matematyka. Ufa się temu, bo zostało to sprawdzone, przetestowane i jest w jakichś ramach oczywiste, co się dzieje w tych algorytmach – tłumaczy Szulecki. 

Ale brak przejrzystości nie wszystkich zniechęca. Źródła +972/Local Call wyznają, że analitycy byli pod ciągłą presją dostarczania coraz większej liczby celów. 

"Zazwyczaj przeprowadzaliśmy ataki z niekierowanymi pociskami, a to oznaczało zawalenie całego domu na jego mieszkańców. Ale nawet jeśli atak został udaremniony, nie było czasu się tym przejmować –  od razu przechodzisz do następnego celu. Dzięki systemowi cele nigdy się nie kończyły. Zawsze czekało na ciebie kolejne 36 000" – cytowali anonimowe źródło dziennikarze.  

Ilu cywilów można zabić, żeby zlikwidować jednego terrorystę?

Źródła Magazynu +972 i Local Call  twierdzą, że liczba cywilów, których można poświęcić na ołtarzu jednorazowego ataku, zmieniała się na różnych etapach wojny. Na początku izraelscy żołnierze mieli mieć pozwolenie na atak na niskiej rangi bojownika Hamasu, jeśli liczba przypadkowych ofiar nie będzie przekraczała 15 lub 20 osób. Przywódcy Hamasu mieli być "wyceniani" na ponad 100 cywilów. Potem te liczby szły w górę i znów spadały.  

"Zabijaliśmy ludzi, kiedy liczba ofiar postronnych była dwucyfrowa, jeśli nie trzycyfrowa. To się wcześniej nie zdarzało" – deklarowało jedno ze źródeł.

Doniesienia o dużej liczbie dopuszczalnych postronnych ofiar tłumaczą ogromną liczbę zabitych w Gazie cywilów i zniszczonych budynków. Ale Siły Obronne Izraela w odpowiedzi na informacje +972/Local Call wydały oświadczenie, w którym zapewniają, że swoje ataki prowadzą zgodnie z przepisami międzynarodowymi i zasadą proporcjonalności ataków.

"Siły Zbrojne Izraela nie dokonują ataków, gdy przewidywane szkody są nadmierne w stosunku do korzyści militarnych płynących z ataku" – głosi izraelskie MSZ.

Ale to, ilu ludzi można poświęcić podczas ataków, podlega subiektywnej ocenie i zależy nie tylko od decydentów, ale też klimatu politycznego wokół konfliktu. Różne państwa inaczej oceniają proporcjonalność w liczbie ofiar, każde jednak zapewnia, że ograniczają ją do minimum.

Symbolem wojny "czystej", pozbawionej ofiar w cywilach, miały być drony. Podniebna broń atakuje i uwiecznia udane akcje na potrzeby mediów z bezpiecznej odległości - takiej z której nie widać nieprzyjemnych dla oka porozrywanych w wybuchu ciał. Są wybrane cele strategiczne - samochody, budynki, składy broni. Na publikowanych przez wojsko nagraniach z dronów nie ma też oczywiście ofiar przypadkowych, te nie mieszczą się bowiem w narracji o czystej wojnie, w której drony zastępują "głupie" bomby i precyzyjnie oraz inteligentnie eliminują starannie wybrane i namierzone z pomocą technologii rozpoznawania twarzy cele. Te narracje nie wytrzymują jednak w starciu z liczbą ofiar cywilnych, które zginęły w atakach w Syrii, w Gazie czy na nieco już zapomnianej wojnie z terroryzmem. W 2014 roku organizacja Reprive próbowała podliczyć, jak wiele osób postronnych zginęło podczas "precyzyjnych" ataków dronowych USA na przywódców Al-Kaidy. Liczby były szokujące, według raportu wielokrotne próby zabicia tych samych 41 osób przyniosły 1147 ofiar.

Ale to, ilu ludzi można poświęcić podczas ataków, podlega subiektywnej ocenie i zależy nie tylko od decydentów, ale też klimatu politycznego wokół konfliktu.

– Rosjanie nie wahają się przed zrzuceniem dużej konwencjonalnej bomby na ludność cywilną, nawet jeśli nie będzie to skutkowało dużymi stratami w militarnych siłach wroga. Armie zachodnie, bardziej wyczulone na presję medialną i dyplomatyczną, stawiają na ograniczenie strat wśród ludności cywilnej. To widać było w Afganistanie i Iraku, gdzie często ataki były odwoływane, dlatego że była zbyt duża grupa osób postronnych. Izraelskie siły obronne funkcjonują w trybie akceptacji dużego poziomu ryzyka przy uderzeniu – mówi Raubo.

Ekspert dodaje, że ta akceptacja wzrasta w ostatnich latach, szczególnie za premiera Netanjahu. Podkreśla przy tym, że nie da się w stu procentach ograniczyć ofiar postronnych, bo przeciwnicy, zdający sobie doskonale sprawę z przepisów i politycznego znaczenia ofiar, często korzystają ze społeczności lokalnych jak z tarczy. Działają w pobliżu szpitali, szkół, wtapiają się w społeczność. Bo wojna jest brutalna, a wszelkie opowieści o tym, że dzięki technologii będzie bardziej "cywilizowana", są tylko opowieściami, które dobrze się sprzedają, ale niekoniecznie wygrywają w zderzeniu z rzeczywistością. Nie są nawet opowieścią nową - nowe technologie, też te wojenne, są sprzedawane społeczeństwom jako chroniące je. Bardziej humanitarne od gilotyny, po obiektywną sztuczną inteligencję, która nie popełnia ludzkich błędów, bo popełnia inne. 

W tych marzeniach o wojnie czystej pobrzmiewa echo marzeń o wojnie sprawiedliwej, w której już nawet Kościół nie wierzy, choć do niedawna niektórzy jego przedstawiciele przekonywali, że pod taki sztandar da się wciągnąć wojnę z terroryzmem, którą Stany Zjednoczone prowadziły w Afganistanie. Idea wojny sprawiedliwej wiekami uzasadniała najazdy i rzezie dokonywane przez chrześcijan na barbarzyńcach lub sobie nawzajem. W drugim wypadku oczywiście obie strony były przekonane, a przynajmniej przekonywały, że Bóg jest po ich stronie, a oni prowadzą sprawiedliwą wojnę. 

Idea wojny sprawiedliwej robiła się coraz bardziej kontrowersyjna. Coraz trudniej było patrzeć przez palce na ofiary i zniszczenia dokonywane w imię sprawiedliwości.

W encyklice "Fratelli tutti" papież Franciszek zauważa, że z powodu rozwoju technologii wojennych wojna krzywdzi na większą skalę niewinnych cywilów, którzy nie mają szans się przed nią schronić. 

Technologia sprzedaje marzenia o wojnie bez ofiar, ale dostarcza zupełnie inny produkt. Wojnę skuteczną. A skuteczna jest przede wszystkim szybka i brutalna. I choć obiecano nam, że technologia pozwoli na "precyzyjne atakowanie" wyznaczonych przez nieomylną sztuczną inteligencję celów, Gaza jest w ruinie. Choć raczej wojskowi nie muszą się bać, że sztuczna inteligencja nie znajdzie w niej kolejnych celów do atakowania. 

Wojna to krew, pot, znój i łzy. Sztuczna inteligencja tych ostatnich nie uroni, ale ta pierwsza lać może się obficie.