REKLAMA

Czy dron może sam wybrać cel? Sprawdzamy granice nowej technologii na wojnie

Wojna to dziś zestaw coraz szybszych systemów, które wykrywają, śledzą i w części przypadków także zwalczają zagrożenia, zanim człowiek zdąży wszystko przeanalizować sam. Czy dron może sam wybrać cel? Jak algorytmy przejmują współczesny front?

Czy dron może sam wybrać cel? AI i autonomia na wojnie
REKLAMA

Kiedy słyszymy o algorytmach na wojnie, wyobraźnia zwykle podsuwa nam obraz bezzałogowej maszyny, która sama znajduje człowieka, sama ocenia sytuację i sama naciska metaforyczny spust. To wizja niezwykle nośna, ale jednocześnie myląca.

Współczesna autonomia wojskowa dużo rzadziej wygląda jak hollywoodzki robot zabójca, a dużo częściej jak system obrony powietrznej, który ma kilka sekund na reakcję, jak oprogramowanie analizujące dane z sensorów albo jak robot saperski wysyłany tam, gdzie człowiek miałby zbyt małe szanse na przeżycie. NATO wprost podkreśla, że autonomia już dziś staje się jednym z kluczowych obszarów rozwoju obronności i ma być wdrażana zgodnie z zasadami odpowiedzialnego użycia AI oraz prawem międzynarodowym.

REKLAMA

Autonomiczny nie znaczy automatyczny

Autonomiczny bywa dziś używane zbyt szeroko. Nie każdy dron jest autonomiczny. Nie każdy system automatyczny korzysta z AI. Nie każda maszyna, która sama utrzymuje kurs albo wraca do bazy po utracie łączności, jest od razu systemem, który samodzielnie wybiera cele. A jednak granica naprawdę zaczyna się przesuwać.

Międzynarodowy Komitet Czerwonego Krzyża definiuje autonomiczne systemy uzbrojenia jako takie, które po aktywacji wybierają i stosują siłę wobec celów bez dalszej interwencji człowieka. Po stronie amerykańskiej DoD Directive 3000.09 z 2023 r.  reguluje rozwój i użycie autonomicznych oraz półautonomicznych funkcji w systemach uzbrojenia i podkreśla konieczność zachowania odpowiedniego poziomu ludzkiego osądu nad użyciem siły.

Między klasycznym dronem sterowanym przez operatora a systemem, który sam analizuje sytuację i sam reaguje na zagrożenie, rozciąga się całe spektrum rozwiązań. Jedne maszyny są tylko zdalnie sterowane. Inne wykonują automatycznie część czynności, na przykład śledzenie, stabilizację lotu, identyfikację ruchu albo priorytetyzację zagrożeń. Jeszcze inne, już po aktywacji, są zdolne do działania na podstawie danych z otoczenia i wcześniej zdefiniowanych reguł. Właśnie dlatego debata nie dotyczy tylko pytania, czy wojskowe systemy są autonomiczne, ale raczej jak bardzo są autonomiczne i w którym miejscu łańcucha decyzji wciąż stoi człowiek.

W praktyce wojskowej często mówi się o człowieku w pętli, na pętli albo poza pętlą. To uproszczenie, ale bardzo przydatne. W pierwszym wariancie człowiek zatwierdza użycie siły. W drugim nadzoruje działanie systemu i może interweniować. W trzecim system działa po aktywacji sam, reagując na bodźce z otoczenia.

Nie chodzi przy tym o semantykę. Chodzi o odpowiedzialność, czas reakcji i o to, czy człowiek rzeczywiście ma szansę zrozumieć sytuację, zanim maszyna wykona działanie nieodwracalne. ICRC właśnie z tego powodu tak mocno akcentuje potrzebę meaningful human control, czyli znaczącej, a nie pozornej kontroli człowieka nad użyciem siły.

Robot saper to też autonomia, tylko w najmniej kontrowersyjnej formie

Najłatwiej zrozumieć to na przykładzie systemów, które nie są projektowane do samodzielnego zabijania, lecz do odsuwania ludzi od śmiertelnego ryzyka. W armiach całego świata powszechnie korzysta się już z rozwiązań mających zwiększyć dystans bezpieczeństwa saperów przy badaniu i neutralizacji niebezpiecznych ładunków.

Tu autonomia i robotyka są przede wszystkim narzędziem ochrony operatora. Maszyna wjeżdża tam, gdzie człowiek nie powinien podchodzić. Przenosi sensory, manipulator i kamery. Zmniejsza prawdopodobieństwo, że błąd albo pułapka zakończy się śmiercią żołnierza.

To bardzo ważny punkt wyjścia, bo pokazuje, że wojsko nie rozwija autonomii wyłącznie po to, by przyspieszyć zadawanie śmierci. Równie często chodzi o zwiększenie przeżywalności własnych sił, skrócenie czasu reakcji i lepsze wykorzystanie danych. Właśnie dlatego rozmowa o AI na wojnie nie może zatrzymać się na obrazie drona z głowicą bojową. Autonomia już dawno weszła do wojskowej praktyki w logistyce, rozpoznaniu, ochronie baz, analizie sensorów i zadaniach saperskich. Pytanie brzmi, co dzieje się wtedy, gdy te same zasady przechodzą z obszaru wsparcia do obszaru użycia siły.

Czy dron może sam wybrać cel?

Czy dron może sam wybrać cel? W pewnych warunkach tak. Politycznie, prawnie i etycznie odpowiedź jest znacznie trudniejsza. Istota autonomicznego systemu uzbrojenia polega na tym, że po aktywacji użytkownik nie wybiera już konkretnego celu ani precyzyjnego momentu i miejsca użycia siły. System działa na podstawie informacji z sensorów i pewnego uogólnionego profilu celu. To oznacza, że maszyna nie musi rozumieć świata jak człowiek. Wystarczy, że umie dopasować dane wejściowe do wzorca, który wcześniej uzna za istotny.

I właśnie tu zaczyna się największy spór. Rozpoznanie sylwetki pojazdu, toru lotu obiektu albo charakterystyki radaru to jedno. Odpowiedź na pytanie, czy dany obiekt jest legalnym celem wojskowym w konkretnym kontekście operacyjnym, to coś znacznie trudniejszego. Prawo konfliktów zbrojnych opiera się na zasadach rozróżniania, proporcjonalności i ostrożności. Wszystko zależy od oceny zależne od sytuacji.

Granica jest coraz mniej wyraźna także dlatego, że nowoczesne drony nie są już tylko latającą kamerą z operatorem. Współczesne platformy potrafią samodzielnie stabilizować lot, wracać po utracie sygnału, omijać przeszkody, utrzymywać śledzenie i działać w częściowo zakłóconym środowisku.

Gdy do tego dochodzi rozpoznawanie obiektów, klasyfikacja zagrożeń i automatyczne nadawanie priorytetów, człowiek może coraz łatwiej przejść od roli decydenta do roli zatwierdzającego sugestie algorytmu. Formalnie pozostaje w pętli, ale praktycznie to system nadaje rytm całemu procesowi.

Najbardziej dojrzała autonomia już działa w obronie powietrznej

Najciekawsze jest to, że najbardziej zaawansowane formy wojskowej automatyzacji wcale nie narodziły się na pokładzie dronów polujących na ludzi, lecz w obronie powietrznej. Tam czas liczy się po prostu inaczej. Nadlatujący pocisk, rakieta albo bezzałogowiec zostawia czas nie na wielominutową analizę, ale często na sekundy.

W takim środowisku maszyna jest po prostu koniecznością. Jak podaje Rafael, taki Iron Dome jest systemem sprawdzonym bojowo, zdolnym do jednoczesnej ochrony przed szerokim spektrum zagrożeń, także w gęstych salwach, z ponad 5 tys. przechwyceń i skutecznością przekraczającą 90 proc. To nie jest już eksperyment. To dojrzała warstwa obrony, w której automatyczne wykrywanie, śledzenie i priorytetyzacja celów stanowią fundament działania.

Ten przykład dobrze pokazuje też, dlaczego wojsku tak zależy na autonomii. Człowiek nie jest w stanie ręcznie obliczać trajektorii wielu nadlatujących obiektów, porównywać ich priorytetu i kierować odpowiedzią w czasie, który pozostawia nowoczesne pole walki. Im więcej zagrożeń nadlatuje równocześnie, tym bardziej obrona bez automatyzacji zaczyna się dusić pod własną złożonością. To właśnie dlatego systemy przeciwlotnicze, przeciwrakietowe i C-RAM stały się laboratorium wojskowej automatyzacji dużo wcześniej niż najbardziej medialne narracje o AI na wojnie.

Od Phalanxa do Patriota, czyli człowiek coraz dalej od spustu

Dobrze widać to również na morzu. Firma Raytheon opisuje Phalanxa jako szybkie, sterowane komputerowo i radarowo naprowadzane działko bliskiej obrony, przeznaczone do zwalczania rakiet przeciwokrętowych i innych bliskich zagrożeń. Sam producent podkreśla, że system realizuje zadania ostatniej linii obrony, gdy wcześniejsze warstwy już nie wystarczyły. To bardzo czytelny przykład tego, jak automatyzacja przejmuje sekwencję: wykryj, oceń, śledź, zareaguj. Człowiek pozostaje w architekturze odpowiedzialności, ale samo tempo działania wymusza oddanie maszynie coraz większej części procesu.

Jeszcze szerzej działa Aegis. Lockheed Martin opisuje Aegis Combat System jako scentralizowany, zautomatyzowany system dowodzenia i kierowania uzbrojeniem zaprojektowany jako całość od wykrycia do zniszczenia celu. Wojskowa autonomia nie zawsze przychodzi więc w formie pojedynczego robota. Czasem jest to cała warstwa cyfrowej infrastruktury, która zbiera dane z radarów, scala obraz sytuacji, śledzi cele i koordynuje odpowiedź efektorów szybciej, niż byłby w stanie zrobić to człowiek.

Podobny dylemat widać w systemach lądowych. Oficjalny podręcznik U.S. Army dla obrony powietrznej przypomina, że w Patriot i THAAD istnieje komenda engage hold, która przy pracy w trybie automatycznym zatrzymuje automatyczne zaangażowanie wskazanego celu przez system. Sam fakt istnienia takiej komendy mówi bardzo wiele. Nie używa się jej po to, by system w ogóle nauczyć strzelać, ale po to, by w razie potrzeby powstrzymać coś, co w trybie automatycznym już potrafi rozpocząć reakcję. W nowoczesnej obronie pytanie coraz częściej brzmi nie czy automat działa, ale ile czasu ma człowiek, by go zatrzymać.

Dlaczego armie chcą oddawać maszynom coraz więcej?

Z perspektywy wojskowej odpowiedź jest logiczna, nawet jeśli bywa niepokojąca. Autonomia daje szybkość, pozwala obsłużyć większą liczbę danych, ogranicza zmęczenie operatorów i zwiększa odporność systemu na nasycenie celami. W przypadku robotów saperskich daje też bardziej dosłowną korzyść: zwiększa dystans między człowiekiem a eksplozją.

NATO otwarcie traktuje autonomię jako jeden z kluczowych obszarów przewagi technologicznej i element szerszego pakietu przełomowych technologii obronnych. Na współczesnym polu walki, nasyconym sensorami, dronami, zakłóceniami i krótkimi oknami decyzyjnymi, człowiek coraz częściej nie nadąża już z ręcznym przerabianiem sytuacji.

Z tego samego powodu coraz silniej wraca też pokusa przesuwania człowieka na bok. Skoro system szybciej wykrywa zagrożenie, lepiej śledzi tor lotu i w części przypadków trafniej klasyfikuje obiekt niż przeciążony operator, wojskowa logika podpowiada jedno: dopuścić więcej samodzielności.

Właśnie tu zaczyna się napięcie między efektywnością a kontrolą. Im szybszy i bardziej złożony staje się teatr działań, tym większa presja, by skracać ludzki udział. Ale im bardziej skracamy ten udział, tym trudniej utrzymać odpowiedzialność i sensowny nadzór.

Granice nie leżą tylko w etyce, ale też w technice

Łatwo mówić o autonomii tak, jakby była neutralnym przyspieszeniem wojskowego procesu. W rzeczywistości każdy taki system działa na danych z sensorów, a dane mogą być niepełne, zakłócone albo celowo sfałszowane. Radar może widzieć za dużo albo za mało. Algorytm może źle sklasyfikować obiekt. Łączność może zostać zerwana. Przeciwnik może próbować oszukiwać system poprzez wabiki, przeciążanie kanałów lub spoofing.

Właśnie dlatego zwraca szczególną uwagę na rygorystyczne testowanie, weryfikację, walidację, odporność cybernetyczną i minimalizowanie ryzyka niezamierzonych starć. W przypadku broni autonomicznej błąd nie jest zwykłą awarią oprogramowania. Może oznaczać użycie siły wobec niewłaściwego obiektu.

To zresztą kolejny powód, dla którego militarna autonomia rozwija się dziś najbardziej tam, gdzie środowisko decyzyjne jest relatywnie czystsze. Nadlatujący pocisk, tor lotu rakiety albo obiekt powietrzny o określonej sygnaturze to problem trudny, ale w pewnym sensie bardziej uporządkowany niż ocena ludzkiego zachowania w złożonej przestrzeni miejskiej. Im bardziej cel przypomina dane fizyczne i trajektorię, tym łatwiej automatyzować reakcję. Im bardziej przypomina człowieka w niejednoznacznym kontekście, tym większe ryzyko, że maszyna zacznie zawodzić dokładnie tam, gdzie potrzebny jest osąd, a nie tylko obliczenie.

Największy spór dopiero się zaczyna

Pytanie, czy dron może sam wybrać cel, ma dziś tak naprawdę 2 odpowiedzi jednocześnie. Tak, bo technologia coraz częściej umożliwia systemowi samodzielne wykrycie, klasyfikację i reakcję wobec obiektu spełniającego określony profil. Nie, jeśli przez wybór celu rozumiemy pełny, ludzki osąd prawny, kontekstowy i moralny, którego nie da się sprowadzić do samego rozpoznania wzorca. To właśnie w tej szczelinie między techniczną możliwością a polityczną akceptowalnością rozgrywa się dziś prawdziwa walka o kształt autonomicznej wojny.

Przeczytaj także:

REKLAMA

Wojna przyszłości nie będzie prawdopodobnie wojną całkiem bez ludzi. Będzie raczej wojną, w której człowiek coraz rzadziej wykonuje wszystkie czynności samodzielnie, a coraz częściej nadzoruje systemy, które widzą szybciej, liczą szybciej i reagują szybciej. Problem w tym, że nadzór łatwo może stać się rytuałem, jeśli człowiek nie ma czasu, wiedzy albo realnej możliwości, by maszynie się sprzeciwić. A wtedy granica między wsparciem a delegowaniem decyzji zaczyna się niebezpiecznie zacierać.

REKLAMA
Najnowsze
Aktualizacja: 2026-03-09T20:56:21+01:00
Aktualizacja: 2026-03-09T19:45:42+01:00
Aktualizacja: 2026-03-09T18:34:00+01:00
Aktualizacja: 2026-03-09T17:55:24+01:00
Aktualizacja: 2026-03-09T17:24:27+01:00
Aktualizacja: 2026-03-09T16:09:47+01:00
REKLAMA
REKLAMA
REKLAMA