Anthropic kontra Pentagon. "Nie cofniemy się"
Stany Zjednoczone właśnie wrzuciły Anthropic na czarną listę „ryzyka łańcucha dostaw” za odmowę współudziału w tworzeniu narzędzi do masowej inwigilacji i w pełni autonomicznej broni. To lokalny spór w Waszyngtonie, ale jego skutki odczuje cały świat nowych technologii – także my w Europie.

Sekretarz wojny Stanów Zjednoczonych Pete Hegseth ogłosił na X (dawniej Twitter), że nakazał uznać Anthropic - firmę stojącą za modelem Claude - za „supply chain risk”, czyli zagrożenie dla łańcucha dostaw w resorcie obrony.
To to samo oznaczenie, które Amerykanie przyklejali dotąd głównie firmom z Chin, takim jak Huawei. W praktyce oznacza to próbę wypchnięcia Anthropic z kontraktów wojskowych i wysłanie jasnego sygnału całej branży: albo gracie według naszych zasad, albo wypad z rządowego stołu.
Czytaj też:
Powód? Anthropic od miesięcy negocjował z Pentagonem warunki użycia Claude’a w zastosowaniach wojskowych. Firma zgadzała się na „wszystkie legalne zastosowania” dla bezpieczeństwa narodowego, ale postawiła dwa twarde wyjątki:
- brak zgody na masową inwigilację Amerykanów,
- brak zgody na w pełni autonomiczną broń, która podejmuje decyzję o użyciu siły bez człowieka w pętli.
Negocjacje utknęły, a zamiast kompromisu przyszła polityczna salwa: publiczne ogłoszenie, że Anthropic to ryzyko dla łańcucha dostaw.
Odpowiedź Anthropic: „Nie cofniemy się. Do zobaczenia w sądzie”
Anthropic zareagował błyskawicznie oficjalnym oświadczeniem. Firma podkreśla, że:
- wyjątki dotyczą wyłącznie dwóch obszarów: masowej inwigilacji obywateli i w pełni autonomicznej broni,
- według jej wiedzy te ograniczenia nie zablokowały ani jednej realnej misji rządowej,
- obecne „frontierowe” modele AI nie są na tyle niezawodne, by powierzać im decyzję o użyciu śmiercionośnej siły,
- masowa inwigilacja Amerykanów narusza fundamentalne prawa.
Najmocniejszy fragment oświadczenia dotyczy samej decyzji Pentagonu. Anthropic nazywa taki ruch „bezprecedensowym” - dotąd zarezerwowanym dla „przeciwników Stanów Zjednoczonych”, a nie dla amerykańskich firm. Zapowiada też, że będzie z tą decyzją walczyć w sądzie i nie zmieni stanowiska „bez względu na presję czy kary”.
Jednocześnie firma uspokaja klientów: jeśli korzystasz z Claude’a komercyjnie to nic się nie zmienia. Nawet jeśli jesteś wykonawcą Pentagonu to ograniczenia mają - zgodnie z prawem - dotyczyć wyłącznie użycia Claude’a w ramach kontraktów z resortem obrony, a nie w innych projektach.
Innymi słowy: to nie jest „wyłączenie Claude’a w Stanach Zjednoczonych”, tylko próba odcięcia go od części zastosowań wojskowych i wywarcia presji politycznej.
Dlaczego to ważne także z perspektywy Polski i Europy
Z europejskiego punktu widzenia ta historia brzmi jak deja vu. Stany Zjednoczone po raz kolejny używają narzędzi bezpieczeństwa narodowego, by rozgrywać spór z prywatną firmą technologiczną - tyle że tym razem nie chodzi o chińskiego giganta, a o amerykański startup, który ośmielił się powiedzieć „nie” w sprawie masowej inwigilacji i autonomicznej broni.
W Europie, gdzie właśnie wchodzi w życie AI Act, dyskusja o granicach zastosowań sztucznej inteligencji toczy się w zupełnie innym tonie. Unia - przynajmniej w teorii - stara się z góry zakazać najbardziej kontrowersyjnych zastosowań, jak systemy masowego nadzoru biometrycznego w czasie rzeczywistym. Tymczasem w Waszyngtonie widzimy sytuację, w której rząd próbuje wymusić na prywatnej firmie zgodę na coś, co w europejskiej debacie często pojawia się jako przykład „czarnego scenariusza”.
Dla polskiego czytelnika, przyzwyczajonego do ostrożności wobec amerykańskiej polityki (szczególnie w wydaniu administracji Trumpa), ten konflikt jest ciekawy z dwóch powodów. Po pierwsze, pokazuje, że nawet w Stanach Zhednoczonych są firmy gotowe postawić granicę i powiedzieć: „tu kończy się nasz biznes, zaczyna etyka”. Po drugie, uświadamia, jak bardzo różne są standardy i oczekiwania wobec AI po obu stronach Atlantyku.
Anthropic nie jest święty. Ale tym razem ma rację w niewygodnej sprawie
Warto tu zachować trzeźwość reakcji. Anthropic, podobnie jak OpenAI, Google czy Meta, nie jest niewinnym aniołkiem. Modele generatywne nie powstały z próżni - trenowano je na gigantycznych zbiorach danych, w których znalazły się także treści objęte prawem autorskim, dane użytkowników, prace twórców, którzy nigdy nie wyrazili zgody na takie wykorzystanie.
Z perspektywy europejskiego użytkownika trudno więc idealizować jakąkolwiek firmę GenAI. Każda ma swoje za uszami, a spory sądowe o naruszenia praw autorskich dopiero się rozkręcają.
I właśnie dlatego ten konkretny spór jest tak ciekawy. Bo nawet jeśli mamy pełne prawo patrzeć na Anthropic krytycznie, to w tej jednej, bardzo konkretnej kwestii - masowej inwigilacji i w pełni autonomicznej broni - firma staje po stronie wartości, które w Europie uznajemy za podstawowe.
Co to znaczy „w pełni autonomiczna broń” i dlaczego AI nie jest na to gotowa
Z technicznego punktu widzenia spór dotyczy tego czy obecne modele AI są na tyle przewidywalne i bezpieczne, by powierzyć im decyzję o użyciu śmiercionośnej siły bez udziału człowieka.
Dzisiejsze systemy generatywne - w tym Claude - to ogromne modele statystyczne. Potrafią pisać kod, streszczać dokumenty, analizować dane, ale wciąż miewają halucynacje, błędy, nieprzewidywalne zachowania. W zastosowaniach cywilnych to „tylko” problem jakości. W zastosowaniach wojskowych może to oznaczać błędne rozpoznanie celu, eskalację konfliktu, ofiary cywilne.
„Człowiek w pętli” (human in the loop) to dziś złoty standard w dyskusji o broni wykorzystującej AI. Oznacza, że to człowiek podejmuje ostateczną decyzję o użyciu siły, a systemy AI pełnią rolę doradczą, analityczną, wspierającą. Pentagon - jeśli wierzyć relacjom - chciał pójść krok dalej i mieć możliwość użycia Claude’a w systemach, gdzie człowiek jest z tej pętli wyjmowany.
Anthropic mówi: nie. I trudno się dziwić, jeśli weźmiemy pod uwagę, że te same modele potrafią czasem z pełną pewnością wygenerować kompletnie zmyślone informacje.
Masowa inwigilacja: AI jako turbo-skaner społeczeństwa
Drugi sporny punkt to masowa inwigilacja obywateli. Tu również chodzi o coś więcej niż tylko „wyszukiwanie w logach”.
Modele takie jak Claude mogą służyć jako multiplikator mocy dla służb: analizować w czasie rzeczywistym ogromne zbiory danych z kamer, podsłuchów, mediów społecznościowych, transakcji finansowych. Zamiast tysięcy analityków - jeden system, który wyłapuje „podejrzane wzorce”.
Brzmi jak marzenie każdego rządu, który lubi mieć obywateli pod lupą. Z europejskiej perspektywy - koszmar, który wprost zderza się z ideą ochrony prywatności, RODO i podstawowych praw człowieka.
Anthropic wprost pisze, że masowa inwigilacja Amerykanów narusza fundamentalne prawa. To mocne słowa jak na firmę technologiczną, która zarabia na sprzedaży dostępu do AI. I dokładnie ten fragment najbardziej kłuje w oczy administrację, która chętnie używa hasła „bezpieczeństwo narodowe” jako uniwersalnego argumentu.
„Albo nam pomożecie, albo was wyłączymy”
Decyzja o oznaczeniu Anthropic jako „ryzyka łańcucha dostaw” ma jeszcze jeden wymiar: sygnał wysłany do całej Doliny Krzemowej.
Przez ostatnie lata rząd Stanów Zjednoczonych próbował zacieśniać współpracę z Big Tech w obszarze AI i obronności. Kontrakty z Microsoftem, Google’em, Amazonem, Palantirem - to miliardy dolarów i realny wpływ na to, jak wygląda nowoczesna armia. Teraz pojawia się precedens: jeśli firma stawia zbyt twarde warunki etyczne to można ją po prostu wyrzucić z gry, używając narzędzi zarezerwowanych dotąd dla „wrogich” podmiotów.
Inne firmy dostają jasny komunikat: negocjować można, ale tylko do momentu w którym nie podważasz fundamentalnych oczekiwań rządu. A jeśli masz wątpliwości co do masowej inwigilacji czy autonomicznej broni - lepiej zachowaj je dla siebie, bo inaczej możesz skończyć jak Anthropic.
A co z nami, zwykłymi użytkownikami technologii?
Z perspektywy polskiego entuzjasty elektroniki użytkowej ta historia może wydawać się odległa. Pentagon, sekretarz wojny, 10 USC 3252 - brzmi jak coś z amerykańskiego serialu politycznego.
Ale skutki są bardzo realne. Po pierwsze, to kolejny krok w stronę militaryzacji AI. Im więcej firm będzie skłonnych bezrefleksyjnie dostosowywać swoje modele do potrzeb wojska, tym większe ryzyko, że technologie, z których korzystamy na co dzień - w telefonach, laptopach, chmurze - będą projektowane przede wszystkim pod kątem zastosowań wojskowych i wywiadowczych.
Po drugie, to test dla całej branży GenAI. Jeśli Anthropic utrzyma swoje stanowisko i wygra w sądzie to pokaże, że da się prowadzić duży biznes AI nie zgadzając się na wszystko, czego zażąda rząd. Jeśli przegra - sygnał będzie odwrotny.
Po trzecie, to ważny kontekst dla europejskiej regulacji AI. AI Act będzie działał w świecie, w którym największy sojusznik UE naciska na firmy, by poszerzały wojskowe zastosowania AI, a nie je ograniczały. Dla polskich firm i użytkowników oznacza to życie w rozkroku między dwoma porządkami: europejskim, bardziej ostrożnym, i amerykańskim, coraz bardziej pragmatycznym i militarnym.
Claude dziś, Claude jutro: czy powinniśmy się bać, czy raczej patrzeć uważnie?
Anthropic, mimo wszystkich swoich grzechów związanych z danymi treningowymi, w tym konkretnym sporze zachowuje się jak ktoś, kto pamięta, że technologia ma konsekwencje wykraczające poza wykres przychodów. Odmowa wsparcia masowej inwigilacji i w pełni autonomicznej broni to nie jest marketingowy slogan tylko realna, kosztowna decyzja biznesowa.
Z europejskiej, polskiej perspektywy trudno nie kibicować takiemu podejściu - nawet jeśli równocześnie domagamy się od tych samych firm większej przejrzystości, uczciwszego podejścia do twórców i lepszego poszanowania prywatności użytkowników.
Bo jeśli mamy wybierać między firmą, która chce zarabiać na AI, ale stawia granice przy masowej inwigilacji i autonomicznej broni, a firmą, która bez mrugnięcia okiem podpisze wszystko, co podsunie jej rząd - wybór, mimo wszystko, nie jest aż tak trudny.
AI może jednocześnie pisać nam maile i pomagać w wyborze celu dla drona - „neutralność technologii” to już tylko wygodny mit.


















