USA otwierają sejfy gigantów AI. Rząd dostanie dostęp do tajnych modeli
Trump wykonał zwrot w sprawie AI. Jeszcze niedawno przekonywał, że sztuczna inteligencja potrzebuje przede wszystkim wolności od regulacji. Teraz jego administracja chce zaglądać do modeli AI jeszcze przed ich premierą.

Donald Trump rozpoczął swoją drugą kadencję w Białym Domu poprzez huczne cofnięcie niemal wszystkich rozporządzeń poprzednika - w tym tych dotyczących bezpiecznego rozwoju AI. W wizji Trumpa USA będzie nadal wyprzedzać Chiny w rozwoju technologicznym tylko jeżeli prace nad AI będą niestrapione bzdetami pokroju "regulacji" czy "przeciwdziałania misinformacji". Dziś, 16 miesięcy później, Biały Dom jednak chce mieć kontrolę nad kolejnymi systemami masowo produkowanymi przez Dolinę Krzemową.
Administracja Trumpa zaostrza nadzór nad sztuczną inteligencją. Google, Microsoft i xAI otwierają sejfy
Google, Microsoft i xAI Elona Muska podpisały z amerykańskim rządem porozumienia dotyczące udostępniania wczesnych wersji swoich modeli AI jeszcze przed ich publiczną premierą.
Za testowanie modeli odpowiadać będzie działające przy Departamencie Handlu Centrum dla standardów AI i innowacji (CAISI). Organizacja ma otrzymywać dostęp do nowych systemów AI Google'a, Microsoftu i xAI z ograniczonymi lub całkowicie wyłączonymi zabezpieczeniami. Dzięki temu rządowi eksperci będą mogli sprawdzać, czy modele posiadają zdolności mogące stanowić zagrożenie dla bezpieczeństwa narodowego, cyberbezpieczeństwa lub infrastruktury państwowej.
Według "Wall Street Journal" podobne porozumienia podpisały OpenAI oraz Anthropic jeszcze za kadencji Joe Bidena. Nowe umowy rozszerzają jednak współpracę o kolejnych gigantów rynku AI. CAISI poinformowało, że przeprowadziło już ponad 40 ocen modeli, również takich, które nigdy nie zostały publicznie udostępnione.
Chris Fall, dyrektor CAISI, stwierdził, że "niezależne i rygorystyczne pomiary są kluczowe dla zrozumienia najbardziej zaawansowanych systemów AI i ich wpływu na bezpieczeństwo narodowe". Administracja Trumpa coraz wyraźniej sygnalizuje bowiem obawy związane z cyberatakami wykorzystującymi nowe modele sztucznej inteligencji.
Równolegle Biały Dom rozważa utworzenie specjalnej grupy roboczej zajmującej się nadzorem nad rozwojem AI. Według informacji "New York Timesa" wśród analizowanych pomysłów znajduje się formalny proces przeglądu nowych modeli jeszcze przed ich premierą. Rozwiązanie przypominałoby częściowo brytyjski system oceny bezpieczeństwa zaawansowanych modeli AI.
Zmiana podejścia o 180 stopni
Zmiana tonu jest wyraźna, ponieważ jeszcze w ubiegłym roku Trump i jego współpracownicy przekonywali, że nadmierne regulacje mogą zahamować rozwój amerykańskiej branży technologicznej. Wiceprezydent JD Vance ostrzegał podczas konferencji w Paryżu, że "nadmierna regulacja sektora AI może zabić transformacyjny przemysł".
Rosnące zainteresowanie nadzorem nad AI ma związek między innymi z obawami dotyczącymi cyberbezpieczeństwa. Duże poruszenie w administracji wywołał model Mythos opracowany przez Anthropic. Firma twierdziła, że system jest wyjątkowo skuteczny w wykrywaniu luk w oprogramowaniu i może doprowadzić do "cybernetycznego przesilenia". Anthropic zdecydował się nie udostępniać modelu publicznie.
Według "New York Timesa" administracja Trumpa chce uniknąć sytuacji, w której zaawansowany model AI zostałby wykorzystany do przeprowadzenia poważnego cyberataku przeciwko amerykańskim instytucjom lub firmom. Rząd w Waszyngtonie analizuje także potencjalne zastosowania takich systemów przez Pentagon i agencje wywiadowcze.
Sytuację komplikuje dodatkowo konflikt pomiędzy Pentagonem a Anthropic. Spór dotyczył zasad wykorzystania AI przez wojsko oraz kontraktu wartego 200 mln dol. Po zerwaniu współpracy Anthropic pozwał rząd USA. Mimo tego technologie firmy nadal mają być używane przez amerykańskie służby między innymi w systemie Maven służącym do analizy danych wywiadowczych.
Porozumienia podpisane przez Google, Microsoft i xAI pokazują jednak, że największe firmy rozwijające sztuczną inteligencję wolą współpracować z administracją niż ryzykować bardziej restrykcyjne działania ze strony Białego Domu.
Zdjęcie główne: Robert V Schwemmer / Shutterstock



















