REKLAMA

Były szef Google: nadludzka inteligencja doprowadzi do powstania superbroni

Były dyrektor generalny Google, Eric Schmidt, oraz dwoje ekspertów z dziedziny sztucznej inteligencji sprzeciwiają się zaproponowanemu przez jedną z agencji Stanów Zjednoczonych koncepcji "w stylu Projektu Manhattan". Ich zdaniem strategia doprowadzi do zniszczeń - i to nie tylko na polu dyplomacji z innymi krajami.

Były szef Google: nadludzka inteligencja doprowadzi do powstania superbroni
REKLAMA

W listopadzie ubiegłego roku Komisja ds. Przeglądu Gospodarczego i Bezpieczeństwa USA-Chiny (USCC) zaproponowała pracę nad inicjatywą "w stylu Projektu Manhattan", aby przyspieszyć rozwój silnej sztucznej inteligencji (AGI). Jej celem ma być utrzymanie przodującej pozycji USA w dziedzinie zaawansowanych technologii w obliczu nasilającej się konkurencji z Chin.

W swoim corocznym raporcie Komisja zaleciła organom decyzyjnym uzyskanie zezwolenia na finansowanie "przodujących firm zajmujących się sztuczną inteligencją, chmurą i centrami danych" oraz skierowanie sekretarza obrony USA do zapewnienia, że rozwój sztucznej inteligencji otrzyma "priorytet narodowy”. USCC w projekcie celowo nawiązuje do oryginalnego Projektu Manhattan. Projekt ten podczas II wojny światowej stanowił zakrojoną na szeroką skalę współpracę między rządem USA a sektorem prywatnym w celu opracowania pierwszych bomb atomowych.

REKLAMA

Były szef Google kręci nosem na współczesny Projekt Manhattan

Temu pomysłowi sprzeciwia się jednak Eric Schmidt, były dyrektor generalny Google. Wraz z dyrektorem generalnym Scale AI Alexandrem Wangiem i dyrektorem Center for AI Safety Danem Hendrycksem, opublikowali oni dokument zatytułowany "Strategia superinteligencji: wersja ekspercka". W publikacji Schmidt, Wang i Hendrycks stwierdzają, że nowy projekt "w stylu Projektu Manhattan" może nie tylko zdestabilizować sytuację w relacjach międzynarodowych, ale i doprowadzić do rozwoju superinteligencji, nad którą nie będzie można zapanować.

Chiny nie będą siedzieć bezczynnie, czekając na zaakceptowanie dyktatu USA po osiągnięciu superinteligencji lub czekając, ponieważ ryzykują utratę kontroli. Projekt Manhattan zakłada, że rywale raczej zgodzą się na trwały brak równowagi lub wszechświatobójstwo, niż podejmą działania, by temu zapobiec. To, co zaczyna się jako dążenie do superbroni i globalnej kontroli, może wywołać wrogie środki zaradcze i eskalację napięć, podważając tym samym stabilność, którą ta strategia ma zapewnić

- czytamy w dokumencie.

Zamiast ryzykownego „Superinteligentnego Projektu Manhattan”, autorzy proponują "Strategię wielobiegunową . Strategia ta składa się z trzech powiązanych ze sobą filarów. Pierwszym z nich jest odstraszanie poprzez wzajemnie gwarantowaną awarię AI (MAIM), która zakłada naturalną kontrolę jednostronnej dominacji poprzez groźbę sabotażu. Kolejnym filarem jest nieproliferacja wysiłków mających na celu ograniczenie możliwości AI ze strony nieuczciwych podmiotów poprzez bezpieczeństwo obliczeniowe, bezpieczeństwo informacji i środki bezpieczeństwa AI. Ostatni filar stanowi konkurencyjność i koncentruje się na wzmocnieniu siły narodu poprzez wojskową integrację AI, zabezpieczenie krajowej produkcji chipów AI, ustanowienie ram prawnych dla agentów AI oraz utrzymanie stabilności politycznej w obliczu automatyzacji. Według ekspertów strategia ta, czerpiąca inspirację z zimnowojennego podejścia do broni jądrowej, oferuje bardziej stabilną i mniej katastrofalną ścieżkę rozwoju.

Ponadto Schmidt, Wang i Hendrycks sugerują, aby Stany Zjednoczone przestały skupiać się na "wygrywaniu wyścigu superinteligencji", i zamiast tego skierowały na opracowywaniu metod, które powstrzymają inne kraje przed tworzeniem AGI. Ich zdaniem Waszyngton powinien „rozszerzyć [swój] arsenał cyberataków, aby unieszkodliwić groźne projekty AI” kontrolowane przez inne narody, a także ograniczyć dostęp przeciwników do zaawansowanych chipów AI i modeli open source.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Aktualizacja: 2025-03-08T16:13:00+01:00
Aktualizacja: 2025-03-08T16:03:00+01:00
Aktualizacja: 2025-03-07T18:33:22+01:00
Aktualizacja: 2025-03-07T16:52:12+01:00
Aktualizacja: 2025-03-07T16:50:39+01:00
Aktualizacja: 2025-03-07T15:08:15+01:00
Aktualizacja: 2025-03-07T12:45:49+01:00
Aktualizacja: 2025-03-06T21:12:39+01:00
Aktualizacja: 2025-03-06T20:31:41+01:00
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA