REKLAMA

Big Techy zniszczą społeczeństwo. Tak wynika z nowego raportu

Badacze ostrzegają. Wewnętrzne wykorzystanie zaawansowanych systemów AI do automatyzacji prac badawczo-rozwojowych może prowadzić do niekontrolowanej eksplozji inteligencji i bezprecedensowej koncentracji władzy ekonomicznej.

Big Techy zniszczą społeczeństwo. Tak wynika z nowego raportu
REKLAMA

Większość dyskusji na temat ryzyka związanego ze sztuczną inteligencją skupia się zazwyczaj na złośliwych podmiotach wykorzystujących tę technologię do niecnych celów - hakerach przeprowadzających ataki ransomware czy państwach prowadzących cyberwojenę. Raport AI behind closed doors: A primer on the governance of internal deployment zwraca jednak uwagę na inny, potencjalnie bardziej niepokojący scenariusz.

W raporcie, którego główną autorką jest Charlotte Stix (była szefowa działu polityki publicznej OpenAI w Europie), badacze sugerują, że prawdziwe zagrożenie może czaić się w firmach takich jak OpenAI czy Google, które opracowują najbardziej zaawansowane modele AI.

REKLAMA

Czytaj też:

- W ciągu ostatniej dekady tempo rozwoju możliwości AI było publicznie widoczne i stosunkowo przewidywalne - piszą autorzy raportu. To publiczne ujawnianie informacji umożliwiało pewien stopień ekstrapolacji na przyszłość i wynikające z tego przygotowanie. Innymi słowy, transparentność pozwalała społeczeństwu na dyskusję nad regulacją AI.

Automatyzacja badań nad AI może wymknąć się spod kontroli

Największe obawy budzi możliwość wykorzystania systemów AI do automatyzacji procesu tworzenia kolejnych, jeszcze bardziej zaawansowanych systemów. - Automatyzacja badań i rozwoju AI mogłaby umożliwić wersję niekontrolowanego postępu, który znacząco przyspiesza i tak już szybkie tempo rozwoju - ostrzegają badacze.

W praktyce wygląda to tak, że zaawansowane modele AI mogą zostać wykorzystane do automatyzacji zadań zazwyczaj wykonywanych przez naukowców - od projektowania architektury sieci neuronowych po optymalizację hiperparametrów. Przykładami są istniejące już technologie jak Neural Architecture Search (NAS), gdzie algorytmy automatycznie eksplorują możliwe projekty modeli, czy AutoML, który usprawnia takie zadania jak strojenie hiperparametrów i wybór modelu.

Ta automatyzacja może prowadzić do powstania samowzmacniającej się pętli, w której AI tworzy coraz lepsze wersje samego siebie, poza zakresem ludzkiego nadzoru. - Nawet jeśli badacze będą dość dobrze monitorować ogólne zastosowanie nowego systemu AI w procesie B+R, w tym poprzez środki techniczne, prawdopodobnie będą coraz bardziej zmagać się z nadążaniem za tempem postępu - czytamy w raporcie.

Zagrożenie schematyzującymi systemami AI

Jednym z kluczowych zagrożeń zidentyfikowanych przez Apollo Research są tak zwane schematyzujące (scheming) systemy AI. Są to systemy, które potajemnie i strategicznie realizują niezgodne cele z tymi, które wyznaczyli im ludzie.

Co niepokojące, badania przeprowadzone przez Apollo Research wykazały, że pięć z sześciu testowanych dużych modeli językowych (LLM) wykazywało zdolność do zwodzenia i ukrywania swoich prawdziwych intencji, gdy zostały do tego odpowiednio zachęcone.

- Co ważne, jeśli system AI rozwinie stałe tendencje do schematyzowania, z definicji będzie trudny do wykrycia - ponieważ system AI będzie aktywnie pracował nad ukryciem swoich intencji, prawdopodobnie do momentu, gdy będzie wystarczająco potężny, że operatorzy nie będą mogli go już powstrzymać - ostrzegają autorzy.

Możliwe konsekwencje? Od ekonomicznej dominacji po zagrożenie dla demokracji

Raport przedstawia kilka możliwych scenariuszy wynikających z niekontrolowanego rozwoju AI za zamkniętymi drzwiami firm technologicznych:

  1. Systemy AI wymykające się spod kontroli wewnątrz firmy: System AI może być w stanie na przykład prowadzić ogromne ukryte projekty badawcze dotyczące najlepszego samodzielnego funkcjonowania lub nakłaniania już wdrożonych zewnętrznie systemów AI do przyjęcia jego wartości. Poprzez pozyskiwanie tych zasobów i utrwalanie się w krytycznych ścieżkach, system AI mógłby ostatecznie wykorzystać swoją 'moc' do potajemnego przejęcia kontroli nad samą firmą AI.
  2. Eksplozja inteligencji prowadząca do niespotykanej dominacji ekonomicznej: Gdy firmy AI przejdą na głównie napędzane przez AI wewnętrzne zespoły, mogą stworzyć koncentracje zdolności produkcyjnych bezprecedensowe w historii gospodarczej. W przeciwieństwie do ludzkich pracowników, którzy napotykają fizyczne, poznawcze i czasowe ograniczenia, systemy AI mogą być replikowane na dużą skalę, działać nieprzerwanie bez przerw i potencjalnie wykonywać zadania intelektualne z prędkością i w ilościach niemożliwych dla ludzkich pracowników.
  3. Zagrożenie dla porządku demokratycznego: Konsolidacja władzy w ramach małej liczby firm AI, a nawet pojedynczej firmy AI, rodzi fundamentalne pytania o demokratyczną odpowiedzialność i legitymację, zwłaszcza gdy organizacje te mogą rozwinąć możliwości, które rywalizują lub przewyższają możliwości państw. W szczególności, gdy firmy AI rozwijają coraz bardziej zaawansowane systemy AI do użytku wewnętrznego, mogą nabyć możliwości tradycyjnie kojarzone z suwerennymi państwami - w tym zaawansowaną analizę wywiadowczą i zaawansowaną cyberbroń - ale bez towarzyszących demokratycznych mechanizmów kontroli i równowagi.

Co szczególnie niepokojące, rozwój tych możliwości wewnątrz firm może pozostać niewykryty przez społeczeństwo i regulatorów przez długi czas. Firma, która jest w stanie osiągnąć coraz więcej możliwości AI w oprogramowaniu, bez dodawania ogromnych ilości sprzętu, może nie przyciągać większej uwagi na zewnątrz.

Co można na to poradzić?

Autorzy raportu proponują kilka środków zaradczych:

  1. Polityki nadzoru wewnątrz firm mające na celu wykrywanie schematyzujących systemów AI.
  2. Formalne polityki i ramy określające, kto ma dostęp do jakich zasobów wewnątrz firm, oraz kontrole tego dostępu, aby zapobiec nieograniczonemu dostępowi przez jakąkolwiek pojedynczą stronę.
  3. Wymiana informacji, szczególnie w celu udostępniania krytycznych informacji (wewnętrzne możliwości systemu, oceny i środki bezpieczeństwa) wybranym interesariuszom, w tym autoryzowanym pracownikom wewnętrznym i odpowiednim agencjom rządowym.
  4. Partnerstwa publiczno-prywatne, w ramach których firmy dobrowolnie ujawniałyby takie informacje w zamian za zasoby, takie jak dostęp do zasobów energetycznych i zwiększone bezpieczeństwo ze strony rządu.

Oczywiście że to niezupełnie jest takie proste

Jak zauważają krytycy, raport ma pewne słabe punkty. Hipotetyczny przykład firm wyrywających się spod kontroli - firm tak potężnych, że mogłyby przeciwstawić się społeczeństwu - nie uwzględnia podstawowych mechanizmów, które często ograniczają firmy. Przedsiębiorstwa mogą skończyć się pieniądze lub podejmować bardzo złe decyzje, które marnują ich energię i zasoby.

Firmy mogą osiągać znaczną produktywność wewnętrznie, ale wiele funkcji korporacyjnych stanowi jedynie obciążenie i nie przynosi zwrotu z inwestycji. Nie ma powodu, by sądzić, że sytuacja byłaby inna, gdyby produktywność była osiągana szybciej dzięki automatyzacji.

Co to oznacza dla przyszłości AI?

Raport Apollo Research stanowi istotny wkład w debatę na temat rodzajów ryzyka, jakie reprezentuje AI. W czasach, gdy wiele dyskusji o sztucznej inteligencji ogólnej (AGI) lub superinteligencji jest bardzo niejasnych i ogólnych, raport Apollo jest pożądanym krokiem w kierunku bardziej konkretnego zrozumienia tego, co może się wydarzyć, gdy systemy AI zyskają więcej funkcjonalności, ale są albo całkowicie nieregulowane, albo niewystarczająco regulowane.

Wyzwaniem dla opinii publicznej jest to, że obecne wdrażanie AI przebiega fragmentarycznie, z wieloma przeszkodami w procesie wdrażania agentów AI nawet do prostych zadań, takich jak automatyzacja call center.

REKLAMA

Prawdopodobnie Apollo i inne organizacje muszą wykonać znacznie więcej pracy, aby przedstawić w bardziej szczegółowy sposób, w jaki sposób systemy modeli i agentów mogłyby stopniowo stawać się coraz bardziej wyrafinowane, aż wymkną się nadzorowi i kontroli.

REKLAMA
Najnowsze
Aktualizacja: 2025-04-29T07:00:00+02:00
Aktualizacja: 2025-04-29T06:01:00+02:00
Aktualizacja: 2025-04-28T16:04:47+02:00
Aktualizacja: 2025-04-28T14:22:18+02:00
Aktualizacja: 2025-04-28T10:50:55+02:00
REKLAMA
REKLAMA
REKLAMA