Noblista ostrzega przed apokalipsą robotów. Mówi, że zagrożenie wzrosło dramatycznie
Profesor Geoffrey Hinton, znany jako "ojciec chrzestny sztucznej inteligencji”, wyraził obawy, że rozwój sztucznej inteligencji postępuje zbyt szybko. Zdaniem badacza obecnie mamy "od 10 do 20 proc. szans", że w ciągu najbliższych 30 lat nastąpi apokalipsa AI.
Geoffrey Hinton to kanadyjsko-brytyjski naukowiec, który w świecie nauki zasłynął pracą nad sztucznymi sieciami neuronowymi i powszechnie uważa się go za pioniera sztucznej inteligencji. Prawdziwy rozgłos w mediach przyniosła Hintonowi Nagroda Nobla w dziedzinie fizyki za "fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe z wykorzystaniem sztucznych sieci neuronowych".
Zdaniem Geoffreya Hintona szansa na "apokalipsę AI" stale się zwiększa
Przed otrzymaniem prestiżowego wyróżnienia, Hinton już nie raz zabierał głos w debacie na temat sztucznej inteligencji. Jego prawdopodobnie najczęściej cytowanym stwierdzeniem jest to z października 2023 roku, w którym oszacował, że przy obecnym tempie rozwoju uczenia maszynowego i AI, a także braku prawnej regulacji tego rozwoju, istnieje 10 proc. szans, że ludzkość zginie z rąk AI w przeciągu najbliższych 30 lat.
"Ojciec chrzestny AI", jak nazywa się Hintona, 27 grudnia był gościem na antenie brytyjskiego radia BBC. Podczas rozmowy z dziennikarzem został ponownie zapytany o "szansę na apokalipsę AI". W odpowiedzi naukowiec stwierdził, że obecnie prawdopodobieństwo wyginięcia ludzi z rąk sztucznej inteligencji w ciągu najbliższych trzech dekad wynosi "od 10 do 20 proc.". Powodem zmiany szacunków względem wypowiedzi z 2023 roku jest fakt, że AI "rozwija się znacznie szybciej" niż Hinton ówcześnie przewidywał.
Szacunki skłoniły redaktora programu radiowego, Sajida Javida, do powiedzenia "idziesz w górę", na co Hinton odpowiedział, że "nigdy wcześniej nie mieliśmy do czynienia z istotami bardziej inteligentnymi niż my sami".
A ile znasz przykładów na to, że bardziej inteligentna rzecz jest kontrolowana przez mniej inteligentną? Jest bardzo niewiele przykładów. Jest matka i dziecko. Ewolucja włożyła wiele pracy w umożliwienie dziecku kontrolowania matki, ale to jedyny przykład, jaki znam. […] Lubię myśleć o tym w ten sposób: wyobraź sobie siebie i trzylatka. Będziemy trzylatkami
- wyjaśnia Hinton.
Według naukowca w ciągu najbliższych 20 lat ludzkości uda się opracować system sztucznej inteligencji, który potencjałem przewyższy ludzi - tak zwaną silną sztuczną inteligencję (artificial general intelligence, AGI).
Jednocześnie Hinton wyraził obawę, że "niewidzialna ręka nie zachowa nas bezpiecznymi". Jego zdaniem zostawienie rozwoju AI dużym koncernom technologicznym nie jest sposobem na zapewnienie, że będzie ona rozwijana bezpieczenie.
Hinton, Zuckerberg, Musk. Grono przeciwników OpenAI rośnie w siłę
Ta wypowiedź jest ciekawa w kontekście listu, jaki amerykańska organizacja non-profit Encode wysłała do Sądu Okręgowego Stanów Zjednoczonych dla Północnego Dystryktu Kalifornii. W liście tym organizacja otwarcie popiera działania Elona Muska mające na celu zmianę struktury OpenAI z capped-for-profit na for-profit, czyli de facto utworzenie firmy z podmiotu, który pierwotnie był organizacją non-profit. Jednym z sygnatariuszy listu jest właśnie Geoffrey Hinton.
OpenAI została założona jako organizacja non-profit wyraźnie skoncentrowana na bezpieczeństwie i złożyła szereg obietnic związanych z bezpieczeństwem w swoim statucie. Otrzymała liczne korzyści podatkowe i inne wynikające z jej statusu non-profit. Zezwolenie jej na zerwanie tego wszystkiego, gdy stanie się to niewygodne, wysyła bardzo złą wiadomość do innych podmiotów w ekosystemie
- napisał naukowiec.
Hinton oprócz kariery czysto naukowej, przez 10 lat pracował dla Google. W 2023 roku Hinton publicznie ogłosił swoją rezygnację z pracy w Google. Hinton motywował swoją decyzję tym, że chciał zyskać możliwość "swobodnej wypowiedzi na temat zagrożeń związanych ze sztuczną inteligencją" i dodał, że "część niego żałuje teraz pracy swojego życia".
Może zainteresować cię także: