Musk, Woźniak i inni: zatrzymajcie rozwój SI!
Czy 6 miesięcy to wystarczająco, aby uregulować technologię, która nawet nie opuściła laboratoriów? Według Elona Muska i powiązanej z nim organizacji - tak. Dlatego on i kilka innych autorytetów w liście otwartym wzywa do wstrzymania prac nad sztuczną inteligencją "mocniejszą niż GPT-4".
Głosy i wezwania do podjęcia kroków w celu regulacji sztucznej inteligencji - tak na poziomie użytkownika, jak i rozwoju projektów są bardzo liczne. Historią sięgają one właściwie latami przed boomem, który nastąpił pod koniec zeszłego roku.
Jedną z osób, która nie tylko wzywa do podjęcia kroków wobec SI, ale niekiedy wręcz wyraża antypatię do obecnego kierunku i trendów w rozwoju sztucznej inteligencji jest Elon Musk. Miliarder na swoim koncie ma doświadczenia z SI, bowiem jest jednym z ojców założyciel OpenAI oraz jest gospodarzem dorocznego Tesla AI Day, corocznego pokazu osiągnięć Tesli w dziedzinie sztucznej inteligencji. Same Tesle są również zależne od SI.
Antypatia wobec SI jest zauważalna szczególnie w ostatnich miesiącach, kiedy to OpenAI ze swoimi modelami ChatGPT, GPT-3, GPT-4 i współpracą z Microsoftem nie schodzi z nagłówków gazet. Na Twitterowym profilu Elona Muska często wypowiada się on niepochlebnie o organizacji, na którą przeznaczył 100 milionów dolarów.
List otwarty do badaczy sztucznej inteligencji. "Wstrzymajcie rozwój sztucznej inteligencji na 6 miesięcy"
Teraz, w obliczu tych wszystkich wydarzeń, organizacja non-profit Future of Life Institute wystosowała list otwarty do wszystkich jednostek badawczych zajmujących się sztuczną inteligencją, a konkretnie modelami o potencjalnie większym niż GPT-4, do zaprzestania badań na 6 miesięcy. Pod listem podpisali się m.in. Elon Musk, współzałożyciel Apple Steve Wozniak, badacze SI i uczenia maszynowego z całego świata czy pracownicy DeepMind.
Autorzy wezwanie do wstrzymania prac motywują nieprzewidywalnością zagrożeń związanych z rozwojem potężnych modeli sztucznej inteligencji oraz potencjalnych skutków niekontrolowanych prac badawczych. Jako argument przytaczają m.in. niedawną wypowiedź Sama Altmana dotyczącą rozwoju silnej sztucznej inteligencji.
"W pewnym momencie ważne może być uzyskanie niezależnej recenzji przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli."
- pisał Sam Altman pod koniec lutego
Według osób podpisujących się pod listem otwartym, sześciomiesięczna przerwa powinna zostać wykorzystana na utworzenie protokołów bezpieczeństwa i ustanowienie organów kontroli - w tym powołanie niezależnych ekspertów - do nadzorowania rozwoju i działania SI.
"Nie oznacza to wstrzymania rozwoju AI w ogóle, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych nieprzewidywalnych modeli czarnych skrzynek [skomplikowanych urządzeń elektronicznych, których wewnętrzny mechanizm jest zwykle ukryty przed użytkownikiem lub tajemniczy dla niego] z wyłaniającymi się możliwościami."
- piszą autorzy listu
Autorzy listu całkiem dobrze mówią. Ale prośba jest bez sensu
Z jednej strony zgadzam się z autorami listu. Jeżeli jest jakiś czas na działanie wobec SI, to jest on teraz. Nawet pomijając potencjalne zagrożenia, modele ukrywane skrzętnie przez naukowców i koncerny w laboratoriach, sztuczna inteligencja po prostu potrzebuje stanowczych kroków w celu regulacji. Nawet nie dlatego, że tu i ówdzie przejawiają się katastroficzne wizje robotów w szeregach armii czy bronią, która działa samodzielnie, bez udziału człowieka, polegając jedynie na SI. Sama popularność tworów OpenAI (a teraz także OpenAI i Microsoftu), ale także modeli text-to-image, prosi byśmy ustanowili pewien kodeks zasad i dobrych praktyk.
Jednocześnie 6 miesięcy, które postulujący chcą dać organizacjom badawczym to w zasadzie nic. To nie jest czas wystarczający na uregulowanie czegokolwiek, nie tylko ze względu na długość tego procesu, ale i fakt, że w świecie szeroko pojętych technologii (nie tylko uczenia maszynowego) 6 miesięcy wystarczy, by przewrócić rzeczywistość do góry nogami. Więc w czasie trwania prac nad opracowaniem owych zasad będziemy mieć do czynienia z dwiema sytuacjami. Pierwszą, w której niektóre jednostki badawcze zignorują list i będą działać mimo to, dokonując kolejnych postępów.
Mam jeszcze jedno ale - organizacja non-profit, ale with-connections
List sam w sobie budzi pewien sceptycyzm. Idea jest szczytna, wykonanie niczego sobie. Tylko nikt nie wspomniał, że sama organizacja non-profit Future of Life Institute jest powiązana z Elonem Muskiem. Miliarder na jej fundowanie wyłożył kilka milionów dolarów, a na jej stronie możemy przeczytać, że jest jednym z jej doradców.
Biorąc pod uwagę niesnaski z OpenAI, list ten może być kolejnym przejawem zawiści wobec organizacji, z którą kiedyś był powiązany. Tym razem jednak bardziej wyszukanym niż nieśmieszny mem z Elmo.