Świadomość AI to iluzja. Naukowiec Google'a podważa opowiastki bogoli
Wizja AI jako świadomego, nadludzkiego bytu jest niczym więcej jak złudzeniem. Jeden z badaczy Google DeepMind przekonuje, że AI nigdy nie będzie tym, co obiecują nam możni ludzie z Doliny Krzemowej.

Szeroki zakres wiedzy, płynność w posługiwaniu się językiem i umiejętność dostosowania się do instrukcji użytkownika sprawiają, że wiele osób już teraz wierzy w świadomość szeroko pojętych chatbotów. Jednak rzeczywistość jest brutalna i obecnie dostępne modele AI, jak i te, które zobaczymy w przyszłości, prawdopodobnie nigdy nie będą ani silną sztuczną inteligencją, ani superinteligencją.
Naukowiec z DeepMind podważa dominującą narrację Doliny Krzemowej
Taką tezę stawia Alexander Lerchner, pracownik naukowy w Google DeepMind, w pracy zatytułowanej "Błąd abstrakcji: dlaczego sztuczna inteligencja potrafi symulować świadomość, ale nie jest w stanie jej urzeczywistnić". Publikacja wywołała dyskusję nie tylko ze względu na wnioski, ale również dlatego, że podważa narrację części branży technologicznej - w tym samego szefa DeepMind, w której rozwój sztucznej inteligencji prowadzi do powstania systemów świadomych.
Sednem argumentacji Lerchnera jest rozróżnienie między symulacją a właściwym "urzeczywistnieniem" świadomości. Modele językowe i inne systemy AI operują na symbolach i wzorcach, które zostały wcześniej uporządkowane przez człowieka. Proces ten autor określa jako zależny od "twórcy mapy" - czyli świadomego podmiotu, który nadaje znaczenie danym i przekształca ciągłe zjawiska fizyczne w zestaw dyskretnych stanów. Bez takiego pośrednictwa komputer wykonuje jedynie operacje na sygnałach, które same w sobie nie niosą znaczenia.
W publikacji pojawia się również pojęcie "błędu abstrakcji". Odnosi się ono do przekonania, że skoro system potrafi manipulować językiem i obrazami w sposób przypominający ludzkie zachowanie, to może posiadać świadomość. Lerchner stwierdza, że takie rozumowanie myli opis z rzeczywistością - algorytm przetwarza reprezentacje rzeczywistości (tekst, obraz, dźwięk, wideo), ale nie posiada doświadczenia, które nadaje im sens.
Autor podkreśla, że obliczenia dokonywane przez AI nie są procesem fizycznym w takim samym sensie jak zjawiska biologiczne. Są opisem tych zjawisk, zależnym od interpretacji. W konsekwencji zwiększanie skali modeli sztucznej inteligencji czy ich złożoności nie prowadzi do powstania świadomości, ponieważ nie eliminuje zależności od zewnętrznego interpretatora.
Ważnym elementem argumentacji Lerchnera jest także odrzucenie tezy o tzw. niezależności od substratu. Popularne w informatyce założenie mówi, że procesy umysłowe mogą być realizowane na dowolnym nośniku - biologicznym lub krzemowym. Naukowiec wskazuje, że świadomość, jeśli istnieje, wynika z konkretnych właściwości fizycznych systemu, a nie z samej struktury obliczeń. Oznacza to, że nawet hipotetyczna silna sztuczna inteligencja nie musiałaby być podmiotem odczuwającym.
Filozofowie przyklaskują. "Odkrywanie koła na nowo"
Publikacja Lerchnera nie jest najłatwiejszą lekturą, ale w dużej mierze twierdzenia naukowca można sprowadzić do "AI jest całkowicie zależna od człowieka, który pokazuje i interpretuje jej świat". Z jego opinią zgodził się Johannes Jäger, filozof nauki i biolog systemowy, według którego tezy naukowca DeepMind, choć słuszne i prawdziwe, są "wymyślaniem koła na nowo". W jego opinii Lerchner nieświadomie - lecz wciąż autorsko - powtórzył wszystkie argumenty środowiska filozoficznego, które od lat wspominane są przy okazji każdej debaty na temat świadomości sztucznej inteligencji.
Jako człowiek masz wiele innych motywacji. Sprawa jest nieco bardziej skomplikowana, ale wszystkie one wynikają z faktu, że musisz jeść, oddychać i nieustannie wkładać wysiłek fizyczny, by po prostu przeżyć – a żaden system nieożywiony tego nie robi. Model LLM tego nie robi. To tylko zbiór wzorców na dysku twardym. Następnie otrzymuje polecenie i działa, aż zadanie zostanie wykonane, a potem kończy pracę. Nie ma więc żadnego wewnętrznego znaczenia. Jego znaczenie wynika ze sposobu, w jaki jakiś zewnętrzny podmiot ludzki zdefiniował to znaczenie
W podobnym tonie wypowiedział się Mark Bishop, profesor informatyki kognitywnej na Uniwersytecie Londyńskim, zdaniem którego Lerchner fakt, nie powiedział nic co nie było już wiadome, ale nadal jego stwierdzenia są "w 99 proc." zgodnie z przekonaniami i wiedzą Bishopa.
Co najbardziej dziwi to fakt, że publikacja tego kalibru została dopuszczona do publikacji na oficjalnej stronie Google DeepMind. Bowiem podważa ona wszystkie obietnice jakie Dolina Krzemowa w mniej lub bardziej bezpośredni sposób złożyła światu. Co prawda nie da się jej nazwać publikacją naukową, bowiem nie przeszła ona recenzji, a Alexander Lerchner - zdaniem badaczy cytowanych przez 404media - nie był wystarczająco skrupulatny podczas procesu redagowania cytatów, przypisów i odniesień do istniejących już publikacji.
Niemniej jednak Lerchner trafia w punkt, który branża technologiczna od dawna omija lub rozmywa w marketingowym przekazie
Wystarczy spojrzeć na reakcje użytkowników na kolejne wersje chatbotów - płynny język i zdolność do prowadzenia rozmowy automatycznie prowadzą ludzi do skojarzeń ze świadomością. Ta tendencja do antropomorfizacji - przypisywania intencji i stanów mentalnych wszystkiemu, co zachowuje się w sposób znajomy - wynikającej z komunikacji werbalnej jest jednak iluzoryczna.
Język jest dla człowieka jednym z głównych sygnałów obecności umysłu. Gdy maszyna zaczyna się nim sprawnie posługiwać, granica intuicyjna zaczyna się rozmywać. Problem polega na tym, że sprawność językowa nie jest dowodem istnienia doświadczenia, tylko efektem przetwarzania wzorców. Modele językowe nie "rozumieją" w sensie formalnym, tylko odtwarzają statystyczne zależności zapisane w danych.
Dlatego nawet proste organizmy biologiczne, które nie posługują się językiem, mogą być bliższe świadomości niż najbardziej zaawansowane modele językowe. No tylko mucha, której udało się dolecieć do sernika na stole sprzedaje się znacznie gorzej niż "Najnowszy i najpotężniejszy model generatywnej AI, jaki dotychczas stworzyliśmy".
Czytaj też:



















