Za 5 lat wszystko się zmieni. Czy jesteśmy gotowi na nadejście Osobliwości?

Od czasu wydania poprzedniej książki Raya Kurzweila "Nadchodzi osobliwość" większość przewidywań autora dotyczących postępu technologicznego się sprawdziła, a takie koncepcje jak AI, inteligentne maszyny i biotechnologia są obecnie powszechnie znane i wykorzystywane. Nowa książka wizjonera "Osobliwość coraz bliżej" pokazuje, w jakim miejscu jesteśmy obecnie.

Za 5 lat wszystko się zmieni. Czy jesteśmy gotowi na nadejście Osobliwości?

Obecnie wciąż nie możemy łatwo przekroczyć ograniczeń naszego mózgu, ale ta zmiana to kwestia czasu. Sztuczna inteligencja, rozwiązania chmurowe i postęp w mocy obliczeniowej to zmienią.

Osobliwość, która jest metaforą zapożyczoną z fizyki, nastąpi, gdy połączymy nasz mózg z chmurą. Będziemy połączeniem naszej naturalnej inteligencji i naszej cybernetycznej inteligencji, a wszystko to zostanie zwinięte w jedno. Umożliwią to interfejsy mózg-komputer, które ostatecznie będą nanobotami – robotami wielkości cząsteczek – które będą nieinwazyjnie wchodzić do naszych mózgów przez naczynia włosowate. Do 2045 roku rozszerzymy inteligencję milion razy, co pogłębi naszą świadomość. I społeczne nierówności.

To tezy Raya Kurzweila, światowej sławy wynalazcy, naukowca i wizjonera, który dziś jasno stawia pytania o przyszłość rewolucji technologicznej. Rewolucji, której jesteśmy uczestnikami i świadkami. Publikujemy fragmenty przełomowej książki Kurzweila "Osobliwość coraz bliżej", nad którą patronat objął Spider's Web.

Jeśli cała historia wszechświata składa się z ewoluujących paradygmatów przetwarzania informacji, to historia ludzkości nabiera przyśpieszenia [...].

Żeby zrozumieć, co oznacza przeobrażenie inteligencji, najpierw przyjrzymy się narodzinom sztucznej inteligencji i dwóm szerokim szkołom myślenia, które z niej wyrosły. Aby przekonać się, dlaczego jedna z nich zwyciężyła nad drugą, odniesiemy się do tego, co neuronauka mówi nam o tym, jak móżdżek i kora nowa dały początek ludzkiej inteligencji. Po zbadaniu, w jaki sposób głębokie uczenie obecnie odtwarza zdolności kory nowej, możemy ocenić, co sztuczna inteligencja musi jeszcze osiągnąć, aby dorównać poziomowi ludzkiemu, i skąd będziemy wiedzieć, kiedy to nastąpi. Na koniec zajmiemy się tym, jak przy pomocy nadludzkiej sztucznej inteligencji zaprojektujemy interfejsy mózg–komputer, które znacznie poszerzą na szą korę nową o warstwy wirtualnych neuronów. Ten proces odblokuje całkowicie nowe sposoby myślenia i ostatecznie powiększy naszą inteligencję miliony razy: to jest właśnie osobliwość.

W 1950 roku brytyjski matematyk Alan Turing (1912–1954) opublikował artykuł w czasopiśmie "Mind" zatytułowany "Computing Machinery and Intelligence" (Maszyny obliczeniowe i inteligencja). Turing zadał w nim jedno z najgłębszych pytań w historii nauki: "Czy maszyny mogą myśleć?".

Chociaż koncepcja myślących maszyn sięga co najmniej automatu z brązu o imieniu Talos z mitologii greckiej, rewolucyjny pomysł Turinga polegał na sprowadzeniu tej koncepcji do czegoś, co można sprawdzić empirycznie. Zaproponował on wykorzystanie "gry w naśladownictwo" – znanej dziś jako test Turinga – aby ustalić, czy obliczenia maszyny są w stanie wykonywać te same zadania poznawcze, co nasze mózgi.

W tym tekście sędziowie przeprowadzają wywiad zarówno ze sztuczną inteligencją, jak i z ludzkimi uczestnikami za pomocą komunikatora internetowego, nie widząc, z kim rozmawiają. Następnie zadają pytania dotyczące dowolnego tematu lub sytuacji. Jeśli po upływie określonego czasu arbitrzy nie będą w stanie odróżnić, które odpowiedzi pochodziły od sztucznej inteligencji, a które od człowieka, wówczas uznaje się, że sztuczna inteligencja zdała test. Przekuwając tę filozoficzną ideę w myśl naukową, Turing wzbudził ogromny entuzjazm wśród badaczy. W 1956 roku profesor matematyki John McCarthy (1927–2011) zaproponował przeprowadzenie dwumiesięcznych, dziesięcioosobowych badań w Dartmouth College w Hanowerze w stanie New Hampshire. Cel był następujący: Badanie ma opierać się na przypuszczeniu, że każdy aspekt uczenia się lub jakiejkolwiek innej cechy inteligencji można w zasadzie opisać tak precyzyjnie, że da się go zasymulować za pomocą maszyny. Podjęta zostanie próba znalezienia sposobów sprawienia, by maszyny używały języka, tworzyły abstrakcje i koncepcje, rozwiązywały różne rodzaje problemów obecnie zarezerwowane dla ludzi oraz ulepszały same siebie.

Przygotowując się do tego eksperymentu, McCarthy zaproponował, aby tę dziedzinę, która ostatecznie zautomatyzuje każdą inną dziedzinę, nazwać "sztuczną inteligencją". Nie podoba mi się to określenie ze względu na to, że przymiotnik "sztuczna" sprawia, iż ta forma inteligencji wydaje się "nieprawdziwa", ale akurat ten termin się przyjął. Badanie zostało przeprowadzone, ale jego cel – w szczególności na uczenie maszyn zrozumienia problemów opisanych w języku naturalnym – nie został osiągnięty w ciągu dwóch miesięcy. Wciąż nad tym pracujemy – oczywiście teraz z udziałem znacznie więcej niż dziesięciu osób.

2029. Rok przełomu

Według chińskiego giganta technologicznego Tencent w 2017 roku na całym świecie było już około 300 tysięcy "badaczy i specjalistów zajmujących się sztuczną inteligencją", a w raporcie Global AI Talent Report z 2019 roku autorstwa Jeana-François Gagné, Grace Kiser i Yoana Manthy wskazano, że około 22 400 ekspertów w dziedzinie sztucznej in teligencji publikuje oryginalne badania – z których około 4000 uznano za bardzo wpływowych.

Według Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku Uniwersytetu Stanforda, badacze sztucznej inteligencji w 2021 roku wygenerowali ponad 496 tysięcy publikacji i ponad 141 tysięcy zgłoszeń patentowych. W 2022 roku globalne inwestycje przedsiębiorstw w sztuczną inteligencję wyniosły 189 miliardów dolarów, co oznacza trzynastokrotny wzrost w ciągu ostatniej dekady. Liczby te będą jeszcze wyższe w momencie, gdy będziecie czytać te słowa. Trudno było to wszystko sobie wyobrazić w 1956 roku. Jednak cel warsztatów w Dartmouth był mniej więcej równoważny ze stworzeniem sztucznej inteligencji, która mogłaby przejść test Turinga. Moja prognoza, że uda nam się osiągnąć ten cel do 2029 roku, jest stale aktualna od czasu wydania mojej książki z 1999 roku "The Age of Spiritual Machines", opublikowanej w momencie, gdy wielu obserwatorów uważało, że ten kamień milowy nigdy nie zostanie osiągnięty. Jeszcze do niedawna przewidywanie to uważano w tej dziedzinie za niezwykle optymistyczne.

Na przykład badanie przeprowadzone w 2018 roku wykazało zbiorczą prognozę ekspertów od sztucznej inteligencji, że inteligencja maszynowa na poziomie ludzkim pojawi się dopiero około 2060 roku. Jednak najnowsze postępy w zakresie dużych modeli językowych szybko zmieniły oczekiwania. Kiedy pisałem wczesne wersje tej książki, konsensus na Metaculusie, najpopularniejszej na świecie witrynie prognostycznej, oscylował między latami czterdziestymi a pięćdziesiątymi obecnego stulecia.

Jednak zaskakujące postępy sztucznej inteligencji w ciągu ostatnich dwóch lat zmieniły te oczekiwania i do maja 2022 roku konsensus na Metaculusie dokładnie zgadzał się z moimi przewidywaniami co do daty 2029 roku. Od tego czasu prognozy prowadzą nawet do roku 2026, co z technicznego punktu widzenia lokuje mnie w obozie spóźnionych futurologów!

Ray Kurzweil, fot. Flickr

Wiele ostatnich przełomów w sztucznej inteligencji zaskoczyło nawet ekspertów w tej dziedzinie. Nie tylko dzieją się one wcześniej, niż większość się spodziewała, ale także wydają się pojawiać nagle i bez ostrzeżenia, że wielki krok naprzód jest tuż za rogiem. Na przykład w październiku 2014 roku Tomaso Poggio, ekspert z MIT w dziedzinie sztucznej inteligencji i nauk kognitywnych, oznajmił: "Umiejętność opisania zawartości obrazu stanowi jedno z najtrudniejszych intelektualnie wyzwań dla maszyny. Będziemy potrzebować kolejnego cyklu badań podstawowych, aby rozwiązać tego rodzaju problemy".

Poggio oszacował, że rewolucja ta nastąpi co najmniej za dwie dekady. Tymczasem już w następnym miesiącu firma Google zaprezentowała sztuczną inteligencję do rozpoznawania obiektów, która potrafiła spełnić te kryteria. Kiedy Raffi Khatchadourian z "The New Yorkera" zapytał go o tę sprawę, Poggio wycofał się ku bardziej filozoficznemu sceptycyzmowi, wyrażając wątpliwość, czy ta zdolność reprezentuje prawdziwą inteligencję. Zwracam na to uwagę nie jako krytykę Poggio, ale raczej jako obserwację tendencji, której wszyscy ulegamy. Chodzi o to, że zanim sztuczna inteligencja osiągnie jakiś cel, wydaje się on niezwykle skomplikowany i wyjątkowo ludzki. Jednak gdy tylko sztuczna inteligencja dotrze do tego miejsca, osiągnięcie to w naszych ludzkich oczach traci na znaczeniu.

Innymi słowy, nasz prawdziwy postęp jest w rzeczywistości bardziej znaczący, niż wydaje się z perspektywy czasu. To jeden z powodów, dla których podchodzę optymistycznie do moich prognoz na 2029 rok. Dlaczego więc te nagłe przełomy miały miejsce? Odpowiedź leży w teoretycznym problemie sięgającym początków tej dziedziny. W 1964 roku, będąc w liceum, spotkałem dwóch pionierów sztucznej inteligencji: Marvina Minsky’ego (1927–2016), który był współorganizatorem warsztatów na temat sztucznej inteligencji w Dartmouth College, oraz Franka Rosenblatta (1928–1971).

W 1965 roku zapisałem się na MIT i rozpocząłem studia u Minsky’ego, który prowadził fundamentalne prace leżące u podstaw spektakularnych kamieni milowych w dziedzinie sztucznej inteligencji, jakie dziś obserwujemy. Minsky nauczył mnie, że istnieją dwie techniki tworzenia zautomatyzowanych rozwiązań problemów: podejście symboliczne i koneksjonistyczne.

Podejście symboliczne opisuje w kategoriach opartych na regułach, w jaki sposób ekspert ludzki rozwiązałby dany problem. W niektórych przypadkach systemy oparte na tym schemacie mogą być skuteczne. Na przykład w 1959 roku firma RAND Corporation wprowadziła "General Problem Solver" (GPS) – program komputerowy, który potrafił łączyć proste aksjomaty matematyczne w celu rozwiązywania problemów logicznych. Herbert A. Simon, J.C. Shaw i Allen Newell opracowali General Problem Solver z myślą o tym, aby posiadał teoretyczną zdolność rozwiązywania dowolnego problemu, który można wyrazić w postaci zestawu dobrze zdefiniowanych wzorów (WFF, ang. well-formed formulas). Aby GPS działał, musiałby używać jednego WFF (w zasadzie jako aksjomatu) na każdym etapie procesu, metodycznie budując je w matematyczny dowód odpowiedzi. Nawet jeśli nie macie doświadczenia z logiką formalną lub matematyką opartą na dowodach, koncepcja ta jest w zasadzie taka sama jak w algebrze. Jeśli wiemy, że 2 + 7 = 9 i że nieznana liczba x dodana do 7 daje 10, możemy udowodnić, że x = 3.

Jednak tego rodzaju logika ma znacznie szersze zastosowania niż tylko rozwiązywanie równań. Używamy jej także (nawet o tym nie myśląc), gdy zadajemy sobie pytanie, czy coś spełnia określoną definicję. Jeśli wiemy, że liczba pierwsza nie może mieć żadnych dzielników innych niż 1 i ona sama, oraz że 11 jest dzielnikiem 22, a 1 nie jest równe 11, możemy wywnioskować, że 22 nie jest liczbą pierwszą.

Zaczynając od możliwie najbardziej podstawowych i fundamentalnych aksjomatów, GPS mógł wykonywać tego rodzaju obliczenia w przypadku znacznie trudniejszych pytań. Ostatecznie to właśnie robią matematycy z krwi i kości – różnica polega na tym, że maszyna może (przynajmniej w teorii) przeszukać każdy możliwy sposób łączenia podstawowych aksjomatów w poszukiwaniu prawdy. Celem ilustracji, jeśli na każdym etapie dostępnych byłoby dziesięć takich aksjomatów do wyboru, a do osiągnięcia rozwiązania potrzebnych byłoby na przykład dwadzieścia aksjomatów, oznaczałoby to, że istnieje 10²⁰, czyli 100 miliardów miliardów możliwych rozwiązań. Za pomocą nowoczesnych komputerów możemy dziś sobie poradzić z tak dużymi liczbami, ale leżało to zdecydowanie poza zasięgiem prędkości obliczeniowych w 1959 roku.

Wtedy komputer DEC PDP-1 potrafił wykonywać około 100 tysięcy operacji na sekundę. W 2023 roku wirtualna maszy na Google Cloud A3 mogła wykonać około 26 000 000 000 000 000 000 operacji na sekundę. Za jednego dolara można obecnie kupić około 1,6 biliona razy więcej mocy obliczeniowej niż wtedy, gdy opracowano GPS18. Problemy, które w przypadku technologii z 1959 roku zajęłyby dziesiątki tysięcy lat, obecnie trwają tylko kilka minut na sprzęcie komputerowym dostępnym w sprzedaży detalicznej. Aby zrekompensować swoje ograniczenia, GPS miał zaprogramowane heurystyki, które próbowały ustalić priorytet możliwych rozwiązań. Heurystyki przynosiły rezultaty przez pewien czas, a ich sukcesy potwierdziły pogląd, że skomputeryzowane rozwiązanie ostatecznie może rozwiązać każdy ściśle zdefiniowany problem [...].

Pod koniec lat osiemdziesiątych XX wieku systemy eksperckie wykorzystywały modele probabilistyczne i mogły łączyć wiele źródeł dowodów w celu podjęcia decyzji.

Choć pojedyncza reguła „jeśli-to” sama w sobie nie byłaby wystarczająca, przez połączenie wielu tysięcy takich reguł całościowy system mógł podejmować wiarygodne decyzje dotyczące ograniczonego problemu. Mimo że podejście symboliczne jest stosowane od ponad pół wieku, jego głównym ograniczeniem jest "pułap złożoności".

Gdy MYCIN i inne tego rodzaju systemy popełniały błąd, poprawienie go potrafiło rozwiązać ten konkretny problem, ale to z kolei mogło spowodować pojawienie się trzech innych błędów, które dałyby o sobie znać w innych sytuacjach. Wydawało się, że istnieje granica złożoności, która znacząco zwężała zakres rzeczywistych problemów możliwych do rozwiązania. Jednym ze sposobów patrzenia na złożoność systemów opartych na regułach jest traktowanie ich jako zestawu możliwych punktów awarii.

Matematycznie rzecz biorąc, zbiór n elementów ma 2ⁿ–1 podzbiorów (nie licząc zbioru pustego). Zatem jeśli sztuczna inteligencja używa zbioru reguł zawierającego tylko jedną regułę, istnieje tylko jeden punkt awarii: czy ta reguła działa poprawnie samodzielnie, czy nie?

Jeśli wykorzystuje się dwie reguły, istnieją trzy punkty awarii: każda reguła z osobna oraz sytuacje, w których te dwie reguły nie działają jednocześnie. To rośnie wykładniczo. Pięć reguł oznacza potencjalnych punktów awarii, 10 reguł daje 1023 takie punkty, 100 reguł prowadzi do więcej niż tysiąca miliardów miliardów miliardów, a 1000 reguł oznacza ponad googol googoli googoli [Googol to liczba równa 10100, czyli jedynka i sto zer - przyp. red]!

Zatem im więcej reguł już mamy, tym bardziej każda nowa reguła zwiększa liczbę możliwych podzbiorów. Nawet jeśli tylko bardzo niewielki ułamek możliwych kombinacji reguł wprowadza nowy problem, przychodzi taki moment (który różni się w zależności od sytuacji), w którym dodanie jednej nowej reguły w celu rozwiązania problemu prawdopodobnie spowoduje pojawienie się więcej niż jednego dodatkowego problemu. To jest właśnie pułap złożoności. Prawdopodobnie najdłużej trwającym projektem systemu eksperckiego jest Cyc (nazwa pochodzi od angielskiego słowa encyclopedic, czyli encyklopedyczny), stworzony przez Douglasa Lenata i jego współpracowników z Cycorp.

Zainicjowany w 1984 roku projekt Cyc ma na celu zakodowanie całej "zdroworozsądkowej wiedzy" – powszechnie znanych faktów, takich jak "Upuszczone jajko się rozbije" czy "Dziecko biegnące przez kuchnię w zabłoconych butach rozsierdzi swoich rodziców".

Te miliony drobnych idei nie są jawnie spisane w jednym miejscu. Są to niewypowiedziane założenia leżące u podstaw ludzkiego zachowania i rozumowania, które są niezbędne do zrozumienia wiedzy przeciętnej osoby w różnych dziedzinach. Ponieważ jednak system Cyc reprezentuje również tę wiedzę za pomocą reguł symbolicznych, on również musi stawić czoła pułapowi złożoności.

Podejście koneksjonistyczne

W latach sześćdziesiątych, gdy Minsky doradzał mi w sprawie zalet i wad podejścia symbolicznego, zacząłem dostrzegać dodatkowe korzyści podejścia koneksjonistycznego. Obejmuje ono sieci węzłów, które tworzą inteligencję dzięki swej strukturze, a nie poprzez swoją zawartość. Zamiast korzystać z inteligentnych reguł, używają prostych węzłów ułożonych w sposób umożliwiający wydobycie informacji z samych danych. W rezultacie mają one potencjał do odkrywania subtelnych wzorców, które nigdy nie przyszłyby do głowy programistom próbującym opracować reguły symboliczne.

Jedną z kluczowych zalet podejścia koneksjonistycznego jest to, że pozwala ono rozwiązywać problemy bez ich zrozumienia. Nawet gdybyśmy mieli doskonałą zdolność do formułowania i wdrażania bezbłędnych reguł rozstrzygania problemów za pomocą symbolicznej sztucznej inteligencji (czego niestety nie posiadamy), bylibyśmy ograniczeni naszym niedoskonałym zrozumieniem tego, które reguły byłyby w pierwszej kolejności optymalne. Jest to skuteczny sposób rozwiązywania złożonych problemów, ale ma swoją ciemną stronę.

Koneksjonistyczna sztuczna inteligencja ma skłonność do stawania się "czarną skrzynką" – zdolną do podania poprawnej odpowiedzi, ale niepotrafiącą wyjaśnić, w jaki sposób ją znalazła. Może to stać się poważnym problemem, ponieważ ludzie będą chcieli poznać uzasadnienie stojące za decyzjami o istotnym znaczeniu, takimi jak leczenie, egzekwowanie prawa, epidemiologia czy zarządzanie ryzykiem.

Właśnie dlatego wielu ekspertów w dziedzinie sztucznej inteligencji pracuje obecnie nad opracowaniem lepszych form "przejrzystości" (lub "możliwości interpretacji mechanicznej") przy decyzjach opartych na uczeniu maszynowym. Czas pokaże, jak skuteczna będzie przejrzystość, w miarę jak uczenie głębokie stanie się bardziej złożone i potężniejsze. Kiedy jednak zaczynałem zajmować się koneksjonizmem, systemy były znacznie prostsze. Podstawową ideą było stworzenie skomputeryzowanego modelu inspirowanego działaniem ludzkich sieci neuronowych. Początkowo było to bardzo abstrakcyjne zadanie, ponieważ metodę tę opracowano, zanim uzyskaliśmy szczegółowe zrozumienie rzeczywistej organizacji biologicznych sieci neuronowych [...].

Pomimo wielu zalet wczesne systemy koneksjonistyczne miały pewne fundamentalne ograniczenie. Jednowarstwowe sieci neuronowe były matematycznie niezdolne do rozwiązywania niektórych rodzajów problemów.

Kiedy odwiedziłem profesora Franka Rosenblatta na Uniwersytecie Cornella w 1964 roku, pokazał mi jednowarstwową sieć neuronową zwaną Perceptronem, która potrafiła rozpoznawać drukowane litery. Próbowałem prostych modyfikacji sygnałów wejściowych. System całkiem nieźle radził sobie z automatycznym kojarzeniem (to znaczy potrafił rozpoznać litery, nawet jeśli zakryłem ich części), ale gorzej dawał sobie radę z niezmiennością (to znaczy nie potrafił rozpoznać liter po zmianach rozmiaru i czcionki).

W 1969 roku Minsky skrytykował wzrost zainteresowania tą dziedziną, mimo że w 1953 roku sam był autorem pionierskich prac nad sieciami neuronowymi. On i Seymour Papert, dwaj współzałożyciele Laboratorium Sztucznej Inteligencji MIT, napisali książkę zatytułowaną Perceptrons (Perceptrony), która formalnie wykazała, dlaczego perceptron z natury nie jest w stanie określić, czy wydrukowany obraz jest połączony, czy nie. Dwa obrazy na stronie XX pochodzą z okładki tej książki.

[...]

Krótko mówiąc, powodem, dla którego perceptrony jednokierunkowe nie mogą rozwiązać tego problemu, jest fakt, że wymaga on zastosowania funkcji logicznej XOR (exclusive or), która określa, czy fragment linii jest częścią jednej ciągłej figury na obrazie, ale nie jest częścią innej. Jednak pojedyncza warstwa węzłów bez sprzężenia zwrotnego nie jest w stanie matematycznie zaimplementować funkcji XOR, ponieważ zasadniczo musi sklasyfikować wszystkie dane jednocześnie za pomocą reguły linio wej (na przykład "Jeśli oba te węzły ulegną wyzwoleniu, sygnał wyjściowy funkcji będzie prawdziwy"), a funkcja XOR wymaga kroku sprzężenia zwrotnego ("Jeśli którykolwiek z tych węzłów ulegnie wyzwoleniu, ale nie oba jednocześnie, sygnał wyjściowy funkcji jest prawdziwy").

Kiedy Minsky i Papert doszli do tego wniosku, skutecznie pozbawiło to dziedzinę koneksjonizmu większości finansowania i musiały minąć dekady, zanim ponownie się odrodziła. Ale tak naprawdę już w 1964 roku Rosenblatt wyjaśnił mi, że niezdolność Perceptronu do radzenia sobie z niezmiennością wynikała z braku warstw. Gdyby sygnał wyjściowy z Perceptronu przekazać z powrotem do kolejnej warstwy identycznej z poprzednią, wynik byłby bardziej ogólny i przy powtarzających się iteracjach tego procesu w coraz większym stopniu byłby w stanie poradzić sobie z niezmiennością. Gdybyśmy mieli wystarczającą liczbę warstw i odpowiednią ilość danych uczących, moglibyśmy dać sobie radę z niesamowitym poziomem złożoności. Zapytałem go, czy faktycznie tego próbował, na co on odparł, że nie, ale stanowi to ważny punkt jego programu badawczego. To było niesamowite odkrycie, lecz Rosenblatt zmarł zaledwie siedem lat później, w 1971 roku, i nie miał szans zweryfikować swojej hipotezy.

Minęła kolejna dekada, zanim warstwy wielokrotne weszły do powszechnego użytku, a nawet wtedy sieci wielowarstwowe wymagały większej mocy obliczeniowej i danych uczących, niż było to możliwe do zastosowania w praktyce. Ogromny postęp w dziedzinie sztucznej inteligencji w ostatnich latach wynika z zastosowania wielu warstw neuronowych ponad pół wieku po rozważaniu tego pomysłu przez Rosenblatta.

Tak więc podejścia koneksjonistyczne do sztucznej inteligencji było w dużej mierze ignorowane aż do połowy drugiej dekady XXI wieku, kiedy postęp sprzętowy w końcu uwolnił ich ukryty potencjał.

Wreszcie ceny stały się na tyle niskie, że można było zgromadzić wystarczającą moc obliczeniową i przykłady szkoleniowe, aby ta metoda mogła się doskonale sprawdzić. Między publikacją książki Perceptrons w 1969 roku a śmiercią Minsky’ego w 2016 roku obliczeniowa wydajność cenowa (po uwzględnieniu inflacji) wzrosła około 2,8 miliarda razy. Zmieniło to krajobraz możliwych podejść do sztucznej inteligencji. Kiedy rozmawiałem z Minskym pod koniec jego życia, wyraził żal, że Perceptrons miało tak duży wpływ, ponieważ do tego czasu koneksjonizm odniósł już duży sukces w tej dziedzinie.

Koneksjonizm przypomina więc w pewnym stopniu wynalazki maszyn latających Leonarda da Vinci – były to prorocze wizje, ale niewykonalne, dopóki nie opracowano lżejszych i mocniejszych materiałów. Kiedy sprzęt nadrobił zaległości, rozległe sieci koneksjonistyczne nawet o stu warstwach stały się wykonalne.
W rezultacie takie systemy były w stanie rozstrzygnąć problemy, których nigdy wcześniej nie rozwiązywano. Jest to paradygmat będący motorem napędowym wszystkich najbardziej spektakularnych postępów ostatnich kilku lat.