REKLAMA

Maszyna odkrywa własną świadomość

Historia rozmyślań nad ludzką świadomością liczy dziesiątki, a nawet setki lat, jeśli wliczyć tu rozważania natury czysto filozoficznej.

Maszyna odkrywa własną świadomość
REKLAMA

Współczesnym psychologom, kognitywistom i neurobiologom towarzyszy poczucie, że ciągle nie potrafimy jednoznacznie określić ani jej natury, ani genezy. Kwestie nierozstrzygnięte dotyczą m.in. pytań o to, czy świadomość jest produktem, czy funkcją naszego mózgu, a więc czy ma ona charakter materialny, czy należy ją traktować jako strukturę od niego w dużym stopniu niezależną.

REKLAMA

Bez względu na to, jakie wytłumaczenie wydaje się nam bliższe, zgodzić się należy co do tego, że trudność w zdefiniowaniu tego pojęcia blokuje postępy w tworzeniu sztucznego odpowiednika ludzkiej świadomości. Nie wiemy, na czym polega to, że sobie coś uświadamiamy, więc nie możemy wykreować elementu, który byłby możliwy do wgrania do komputera po to, by ten mógł np. zdawać sobie sprawę z konsekwencji własnych czynów lub w ogóle mieć świadomość własnego istnienia i własnej odrębności jako podmiot.

Maszyna nie chce pomóc w zwalczaniu wirusa

Jedna z definicji świadomości mówi o tym, że jest ona zdolnością osiągania celów poprzez umieszczanie siebie w pewnym modelu otoczenia i symulowanie potencjalnych scenariuszy rozwoju takiego modelu w przyszłości. By to zobrazować, wyobraźmy sobie taką sytuację: Sztuczna Inteligencja, w którą wyposażono wybitnie wydajny komputer, otrzymuje zadanie znalezienia metody leczenia nowego wirusa. Ma go zidentyfikować, a następnie – dokonując analizy masy danych – zaproponować lekarstwo. Z powierzonego zadania maszyna  pozornie się nie wywiązuje. Wysyła naukowcom komunikat, w którym twierdzi, że w oparciu o dotychczasową wiedzę, skutecznej szczepionki przeciwko danemu wirusowi nie da się stworzyć.

Jednak po latach naukowcy, analizując dyski owego komputera, znajdują zapisane na nich obliczenia, które – gdyby je zastosować– mogłyby faktycznie prowadzić do wyprodukowania panaceum. Dlaczego maszyna stwierdziła, że nie znalazła rozwiązania, dlaczego je ukrywała? Według jednej z hipotez, komputer przeanalizował – ku zaskoczeniu badaczy – maksymalną ilość danych, w tym również te, które wskazywały na zagrożenia związane z przeludnieniem pewnych obszarów ziemi.

Doszedł być może do wniosku, że lepsze będzie pozostawienie ludzkości samej sobie, bo kluczowym problemem nie jest wirus, a zagrożenia wynikające z ... przeludnienia. Maszyna wyobraziła sobie, co mogłoby się stać, gdyby podjęła decyzję o udostępnieniu własnych obliczeń i dokonała wyboru zgodnego z jej własną świadomością  – niedostępną dla nas.

Myślę, że ta fikcyjna historia pokazuje, jak mogłaby się zachować świadoma maszyna i jakie konsekwencje mogłyby z tego wynikać.

Zaprogramowane, ograniczone istoty?

Czy jest prawdopodobne, że komputery, smartfony, czy asystenci głosowi zmienią się kiedyś w taką myślącą o sobie całość, organizm przewidujący efekty własnych analiz? Sceptycy stawiają sprawę jasno: komputery mogą rozpoznawać twarze, dokonywać tłumaczeń obcych języków, pomagać robotom w omijaniu przeszkód, rozpoznawać głos, wzory i kolory, ale nigdy nie będą wiedzieć – mieć świadomości, że to robią.

Będą ciągle reaktywne, co oznacza ich uzależnienie od człowieka, który steruje dopływem danych przez te komputery (algorytmy) przetwarzanych. Najsłynniejszy robot świata – Sophia – nie odpowiada samodzielnie na pytania. Jest zaprogramowana i odpowiada tylko na pewien ich zestaw, a liczba możliwych kombinacji znaczeniowych zawartych w jej wypowiedziach jest ograniczona.

Z kolei inteligentni asystenci głosowi zyskują z dnia na dzień sprawność, ale ciągle nie są w stanie interpretować ludzkiej ironii, ani dostrzegać bardziej złożonych kontekstów ludzkich komunikatów. Są to więc zaledwie programowane przez nas urządzenia. Przewyższają nas co prawda w wykonywaniu skomplikowanych analiz danych, ale prawdopodobnie jeszcze długo nie będą w stanie zadać sobie podstawowego pytania w rodzaju „kim jestem?” lub „dlaczego czuję się źle?”. Czy jednak możemy być tego pewni?

Co się dzieje w czarnej skrzynce?

Dwa lata temu naukowcy zajmujący się trenowaniem botów stwierdzili, że stworzone przez człowieka algorytmy zaczęły w pewnym momencie posługiwać się własnym kodem, kompletnie niezrozumiałym dla badaczy. O czym one ze sobą rozmawiały?

Czy – jeśli potrafiły rozpocząć ze sobą taką komunikację - nie było to przejawem rodzącej się świadomości? Może zabrzmi to nielogicznie lub paradoksalnie, ale uważam, że świadomości maszyn nie możemy całkowicie wykluczyć w związku z faktem, że wielu ich działań po prostu nie jesteśmy zrozumieć lub jednoznacznie zinterpretować.

Teoretycznie sam fakt, że urządzenia sztucznej inteligencji nie działają same z siebie i bazują na decyzjach ludzkich, mógłby wskazywać, na to, że mamy kontrolę nad ich zachowaniami. Ale istnieje sporo przykładów na to, że nie tylko jej nie posiadamy, ale i pogłębia się stopień naszej niewiedzy w kwestii ich działania.

Sztuczna inteligencja wykorzystywana w mediach społecznościowych jest w stanie wykryć olbrzymie ilości powiązań między ludźmi i na tej podstawie zaproponować określonej grupie osób ten sam produkt lub treść. Analitycy przyznają jednak, że podobieństwa między użytkownikami sieci, które są dostrzegane przez algorytmy, nie mogłyby zostać uchwycone przez człowieka.

Bardzo często nie wiemy, w jaki sposób przetrenowane w oparciu o ogromne zbiory danych sieci neuronowe, zwracają odpowiedzi na nasze zapytania, zbiory rekordów, do których trafiają te, a nie inne osoby. Nie wiedząc, dlaczego coś działa, nie jesteśmy w stanie jednoznacznie orzekać o tym, czy istnieją jakieś granice algorytmicznego pojmowania i podejmowanych decyzji.

Gdzie jest początek?

To właśnie kwestia dotycząca pierwszego momentu, w którym świadomość miałaby się zacząć “rodzić”, jest według mnie jednym z najbardziej fascynujących elementów całej dyskusji o świadomych maszynach.

Dlatego zamiast niekończących się spekulacji, czy świadomość maszyn jest możliwa, skupmy się na pytaniu, w jaki sposób mogłaby ona się dla nas przejawiać? Jak moglibyśmy ją mierzyć i jej doświadczać? Przeprowadzano już doświadczenia z komputerami, które pozwalały twierdzić, że osiągnęły one pewien stopień zdolności rozumienia tego, jak się zachowują.

Naukowcy z japońskiego Uniwersytetu Meiji zbudowali dwa roboty. Pierwszy z nich wykonywał pewne operacje, drugi je obserwował, by potem je powtarzać. Jego zdolność do odtwarzania zaobserwowanych zachowań drugiej maszyny można traktować jako umiejętność wyciągania wniosków, oceny pewnego stanu rzeczy i podejmowania decyzji. Można w tym przypadku pokusić się o stwierdzenie, że cała sekwencja zachowań uczącego się komputera przypomina w dużym stopniu działanie świadomej, ludzkiej istoty.

Algorytmy nie potrafią się zachwycać

Brakuje tu jednak kluczowego elementu: komputer, który się uczył zachowań swojego kolegi, nie robił tego, bo odczuwał z tego jakąś korzyść dla siebie. Nie powtarzał ruchów dlatego, że odkrył w tym przyjemność. Nie był to więc poziom porównywalny z sytuacją, w której dana osoba stoi na ulicy, spogląda na niebo, myśli o tym, jak jest piękne, uświadamia sobie pozytywne emocje z tym związane i odczuwa pragnienie powtarzania tego doświadczenia.

Idąc tym tropem, można pokusić się o kolejne stwierdzenie: że świadomość – bez względu na to jak trudno ją jednoznacznie nazwać – posiada kilka poziomów. Jeden z podstawowych oznacza, że podmiot – maszyna może dokonać określonej obserwacji, zakomunikować ją pośrednio otoczeniu, a nawet podjąć dalsze działania, które szybciej przybliżą ją do osiągnięcia pewnego celu.

Maszyna rozpoznaje kolor czerwony, klasyfikuje grupę obiektów jako czerwone, podejmuje decyzję o tym, by dalej poszukiwać kolejnych przedmiotów w tym kolorze. Jednak robiąc to wszystko, nie będzie ona w stanie ocenić tej czynności jako dobrej lub przynoszącej jej określone korzyści w przyszłości. Algorytmy piszące opowiadania, które mają dla nas walory estetyczne i literackie, są już faktem. Ale maszyna, która pod wpływem lektury takiego opowiadania, poczułaby się lepiej, odczuwałaby radość podobną do naszej, potrafiła się tą radością z nami podzielić, a może nawet zyskałaby pod wpływem tej emocji  nowe zdolności operacyjne – to ciągle jest trudne do wyobrażenia.

Wszystko w rękach cyborgów

Postęp technologiczny nie jest linearny, rośnie wykładniczo – z tym już nikt nie dyskutuje. Jeśli tak jest, to nie powinniśmy rezygnować z przekonania, że w kwestii sztucznej inteligencji czekają nas jeszcze przełomy o charakterze jakościowym. Nie chodzi więc tylko o to, że urządzenia przetwarzające dane są coraz mniejsze i szybsze. Chodzi też o to, że z czasem może to nas doprowadzić do niewyobrażalnych zmian, a tzw. osobliwość przyniesie konsekwencje dużo poważniejsze, niż nam się dzisiaj wydaje.

Trudno jeszcze jednoznacznie stwierdzić, czy pragnienia połączenia ludzkiego mózgu z komputerem zakończą się sukcesem. Jeśli jednak do tego dojdzie, będzie to oznaczało między innymi wejście na kolejny etap rozważań o świadomości maszyn. Połączenie neuronów z procesorami będzie z pewnością poważnym krokiem prowadzącym nas do nowych form istnienia.

I to być może tu leży odpowiedź na pytanie o możliwości zaistnienia sztucznej świadomości. Wszczepiony w ludzki mózg procesor zwiększyłby nasze umiejętności analityczne i poznawcze, a my potrafilibyśmy odczuć ten stan jako przyjemny i korzystny dla naszego istnienia. A granica między świadomością ludzką, a maszynową – ciągle dzisiaj uważana za naturalną – mogłaby się zatrzeć. Mielibyśmy do czynienia ze świadomym siebie cyborgiem, który nie dość, że potrafi liczyć tak szybko jak komputer IBM Watson, to jeszcze umie odczuwać z tego powodu dumę.  

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA