Recenzja+
  1. SPIDER'S WEB
  2. plus
  3. SW+

Odrażający niemowlak wciąga w „dolinę niesamowitości”. Centrum Kopernik otwiera wystawę o cyfrowym mózgu

Co by było, gdyby twój telefon miał dwie ręce, dwie nogi, twarz i włosy – także pod pachami? W Centrum Nauki Kopernik rusza wystawa „Przyszłość jest dziś. Cyfrowy mózg?” wprowadzająca w świat, w którym będziemy obcować z coraz bardziej ludzkimi robotami.

Odrażający niemowlak wciąga w „dolinę niesamowitości". Centrum Kopernik otwiera wystawę o cyfrowym mózgu

Współczesny telefon puszcza muzykę, daje poczucie bezpieczeństwa („bez telefonu nigdzie nie wychodzę”), zdobywa jedzenie („zamówię uberka”), zabija nudę („co tam na fejsiku”), pomaga w kontaktach z innymi; budzi, gdy trzeba, a jak nie trzeba, to na jedno skinienie właściciela budzić przestaje. Jeśli masz iPhone'a, prawdopodobnie nawet z czułością zdarza ci się do niego mówić – przywiązanie fanów tej marki jest tak duże. Ale jeśli masz telefon z Androidem, też być może zdarza ci się kupować mu fikuśne obudowy lub głaskać, gdy przypadkiem upadnie na ziemię.

To zjawisko antropomorfizacji, czyli przypisywania rzeczom cech ludzkich. A teraz wyobraź sobie, że twój telefon ma rozmiar oraz wygląd człowieka i robi te wszystkie wymienione powyżej rzeczy. Ma 170 cm wzrostu, ciemne włosy, niebieskie oczy, na sobie dżinsy i bluzę. Może trochę niegramotnie się porusza, ale stoi o tu, obok ciebie. I czeka na sygnał, w końcu jest tylko telefonem, który potrzebuje dyspozycji, by zadziałać.

Zamiast tapnięć na ekranie, po prostu do niego mówisz. Telefon zamiast wyświetlenia komunikatu „zakończone”, np. po wyłączeniu jakiejś aplikacji, pokazuje dłoń z kciukiem uniesionym w górę. Co prawda podnosi rękę mechanicznym ruchem – jakby tańczył electric boogie, ale rozumiesz, o co mu chodzi. Gdy chcesz zadzwonić do mamy, podchodzisz do telefonu-człowieka i mówisz mu do ucha, a słuchając, nadstawiasz uszu nad jego ustami. Owszem, gdy do niego mówisz, cały czas potrząsa głową na znak przytaknięcia, a gdy sam mówi, przy każdej sylabie otwiera usta, jakby pożerał wielkiego burgera. Dziwnie, ale i tak rozumiesz, co ci przekazuje. Po włączeniu piosenki w Spotify zaś telefon-człowiek zaczyna sobie podrygiwać. Pokracznie, więc patrząc na to, najpierw się śmiejesz z politowaniem, ale z każdą sekundą coraz bardziej cię się przyzwyczajasz.

W sumie… jak to brzmi? Telefon, który wygląda jak człowiek? Odrażająco, prawda? Albo jak z klasyki horrorów klasy C. I może to ostatnie porównanie jest najlepsze. Może to właśnie twórcy tanich horrorów pierwsi odkryli, że najlepiej straszą humanoidalne roboty? Jeśli tak, to można im pogratulować – stosowali bowiem w swoich filmach tzw. efekt doliny niesamowitości.

„Przyszłość jest dziś. Cyfrowy mózg?”, wystawa Centrum Nauki Kopernik. Fot. materiały prasowe

Termin stworzył w latach 70. japoński profesor robotyki Masahiro Mori. Efekt doliny niesamowitości odnosi się do wykresu obrazującego poziom komfortu psychicznego człowieka w kontakcie z robotami. Gdy robot nie jest podobny do człowieka, nic wielkiego się nie dzieje – to dlatego telefony jako sprzęt nie są przerażające, choć potrafią dla nas i za nas zrobić mnóstwo rzeczy. I gdy ten telefon będzie coraz bardziej przypominał wizualnie człowieka, tym cieplejsze będzie budził uczucia. Nastąpi jednak moment, w którym nasz komfort drastycznie spadnie – gdy podobieństwo telefonu-robota do człowieka będzie zbyt duże lub gdy nagle zacznie zachowywać się nie jak człowiek, np. niezgrabnie wymachując rękami.

To wtedy człowieka uderza odraza, wstręt, niepokój, strach. Ten nagły spadek nastroju w porównaniu z wcześniejszym komfortem prof. Mori nazwał właśnie doliną niesamowitości. Coś jest tak naturalne, że aż niesamowite i jednocześnie przerażające.

Teraz, od 5 listopada, mamy okazję sprawdzić na sobie to zjawisko w Centrum Nauki Kopernik, bo specjalnie na wystawę „Przyszłość jest dziś. Cyfrowy mózg?” Centrum zamówiło humanoidalnego robota, który do złudzenia przypomina ludzkie niemowlę. Całą wystawę tworzy ok. 80 eksponatów, które mają przybliżyć korzyści i zagrożenia związane z wykorzystaniem technologii. Widzowi będą mogli też dowiedzieć się, jakie są nie tylko kierunki rozwoju nauki, ale i ich konsekwencje.

Sam robot jest podobny do człowieka do złudzenia, co znaczy, że ma kolor skóry dziecka białej rasy, drobiazgową fakturę ciała, zachowane wszystkie proporcje i miarowy oddech, dzięki czemu widać unoszącą się klatkę piersiową. Babyclon – bo tak nazwali robota naukowcy – jest typowym niemowlęciem z lekką nadwagą. W Centrum Nauki Kopernik występuje zaś prawie sauté, jedynie w dziecięcej pieluszce.

Niemowlaka zobaczyłem z daleka. Byłem wśród kilkunastu osób w CNK – pracowników tej instytucji i dziennikarzy. Leżał na dużej poduszce na stole i oddychał. Pomyślałem: „nie będziesz tak doskonały jak ja”. Kilka sekund refleksji i… zacząłem go ignorować. Inni nieśmiało podchodzili, ja ostentacyjnie (wobec niemowlaka oczywiście) próbowałem patrzeć na wszystko inne. Jednak potrzeba, by choć ukradkiem na robota spoglądać, była silniejsza.

Przypominam sobie, jak mój piesek był malutki i rzucałem mu zupełnie nową przekąskę – przetwór z nieznanego dotąd zwierzęcia. Piesek najpierw obwąchiwał i obskakiwał dookoła przekąskę. Myślał, że to żywe zwierzę i za chwilę się ruszy. Czuł przecież jego mięso, ale to mięso się nie ruszało, więc piesek był nieufny i dopiero po kilkudziesięciu sekundach oswajania z nową przekąską zabierał się za jej pałaszowanie. Czy to też był efekt niesamowitości? To też nas z psami łączy?

Wreszcie podchodzę. Dotykam nogi – jest zaskakująco miękka, ale też zimna. Trochę jestem zdziwiony. Robot leży i unosi w górę i dół klatkę piersiową, lekko porusza ustami – to ssanie smoczka. Czy gdyby przestał oddychać, zepsułby się? – Nie, to tylko efekt wizualny – słyszę od pracownika Kopernika i czuję lekki zawód.

Dr Konrad Maj w rozmowie ze mną słusznie zwraca uwagę, że gdy sam był dzieckiem, już można było bawić się lalkami wyglądającymi jak ludzie, mającymi włosy, otwierającymi oczy. Robot w Centrum Nauki Kopernik jest stworzony z silikonu i wygląda w zasadzie jak takie najlepszej jakości lalki. Ba, brwi ma po prostu… dorysowane! Ściema z tym robotem!

Rozmawiając z naukowcem, spoglądam na inne osoby podchodzące do robota. Ktoś głaszcze go po czole, ktoś zachwyca się drobiazgowością paznokci u stóp, ktoś inny kładzie dłoń na klatce piersiowej, jakby próbował wyczuć bicie serca. Hmm, chyba zbyt lekceważąco potraktowałem robota. Idę jeszcze raz. Dotykam czoła – tak samo zimne jak noga. I tak samo miękkie. Przecież czoło powinno być twarde – ma chronić mózg. Mam ochotę wbić kciuk w to czoło, by udowodnić nie wiadomo komu, że coś tu nie gra.

Dotykam brzucha – no, unosi się, jakby oddychał, ale już gdy nachylam się nad ustami, słyszę najzwyklejszy, mechaniczny dźwięk silniczka, który robot ma w środku. Dzięki niemu klatka piersiowa unosi się i opada. W pewnym momencie przestaje opadać! Zepsułem? Podchodzi Patrycja Strzetelska, badaczka z Kopernika i dociska wypięty z plecków niemowlaka kabel. – Wypiął się sam, ale generalnie co kilka minut trzeba go rozłączyć, żeby silniczek się nie przegrzał – tłumaczy, a ja już kompletnie zdegustowany odchodzę i zagajam ją, dość nieładnie, trzeba przyznać.

– Po co to?
– Żeby ukazać, czym jest efekt doliny niesamowitości.
– Ale ten robot nic nie umie! – rozkładam ręce w wymownym geście.
– I właśnie to, co pan teraz czuje, jest doliną niesamowitości – triumfuje Strzetelska.

– W jednym ze sklepów w Japonii robot Pepper podjechał do klienta i zapytał, czy może w czymś pomóc. Dostał za to w zęby – dr Konrad Maj, psycholog społeczny, kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech na SWPS ostrzega, że wcale nie jesteśmy gotowi na ludzkie roboty.

Jakub Wątor: Co pan czuł, gdy pierwszy raz zobaczył Babyclon?

Dr Konrad Maj: Moje odczucia były podobne do odczuć wielu osób, aczkolwiek wiedziałem wcześniej, jak będzie wyglądał, więc być może moje reakcje były mniej intensywne. Ale i tak czułem swoisty niepokój połączony z czymś niezbyt przyjemnym. Generalnie to była przewaga nieprzyjemnych odczuć.

Dr Konrad Maj, kierownik Centrum HumanTech, Uniwersytet SWPS w Warszawie

Pan? Tyle obcujący z robotami i tak się na to nabrał?

Oczywiście, bo pewne mechanizmy psychologiczne są poza naszą kontrolą. Co z tego, że na poziomie świadomym ja to rozumiem? Nasza natura jest taka, że pewnych obiektów bardzo się boimy, innych mniej.

Na przykład?

Człowiek bardzo boi się pająków, choć w naszym klimacie są one niegroźne, za to nie boi się jazdy samochodem, choć prawdopodobieństwo wypadku jest duże. Nie jesteśmy racjonalni w ocenie percepcji pewnych zjawisk. Pewne rzeczy nas odpychają, a inne przyciągają, bo na przykład naoglądaliśmy się o tych zjawiskach w telewizji. Naukowo mówiąc – często afekt kroczy przez poznaniem.

W wypadku robota-niemowlaka jest to związane bardzo silnie z prostym efektem percepcyjnym. Mamy problem z asymilacją niejednoznacznych bodźców, a takie właśnie wysyła do nas Babyclon. Z jednej strony jest to obiekt realistycznie wizualnie przypominający żywe dziecko, więc nasza kora mózgowa mówi: „to jest niemowlę”, a z drugiej strony mózg dostaje sygnały, które wskazują, że to nie jest coś prawdziwego, bo nie porusza się podobnie jak prawdziwe dziecko, nie ma typowych zachowań, które znamy z obserwacji dzieci. Jest to po prostu zimna lalka wywołująca jedynie złudzenie, że jest człowiekiem. I to daje odczucie zmieszania, niejednoznaczności. Myślę, że w warstwie poznawczej można to porównać do spotkania gdzieś na ulicy psa z głową kota. Nasz mózg niechętnie toleruje takie niezwykłe połączenia i dlatego instynktownie odsuwamy się od nich.

„Przyszłość jest dziś. Cyfrowy mózg?”, wystawa Centrum Nauki Kopernik. Fot. materiały prasowe

Rozumiem, że ewolucja w tym przypadku nie mogła pomóc?

Nie mogła, bo przebiega ona bardzo wolno, wolniej niż pojawianie się różnych wynalazków i nowinek technologicznych. W historii ludzkości nie mieliśmy wcześniej sytuacji, by spotykać się z tego rodzaju obiektami. A jeśli już, to tylko na ekranach telewizorów. To coś nowego, niezwykłego, a nowości same w sobie również nakazują nam trzymanie dystansu. Jedna z teorii wyjaśniających efekt doliny niesamowitości mówi, że to zjawisko, w którym obiekty człekopodobne zachowują się w sposób nienaturalny. Budzi to skojarzenie z osobami chorymi. Unikamy kontaktu z nimi, bo chcemy uniknąć zarażenia, kontaktu z patogenami, nie lubimy również patrzeć na różne niedoskonałości cielesne. Podobnie jak również ze zwłokami – budzą one lęk, odrazę.

Gdy zobaczyłem pierwszy raz Babyclona, pomyślałem sobie: „o nie, na pewno nie będziesz tak doskonały jak człowiek”. Tak jakby włączył mi się jakiś mechanizm obronny.

To jedna z typowych reakcji: nasz negatywny stosunek do robota humanoidalnego nakazuje nam przedefiniować człowieczeństwo, a to również rodzi niepokój. Jeśli robot przypomina prawdziwego człowieka, to stanowi wyzwanie nie tylko dla naszej percepcji, ale również i całej naszej cywilizacji.

Uspokoiłem się dopiero wtedy, gdy podszedłem do robota.

Widzi pan! Dość szybko przekonał się pan, że jednak można czuć się bezpiecznie i że ten robot nie zniszczy naszej kultury. Choć pewnie nieprzyjemne odczucie pozostało. Zapewne pojawiło się napięcie związane z oczekiwaniami – jak ten robot będzie się zachowywał, czy będzie rzeczywiście naszą doskonałą kopią. Ale zakładam, że w dolinie niesamowitości pan do końca pozostał, bo robot w zasadzie jedynie leży i „oddycha” – wykonuje mało ruchów i jak był zimny, tak i zimny pozostał.

A jakbym zareagował, gdyby robot otworzył oczy i zaczął mówić?

Gdyby robot był faktycznie doskonały i zachowywał się zupełnie jak człowiek, to mógłby pan się poczuć bardziej komfortowo, bo stałby się on obiektem przewidywalnym. Z doliny niesamowitości można się zatem wydostać. Sprzyjają temu również wszelkie pozytywne zaskoczenia, np. odkrywamy w robocie kolejne ludzkie cechy.

Kilka lat temu pod kierownictwem Alexru Litoiu przeprowadzono ciekawe badania na Uniwersytecie Yale. Zaproszono ludzi do udziału w eksperymencie polegającym na tym, że mieli grać w grę, w której robot nagle zaczął oszukiwać. Badani w tym warunku zaczęli traktować go bardziej po ludzku – np. używał więcej zaimków osobowych, patrzyli częściej robotowi w oczy. W innym badaniu, przeprowadzonym przez zespół Nicole Mirnig z Uniwersytetu w Salzburgu, robot popełniał pewne błędy we współpracy z człowiekiem – wywoływało to uśmiech, większe polubienie robota i uznawanie go za bardziej inteligentnego. A zatem ludzkie cechy robota, nawet jeśli są ułomne czy niepożądane, zbliżają nas do niego.

To dlaczego każdego robota nie ubierzemy w ludzką skórę i ciuchy, żeby były przyjemniejsze?

Robotyka nie jest jeszcze na tyle rozwinięta, jak to widać w filmach z Hollywood. Ludzie widzą robota takiego jak Sophia i myślą, że usiądą z nim i pogawędzą jak z kolegą czy koleżanką przy kawie. Tak nie jest, ale też nie powiedziałbym, że tak powinno być. Dajemy robotom ludzkie ciało, włosy, wyposażamy w ludzki język i wydaje nam się, że będziemy z nimi rozmawiać jak z ludźmi oraz będziemy wiedzieli, jak nimi zawiadywać. To pułapka!

„Przyszłość jest dziś. Cyfrowy mózg?”, Centrum Nauki Kopernik. Fot. materiały prasowe

Po co tworzyć z nich równoprawnych partnerów? Żeby potem musieć dyskutować o prawach i opodatkowaniu robotów? Przecież to by nam do głowy nie przyszło w stosunku do komputerów, które mamy na biurku, a to też forma sztucznej inteligencji, tylko nieucieleśniona. Opodatkuj swój komputer – jak to brzmi? Niepotrzebnie do kategorii „człowiek” próbujemy wprowadzić obiekt robotyczny tak mocno do nas samych podobny. To zbędne i możemy się przez to pogubić w sensie społecznym, psychologicznym czy prawnym.

W tworzeniu robotów humanoidalnych widzę w zasadzie jedno zastosowanie: na potrzeby nauczania studentów medycyny, warsztatów rozpoznawania chorób dla lekarzy. Jest na przykład taki robot japoński Showa Hanako, który wykorzystywany jest na potrzeby szkolenia dentystów – wierci się w robotycznych zębach dziury, zakłada plomby i implanty. Ten robot potrafi odkaszlnąć, wypluć, pomarudzić, że boli. Faktycznie jest doskonałym obiektem treningowym dla studentów stomatologii.

Ale moim zdaniem robotyka społeczna w tę stronę nie pójdzie. Pewne rzeczy są nie do przeskoczenia.

To znaczy?

Chodzi o nasz komfort obcowania z inteligentnymi maszynami. W jednym ze sklepów w Japonii robot Pepper podjechał do klienta i zapytał, czy może w czymś pomóc. Dostał za to w zęby. Na jednej z wystaw w Berlinie ten sam robot także dostał pięścią, ale tam mężczyzna dodatkowo krzyczał: „nigdy nas nie zastąpicie, nie jesteście pełnokrwiści!”. Jeśli ktoś uderzył robota, to myślał, że go to zaboli. To przykład antropomorfizacji, ludzie przez to odczuwają zagrożenie. Dlatego nie należy iść tą drogą. Wiedzą to producenci filmów dla dzieci. Wie pan, że w „Shreku” rysy bohaterów początkowo były dużo bardziej ludzkie? Po jakimś czasie zaczęto je przerysowywać, tworzyć karykatury postaci wciąż należące do kategorii „bohater animowany”, a nie „człowiek”. Bali się efektu doliny niesamowitości; tego, że ludzie będą czuli dyskomfort, oglądając takich sztucznych ludzi.

Robot Pepper. Fot. pio3 / Shutterstock

Poza tym robotyka wcale aż tak się nie rozwinęła. Gdy byłem dzieckiem, istniały lalki, które zamykały oczy i w ogóle były podobne do ludzi. Minęło trochę czasu i czy faktycznie tak dużo się zmieniło? Według mnie nie.

W takim razie czy dożyjemy czasów, w których będziemy mieli problem z odróżnieniem człowieka od robota? Mam na myśli fizycznego robota, nie bota telefonicznego.

Życzę panu dosłownie jeszcze i stu lat życia, ale wydaje mi się, że i tak w takiej perspektywie czasowej tego nie doświadczymy. Przykładowo ludzka głębia spojrzenia jest bardzo trudna do odtworzenia. Poza tym w trakcie rozmowy zmienia się mimika twarzy, człowiek potrafi się zaczerwienić, a odbiorcy są wyczuleni na wszelkie mikroekspresje, mamy też mnóstwo mięśni na twarzy i to wszystko analizujemy w trakcie rozmowy. Na razie nie ma takich robotów, które potrafiłyby doskonale udawać ludzi, zwłaszcza ludzką twarz i jeszcze długo ich nie będzie.

Zdjęcie tytułowe: Zeynep Toprak Bulut / Shutterstock.com