Tech  / Felieton

Wyobraź sobie wkurzonego robota ciskającego talerzami

Picture of the author

Kiedy roboty będą miały ludzkie emocje?

Doskonale nam znane uczucie strachu możemy potraktować jako produkt ewolucji. Pojawia się on po to, by chronić nas jako gatunek przed niebezpieczeństwami. Bojąc się, uciekamy, szukamy schronienia, ukrywamy się, znikamy z pola widzenia osób lub obiektów, które nam zagrażają lub stajemy do walki, zbieramy w sobie siły do odparcia ataku, mobilizujemy cały organizm do wysiłku.

Strach może nas zmotywować do zmiany zachowań. Pod jego wpływem możemy, m.in. modyfikując życiowe decyzje – rozwijać się. Emocje, zarówno te pozytywne, jak i te negatywne, są nie tylko skróconą informacją o zmianach w naszym otoczeniu, ale składają się też na mechanizm, dzięki któremu ludzie tworzą świat wartości. Według niektórych koncepcji nasze dążenie do porządkowania świata na rzeczy dobre i złe bazuje właśnie na podstawowych emocjach – strachu, radości, smutku czy gniewie.

Algorytmy uczą się patrzeć, słuchać i mówić

Tak jak trudno jest nam sobie wyobrazić robota, który z wściekłości rzuca talerzami, tak równie trudno wyobrazić sobie, że podchodzi nas, by nas przytulić, gdy przeżywamy kryzys. Równie mało prawdopodobna jest sytuacja, w której robot podejmuje decyzje o tym, by wejść do płonącego budynku i ratować z niego nasze dzieci.

Czy w takim razie zastanawianie się nad emocjonalnością maszyn nie jest zawracaniem głowy? Nie do końca. Rozwój sztucznej inteligencji układa się tak, że coraz lepiej radzimy sobie z wywoływaniem w maszynach mechanizmów, które do tej pory traktowaliśmy jako zachowania właściwe dla ludzi lub zwierząt. Umiejętności algorytmów takie jak: komunikacja językowa, rozpoznawanie kształtów, kolorów czy intonacji głosu będą rozwijane coraz bardziej. A to oznacza, że będzie również powiększać się gamą maszynowych reakcji na obrazy, sytuacje lub złożone cechy i właściwości świata zewnętrznego.

Rzeczywistość staje się dla technologii coraz bardziej czytelna przez to, że rozmaite właściwości i charakterystyki – dźwięki, barwy, zapachy – przez sieci neuronowe traktowane są jak zbiory informacji, które można analizować, przetwarzać, uczyć się na podstawie ich oraz wyciągać wnioski i w konsekwencji podejmować decyzje. 

Słucham bicia twego serca

Reakcje maszyn nie są w tym przypadku efektem procesów ewolucyjnych ani nie mają podłoża biochemicznego. Jeśli więc robot miałby odczuwać emocje zbliżone do ludzkiej złości lub radości, to tylko wówczas, gdyby zostały one w nim zaprogramowane przez ludzi lub których nauczyłby się sam w oparciu o interakcje przetrenowanych sieci neuronowych z danymi.

Mielibyśmy więc do czynienia nie tyle z emocjami rodzącymi się na dysku komputera, ile z wgranym w niego lub wyuczonym zestawem mechanicznych odpowiedzi na określone stymulacje. Ale nawet gdyby robot nie potrafił spontanicznie powiedzieć : „widzę, że jesteś smutny, czy mogę ci pomóc?”, to po rozpoznaniu sygnałów smutku wyrażonych w naszej mimice, mógłby w określony sposób – ciągle ograniczony – zareagować.

To wymaga zapewne wielu lat prób, dalszego rozwoju robotyki, sztucznej inteligencji, matematyki czy statystyki, ale nie jest to niemożliwe. Według Erika Brynjolfssona profesora MIT Sloan, chociaż ludzie ciągle mają przewagę w czytaniu emocji, maszyny zyskują coraz więcej umiejętności w tym zakresie. Mogą słuchać barwy lub modulacji głosu i rozpoznawać, w jaki sposób korelują one ze stresem lub złością.

Maszyny mogą też analizować obrazy i wychwytywać subtelności w mikroekspresji na twarzach ludzi, robiąc to nawet lepiej niż sami ludzie. Przykładem, który potwierdza, że dokonuje się tu znaczny postęp, jest rozwój „wearable tech”, czyli rosnąca popularność i coraz większe możliwości smartwatchów i całej masy gadżetów, których używamy podczas treningów.

Wszystkie te urządzenia bazują na algorytmach, które potrafią rejestrować, przetwarzać i analizować informacje takie jak: tętno, temperatura ciała, bicie serca. Algorytmy potrafią z nich wyciągać wnioski o nas samych. Bo czym, jak nie wyciąganiem wniosków, jest sugestia, że powinniśmy więcej biegać, dłużej sypiać lub lepiej się odżywiać?

Monitor cię odstresuje

Właśnie takie podejście towarzyszyło naukowcom z MIT Media Lab, którzy stworzyli urządzenie monitoruje bicie serca danej osoby, po to, by badać jej poziom stresu, bólu lub frustracji. Najciekawsze w jego działaniu było to, że podłączony do aplikacji monitor uwalniał określony zapach, aby pomóc użytkownikowi dostosować się do negatywnych emocji, które w danym momencie odczuwał. A więc maszyna zaczynała działać zgodnie z pewnego rodzaju empatycznym wzorcem.

Korelacje zachodzące między informacjami z naszych organizmów, działaniami aplikacji, które potrafią reagować na te informacje, i naszymi świadomymi zachowaniami, stają się dzisiaj podstawą do dalszych eksperymentów związanych z tworzeniem technologii zdolnych do odczytywania różnych przejawów emocji.

Trudna sztuka rozumienia dowcipów

Na razie mamy jednak na tym polu jeszcze wiele przeszkód do pokonania. Jedną z nich jest problemu kontekstu, znany doskonale wszystkim, którzy zajmują się rozwijaniem technologii asystentów głosowych i botów. Asystenci są w stanie odpowiedzieć na pytanie, jaka jest dzisiaj pogoda, ale ciągle nie potrafią odszyfrować sensu pytania w rodzaju „czy sądzisz, że parasol dzisiaj to może być dobry pomysł?” Trudno maszynom odczytywać niuanse znaczeniowe zawarte „między słowami” w takich wypowiedziach. Podobne trudności mają ze rozumieniem dowcipów, czyli z wypowiedziami, które kończą się niespodziewaną puentą.

Tego typu problemy mają znaczenie dla programowania reakcji na emocje. Jak nauczyć maszynę odróżniać grymas na naszej twarzy wyrażający cierpienie od grymasu, który jest np. żartobliwym, przesadnym wyrażeniem złości na zachowanie naszego psa? Jak robot zinterpretowałby szeroko otwarte oczy i ręce umieszczane na głowie - jako wyraz pozytywnej ekscytacji, czy sygnał, że człowiek przed nim stojący, czegoś się przestraszył? Myślę, że droga do tego, byśmy umieli programować maszyny tak, by uzyskiwać trafne efekty, jest bardzo daleka. Jednak już teraz wiemy, że nie jest to kwestia możliwości lub jej braku, ale raczej czasu potrzebnego na udoskonalenia tego, co już potrafimy.

Uczmy się lubić roboty

W Japonii stosunek ludzi do robotów różni się od tego, jak traktujemy je w Europie. Podczas gdy my przerażamy się wizjami zdehumanizowanego świata lub zastanawiamy się, czy maszyny zastąpią nas w biurach, Japończycy mają do nich dużo cieplejszy stosunek. Być może wynika to po części z przekonania, że przedmiot nieożywiony może mieć duszę.

Robot nie jest może żywą istotą, ale mimo to, można wobec niego odczuwać emocje, takie jak sympatia, a nawet rodzaj empatii. Takie podejście pokazuje nam, że w relacjach człowiek – technologia, skala zachowań i emocji może być zróżnicowana. Być może jest to dodatkowo ważny czynnik świadczący o tym, że w rozwoju emocjonalności maszyn znaczenie będzie mieć również nasze nastawienie.

Granice między człowiekiem a maszyną, między światem ludzkich emocji a reakcjami algorytmów są dzisiaj klarowne. Sztuczna inteligencja to jednak nieustanna zmiana i rozwój, więc nasze spojrzenie na te kwestie może ewoluować. Poczekajmy więc na moment, kiedy na widok maszyny, krzykniemy do kogoś: „zobacz, uśmiechnął się”! I nie wykluczajmy tego, że takie zdarzenie prędzej czy później nastąpi.

Norbert Biedrzycki

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.


Blog Norberta: https://norbertbiedrzycki.pl

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst