Czy maszyny będą kłamać?
Poważne kłamstwa, drobne kłamstewka lub niemówienie całej prawdy pełnią istotne funkcje społeczne. Gdybyśmy od czasu do czasu nie maskowali naszych prawdziwych opinii na temat osób z najbliższego otoczenia, nie moglibyśmy tworzyć trwałych relacji społecznych. Kłamstwo bywa dla ludzi pożyteczne. A czy może przydać się robotom?
Sytuacje, w których komplementujemy czyjś wygląd, nawet wtedy, gdy on nas nie zachwyca lub udajemy zainteresowanie rozmową, która jest nam obojętna, zna niemal każdy z nas. Jednak doświadczenie spotkania z maszyną, która zataiła prawdę, jest ciągle możliwe tylko w filmach lub literaturze s-f. Spróbujmy mimo to wyobrazić sobie sytuacje, w których zostaliśmy oszukani przez robota. Czym byłoby jego kłamstwo i jakie niosłoby konsekwencje?
Kiedy Siri będzie prawić nam komplementy?
Jeśli asystent głosowy powie do nas pewnego dnia: „jaki masz miły głos”, z pewnością uśmiechniemy się w poczuciu zadowolenia, może nawet szczęścia. Być może przypominałoby to odrobinę sytuację, w której słyszymy pierwszy raz w życiu słowa “tata” lub ”mama”.
Zadowoleni z informacji, którą usłyszeliśmy, musielibyśmy zastanowić się, jak do tego doszło. Czy asystent Siri jest w stanie odbierać i oceniać takie właściwości, jak miły głos? Jeśli tak, to jest zdolny do odczuwania przyjemności. Wie jednocześnie, że wypowiadając takie zdanie, sprawi przyjemność również nam. Ciekawe, czy doświadczając takiego zdarzenia, przyszłaby nam do głowy myśl, że asystent powiedział nam nieprawdę, bo chciał żebyśmy go polubili, czyli jego intencją była pewnego rodzaju emocjonalna manipulacja.
Czy da się złapać robota na kłamstwie?
Wyobraźmy sobie inną sytuację. Zlecamy komputerowi dokonanie skomplikowanych obliczeń. On przedstawia nam po kilku sekundach wyniki, które wydają się nam podejrzane. Chcemy je zweryfikować, dlatego zlecamy mu ponowne obliczenia. Tym razem komputer serwuje nam dane zgodne z naszymi przekonaniami. Jak traktujemy taką sytuację? Traktujemy pierwszą odpowiedź maszyny jako przejaw wadliwego oprogramowania, błędów systemu operacyjnego lub zwykłego przypadku. Myśl o tym, że komputer mógł nas celowo oszukać, jest ostatnią, która przyszłaby nam do głowy. Tutaj dochodzimy do ciekawego momentu rozważań.
Opisany przypadek dowodzi, że nie traktujemy komputerów jako bytów samodzielnych. A skoro tak jest (i mamy tu słuszność) to oznacza, że usypiamy naszą czujność wobec możliwości zaistnienia sytuacji, w której robot nas okłamuje. Gdyby roboty zaczęły nas okłamywać, jeszcze długo nie nazywalibyśmy ich odpowiedzi kłamstwami. Mówilibyśmy o ich wadliwości, pomyłkach, itd. Mamy silnie zakodowane przekonanie, że maszyna jest niczym więcej, niż tylko maszyną. Czy w kontekście rozważań o tym, jak mocno rozwija się sztuczna inteligencja, podejście takie jest uprawnione? Czy dla naszego dobra, już teraz nie powinniśmy założyć, że maszyny będą zdolne do okłamywania nas?
Robot idzie do sądu
Inna sytuacja. Czy robot kłamiący to robot, który został zaprogramowany, by kłamać, czy robot, który samodzielnie nabył pewnych specyficznych dla ludzi umiejętności? Pamiętamy, że dwa lata temu w Stanach Zjednoczonych autonomiczny pojazd Ubera potrącił przechodnia. Przeprowadzone śledztwo wskazywało m.in. na błędne ustawienia fabryczne; odległość potrzebna do wyhamowania, była niewystarczająca. Ale czy w przyszłości, tego typu sytuacje, będą równie klarowne? Może będziemy musieli zadawać sobie pytania o to, czy autonomiczny pojazd na pewno „nie wiedział”, że na przejście wszedł pieszy? To by oczywiście oznaczało, że autonomiczne pojazdy są bytami, które osiągnęły taki status, że mogą podlegać procesom sądowym. Stwierdzenie, że maszyna chce coś ukryć przed nami, oznacza automatycznie, że zmienia się jej status prawny.
Klasyczne prawa robotyki
W tym momencie ciekawe może okazać się przywołanie słynnych trzech praw Asimova, które definiują powinności maszyn. Przypomnijmy ich treść.
- Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Zacznijmy od podstawowej kwestii, jaka wiąże się z tak sformułowanymi prawami. Dotyczy ona ich dyrektywnego charakteru. Zakładają one bowiem całkowitą podległość maszyny wobec człowieka – nawet gdy drugie prawo przewiduje dla robota pewien stopień wolności jego wyboru. Jeśli jednak jest on jej pozbawiony, to oznacza, że nie jest obdarzony świadomością.
Jeśli nie jest nią obdarzony, nie potrafi skłamać. A zatem, gdyby trzymać się praw Asimova, moglibyśmy na tym etapie zamknąć dyskusję. (Pomińmy fakt, że wszystkie sformułowane prawa mają się nijak do faktu, że roboty produkowane są m.in. przez przemysł wojskowy, a więc ich celem jest zabijanie).
Wykorzystajmy jednak prawa Asimova do wyobrażenia sobie kolejnej sytuacji. Robot otrzymuje polecenie udania się w określone miejsce, by zlikwidować ludzi uznanych przez dowódcę za wroga. Po pewnym czasie maszyna wraca i melduje: „Tak, wykonałem zadanie”. Jak zareagowalibyśmy na informację, że tzw. wróg ma się jednak dobrze, jest cały i zdrowy? Czy musielibyśmy założyć, że robot się zbuntował? Jeśli tak, to bylibyśmy świadkami narodzin etycznego systemu w maszynie. A to oznaczałoby, że posługuje się ona ludzkim kodem kulturowym. Co z kolei oznacza też, że maszyna rozumiejąca ludzkie reguły dobra i zła, prawdy i fałszu, ma prawo nie być nam posłuszna.
Tysiące lat ewolucji
Umiejętność okłamywania ludzi – w sensie technicznym – wymagałaby od maszyn nabycia umiejętności trudnych do wyobrażenia. Co potrafi robot, który na pytanie człowieka o to, czy cały dzień stał w kącie, czy pracował, wybiera odpowiedź drugą, chociaż nie jest ona zgodna ze stanem faktycznym?
Po pierwsze rozumie, co się do niego mówi. Po drugie jest w stanie odróżnić dwie czynności od siebie – pracę i odpoczynek. Po trzecie musi zastanowić się, jakie konsekwencje wiążą się z określoną taką, a nie inną odpowiedzią. Po czwarte, musiałyby wiedzieć, jaką wartość dla pytającego ma praca, a jaką odpoczynek. Po piąte, musiałby zdawać sobie także sprawę z motywów, którymi kieruje się pytający...
Można tak wyliczać jeszcze dłużej, ale już na tym poziomie analizy łatwo stwierdzić, że nawet najprostsze kłamstwo robota oznaczałoby, że mamy do czynienia z przeskokiem jakościowym, który dla nas ludzi oznaczał tysiące lat ewolucji. W tym momencie uświadamiamy sobie, jak daleką drogę musi wykonać sztuczna inteligencja, by zrównać się z umiejętnościami ludzi.
Przestałem być robotem
Umiejętności, o których tu mowa są czymś o wiele poważniejszym, niż zdolność rozpoznawania twarzy czy dokonywania skomplikowanych obliczeń. Do dzisiaj asystent głosowy Siri jest jedynie sprawnym automatem, który potrafi w odpowiedniej chwili podłączyć się do internetu. Natomiast, jeśli pewnego dnia stwierdzimy, że asystent chciał wywieść nas w pole, będzie to oznaczało, że obcujemy z istotą empatyczną, która potrafi wyobrazić sobie, co czujemy. Jeśli zaś rzeczywiście tak jest, to potrafi przewidzieć nasze pytania, rozumieć nasze żarty i wypowiedzi zawierające aluzje.
Wszystko to razem pokazuje nam, że jedno najprostsze kłamstwo robota byłoby dowodem na to, że – jako gatunek – utraciliśmy monopol na posiadanie uprzywilejowanej pozycji istot, które mogą decydować o tym, co jest prawdą, a co kłamstwem. Obok nas żyłyby istoty, których system etyczny mógłby z czasem ewoluować w zupełnie innym kierunku. Czy już teraz powinniśmy się na taką ewentualność przygotować, tego nie wiem.
Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.
Pasją Norberta są najnowsze technologie robotyzacja, zastosowania sztucznej inteligencji, blockchain, VR i AR, Internet Rzeczy, oraz ich wpływ na gospodarkę i społeczeństwo. Więcej na ten temat można przeczytać na blogu Norberta.