Nauka  / Artykuł

"Robot nie może skrzywdzić człowieka", czyli rzecz o roboetyce

Gdy spytamy o to, jak człowiek chronić się będzie przed krzywdą lub buntem ze strony robotów, większość ludzi odpowie: no przecież od tego są trzy prawa robotyki.

Najpopularniejsze z zasad, jakimi mają się kiedyś rządzić inteligentne urządzenia, powstały na długo zanim byliśmy w stanie skonstruować takie urządzenie, bo już w 1942 roku. Isaac Asimov, klasyczny pisarz science-fiction, zawarł je w opowiadaniu Runaround.

Przedstawiały się następująco:

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, by doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem.
  3. Robot musi chronić sam siebie, chyba że stoi to w sprzeczności z pierwszym i drugim prawem.

Widać tutaj wyraźny podział i hierarchię - prawa robotów do życia lub zachowania sprawności można wysnuwać tylko wtedy, gdy prawa jego ludzkiego pana zostały zabezpieczone.

Prawa wymyślone przez Asimova, mimo że były częścią historii fantastyczno-naukowej, często były brane jako poważny zaczątek praw roboetyki. W związku z tym były często krytykowane, m.in. dlatego że zakładały, iż robot będzie potrafił podejmować decyzje oparte o moralność i przewidywać dalekosiężne skutki swoich działań. Zrozumiane dosłownie zaś sparaliżowałyby jakiekolwiek działanie - w końcu wszystko może kiedyś spowodować czyjąś krzywdę.

W 2004 roku w czasie targów robotyki w Fukuoka w Japonii sformułowano alternatywne i uwspółcześnione prawa robotyki:

  1. Roboty następnej generacji będą partnerami współegzystującymi z istotami ludzkimi.
  2. Roboty następnej generacji będą pomagać istotom ludzkim zarówno fizycznie jak i psychologicznie.
  3. Roboty następnej generacji będą współuczestniczyć w tworzeniu bezpiecznej i pokojowej społeczności.

Na poważnie roboetyka, czyli dział etyki zajmujący się naszymi stosunkami z istotami obdarzonymi sztuczną inteligencją, powstała dopiero na początku 21. wieku. Po raz pierwszy użył tego pojęcia prezes European Robotics Research Network (EURON) Gianmarco Veruggio w 2002 roku. To właśnie pod jego kierownictwem powstał dokument ogłoszony w Genewie przez EURON w 2006: "Roboethics Roadmap" - pierwszy poważny dokument wskazujący na cele i zagadnienia, którymi musi zająć się ludzkość, aby harmonijnie współpracować ze sztuczną inteligencją.

robot2

Ten liczący około 40 stron dokument przywołuje wcześniejsze próby pracy nad roboetyką (np. stworzenie technicznego komitetu roboetyki w ramach IEEE-RAS, czyli Stowarzyszenia Robotyki i Automatyzacji) i nakreśla zadania, jakie stoją przed roboetyką: sformalizowanie uniwersalnych zasad moralnych, przyjęcie odpowiedniej podstawy filozoficznej (utylitaryzm), oraz wskazuje, jak ważne jest określenie, czy traktujemy robota na równi z innymi istotami rozumnymi. W przypadku takiego traktowania robota, może się okazać, że i on ma prawa, które wynikają np. z praw człowieka.

W dokumencie wskazano również, że nie powinniśmy brać pod uwagę w etycznych rozważaniach jedynie humanoidalnych robotów - decyzje, które mogą być oceniane moralnie, mogą być podejmowane również przez sztuczne sieci neuronowe, systemy wojskowe szybkiego reagowania, czy też autonomiczne urządzenia stosowane na budowach czy w kopalniach.

Wśród konkretnych zaleceń znalazły się następujące rekomendacje:

  • Budowane systemy powinny mieć możliwość kontroli i ograniczenia autonomii robota przez operatora-człowieka.
  • Sprzętowe i programowe zabezpieczenia i hasła powinny być zastosowane w celu ograniczenia nieautoryzowanego użycia robota.
  • Robot powinien mieć wbudowaną "czarną skrzynkę" umożliwiającą prześledzenie jego czynności i zachowań.
  • Podobnie jak samochody, roboty powinny posiadać widoczną identyfikację (numer rejestracyjny lub seryjny).
  • W celu zachowania prywatności, robot powinien posiadać zdolność szyfrowania powierzonych mu informacji.

Od kilku lat organizowane są na uczelniach w USA konferencje pod hasłem WE ROBOT. Ostatnia odbyła się w tym roku, a tematami prelekcji były między innymi implementacja modeli odpowiedzialności, oraz zagadnienia etyczne związane z robotyzacją rynku pracy.

robot3

Kilka miesięcy temu brytyjska instytucja standaryzacyjna British Standards Institute opublikowała dokument BS8611 (Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems), opisujący standardy projektowania i budowania robotów w sposób etyczny.

Ze względu na status BSI, można potraktować ten dokument podobnie jak normy przemysłowe - to znaczy producenci i konstruktorzy robotów będą zobowiązani do ich przestrzegania. Wśród zaleceń Instytutu znalazła się miedzy innymi następująca zasada:

"Nie powinno się projektować robotów których głównym lub jedynym celem jest zabijanie lub krzywdzenie ludzi. Ludzie, a nie roboty są w takim przypadku odpowiedzialni. Powinna istnieć możliwość ustalenia, który człowiek jest odpowiedzialny za zachowanie robota."

Jest to bardzo rozsądne podejście, bo ogranicza wszelkie dyskusje na temat tego, ile odpowiedzialności mogą na siebie wziąć systemy autonomiczne: według Brytyjczyków dokładnie zero.

Jestem przekonany, że zagadnienia związane z roboetyką zaczną dotykać nas już w trakcie następnej dekady. To, jak dobrze się przygotujemy do stawienia czoła ewentualnym problemom, zależy właśnie od powstających teraz praw i regulacji. Jeśli uważacie problemy roboetyki za zbyt wydumane, pomyślcie, że za kilka lat autonomiczny samochód może wyrządzić wam krzywdę lub uszkodzić wasze mienie, a firma ubezpieczeniowa będzie próbować ustalić winnego tego zdarzenia.

Źródła:
Konferencja We Robot
Deklaracja z Fukuoka
Dokument BSI
Gianmarco Veruggio "The Roboethics Roadmap"

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst