Tech / Artykuł

Nie zabijaj humanoida. Czy maszyny zasługują na swoje prawa?

Pod koniec lipca 2019 r. świat obiegła informacja, że firma Neuralink jest blisko integracji ludzkiego mózgu z komputerem. Zaprezentowano nawet pierwszy interfejs, który miałby to umożliwić.

Może więc czekać nas nieprawdopodobny skok, jeśli chodzi o rozszerzenie naszych możliwości poznawczych. Konsekwencje tego byłyby różnorodne. Nie ominęłoby nas z pewnością podejmowanie bezprecedensowych decyzji o charakterze prawnym czy etycznym. W kontekście takiego przełomu pytanie o prawa maszyn staje się tym bardziej uzasadnione. Ludzki mózg w połączeniu z procesorami będzie wymagać specjalnej ochrony.

Humanidalna świadomość pod ochroną

Dla transhumanistów sprawa jest najwyższej wagi. Zgodnie z ich poglądami technologia zasługuje na wyjątkowy szacunek, nie mniejszy od tego, jaki przysługuje ludziom. Skoro nasza przyszłość, jako gatunku, jest zagrożona przez katastrofę ekologiczną, to ratunku powinniśmy szukać, wchodząc w symbiozę z maszynami. Dzięki temu humanoidalna istota, będąca połączeniem organizmów żywych z układami elektronicznymi, może przeżyć cywilizacyjne katastrofy, uniezależnić się od ograniczeń, jakim podlega biologiczna struktura. Transhumaniści postulując nadanie praw maszynom, są przekonani, że przyszłość przyniesie narodziny nowego rodzaju świadomości. Istoty, które zaludnią naszą planetę, nie tylko będą odczuwać, ale może nawet będą mieć własną świadomość. A czy istotę ze świadomością – bez względu na jej rodzaj – będzie można bezkarnie zniszczyć? Czy nie byłoby to morderstwo?

Odkurzacz nie zasługuje na przywileje

Absurdalność pytania o prawa maszyn nie wydaje się już tak duża, gdy uświadomimy sobie, że przyznajemy je zwierzętom, a ich posiadaniem cieszą się też firmy. Kluczową kwestią jest zasięg możliwych regulacji prawnych. Nikt przy zdrowych zmysłach nie domagałby się przecież prawnej ochrony dla odkurzacza czy żelazka. Może rzecz dotyczyłaby w takim razie tylko bytów technologicznych o określonym stopniu złożoności? Mogłyby to być urządzenia zdolne do wykonywania np. czynności, które będziemy traktować jako rodzaj aktywności intelektualnej. Posłużę się przykładem robota pracującego w fabryce, który nagle się psuje. Śledztwo wykazuje, że uszkodzono go celowo. Po jakimś czasie zostaje znaleziony sprawca, który miał dostęp do oprogramowania maszyny. Po pierwsze, firma została narażona na straty, co skutkuje odpowiedzialnością prawną sprawcy, ale może w przyszłości będzie liczyć się coś jeszcze? Gdyby przyjąć, że robot jest wyrafinowanym mechanizmem, a jego działanie opiera się na rozumujących algorytmach (niektóre z nich są już w stanie napisać własny kod źródłowy), to mielibyśmy do czynienia z czynem wymierzonym przeciwko bytowi i pewnym wartościom – w dużym stopniu analogicznym do ludzkich.

O tym, że te rozważania nie należą do sfery fantastyki naukowej, świadczy fakt, że w 2017 r. Parlament Europejski zatwierdził rezolucję, która przyznawałaby status „osobowości elektronicznej” szczególnie zaawansowanym robotom. Jako uzasadnienie wskazano na fakt, że firmy lub organizacje mogą korzystać z niektórych praw właściwych ludziom, ciesząc się statusem osobowości korporacyjnej.

Czy maszyny wezmą odpowiedzialność za siebie?

Cała sprawa ma jeszcze jeden interesujący aspekt. Skoro przychylamy się do opinii, że maszyny rzeczywiście zasługują na określone prawa, to konsekwencją tego byłoby założenie, że odpowiadają za swoje decyzje i czyny. Tu posłużę się przykładem samojezdnych pojazdów. Działając w oparciu o machine learning autonomiczny samochód dokonuje na drodze wielu samodzielnych wyborów. Te mają wpływ na kierowcę, pasażerów i innych uczestników ruchu. Przewidując potencjalny wypadek, algorytm musi podjąć decyzje, kto podlega ochronie jako pierwszy – kierowca, pasażerowie czy pieszy. Autonomiczny pojazd wdraża więc w życie określony system wartości, uruchamia system etycznych wyborów, które dotyczą ludzi, nawet gdy nie zdaje sobie z tego sprawy na sposób ludzki. Krótko mówiąc, staje się w jakiś sposób odpowiedzialny z ludzkiego punktu widzenia. Jednak jak taką odpowiedzialność egzekwować w sytuacji wypadku? Czy ciągle obciążać konsekwencjami prawnymi twórcę algorytmów użytych w produkcji samochodu? Czy wyjść już z założenia, że samochód jest tworem obdarzonym zarówno swoimi ochronnymi przywilejami, jak i obowiązkiem respektowania praw ustanowionych przez ludzi.

Black box straszy coraz bardziej

Dzisiaj zmagamy się z kwestią tzw. black boxu. Mam na myśli sytuacje, kiedy ludzie przestają rozumieć zasady, jakimi kierują się inteligentne technologie z obszaru sztucznej inteligencji. Te zaczynają się usamodzielniać i niektórzy uważają wręcz, że sytuacja już zaczyna wymykać się nam z rąk. Problem może narastać. Nie będziemy w stanie zrozumieć, dlaczego broń oparta na sztucznej inteligencji zacznie eliminować niektóre obiekty, dlaczego czat boty będą podsuwać nam takie, a nie inne rozwiązania dotyczące kredytu, dlaczego asystenci głosowi udzielą nam takiej, a nie innej odpowiedzi. Czy wobec tego odpowiedzialność urządzeń za swoje działania stanie się szczególnie palącą kwestią? Cyniczne opinie głoszą, że przyznawanie maszynom praw to jedynie wygoda twórców urządzeń opartych na sztucznej inteligencji, którzy sami chcą uniknąć odpowiedzialności za to, co stworzyli i za sytuacje, które mogą zaistnieć.

Zdaję sobie sprawę z tego, że w opisywanym problemie operujemy tylko spekulacjami, mnożymy pytania. Sądzę przy tym, że etyczne konsekwencje integracji robotów w naszych miejscach pracy, w wojsku, policji, sądownictwie będą się coraz bardziej komplikować. Oznacza to między innymi, że jak najszybciej musimy zająć się takimi kwestiami, jak odpowiedzialność za nas i za maszyny, które dzisiaj jeszcze nie potrafią jej na siebie wziąć.

Norbert Biedrzycki

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.

Pasją Norberta są najnowsze technologie robotyzacja, zastosowania sztucznej inteligencji, blockchain, VR i AR, Internet Rzeczy, oraz ich wpływ na gospodarkę i społeczeństwo. Więcej na ten temat można przeczytać na blogu Norberta.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst