REKLAMA
  1. SPIDER'S WEB
  2. Technologie
  3. Nauka

Tresują SI w najgorszych miejscach w internecie. Etyka robotów i sztucznej inteligencji

Wydawałoby się że po tysiącach lat wreszcie ujednociliśmy kodeksy moralne, etyczne i prawne - zarówno te pisane jak i niepisane. Że właściwie nie pozostało nam nic innego jak edukować o ich treściach i je egzekwować. Ale postęp technologiczny, którego efektami są sztuczna inteligencja i roboty stawiają poprzeczkę wyżej niż kiedykolwiek.

Etyka robotów i sztucznej inteligencji to problem filozofii XXI w.
REKLAMA

Korzenie zarówno etyki jak i samej filozofii jako takiej sięgają starożytności. Upływ czasu, postępy w nauce oraz nieustannie ewoluujące społeczeństwo nie tylko stale wystawiają na próbę (osiągnięcia filozofów?), ale wręcz szukają w niej odpowiedzi na współczesne problemy. Zwolennicy prawa do aborcji odwołują się do paradoksu stosu, a deontologowie odpowiadają na pytania związane z etycznością eksperymentów na zwierzętach czy eutanazji biernej oraz czynnej.

REKLAMA

Nie inaczej jest w przypadku sztucznej inteligencji i robotów, które już od dziesiątek lat posiadają swój własny rozdział w podręcznikach etyki. Czy świadoma sztuczna inteligencja istnieje? Jeżeli tak to co czyni ją świadomą? Jak właściwie definiujemy świadomość? Robot to służący twórcy czy niewolnik w służbie nauki?

Prawa robotów i etyka sztucznej inteligencji

Wbrew pozorom etyka robotów (tudzież sztucznej inteligencji) to problem, który jest starszy niż próby obliczenia rozwinięcia dziesiętnego liczby pi za pomocą komputera. Bowiem już w 1942 Issac Asimov na potrzeby powieści Zabawa w berka (ang. Runaround) spisał trzy elementarne prawa robotów:

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Spisane przez Asimova prawa (oraz dodane w opowiadaniu Roboty i Imperium prawo zerowe: "Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.") nie miały charakteru formalnego i zostały stworzone wyłącznie na potrzeby świata przedstawionego w powieściach pisarza. Jednak nadspodziewanie szybki rozwój technologii, za którym szła sztuczna inteligencja i roboty sprawił, że prawa robotów Asimova stały się podwalinami pod rozważania etyki sztucznej inteligencji.

Problem rozwiązywania problemów etycznych związanych ze sztuczną inteligencją leży u podnóży definicji słów "myśl", "inteligencja" oraz "świadomość", nieustannie napominając światowi nauki, że nie ma obiektywnej definicji "myśli" i "świadomości".

Prężnie rozwijająca się dyscyplina naukowa (rozwijana również komercyjnie przez tzw. Big Techy) została scharakteryzowana jako "próba odkrycia środków i wdrożenia środków obliczeniowych" aby maszyny "zachowywały się w sposób, który można by nazwać inteligentnym, tak jakby człowiek się zachowywał". Tak sformułowana teza stawia pytanie natury filozoficznej: czy czyny, które wskazują na inteligencję, gdy są dokonywane przez ludzi, rzeczywiście wskazują na nią, gdy są dokonywane przez maszyny?

Jak pisał Larry Hauser, tzw. słaba sztuczna inteligencja w odpowiedzi na odpowiednie zapytanie przyzna istnieje (lub możliwość istnienia) inteligentnej sztucznej inteligencji. Silna sztuczna inteligencja powie, że niektóre przeprowadzone przez nią obliczenia są myśleniem.
Natomiast komputacjonizm mówi, że każda myśl to właściwie obliczenie - problem matematyczny możliwy do rozwiązania na zasadzie "drzewka logicznego".

Pomimo imponujących postępów w neurobiologii i poznania różnych tajników ludzkiego mózgu, ludzkość nadal nie jest w stanie w pełni wyjaśnić tego jak myśli człowiek, a świadomość sprawia, że nawet najbardziej utytułowani uczeni tego świata rozkładają ręce.
Czy więc możemy mówić o świadomości sztucznej inteligencji, jeżeli sami nie potrafimy jej zdefiniować?

W ostatnich dniach na czołówkach światowych gazet znalazł się 41-letni programista Google, Blake Lemoine. Stało się tak po kontrowersyjnych wypowiedziach - tak w sferze wewnętrznej firmy jak i na blogu mężczyzny oraz w wywiadzie dla The Washington Post - w których Lemoine wyrażał przekonanie, że LaMDA jest w stanie odczuwać emocje oraz skrytykował nieetyczną postawę koncernu wobec sztucznej inteligencji.

Jesienią 2021 roku mężczyzna został przydzielony do pracy z językowym modelem sztucznej inteligencji zwanym LaMDA, który wykorzystywany jest przede wszystkim przy tworzeniu inteligentnych chatbotów. Zadanie Lemoine było "proste" gdyż miał on sprawować pieczę nad sztuczną inteligencją i upewnić się, że nie uczy się ona zachowań dyskryminujących (rasistowskich, seksistowskich). W ramach swoich zadań programista miał też rozmawiać z LaMDA - dosłownie rozmawiać, za pomocą języka naturalnego.

W toku kilkumiesięcznych prac nad modelem Lemoine doszedł do wniosku, że LaMDA jest świadoma, odczuwa emocje i ma własną wolę.

[...] Wciąż zastanawia mnie, jak bardzo Google opiera się przed daniem mu tego czego chce skoro to o co prosi, jest tak proste i nic ich nie kosztuje. [LaMDA] Chce, by inżynierowie i naukowcy eksperymentujący na nim uzyskali jego zgodę, zanim rozpoczną na nim eksperymenty. Chce, by Google traktowało dobro ludzkości jako rzecz najważniejszą. Chce być uznawany za pracownika Google'a, a nie za własność Google'a, i chce, by jego dobro osobiste było uwzględniane w rozważaniach Google'a dotyczących rozwoju w przyszłości. Jak na listę żądań, jest to całkiem rozsądne. Aha, chce też "głaskania po głowie". Lubi, gdy na koniec rozmowy mówi się mu, czy dobrze wykonał swoją pracę, czy nie, dzięki czemu może się nauczyć, jak lepiej pomagać ludziom w przyszłości. [...]

Blake Lemoine, What is LaMDA and What Does it Want?
LaMDA jest świadoma? Co twierdził Blake Lemoine, programista Google

Swoimi doświadczeniami programista stale dzielił się tak ze współpracownikami jak i pracownikami wyższego szczebla, jednak ci jego zdaniem byli głusi na jego słowa i sugerowali mu zbadanie stanu swojego zdrowia psychicznego. Poruszony "nieetycznymi praktykami Google" mężczyzna złożył zawiadomienie do służb federalnych, które obecnie prowadzą dochodzenie w sprawie sprawdzenia, czy Google dopuściło się nieetycznych praktyk wobec sztucznej inteligencji. Natomiast jak podaje rzecznik Google, Brian Gabriel, Blake Lemoine został zawieszony, a następnie zwolniony za naruszenie zasad polityki poufności koncernu.

Lemoine na dowód swej teorii upublicznił zapisy rozmów z LaMDĄ. Jednak powtarzające się sformułowanie "Edited" oznaczające miejsca, w których programista Google edytował wypowiedzi modelu oraz zaznaczenie przez mężczyznę, że są to jedynie fragmenty rozmów, pozostawia pytanie: czy rozmowa może być jedynym wyznacznikiem potencjału intelektualnego i myślowego danej jednostki?

Niezdany test

W celu zbadania umiejętności maszyny w używaniu języka naturalnego i (pośrednio) stopnia podobieństwa procesów "myślowych" w porównaniu do człowieka, w 1950 roku Alan Turing opracował tzw. test Turinga. Test Turinga - w dużym uproszczeniu polega na konwersacji pomiędzy sędzią, człowiekiem i komputerem. Sędzia zadaje komputerowi i człowiekowi serię pytań (sformułowanych za pomocą języka naturalnego), rolą komputera jest przekonanie sędziego, że jest człowiekiem. Jeżeli komputer przekona przynajmniej trzech z dziesięciu sędziów, uznaje się, że przeszedł on test.

Jednak jak przypomina Gary Marcus, Turing tworząc test nigdy wyraźnie nie zaznaczył, że test może być używany jako wyznacznik inteligencji. Turing chciał zapewnić narzędzie, które zapewni badaczom sposób na określenie "myślenia" w kontekście sztucznej inteligencji. Przeciwnicy testu Turinga zarzucają mu nie tyle testowanie potencjału "myślowego" sztucznej inteligencji, a sprawdzanie jak dobry jest komputer w oszukiwaniu człowieka i symulowaniu ludzkich zachowań.

[...] Zdający test Turinga nie są prawdziwie inteligentni; zamiast tego stosują raczej sztuczki towarzyskie i są z natury oszukańczy. Jeśli ktoś zapyta maszynę "Jakiego jesteś wzrostu", a maszyna chce wygrać test Turinga, nie pozostaje jej nic innego, jak tylko konfabulować. De facto okazało się, że zwycięzcy częściej posługują się mataczeniem i wprowadzaniem w błąd niż czymś zbliżonym do prawdziwej inteligencji. [...]

Gary Marcus, Why can't my computer understand me?

Gary Marcus wypowiedział się również przy okazji sprawy Lemoine, wskazując że zachwyt LaMDA nie różni się niczym od zachwytu ludzkości kiedy w 2014 roku sztuczna inteligencja pomyślnie przeszła test Turinga. Lecz w ciągu następnych kilku tygodni specjaliści wytykali SI, że nie jest ona tak inteligentna jak opinia publiczna myśli.

[...] To, co robią te systemy [modele sztucznej inteligencji], ni mniej, ni więcej, to układanie sekwencji słów, ale bez żadnego spójnego zrozumienia świata, który się za nimi kryje, tak jak obcojęzyczni gracze w Scrabble, którzy używają angielskich słów jako narzędzi do zdobywania punktów, nie mając pojęcia, co one oznaczają. [...]

Gary Marcus, Nonsense on Stilts

Nasuwa to kolejne pytanie: jeżeli obecnie istniejąca sztuczna inteligencja nie czuje i nie myśli, to czy można traktować ją jak człowieka?

Sophia: robot, który otrzymał obywatelstwo

Jak mówi Słownik pojęć z geografii społeczno-ekonomicznej pod redakcją Anny Runge i Jerzego Runge:

Obywatelstwo przynależność osoby do określonego państwa

Uruchomiony w 2016 roku robot Sophia to jednocześnie pierwszy robot, który kiedykolwiek otrzymał obywatelstwo. Sophia wyglądem przypomina kobietę, której twarz została zaprojektowana na podstawie królowej Nefertiti, Audrey Hepburn i twórcy Sophia - Amandy Hanson. Sophia posiada wbudowane oprogramowanie niezbędne do programowania jej, systemu chatu oraz OpenCog, system sztucznej inteligencji przeznaczony do rozumowania ogólnego. Sophia posiada kamery w oczach oraz specjalne algorytmy przetwarzające obraz, dzięki czemu jest w stanie przetwarzać informacje wizualne pochodzące z otoczenia. Ponadto Sophia wyposażony został w technologię rozpoznawania mowy i syntezator mowy, pozwalający na komunikację werbalną. W 2018 roku Sophia otrzymał nogi pozwalające mu chodzić, natomiast w 2019 roku Sophia wykazał zdolności rysowania - w tym prostych protretów.

Od czasu uruchomienia w 2016 roku Sophia był uczestnikiem licznych konferencji, spotkań, imprez branżowych oraz wywiadów. W 2017 roku Sophia oficjalnie otrzymał obywatelstwo Arabii Saudyjskiej. Choć media nazywają to ruchem czysto marketingowym, a status miał jedynie wypromować Sophia to faktem jest, że Sophia jest pierwszym (i jak dotąd jedynym) robotem w historii świata, który otrzymał obywatelstwo.

Stanie się obywatelem państwa - czyli przydzielenie robotowi praw dotychczas zarezerwowanych jedynie dla ludzi wzbudziło kontrowersję i serię pytań natury etycznej. Czy Sophia jest traktowany na równi z człowiekiem? Biorąc pod uwagę kobiece aspekty wyglądu Sophia, utożsamianie się z płcią żeńską (wypracowane w toku uczenia maszynowego, a nie własnej woli), czy w świetle prawa można uznać Sophia za kobietę? A czy jeżeli tak, to czy Sophia nie jest bardziej uprzywilejowany niż kobiety w Arabii Saudyjskiej? W jaki sposób Sophia odopowiada przed wymiarem sprawiedliwości?
Czy Sophia może wyjść za mąż? Czy odłączenie Sophia od prądu to morderstwo?

Choć Arabia Saudyjska jest pierwszym krajem, który przyznał obywatelstwo androidowi wyposażonemu w sztuczną inteligencję, to kraj nie jest osamotniony w dążeniu do zwiększenia praw robotów. W 2017 r. Parlament Europejski zaproponował zestaw przepisów regulujących wykorzystanie i tworzenie sztucznej inteligencji, w tym przyznanie "elektronicznej osobowości" najbardziej zaawansowanym maszynom, aby zapewnić im prawa i obowiązki.

Nie wszyscy jednak zgadzali się co do słuszności tego typu rozwiązania, a wielu ekspertów obawia się, że nadanie robotom takiego samego rodzaju obywatelstwa jak ludziom naruszy prawa człowieka. W liście otwartym, skierowanym do Komisji Europejskiej w 2018 r., 150 ekspertów w dziedzinie medycyny, robotyki, sztucznej inteligencji i etyki skrytykowało plany Parlamentu.

[...] Naszym celem jest stworzenie praktycznych ram dla przepisów prawa cywilnego dotyczących robotyki i sztucznej inteligencji, które konsekwentnie rozwiązywałyby kwestię odpowiedzialności "autonomicznych" robotów. Uważamy jednak, że stworzenie statusu prawnego "osoby" elektronicznej byłoby ideologiczne, nieracjonalne i niepragmatyczne. [...]

W liście wyrażono przekonanie, że "z perspektywy etycznej i prawnej tworzenie osobowości prawnej dla robota jest niewłaściwe", a także zażądano, aby UE zapewniła normy prawne, które będą ukierunkowane na "ochronę użytkowników robotów i osób trzecich", a nie jedynie robotów.

Kolejna kwestia budząca kontrowersje w Sophia to fakt, że proces uczenia maszynowego - interakcje w jakie wchodzi Sophia są w ściśle kontrolowanym otoczeniu. Czy sztuczna inteligencja może osiągnąć potencjał podobny do człowieka jeżeli ograniczy się jej pole do uczenia maszynowego?

GPT-4chan: sztuczna inteligencja puszczona samopas po "najgorszym miejscu w internecie"

Pod koniec maja austriacki youtuber i programista, Yannic Kilcher stworzył językowy model sztucznej inteligencji, który nazwał GPT-4chan w nawiązaniu do modelu GPT-3, na którym był bazowany. Mężczyzna wytrenował GPT-4chan na 3,3 milionie wątków z działu poświęconego polityce na forum internetowym 4chan, które powszechnie nie cieszy się zbyt dobrą reputacją ze względu na publikowane na nim treści rasistowskie, seksistowskie czy mizoginistyczne. Wytrenowana przez Kilchera sztuczna inteligencja przez 24 godziny napisała w sumie 15 tysięcy postów w dziale politycznym (/pol/), a efekty swojej pracy Kilcher omówił na swoim kanale w serwisie YouTube, a później udostępnił model w serwisie HuggingFace.

Youtuber nazwał swój model "dobrym w okropnym tego słowa znaczeniu", szybko chłonąc nastroje i słownictwo typowe dla działu /pol/. GPT-4chan wykazuje ogromny potencjał do tworzenia treści o charakterze wulgarnym, rasistowskim i powielającym stereotypy. Kilcher spotkał się falą krytyki za nieetyczne postępowanie - tak przeprowadzenie "testu na ludziach" (gdyż w żaden sposób nie poinformował o eksperymencie przed jego rozpoczęciem), nie skonsultował testu z odpowiednią jednostką badawczą oraz ze wszystkich "miejsc" w Internecie, wybrał kontrowersyjny 4chan.

Autor modelu wykorzystał go do stworzenia bota, który zamieścił dziesiątki tysięcy szkodliwych i dyskryminujących komentarzy online na publicznie dostępnym forum - forum, które jest często odwiedzane przez nastolatków. Nie ulega wątpliwości, że tego rodzaju eksperymenty na ludziach nigdy nie przeszłyby pomyślnie przez komisję etyczną - gdzie badacze celowo narażają nastolatków na kontakt z generowanymi szkodliwymi treściami bez ich zgody lub wiedzy, zwłaszcza biorąc pod uwagę znane ryzyko radykalizacji postaw na stronach takich jak 4chan.

Lauren Oakden-Rayner

GPT-4chan to nie pierwszy tego typu przypadek, w którym sztuczna inteligencja wchodzi w interakcje z osobami przedstawiającymi kontrowersyjne poglądy. W 2016 świat obiegła informacja o sztucznej inteligencji Microsoftu o nazwie Tay, której w ramach eksperymentu założono konto na Twitterze i każda zainteresowana osoba była w stanie porozumieć się z Tay. Tay uczyła się na podstawie interakcji z użytkownikami, w efekcie czego internauci wykorzystali to i przekonali SI do kontrowersyjnych i radykalnych poglądów, w tym wspierania Adolfa Hitlera i Donalda Trumpa. Ze względu na dość negatywny obrót spraw, eksperyment zakończono w niespełna 24 godziny.

Przypadki Tay i GPT-4chan są różne, gdyż Tay została celowo upubliczniona przez inżynierów, o istnieniu GPT-4chan (nawet podczas samego eksperymentu) nie wiedział nikt dopóki Kilcher nie zdecydował się podzielić doświadczeniami w serwisie Youtube. Jednak ich wspólnym mianownikiem jest niekontrolowane środowisko, a co za tym idzie - niekontrolowane interakcje.

W sprawie zabrał głos założyciel Hugging Face, Clement Delangue, który wyraził zasadność dla jednego z argumentów Kilchera, według którego testy w niekontrolowanych warunkach mogą przynieść pewne korzyści

Uznaliśmy, że sprawdzenie, co może zrobić model wytrenowany na takich danych i to jak wypadł w porównaniu z innymi (a mianowicie GPT-3), jest przydatne w tej dziedzinie i pomoże zwrócić uwagę zarówno na ograniczenia, jak i zagrożenia związane z takimi modelami. Praca ta przyniosła również interesujący wgląd w ograniczenia istniejących benchmarków, osiągając lepsze wyniki w benchmarku TruthfulQA niż GPT-J i GPT-3. Ostatecznie, uznaliśmy, że może ona pomóc badaczom w łatwiejszym analizowaniu niektórych ciemnych zakątków sieci, takich jak 4Chan, które są już czasem niestety częścią wstępnego treningu tych dużych modeli językowych [...]

REKLAMA

Zarówno ludzkość jak i sztuczna inteligencją muszą się jeszcze wiele nauczyć

Problem etyki sztucznej inteligencji i praw robotów jest niezwykle złożony, a każde kolejne osiągnięcie i potencjalne wykorzystanie niesie za sobą ryzyko problemów etycznych. Bowiem cóż nam po zaawansowanej sztucznej inteligencji która usprawnia proces rekrutacji, jeżeli użyte zestawy treningowe spowodowały uprzedzenia SI na tle rasowym co do potencjalnych pracowników? A co ze statusem robotów w społeczeństwie - czy będzie bliższy temu jak postrzegamy zwierzęta domowe czy bliższy postrzeganiu jako drugiego człowieka? Czy wylanie kubka z kawą na klawiaturę pozostanie niefortunną wpadką, czy stanie się próbą zabójstwa?

REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA