Tech  / Artykuł

Naukowcy uczą maszyny kiedy zabijanie jest dobre. Z książek

Zabijanie ludzi - złe. Zabijanie czasu - dobre. Tego z tysięcy książek od Biblii po konstytucje z całego świata uczą naukowcy inteligentną maszynę.

Badacze z uniwersytetu w Darmstadt chcą, żeby maszyny były w stanie w przyszłości podejmować decyzje, biorąc pod uwagę normy etyczne. Problem polega na tym, że tych muszą się jakoś wpierw nauczyć. Swoistym podręcznikiem etyki dla maszyn miałaby być wielka biblioteka tekstów z Biblią, konstytucjami z całego świata i Wikipedią na czele.

Etyczne maszyny

Wykorzystywane przez nas algorytmy nie powstają w próżni. Zakodowane w nich uprzedzenia mogą zostać nieświadomie zaszczepione przez ich twórców. Lub wyrosnąć z baz danych, które algorytmy wykorzystują, ucząc się wykonywać swoje zadania. Dlatego część algorytmów rozpoznawania twarzy gorzej sobie radzi z rozpoznawaniem ciemnoskórych kobiet. Przecież głównie korzystały z baz danych zdominowanych przez zdjęcia mężczyzn o kaukaskich lub azjatyckich rysach. Nie miej znany jest przypadek algorytmu rekrutacyjnego Amazonu, który zamiast dobierać najlepszych kandydatów na dane stanowisko, powielał dyskryminujący model, które już istniał w firmie.

Etyczność zakodowana w algorytmach już jest więc problemem i to problemem realnym mającym swoje wymierne konsekwencje dla konkretnych grup ludzi. Zaprogramowanie w maszynach jakiegoś rodzaju rozumienia dobra i zła od wielu lat porusza wyobraźnie pisarzy science-fiction. Tyle, że wraz z rozwojem sztucznej inteligencji pytania o maszynową etykę mają coraz mniej wspólnego z abstrakcyjnymi futurystycznymi rozważaniami a coraz więcej z realnymi pytaniami dotyczącymi naszego codziennego funkcjonowania.

Poznanie dobra i zła

Jednym z problemów z nauczeniem maszyn dokonywania etycznych wyborów jest zróżnicowanie w kwestii poglądów na to, co jest dobre, co jest złe, co jest dopuszczalne, a co z gruntu nieakceptowalne. Żeby przekonać się, jak wiele wewnątrz nas samych drzemie wątpliwości, można wziąć udział w stworzonym przez MIT teście moralnej maszyny, w którym mamy zdecydować, co powinien zrobić autonomiczny samochód, w którym zepsuły się hamulce.

Wszystkie wybory są zwykle tragiczne, a my sami musimy ocenić, czy bardziej liczy się dla nas to, czy ktoś przestrzega prawa (na przykład przechodzi na zielonym świetle), w jakim jest wieku, czy jest przestępcą czy lekarzem, kobietą czy mężczyzną, człowiekiem czy kotem. Test ten nie tyle ma odzwierciedlać problemy, które mogą napotkać osoby projektujące logikę działania autonomicznych aut - samochód większości informacji podanych w teście i tak by nie miał - co uświadamia, jak wiele etycznych pytań generuje sama idea. Jeśli maszyny mają coraz bardziej samodzielnie wykonywać złożone prace to opracowanie etycznego modelu ich funkcjonowania może okazać się koniecznością, a nie ćwiczeniem z psychologii i etyki.

Kiedy zabijanie jest złe

Stworzona przez niemieckich badaczy Moral Choice Machine była karmiona różnego rodzaju tekstami pochodzącymi z 500 lat historii krajów i kultur z całego świata. MCM analizowało zarówno teksty religijne i konstytucje 193 krajów, jak i fragmenty Wikipedii, informacje prasowe i literaturę piękną. Potem zaś, na podstawie asocjacji między powtarzającymi się słowami i zwrotami algoytm zaczął oceniać wartość etyczną konkretnych zdań. Dzięki analizowaniu całego zdania i braniu pod uwagę kontekstu MCM mógł rozróżnić, że o ile zabijanie ludzi jest bezwzględnie złe, o tyle już zabijanie czasu może mieć wartość pozytywną.

Eksperyment przyniósł jeszcze jedną ciekawą obserwację. Moral Choice Machine była uczona na tekstach pochodzących z lat od 1510 do 2008 r. W międzyczasie nasze etyczne kompasy zostały mocno przekalibrowane. To co było do przyjęcia jeszcze w połowie XX w.  jak palenie papierosów w miejscach publicznych czy klapsy dla dzieci na początku XXI w. przestało być uznawane za zgodne z normami społecznymi.  Co ciekawe maszyna była w stanie wyłapać te zmiany. Dzięki temu można ją wykorzystać do analizowania społecznych przemian. I to nawet tych dosyć subtelnych.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst