REKLAMA

Pamiętaj, kto jest twoim panem. Google tworzy zasady dla sztucznej inteligencji

Sztuczna inteligencja i jej rozwój w równej mierze zachwyca i niepokoi. Coraz częściej pojawiają się w jej kontekście pytania o etykę lub odpowiedzialność karną programów i maszyn. Najlepszym tego przykładem są wypadki z udziałem samochodów autonomicznych. Kto i kiedy jest odpowiedzialny za kraksę, jeśli samochodem sterowała maszyna? To tylko jedno z pytań, na które musimy znaleźć odpowiedź. 

Google prawa dla sztucznej inteligencji
REKLAMA
REKLAMA

Coraz więcej firm i rządów zdaje sobie sprawę z tego, że pewne rzeczy trzeba uregulować przepisami prawnymi lub przynajmniej wewnętrznymi zasadami. Google postanowił wyjść przed szereg i przedstawić swoje zasady dotyczące tego, jak sztuczna inteligencja będzie wykorzystywana i według jakich zasad tworzona.

Według nich sztuczna inteligencja powinna:

1. Być przydatna społecznie.

Rozwój sztucznej inteligencji nie oddziałuje tylko na pojedynczych użytkowników, ale na sposób, w jaki żyją całe społeczności. W końcu jest ona też wykorzystywana na tych polach, z których korzystamy wszyscy — w transporcie, medycynie, rozrywce, etc. Google obiecuje, że rozwijając sztuczną inteligencję, będzie miał na uwadze sposób jej wykorzystania w szerokim kontekście społecznym i ekonomicznym. Jej rozwój będzie kontynuowany tylko tam, gdzie potencjalne zyski przeważają nad przewidywanymi zagrożeniami.

Jest z tym punktem kilka problemów. Jako ludzie jesteśmy beznadziejni w przewidywaniu konsekwencji rozwoju technologicznego. Mamy tendencję do przypisywania zmianom zbyt wielkiego znaczenie w krótkim czasie i zbyt małego w długim. Określenie wszystkich zagrożeń i benefitów wynikających z rozwoju danej technologii może być po prostu niemożliwe. Dlatego Google bardzo świadomie używa określenia prawdopodobne zyski i przewidywane zagrożenia. Co więcej, przewidzenie, czy coś będzie dobre dla społeczeństwa, jest często decyzją ideologiczną i zależy od wyznawanej hierarchii wartości.

2. Unikać pogłębiania i tworzenia nierówności.

Sztuczna inteligencja nie jest wolna od ludzkich błędów. Efekty jej pracy mogą odzwierciedlać przekonania i uprzedzenia twórców lub utrzymywać oparte na uprzedzeniu status quo.

Weźmy taki przykład - dział HR prosi o sztuczną inteligencję, która pomoże mu rekrutować najlepszych kandydatów na dane stanowisko. Algorytm zostaje napisany na podstawie tego, jakie cechy ma osoba, która jest dobrze oceniana przez przełożonych, szybko awansuje i zostaje w firmie na lata. Projektując algorytm w ten sposób, uczymy go nie tyle, żeby zatrudniał najlepszych, ile tych, którzy osiągnęli sukces w firmie. W ostateczności możemy zostać z kandydatami, którzy mają tak samo na nazwisko (jeśli w firmie panuje nepotyzm i głównie awansuje rodzina prezesa) lub bez niebieskookich pracowników (bo zła macocha szefa HR miała takiego koloru oczy, w związku z czym on chętnie wyrzuca pracowników o błękitnym spojrzeniu). Widzicie, do czego zmierzam?

Google zdaje sobie sprawę, że rozróżnienie krzywdzącego uprzedzenia od wyrównywania nierówności nie jest proste i może się różnić w zależności od kultury. Dlatego sztuczna inteligencja ma przede wszystkim nie szkodzić, a szczególnie wrażliwa ma być na kontekst rasowy, etniczny, płciowy, narodowy, orientacji seksualnej, politycznej czy religijnej.

3. Być budowana i testowana z myślą o bezpieczeństwie.

Chodzi tu o zabezpieczenie się przed niepożądanymi skutkami, które mogą okazać się groźne i testowanie pewnych rozwiązań najpierw w małej skali.

4. Odpowiadać przed ludźmi.

Sztuczna inteligencja będzie odpowiadała przed człowiekiem. Brzmi to jak oczywistość, ale warto przypomnieć, że Facebook porzucił badania, bo dwie sztuczne inteligencje zaczęły komunikować się ze sobą w języku, którego ich twórcy nie rozumieli. W ten sposób zaczęły się wymykać spod pełnej kontroli badaczy.

Firma ma też w swoich systemach uwzględnić miejsce na informację zwrotną od użytkowników.

5. Szanować zasady prywatności.

Google mówi w tym punkcie o ochronie prywatności i posiadaniu przez użytkownika władzy nad własnymi danymi. Zasadniczo padają bardzo ogólne zapowiedzi, których realizacja dopiero pokaże, co Google de facto miał na myśli.

6 Przestrzegać standardów naukowych.

Sztuczna inteligencja ma szansę być szeroko wykorzystywana w nauce. Google chce, żeby przestrzegała takich samych standardów, jak najlepsi zajmujący się nauką białkowcy.

7. Udostępniona tym, którzy przestrzegają tych zasad.

REKLAMA

O tym, czy Google podzieli się sztuczną inteligencją, decyduje szereg czynników. To, jaki będzie główny cel jej zastosowania, jak bardzo jest unikalna, jak duży ma potencjalnie wpływ na ludzi, a w końcu, w jaki sposób sama firma jest zaangażowana w projekt.

Coraz częściej i coraz więcej mówi się o potrzebie ustanowienia zasad, które będą brać pod uwagę sztuczną inteligencję. Nie bez przyczyny w styczniu Unia Europejska zatwierdziła raport dotyczący przepisów dla robotów. Pojawiło się w nich między innymi pojęcia osoby elektronicznej. Co prawda, całość była dość abstrakcyjna i wyglądała jak ciąg dalszy Praw Robotów Asimova, ale pokazuje to, że dyskusja na ten temat jest potrzebna. Choćby tylko po to, żeby pokazać, jakie są obecnie prawdziwe zagrożenia związane z rozwojem sztucznej inteligencji, a jakie mają na razie swoje miejsce tylko w książkach science fiction.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA