Google i mechanizm, który zatrzyma maszyny przed przejęciem kontroli nad światem
DeepMind należący do Google’a opublikował pracę o mechanizmie, który miałby zapobiec uczenia się, jak omijać ludzkie dyspozycje. To taki system bezpieczeństwa mający zagwarantować, że maszyny nie przejmą kontroli.
Abstrakcyjne ćwiczenie umysłowe, prawda? Nie do końca. To problemy, o których musimy myśleć już teraz, by zapewnić sobie jak najmniej problemów w przyszłości.
Odkąd Elon Musk i Stephen Hawking zaczęli ostrzegać przed sztuczną inteligencją, media zaczęły zwracać większą uwagę na ten temat. Być może dlatego, że Musk i Hawking - dwie naprawdę znane postaci - dały powód do obaw i strachu. Strach sprzedaje się najlepiej, więc sztuczna inteligencja stała się nośnym i klikalnym tematem a ostrzeganie przed zagładą stało się modne.
Lubimy strach
Lubimy rozważać hipotetyczne możliwości zagłady, o ile podane są one w przystępny, kolorowy sposób. Jak filmy katastroficznym.
Tymczasem do momentu, w którym sztuczna inteligencja stanie się mądrzejsza i po prostu lepsza od człowieka na tyle, że przejmie kontrolę nad światem, dzieli nas co najmniej kilka dekad. Do tego czasu każdego roku będziemy natykali się - o ile już się nie natykamy - na coraz bardziej zautomatyzowany świat, w którym machine learning i sztuczna inteligencja odgrywa coraz większą rolę i w którym pytanie o moralność maszyn staje się coraz bardziej zasadne.
W dosyć kiepsko moderowanej, ale wciąż interesującej dyskusji o moralności algorytmów i sztucznej inteligencji, która odbyła się podczas World Science Festival, naukowcy zajmujący się AI narysowali ciekawy obraz problemów, które napotykają już teraz pracując nad przyszłością AI.
Jest ich wiele
Od problemu moralności algorytmu autonomicznych samochodów, o którym pisałam tutaj, przez już istniejące automatyczne systemy zatrudniania czy oceny pracowników, które miewają tendencje do dyskryminacji, po przeskoczenie tego, czy algorytm będzie w stanie wyłapać kontekst rozmowy, ocenić sytuację i wiedzieć, że gdy mówimy masz zegarek? tak naprawdę pytamy która jest godzina?
Już dziś trwają debaty nad tym, czy prawo międzynarodowe powinno zezwalać na istnienie autonomicznych broni - nie tylko dronów, które zdalnie zabijają ludzi - ale także przyszłych broni, które mogłyby podejmować decyzje całkowicie bez udziału człowieka. A jeśli, to czy dla dobra ludzkości nie zakazać istnienia sztucznej inteligencji w innych dziedzinach? Czy może pozwolić, by AI istniało i przejmowała kolejne obowiązki człowieka bo tylko podczas działania będziemy mogli dopracować ją i uczyć się na błędach?
Czy jeśli doprowadzimy do momentu, w którym AI będzie miało lepsze pojęcie o moralności, niż my, to czy powinniśmy zdać się na nie? Czy to nie będzie znaczyło, że AI jest bardziej ludzkie, niż ludzie?
Czy to w ogóle możliwe, że maszyna pojmie moralność, skoro my sami na dobrą sprawę nie wiemy, czym jest?
Rozpatrując już dziś takie możliwości, próbując przewidzieć przyszłość, zastanawiając się nad stworzeniem killswitcha dla sztucznej inteligencji, która będzie w stanie rozumieć rzeczywistość, wybiegamy mocno w przyszłość. Jednak jednocześnie próbujemy sprawić, że przejście w tę przyszłość będzie mniej bolesne i bardziej przemyślane.
Zamiast hurraoptymistycznie rzucać się na każdą nowość lub depresyjnie mówić, że to i tak nie ma sensu bo AI przejmie kiedyś władzę nad światem, może lepiej faktycznie działać już teraz?
Czytaj również: