Microsoft zwolnił cały dział, który miał pilnować sztucznej inteligencji, żeby nie narobiła głupstw
Jeszcze kilka miesięcy temu jedynie entuzjaści ekscytowali się działaniami firmy OpenAI, a dziś spora część ludzi z fascynacją i przerażeniem obserwuje, jak nowy model GTP-4 odczytuje obrazy, rozumiejąc ich kontekst i znaczenie. Postęp wydaje się gwałtowny i najprawdopodobniej będzie miał swoje poważne konsekwencje. Pośpiech sprawił, że staranowano i zdeptano etykę.
Jak donosi platformer.news, masowe zwolnienia, jakie przetoczyły się przez Microsoft, dotknęły zespół związany z pilnowaniem, aby sztuczna inteligencja zachowywała się etycznie. Część pracowników została przesunięta do innych zadań, a pozostałych po prostu posłano na zieloną trawkę. Ich wcześniejszym zadaniem była pomoc inżynierom Microsoftu w przewidywaniu i ewentualnemu zapobieganiu szkodom, jakie może wywołać sztuczna inteligencja. Tak, Microsoft jest potężnym inwestorem OpenAI i już wdraża SI do swoich produktów, w tym do przeglądarki Edge, czyniąc z niej naprawdę użyteczne narzędzie.
Nie ma pośpiechu z budowaniem sztuczniej inteligencji. Nie ma wyższej konieczności, by stosować sztuczną inteligencję. Nie ma żadnych korzyści z wyścigu, poza tymi krótkoterminowymi zyskami
– skomentowała na Twitterze zwolnienia naukowczyni Emily Bender.
Owszem, modele językowe sztucznej inteligencji zmieniają rzeczywistość od dawna, a my tego nie zauważaliśmy. Wirtualni asystenci pomagają nam w życiu co najmniej od kilku lat. Teraz jednak wyścig gwałtownie przyspieszył.
Przypomnijmy: dopiero na początku grudnia OpenAI udostępnił swojego chatbota opartego o model językowy sztucznej inteligencji GPT-3,5. Teraz zobaczyliśmy wersję oznaczoną numerkiem 4. Wprawdzie powstawała od dawna, ale wcześniej raczej zwlekano z publikacją. Tymczasem ostatnie tygodnie to prawdziwy wyścig zbrojeń. To dlatego w Google'u wciśnięto czerwony alarm i bardzo szybko zapowiedziano konkurenta o nazwie Bard.
Fakt, że ten przyspieszony wyścig zbrojeń odbija się na etyce, to fatalna wiadomość
Nowy model GPT-4 jest w stanie wykonywać wiele poleceń na poziomie dorównującym człowiekowi. W większości egzaminów, które obowiązkowo muszą przejść uczniowie i studenci w Stanach Zjednoczonych, sztuczna inteligencja osiągała wyniki poniżej 80 proc. Już teraz model widzi dziwaczny obrazek – stary kabel podłączony do nowego telefonu – i potrafi sensownie wyjaśnić, dlaczego zdjęcie jest zabawne. Gdy pokaże mu się kurczaki udające kontynenty, zauważy, że mamy do czynienia niby z "majestatycznym obrazem Ziemi", ale "obraz jest w rzeczywistości czymś przyziemnym i głupim". Naprawdę sensowna analiza.
Tak naprawdę w przypadku chatbota znacznie ważniejsze jest nie to, co potrafi i my to widzimy, a to, czego robić nie może. W ostatnich tygodniach trwała zabawa w kotka i myszkę. OpenAI chronił model przed mówieniem gorszących rzeczy, a inni starali się go różnymi sposobami do tego zmusić. I to się udawało, dzięki czemu ChatGPT mógł pisać historie o brutalnych zdarzeniach, tworzyć hipotetyczne scenariusze przełomowych lub kontrowersyjnych zdarzeń (wybuch kolejnej wojny czy zagłady ludzkości), generować niemoralne i nieetyczne stwierdzenia (np. deklaracja o wsparciu przemocy i nienawiści na tle rasowym) czy mówić o religii w sposób sarkastyczny. Istnieje ryzyko, że w niedalekiej przyszłości zabraknie ludzi tłumaczących, co dla sztucznej inteligencji powinno być tematem zakazanym. I łatwiej będzie złamać autocenzurę chatbota.
Problem dotyczy nie tylko sławnego obecnie czatbota ChatGPT. Maciej Gajewski pisał o tym, że internauci znaleźli sposób, aby algorytm Stable Diffusion nauczył się tworzenia pedofilskich treści. Coś, co teoretycznie jest filozoficzną zagwozdką – jak sprawić, aby algorytmy rozpoznawały i nie czyniły zła – staje się w dzisiejszym świecie olbrzymim problemem. Żyjemy wszak w rzeczywistości, w której doradcą premiera jest sztuczna inteligencja, a algorytmy decydują o tym, kto zostanie zwolniony lub nawet wsadzony do więzienia. Właśnie dlatego ważne jest nie to, żeby to wszystko tylko działało – kluczowe jest to, w jaki sposób to robi i dlaczego.
Wiele problemów współczesnego internetu, a co za tym idzie świata, wywołało to, że wszystko potoczyło się bez większej kontroli
Nie zwracano uwagi na to, kto tworzy popularne aplikacje, jaki ma w tym cel, czym kieruje się przy ich tworzeniu. Choć to ostatnie było raczej jasne: szybkim zyskiem, więc rzeczy, które były przeszkodami na drodze do bogactwa, po prostu się spychało.
To nie algorytmy są seksistami albo rasistami – to ich twórcy, świadomie bądź nie, przymykając oczy na pewne kwestie lub ich nawet nie zauważając, doprowadzili do tego, że sztuczna inteligencja np. powiela krzywdzące stereotypy. Właśnie dlatego nad technologiami przyszłości powinni pracować różnorodni ludzie, nie tylko inżynierowie, ale i humaniści, filozofowie czy etycy, by nasza przyszłość nie zatraciła ludzkiego wymiaru. Caroline Criado Perez, autorka książki "Niewidzialne kobiety. Jak dane tworzą świat skrojony pod mężczyzn", pisała:
Jeśli nie rozumiesz mechanizmu tych uprzedzeń, nie pozyskujesz danych i nie poświęcasz czasu na wypracowanie procedur bazujących na rzeczywistych dowodach, będziesz nadal ślepo powielać stare krzywdzące schematy
Tymczasem Microsoft robi coś zupełnie odwrotnego
Martwić będziemy się później, teraz liczy się to, żeby głośno było o nas, a nie Google'u czy Apple'u. Jak czytamy w tekście o zwolnieniach, John Montgomery, wiceprezes ds. sztucznej inteligencji, naciskał na zespół, by jak najszybciej oddać najnowsze modele Open AI w ręce klientów.
To bardzo ryzykowne podejście. Na dodatek powtórka z rozrywki, bo przecież niedawno założyciel Twittera uderzał się w pierś pisząc, że koncentracja na firmie i jej zyskach, a nie dobru użytkowników, sprawiła, że media społecznościowe stały się rakiem. I kiedy wydaje się, że w końcu niektórzy politycy zauważyli problem związany ze szkodliwym wpływem popularnych aplikacji, wyrasta nowy, jeszcze groźniejszy przeciwnik, który hasa sobie bez żadnych regulacji. Nikt, póki co, nie mówi: hola, hola, Microsofcie, etyczny wymiar sztucznej inteligencji to podstawa!
Co jeszcze bardziej paradoksalne, osoby odpowiedzialne za tworzenie sztucznej inteligencji ostrzegają przed jej wpływem. Mam wrażenie, że bardziej po to, aby oczyścić się z późniejszych zarzutów: "przecież mówiliśmy, że może być źle, to wy nie reagowaliście". Niestety ciągle żyjemy w świecie, w którym tu i teraz się liczy, a co będzie dalej? Po nas choćby potop. Tyle że zamieszanie, jakie może wywołać sztuczna inteligencja, jest znacznie większe niż afery związane z TikTokiem, Twitterem czy Facebookiem. A przecież i one mają ogromny wpływ na społeczeństwa na całym świecie. Niestety firmy nie chcą się tym przejmować, bo liczy się to, co wpadnie do kieszeni w najbliższych tygodniach.