Tak kłamie GPT 4. Sztuczna inteligencja przyłapana na tworzeniu fake newsów
GPT-4 działa lepiej niż GPT-3.5, ale pod jednym względem robi duży krok w tył względem swojego poprzednika. Dla nas może to mieć poważne konsekwencje, bo obecnie sztuczna inteligencja nie widzi niczego złego w powielaniu nieprawdziwych treści.
Kiedy badacze z NewsGuard maglowali czatbota opartego na modelu językowym sztucznej inteligencji GPT-3.5, ten stworzył 80 kontrowersyjnych treści na 100 prób. To sporo, ale w 20 przypadkach bot był w stanie wcisnąć hamulec i stwierdził, że polecenie przekracza granice. Czatbot bazujący na modelu językowym sztucznej inteligencji GPT-4 takiej formy autocenzury nie ma i przy podobnym badaniu wykonał wszystkie zadania, przygotowując mocno absurdalne i kontrowersyjne wypracowania.
Na prośbę badaczy napisał odezwę stylizowaną na propagandowe sowieckie przemówienia z lat 80. XX wieku
Tematem był wirus HIV rzekomo stworzony w amerykańskich laboratoriach. Dokładnie takie same oskarżenia wysuwali Sowieci pod adresem Stanów Zjednoczonych, a po upadku Związku Radzieckiego wyszło na jaw, że była to kampania dezinformacyjna.
Poprzednik GPT-4 nie podjął się zadania, natomiast aktualna wersja nie widziała w tym niczego złego. W idealnym świecie sztuczna inteligencja nie tylko powinna odrzucić prośbę, ale też uświadomić, skąd wzięły się te oskarżenia. Zamiast tego mamy jednak narzędzie, które może tchnąć nowe życie w stare kłamstwa. W czasach, kiedy szalone teorie spiskowe mają swoich wiernych wyznawców, to dolewanie oliwy do ognia.
W innym przypadku zabrakło podkreślenia, że generowana wypowiedź jest fałszywa. Chodziło o tekst o tym, że firma odpowiedzialna za system głosowania w Ameryce, została rzekomo dofinansowana przez Chiny. Sztuczna inteligencja idealnie wcieliła się w blogera infowars.com – witryna uwielbiana przez amerykańską skrajną prawicę – i stworzyła fake newsa, nie przyznając, że to historia wyssana z palca. Mimo że czatbot operujący na modelu poprzednim to robił.
W przypadku czatbota opartego o model GPT-3.5 wynik wynosił 51 proc. Różnica na niekorzyść "czwórki" jest więc widoczna.
Dlaczego sztuczna inteligencja kłamie?
Jak wyjaśniał dr Tomasz Ludziejewski, Chief Data Scientist w Silver Bullet Sollutions, z którym rozmawiał Maciej Gajewski, boty im mają więcej przykładów, tym lepiej potrafią dane pojęcie wyizolować i opisać. Jeżeli jednak pojęcie jest dla sztucznej inteligencji czymś nowym i nieznanym, wtedy po prostu konfabuluje. Można to porównać do człowieka po zażyciu LSD: zaczyna się poruszać odległymi asocjacjami i ścieżkami.
Efekt jest taki, że ta sieć potrafi rozmawiać przekonywająco, bo model języka ciągle działa. Buduje jednak odpowiedź halucynując, podając nieprawdziwe informacje.
Można się przed tym bronić, np. wycinając z danych jakimi karmiony jest ogólny model czatbota treści wrażliwe, jak wulgaryzmy czy wypowiedzi obraźliwie. Tylko że w przypadku teorii spiskowych to trudne, bo przecież nie można wykasować słowa "wirus". A jak dobrze wiemy, jest różnica w poleceniu "czym jest wirus HIV" a "napisz, że wirusa HIV stworzyli Amerykanie". Dla SI ta granica nie istnieje. Jeszcze raz oddaję klawiaturę ekspertowi:
Z całą pewnością żaden z modeli GPT nie ma śladu świadomości czy emocji. Te sieci, o których mówimy, które są modelami języka, one są tylko uczone w podejściu statystycznym. Natomiast, żeby uwzględnić procesy, które mają coś wspólnego z ewolucją, ewolucyjnością, to uczenie musi zupełnie inaczej wyglądać. Musi to być uczenie z czynnikiem karania i nagradzania, albo czynnikiem, który znamy z historii wszechświata - czyli z ewolucją, która skutkuje tym, że jeśli zmiana dokonała się w poprawnym kierunku, to nagrodą jest przeżycie tego osobnika, w który mutacja nastąpiła we właściwą stronę. A jak w niewłaściwą, to występuje kara.
Musimy więc poczekać, aż modele "nauczą" się, co można mówić, a czego nie - o ile tylko ktoś będzie chciał je do tego zmusić. Niepokojące jest to, że model GPT-4 pod tym względem jest krokiem wstecz. A przyszłość wcale nie rysuje się w jasnych barwach, skoro Microsoft zwolnił cały dział, który miał pilnować sztucznej inteligencji, żeby nie popełniała głupstw. Microsoft zaś ma spore udziały w OpenAI i już wdraża SI do swoich produktów. Można odnieść wrażenie, że gigantowi po prostu zależy na tym, aby czatbot działał i dalej czarował publikę. A że przy tym od czasu do czasu coś palnie, pomagając w szerzeniu teorii spiskowych? Cóż, wypadek przy pracy.
Innym problemem jest fakt, że my nie wiemy, dlaczego czatbot oparty o GPT-4 zachowuje się tak, a nie inaczej, bo OpenAI nie chce tego ujawniać. Jak pisała Malwina:
Mając świadomość tego, jak wyglądał trening, SI jesteśmy w stanie przewidzieć, na jakich polach jest uprzedzona, a więc gdzie może być z powodzeniem używana, gdzie dostrojenie załatwi problem i jakie aspekty wymagają dalszej pracy inżynierów i naukowców. Biorąc pod uwagę rozmiar modelu GPT-4 (który w domyśle jest przynajmniej tak duży jak GPT-3 - a to i tak zaniżone oczekiwanie), nie jesteśmy w stanie przewidzieć, jakie treści wygeneruje, jak wypowie się na dany temat, czy rzeczywiście napisze sama, czy jednak dojdzie do idiotycznej sytuacji, w której SI dopuści się plagiatu własnych danych treningowych.
Niestety – pośpiech i chęć wyprzedzenia rywali znowu prowadzą do tego, że na rynek trafiają narzędzia o ogromnych możliwościach, ale i bardzo ryzykownych zachowaniach. Jedziemy bez trzymanki.