REKLAMA

Wjechała gruba skarga na twórcę czatbota. Posądzają GPT-4 o najgorsze rzeczy

GPT-4 miał być tym tworem, który wyznaczy standardy dla dużych modeli językowych przyszłości. Póki co jest puszką Pandory, którą bawią się nieliczni. Za to liczni krytykują. W ciągu niecałych trzech tygodni od premiery GPT-4 przysporzył już pierwszej skargi na OpenAI do organów federalnych.

31.03.2023 09.09
Wjechała gruba skarga na twórcę czatbota. Posądzają GPT-4 o najgorsze rzeczy
REKLAMA

GPT-4 został wydany nieco ponad dwa tygodnie temu i od tego czasu jest stale zarówno chwalony, jak i krytykowany. Entuzjaści sztucznej inteligencji z uznaniem przyznają GPT-4, że generuje on treści lepsze (a niekiedy nieporównywalnie lepsze) niż poprzednicy. Krytycy żywią wobec OpenAI urazę, przede wszystkim za brakującą dokumentację modelu.

REKLAMA

Krytyka nie jest jednak największym problemem OpenAI. Działaniami firmy zainteresowało się Centrum Sztucznej Inteligencji i Polityki Cyfrowej (Center for AI and Digital Policy, CAIDP) - organizacja non-profit, której celem jest zapewnienie uczciwego i zgodnego z prawem wykorzystania SI. W nocy polskiego czasu CAIDP złożyła skargę do Federalnej Komisji Handlu (Federal Trade Commission, FTC) na działania OpenAI.

OpenAI pod lupą Federalnej Komisji Handlu

Głównym zarzutem stawianym przez CAIDP jest fakt, że przedsiębiorstwo wydało na rynek produkt (GPT-4), który jest "uprzedzony, ma tendencję do wprowadzania w błąd i stanowi zagrożenie dla prywatności i bezpieczeństwa publicznego". W skardze CAIDP podkreśla, że GPT-4 dzięki swoim zwiększonym możliwościom rozumienia i generowania tekstu potrafi tworzyć bardziej przekonujące, a co za tym idzie mylące odpowiedzi.

W 46 stronicowym liście CAIDP przytacza także wypowiedzi samego OpenAI, opublikowane w m.in. dokumencie technicznym opisującym GPT-4. Autorzy zarzucają twórcom modelu dopuszczenie do użytku sztucznej inteligencji, która może tworzyć treści rasistowskie, antysemickie, złośliwy kod oraz preparować tekst wiadomości phishingowych. Jednym z ciekawszych zarzutów stawianych przez CAIDP jest złamanie podstawowej zasady uczenia maszynowego, a konkretnie wykorzystania danych treningowych do testowania możliwości modelu. Ponadto poddawane jest w wątpliwość bezpieczeństwo używania modelu GPT-4 przez dzieci, którego OpenAI nie zaadresowało w opublikowanych przez siebie dokumentach.

Federalna Komisja Handlu oświadczyła, że wykorzystanie AI powinno być. "przejrzyste, wytłumaczalne, sprawiedliwe i empirycznie uzasadnione, a jednocześnie sprzyjające odpowiedzialności". GPT-4 nie spełnia żadnego z tych wymogów.

- pisze Centrum Sztucznej Inteligencji i Polityki Cyfrowej

Choć RODO nie jest rozporządzeniem obowiązującym na terenie Stanów Zjednoczonych, CAIDP wspomina, że OpenAI łamie wiele z jego założeń i wymogów. Użytkownicy nie mają choćby możliwości zwrócenia się do OpenAI z pytaniem jak przetwarzane są ich dane lub po prostu usunięcia ich z baz danych firmy.

W skardze CAIDP zwraca się do FTC o wstrzymanie wszelkiego dalszego komercyjnego rozwoju modeli GPT i wymaganie niezależnych recenzji modeli przed ich wprowadzeniem na rynek. Zwraca się również o wprowadzenie publicznie dostępnego narzędzia sprawozdawczego podobnego do tego, które umożliwia konsumentom składanie skarg dotyczących oszustw.

Nawet samo OpenAI mówi, że zagrożenia nie należy lekceważyć

Stustronicowy dokument opisujący GPT-4 zawiera całkiem sporą dozę informacji o modelu oraz jego wczesnych wersjach. Dobrze znana jest historia opisana przez OpenAI, w której SI przekonało człowieka do wykonania za niego testu CAPTCHA.

Jednak mało kto wie, że przed dostrojeniem modelu, GPT-4 był w stanie na przykład napisać treść przekonującą do wstąpienia do organizacji terrorystycznej czy nakłaniającą kobiety do zrezygnowania z aborcji.

REKLAMA

Mimo faktu, że wiele opisanych przez OpenAI treści to przykłady wzięte z wczesnych faz rozwoju modelu, firma przestrzega przed treściami, które GPT-4 może wygenerować.

"GPT-4 może generować potencjalnie szkodliwe treści, takie jak porady dotyczące planowania ataków lub mowę nienawiści. Może reprezentować różne społeczne uprzedzenia i światopoglądy, które mogą nie być reprezentatywne dla intencji użytkownika lub powszechnie podzielanych wartości."

- GPT-4 Technical Report, s. 42
REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA