REKLAMA

Najgorsze SI na świecie zostało wytrenowane za pomocą 4chana

"Otwarcie puszki Pandory" - tak swego czasu nazywano opracowanie sztucznej inteligencji zdolnej pisać jak wprawny pisarz czy dziennikarz. Ale co jeżeli puszka zostanie otworzona w najgorszym miejscu w internecie? Odpowiedzi na to udziela austriacki youtuber, przy okazji mierząc się z ogromną falą krytyki od środowisk naukowych.

4chan wytrenował najgorszą sztuczną inteligencję na świecie
REKLAMA

4chan to zdaniem wielu źródło wszystkiego, co najlepsze i najgorsze w internecie. Źródło sporej części z najpopularniejszych memów, miejsce dyskusji na tematy kontrowersyjne i publikowania jeszcze bardziej kontrowersyjnych opinii. Na anglojęzycznym imageboardzie można znaleźć wszystko, "tak długo jak jest to legalne", ale i to jest kwestionowane, biorąc pod uwagę, że od czasu do czasu 4chanem interesują się media. Za sprawą treści rasistowskich, nazistowskich i seksistowskich.

Dlatego też doktorant (a zarazem youtuber) Yannic Kilcher postanowił wytrenować GPT-3 - model językowy sztucznej inteligencji, który jest w stanie samodzielnie pisać prozę na dziale Politically Incorrect (/pol/) poświęconym wiadomościom, wydarzeniom na świecie i polityce. Jak opisuje amerykański portal Vice, Kilcher do treningu modelu, który nazwał "GPT-4chan" wykorzystał 3,3 miliona wątków z działu /pol/. Tak wytrenowany GPT-4chan uruchomił na 9 różnych instancjach i przez 24 godziny pozwolił sztucznej inteligencji działać swobodnie w przestrzeni działu Politically Incorrect.

REKLAMA

Zgodnie ze słowami Kilchera w filmiku na Youtube, w którym opisał swój "eksperyment", w jego dniu GPT-4chan napisał ponad 10 procent wszystkich postów zamieszczonych w dziale /pol/. Jednocześnie doktorant nazwał swoje dzieło "najokrutniejszym modelem [sztucznej inteligencji] w internecie".

Model był dobry w okropnym sensie. Doskonale odwzorował mieszankę obraźliwości, nihilizmu, trollingu i głębokiej nieufności do wszelkich informacji, które przenikają większość postów na /pol/

Wiadomość o kontrowersyjnym eksperymencie szybko dotarła do środowisk naukowych zajmujących się sztuczną inteligencją. Choć Kilcher otwarcie przyznaje, że nie był to eksperyment a "prank", to z perspektywy naukowców, którzy zapoznali się z projektem, GPT-4chan to "nieetyczny eksperyment z użyciem sztucznej inteligencji".

Głos w tej sprawie zabrała m.in. Lauren Oakden-Rayner, radiolog i badaczka medycznej sztucznej inteligencji, członkini Australijskiego Instytutu Uczenia Maszynowego.

[...] Ten eksperyment nigdy nie przeszedłby przez komisję etyki badań na ludziach. […] [Kilcher] wykonywał eksperymenty na ludziach bez informowania użytkowników, bez zgody i nadzoru. To narusza wszelkie zasady etyki badań na ludziach. [...] - pisze Oakden

Jednak w wypowiedzi dla serwisu Vice Kilcher zostaje przy stanowisku, że GPT-4chan to jedynie eksperyment, który ze względu na toksyczność serwisu 4chan nie wyrządziłby nikomu krzywdy.

Nikt na 4chanie nie został przez to [działania GPT-4chan] ani trochę skrzywdzony. Zapraszam do spędzenia czasu na /pol/ i zastanowienia się, czy tak wytrenowany bot jakkolwiek zmienia doświadczenie korzystania z serwisu.

REKLAMA

Pomimo stanowiska autora nieetyczny trening i wykorzystanie modelu, a także ilość zgłoszeń GPT-4chan w serwisie Hugging Face - serwisie łączącym twórców i badaczy sztucznej inteligencji sprawiła, że GPT-4chan został zdjęty z serwisu. Jednakże Kilcher udostępnił model we własnej witrynie internetowej.

REKLAMA
Najnowsze
Aktualizacja: 2025-03-27T18:42:43+01:00
Aktualizacja: 2025-03-27T14:54:23+01:00
Aktualizacja: 2025-03-27T14:46:30+01:00
Aktualizacja: 2025-03-27T09:39:05+01:00
Aktualizacja: 2025-03-27T06:03:00+01:00
Aktualizacja: 2025-03-26T16:33:07+01:00
Aktualizacja: 2025-03-26T14:37:09+01:00
Aktualizacja: 2025-03-26T12:27:29+01:00
REKLAMA
REKLAMA
REKLAMA