REKLAMA

Wrzucił sztuczną inteligencję do najgorszego miejsca w sieci. Zgadnij, jakie są efekty

"Otwarcie puszki Pandory" - tak swego czasu nazywano opracowanie sztucznej inteligencji zdolnej pisać jak wprawny pisarz czy dziennikarz. Ale co jeżeli puszka zostanie otworzona w najgorszym miejscu w internecie? Odpowiedzi na to udziela austriacki youtuber, przy okazji mierząc się z ogromną falą krytyki od środowisk naukowych.

4chan wytrenował najgorszą sztuczną inteligencję na świecie
REKLAMA

4chan to zdaniem wielu źródło wszystkiego, co najlepsze i najgorsze w internecie. Źródło sporej części z najpopularniejszych memów, miejsce dyskusji na tematy kontrowersyjne i publikowania jeszcze bardziej kontrowersyjnych opinii. Na anglojęzycznym imageboardzie można znaleźć wszystko, "tak długo jak jest to legalne", ale i to jest kwestionowane, biorąc pod uwagę, że od czasu do czasu 4chanem interesują się media. Za sprawą treści rasistowskich, nazistowskich i seksistowskich.

Dlatego też doktorant (a zarazem youtuber) Yannic Kilcher postanowił wytrenować GPT-3 - model językowy sztucznej inteligencji, który jest w stanie samodzielnie pisać prozę na dziale Politically Incorrect (/pol/) poświęconym wiadomościom, wydarzeniom na świecie i polityce. Jak opisuje amerykański portal Vice, Kilcher do treningu modelu, który nazwał "GPT-4chan" wykorzystał 3,3 miliona wątków z działu /pol/. Tak wytrenowany GPT-4chan uruchomił na 9 różnych instancjach i przez 24 godziny pozwolił sztucznej inteligencji działać swobodnie w przestrzeni działu Politically Incorrect.

REKLAMA

Zgodnie ze słowami Kilchera w filmiku na Youtube, w którym opisał swój "eksperyment", w jego dniu GPT-4chan napisał ponad 10 procent wszystkich postów zamieszczonych w dziale /pol/. Jednocześnie doktorant nazwał swoje dzieło "najokrutniejszym modelem [sztucznej inteligencji] w internecie".

Wiadomość o kontrowersyjnym eksperymencie szybko dotarła do środowisk naukowych zajmujących się sztuczną inteligencją. Choć Kilcher otwarcie przyznaje, że nie był to eksperyment a "prank", to z perspektywy naukowców, którzy zapoznali się z projektem, GPT-4chan to "nieetyczny eksperyment z użyciem sztucznej inteligencji".

Głos w tej sprawie zabrała m.in. Lauren Oakden-Rayner, radiolog i badaczka medycznej sztucznej inteligencji, członkini Australijskiego Instytutu Uczenia Maszynowego.

Jednak w wypowiedzi dla serwisu Vice Kilcher zostaje przy stanowisku, że GPT-4chan to jedynie eksperyment, który ze względu na toksyczność serwisu 4chan nie wyrządziłby nikomu krzywdy.

REKLAMA

Pomimo stanowiska autora nieetyczny trening i wykorzystanie modelu, a także ilość zgłoszeń GPT-4chan w serwisie Hugging Face - serwisie łączącym twórców i badaczy sztucznej inteligencji sprawiła, że GPT-4chan został zdjęty z serwisu. Jednakże Kilcher udostępnił model we własnej witrynie internetowej.

REKLAMA
Najnowsze
Aktualizacja: 2026-01-13T07:29:00+01:00
Aktualizacja: 2026-01-12T20:38:13+01:00
Aktualizacja: 2026-01-12T19:32:29+01:00
Aktualizacja: 2026-01-12T19:24:18+01:00
Aktualizacja: 2026-01-12T18:49:39+01:00
Aktualizacja: 2026-01-12T17:49:27+01:00
Aktualizacja: 2026-01-12T16:08:15+01:00
Aktualizacja: 2026-01-12T15:04:31+01:00
Aktualizacja: 2026-01-12T11:41:31+01:00
Aktualizacja: 2026-01-12T10:50:53+01:00
Aktualizacja: 2026-01-12T08:50:07+01:00
Aktualizacja: 2026-01-12T08:14:20+01:00
Aktualizacja: 2026-01-12T08:06:52+01:00
Aktualizacja: 2026-01-12T06:42:07+01:00
Aktualizacja: 2026-01-12T06:20:00+01:00
Aktualizacja: 2026-01-12T06:10:00+01:00
REKLAMA
REKLAMA
REKLAMA