REKLAMA

Najgorsze SI na świecie zostało wytrenowane za pomocą 4chana

"Otwarcie puszki Pandory" - tak swego czasu nazywano opracowanie sztucznej inteligencji zdolnej pisać jak wprawny pisarz czy dziennikarz. Ale co jeżeli puszka zostanie otworzona w najgorszym miejscu w internecie? Odpowiedzi na to udziela austriacki youtuber, przy okazji mierząc się z ogromną falą krytyki od środowisk naukowych.

10.06.2022 12.58
4chan wytrenował najgorszą sztuczną inteligencję na świecie
REKLAMA

4chan to zdaniem wielu źródło wszystkiego, co najlepsze i najgorsze w internecie. Źródło sporej części z najpopularniejszych memów, miejsce dyskusji na tematy kontrowersyjne i publikowania jeszcze bardziej kontrowersyjnych opinii. Na anglojęzycznym imageboardzie można znaleźć wszystko, "tak długo jak jest to legalne", ale i to jest kwestionowane, biorąc pod uwagę, że od czasu do czasu 4chanem interesują się media. Za sprawą treści rasistowskich, nazistowskich i seksistowskich.

REKLAMA

Dlatego też doktorant (a zarazem youtuber) Yannic Kilcher postanowił wytrenować GPT-3 - model językowy sztucznej inteligencji, który jest w stanie samodzielnie pisać prozę na dziale Politically Incorrect (/pol/) poświęconym wiadomościom, wydarzeniom na świecie i polityce. Jak opisuje amerykański portal Vice, Kilcher do treningu modelu, który nazwał "GPT-4chan" wykorzystał 3,3 miliona wątków z działu /pol/. Tak wytrenowany GPT-4chan uruchomił na 9 różnych instancjach i przez 24 godziny pozwolił sztucznej inteligencji działać swobodnie w przestrzeni działu Politically Incorrect.

Zgodnie ze słowami Kilchera w filmiku na Youtube, w którym opisał swój "eksperyment", w jego dniu GPT-4chan napisał ponad 10 procent wszystkich postów zamieszczonych w dziale /pol/. Jednocześnie doktorant nazwał swoje dzieło "najokrutniejszym modelem [sztucznej inteligencji] w internecie".

Wiadomość o kontrowersyjnym eksperymencie szybko dotarła do środowisk naukowych zajmujących się sztuczną inteligencją. Choć Kilcher otwarcie przyznaje, że nie był to eksperyment a "prank", to z perspektywy naukowców, którzy zapoznali się z projektem, GPT-4chan to "nieetyczny eksperyment z użyciem sztucznej inteligencji".

Głos w tej sprawie zabrała m.in. Lauren Oakden-Rayner, radiolog i badaczka medycznej sztucznej inteligencji, członkini Australijskiego Instytutu Uczenia Maszynowego.

Jednak w wypowiedzi dla serwisu Vice Kilcher zostaje przy stanowisku, że GPT-4chan to jedynie eksperyment, który ze względu na toksyczność serwisu 4chan nie wyrządziłby nikomu krzywdy.

REKLAMA

Pomimo stanowiska autora nieetyczny trening i wykorzystanie modelu, a także ilość zgłoszeń GPT-4chan w serwisie Hugging Face - serwisie łączącym twórców i badaczy sztucznej inteligencji sprawiła, że GPT-4chan został zdjęty z serwisu. Jednakże Kilcher udostępnił model we własnej witrynie internetowej.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA