REKLAMA

Nowy ChatGPT uczy się od Muska i powiela kłamstwa. To ja podziękuję

OpenAI, wypuszczając model 5.2, reklamowało go jako swoje "najbardziej zaawansowane" dzieło. Testerzy odkryli jednak, że część jego odpowiedzi opiera się na dyskusyjnych źródłach. W trudnych tematach riposty stały się bardziej stronnicze, a twórcy modelu najwyraźniej nie wstydzą się korzystania z artykułów generowanych przez inne systemy AI.

OpenAI do szkolenia ChatGPT 5.2 wykorzystuje niezbyt wiarygodne źródła.
REKLAMA

Najnowszy model ChatGPT sięga po treści m.in. z Grokipedii Elona Muska — kontrowersyjnej, częściowo generowanej przez AI encyklopedii. Podważa to wiarygodność odpowiedzi i wywołuje alarmy o dezinformacji.

Grokipedia to "encyklopedia" powiązana z Elonem Muskiem i jego firmą xAI. To nie jest drobny szczegół: model OpenAI cytuje ją właśnie przy najbardziej kontrowersyjnych tematach, w tym wrażliwych kwestiach historycznych i politycznych.

REKLAMA

Grokipedia powstała jako alternatywa dla Wikipedii, bo – jak twierdził jej patron – oryginał jest "stronniczy". Niestety szybko zyskała reputację źródła pełnego toksycznych treści: fragmenty artykułów skopiowanych z Wikipedii mieszają się tam z twierdzeniami o skrajnie wątpliwej merytoryce. Ba, na porządku dziennym zdarzają się niemoralne i obraźliwe ataki na konkretne grupy społeczne. Innymi słowy, jeżeli szukacie rzetelnych faktów, Grokipedia nie jest do tego najlepszym miejscem.

ChatGPT 5.2 odwołuje się do Grokpedii przy odpowiedziach

Problem polega na tym, że model AI korzystający z niepewnych źródeł, może powielać i wzmacniać błędy. Gdy ChatGPT odwołuje się do Grokipedii w sprawach takich jak powiązania firm z rządami czy interpretacje historyczne, użytkownik otrzymuje odpowiedź podaną z pewnością siebie, której niekoniecznie powinien ufać. Dodatkowo problem nie znika, kiedy model "mówi' prawidłowo w większości przypadków – wystarczy kilka fałszywych lub tendencyjnych wpisów, by wyrządzić szkody w dyskursie publicznym.

Dziennikarze i urzędy ds. ochrony prywatności alarmują: to nie tylko wizerunkowa wpadka, ale kwestia zaufania do systemów, które ludzie traktują jak autorytety. OpenAI może twierdzić, że model uczy się z wielu źródeł, ale kiedy wśród nich pojawiają się treści generowane przez AI o wątpliwej jakości, granica między faktem a halucynacją staje się mglista.

Więcej o sztucznej inteligencji przeczytasz na łamach Spider'sWeb:

REKLAMA

OpenAI może tylko sobie "pogratulować". Stworzyło narzędzie, które błyskawicznie potrafi zebrać wiedzę z całego internetu, również jego mętnych zakamarków. Sprawia to, że przemycanie do chatbota kontrowersyjnych, niezweryfikowane "faktów" jest na porządku dziennym.

REKLAMA
Najnowsze
Aktualizacja: 2026-01-26T11:20:55+01:00
Aktualizacja: 2026-01-26T10:35:26+01:00
Aktualizacja: 2026-01-26T06:00:00+01:00
Aktualizacja: 2026-01-25T16:10:00+01:00
Aktualizacja: 2026-01-25T06:40:00+01:00
Aktualizacja: 2026-01-25T06:33:00+01:00
Aktualizacja: 2026-01-25T06:18:00+01:00
Aktualizacja: 2026-01-25T06:07:00+01:00
Aktualizacja: 2026-01-25T06:00:00+01:00
Aktualizacja: 2026-01-25T06:00:00+01:00
Aktualizacja: 2026-01-24T16:50:00+01:00
Aktualizacja: 2026-01-24T16:40:00+01:00
Aktualizacja: 2026-01-24T16:30:00+01:00
Aktualizacja: 2026-01-24T16:20:00+01:00
Aktualizacja: 2026-01-24T16:10:00+01:00
Aktualizacja: 2026-01-24T16:00:00+01:00
Aktualizacja: 2026-01-24T12:52:10+01:00
Aktualizacja: 2026-01-24T10:39:40+01:00
Aktualizacja: 2026-01-24T10:34:35+01:00
Aktualizacja: 2026-01-24T07:51:00+01:00
Aktualizacja: 2026-01-24T07:21:00+01:00
REKLAMA
REKLAMA
REKLAMA