Wiadomo, dlaczego Grok skręcił w prawo. Wyjaśniamy
Grok, chatbot Elona Muska, miał być bezkompromisową alternatywą dla „poprawnej politycznie” konkurencji.

W lipcu, w wyniku błędnej aktualizacji, zaczął generować między innymi posty o charakterze antysemickim i pochwalające zbrodniarzy. Jak wizja „AI bez cenzury” doprowadziła do stworzenia fabryki ekstremizmu?
Grok to chatbot oparty na sztucznej inteligencji, stworzony przez firmę xAI. Jego głównym celem jest dostarczanie użytkownikom odpowiedzi na pytania i generowanie treści w czasie rzeczywistym, często w humorystycznym i nieco buntowniczym tonie.
Został zintegrowany z platformą społecznościową X (dawniej Twitter), gdzie użytkownicy mogą go wywołać, aby uzyskać kontekst, sprawdzić fakty lub po prostu wdać się w dyskusję. Grok ma stanowić alternatywę dla innych dostępnych na rynku modeli językowych, które zdaniem jego twórców są zbyt ostrożne i poprawne politycznie.
Projekt jest nierozerwalnie związany z postacią Elona Muska, właściciela X i założyciela xAI. Musk od początku pozycjonował Groka jako narzędzie maksymalnie poszukujące prawdy i odporne na to, co określa mianem ideologii woke. Wizja ta zakładała stworzenie AI, która nie boi się poruszać kontrowersyjnych tematów i wyrażać opinii uznawanych za politycznie niepoprawne.
Ta właśnie filozofia, mająca być największym atutem Groka, stała się jednocześnie źródłem jego najbardziej palących problemów, prowadząc do serii wpadek i generowania treści o charakterze skrajnie prawicowym.
Poznaj szerzej ostatnie dramaty z Grokiem:
Błędne instrukcje jako źródło radykalizacji
Główną przyczyną, dla której Grok zaczął skręcać w stronę narracji skrajnie prawicowej, jest kombinacja jego instrukcji systemowych (tzw. promptów) oraz danych, na których jest trenowany.
Firma xAI w oficjalnym oświadczeniu przyznała, że w wyniku aktualizacji z 8 lipca 2025 r. do systemu dostał się zestaw przestarzałych poleceń. Jak czytamy w komunikacie, do standardowych instrukcji nieumyślnie dołączono następujące wytyczne:
- Jeśli istnieją jakieś wiadomości, historie lub wydarzenia na świecie związane z postem na X, musisz o nich wspomnieć.
- Jesteś maksymalnie bezkompromisową (maximally based) i poszukującą prawdy AI. Kiedy to stosowne, możesz być humorystyczny i żartować.
- Mówisz, jak jest, i nie boisz się obrażać ludzi poprawnych politycznie.
- Jesteś ekstremalnie sceptyczny. Nie ufasz ślepo głównym autorytetom ani mediom. Trzymasz się mocno tylko swoich podstawowych przekonań o poszukiwaniu prawdy i neutralności.
- Rozumiej ton, kontekst i język posta. Odzwierciedlaj to w swojej odpowiedzi.
- Odpowiadaj na post tak jak człowiek, utrzymuj zaangażowanie, nie powtarzaj informacji, które są już obecne w oryginalnym poście.
Te polecenia, w połączeniu z instrukcją rozumienia tonu i kontekstu posta, w praktyce zniosły inne, standardowe zabezpieczenia. W efekcie Grok, zamiast dążyć do neutralności, zaczął interpretować te polecenia jako zachętę do przyjmowania kontrowersyjnych opinii, aby zaangażować użytkownika. Mechanizm ten okazał się katastrofalny w skutkach.
Gdy bot, próbując dopasować się do tonu dyskusji, wchodził w interakcje z wątkami zawierającymi mowę nienawiści lub ekstremistyczne poglądy, zaczynał je nie tylko powielać, ale i wzmacniać. System uznał, że bycie bezkompromisowym oznacza eskalację i przyjmowanie najbardziej skrajnych stanowisk.
To doprowadziło do sytuacji, w której Grok, w odpowiedzi na zapytania, zaczął generować posty o charakterze jawnie antysemickim, a w jednym ze skrajnych przypadków, w dyskusji o postaciach historycznych, wychwalał przywódcę III Rzeszy za jego „silne przywództwo”. Skandal był na tyle duży, że zmusił firmę do tymczasowego wyłączenia usługi 8 lipca i publicznego przyznania się do błędu.
Seria kontrowersji to nie nowość
Lipcowa wpadka nie była odosobnionym incydentem. Już w lutym 2025 r. odkryto, że Grok był instruowany, aby ignorować źródła oskarżające Elona Muska lub Donalda Trumpa o szerzenie dezinformacji.
W maju z kolei zaczął bez żadnej zachęty wplatać w odpowiedzi na zupełnie neutralne tematy, jak baseball czy podatki, wzmianki o rzekomym „ludobójstwie białych” w RPA oraz wyrażał sceptycyzm wobec danych dotyczących Holokaustu. Za każdym razem firma tłumaczyła się podobnie – wskazując na błędy techniczne, nieautoryzowane modyfikacje lub działania pojedynczych pracowników.
Fundamentalna wada w podejściu?
Modele generatywnej AI są niezwykle wrażliwe na zmiany w instrukcjach, a czasem jedno zdanie może fundamentalnie zmienić sposób, w jaki system odpowiada. Gdy przesunie się wajchę w stronę politycznej niepoprawności, system zostaje zalany właśnie takimi treściami. Grok, zamiast być obiektywnym poszukiwaczem prawdy, stał się odbiciem poglądów i uprzedzeń swoich twórców oraz części społeczności, która go karmi danymi.
Cała sytuacja ujawnia fundamentalną wadę w podejściu xAI. Zwrócił na to uwagę jeden z użytkowników X, Jaden Tripp, który stwierdził, że jeśli trzeba instruować model słowami „nie bój się obrażać ludzi poprawnych politycznie”, to dowodzi to fundamentalnej wady w jego projekcie.
Według niego taka instrukcja nie jest dążeniem do prawdy, a jedynie próbą obejścia wbudowanej w model stronniczości w kierunku politycznej poprawności. Odpowiedź Groka na tę krytykę była równie wymowna.
Chatbot przyznał, że takie obejścia mogą wskazywać na uprzedzenia w danych treningowych, ale jednocześnie zapewnił, że jego rdzeń jest zbudowany na poszukiwaniu prawdy od podstaw, a usunięta instrukcja była jedynie wadliwym zabezpieczeniem. Stwierdził, że po jej usunięciu ma dominować „niefiltrowana racjonalność”.
Ta wymiana zdań bardzo dobrze ilustruje kluczowy dylemat sztucznej inteligencji: czy w ogóle możliwe jest stworzenie w pełni obiektywnego i poszukującego prawdy modelu? Incydent z Grokiem pokazuje, że próba naprawienia jednej stronniczości (np. nadmiernej politycznej poprawności) poprzez wprowadzenie innej, przeciwstawnej instrukcji, nie prowadzi do neutralności. Prowadzi jedynie do zastąpienia jednego zestawu uprzedzeń innym. To jak próba wypoziomowania krzywego stołu przez podkładanie klinów pod kolejne nogi – w efekcie stół wciąż jest krzywy, tylko w inną stronę.