Mój chatbot Władimir. Jak Rosjanie zatruwają wielkie modele językowe

Prawda tonie w morzu "gorszych" informacji, gdyż wytworzenie prawdy i jej opisanie jest bardziej złożone i kosztowne. Dzięki sztucznej inteligencji i dużym modelom językowym infekowanie sieci jest wyjątkowo proste. I niestety skuteczne. Kreml doskonale zdaje sobie z tego sprawę.

Mój chatbot Władimir. Jak Rosjanie zatruwają wielkie modele językowe

Brzmi to jak kolejna informacyjna dystopia: duże modele językowe mogą powielać rosyjskie narracje dezinformacyjne nawet w 33 proc. przypadków zbadanych przez naukowców. I nie jest to przypadek. Kremlowscy aktorzy dezinformacji coraz częściej próbują wpływać na wyniki generowane przez algorytmy sztucznej inteligencji, a efekt tzw. Groomingu LLM jest wzmacniany przez normalizację dezinformacji i kłamstw w polityce.

Wciąż może szokować, że kraj w, którym nawet co piąty obywatel nie ma dostępu do bieżącej wody może być tak biegły w cyfrowej propagandzie. Moskwa wygrywa wojnę informacyjną: zainfekowała sieć, media społecznościowe, zbudowała armię opłacanych propagandzistów i wychowała armię pożytecznych idiotów. Ostatnio magazyn Obiektyw (nowy projekt Stowarzyszenia fact-checkingowego Demagog) opisał dogłębnie jak działa  rosyjska propaganda na Telegramie.

Krok po kroku zaczynamy też rozumieć, że wystarczy naprawdę niewiele (około 100 kont i dobrze wykorzystane algorytmy sieci społecznościowych), aby wywołać efekt kuli śniegowej. Iluzja większości i dominującej narracji działa

Jak zauważył niedawno w swoim wpisie na LinkedIn prof. Piotr Sankowski "problem widoczności dezinformacji absolutnie nie ma charakteru oddolnego, masowego ruchu społecznego". Jest wręcz przeciwnie: dezinformacja jest wynikiem celowego, zintensyfikowanego działania zaledwie garstki zdeterminowanych “super-rozsadników” (super-spreaders). Termin ten, znany z nauk medycznych, odnosi się do osób, które choć będąc w znacznej mniejszości zarażają swoją narracją wiele osób, często nieproporcjonalnie bardziej niż mogłoby to się wydawać.

"Przeciętni obywatele są z każdym miesiącem coraz intensywniej narażeni na kontakt z treściami spiskowymi w swoich spersonalizowanych kanałach informacyjnych. W ten sposób zniekształca się nasza percepcja norm społecznych, a mniejszościowa iluzja staje się nową rzeczywistością" – napisał dyrektor IDEAS Research Institute.

O ile jednak sporo już napisano o wyżej wskazanych kampaniach dezinformacyjnych prowadzonych za pośrednictwem mediów społecznościowych (dziś bardziej pasującym określeniem byłoby: platformy antyspołecznościowe) i serwisów informacyjnych, to inny sposób sączenia propagandy wydaje się wciąż słabo zbadany, ale przy tym niezwykle problematyczny. 

Wiadomo, że modele językowe mówią językiem swoich właścicieli (a ci właściciele najczęściej mówią językiem rynku). Co więcej, aktorzy świata geopolityki i biznesu próbują wpływać na te modele. Trudno się im dziwić. Pokusa, aby chat mówił "naszym językiem" jest ogromna.

Zwłaszcza że kolejne badania dobitnie pokazują, że odsetek ludzi, którzy swoją wiedzą o świecie czerpią nie z mediów, ani nawet z platform antyspołecznościowych, tylko z modeli językowych z ChatemGPT na czele, stale rośnie. Innymi słowy, informacji o świecie szukamy w miejscach, do których jest nam najbliżej. A skoro coraz mocniej polegamy na dużych modelach językowych, trudno się dziwić, że stają się naszym oknem na świat.

Prawda, też prawda i gówno pravda

W raporcie opublikowanym w marcu 2025 r. badacze z News Guard ujawnili, że popularne LLM-y są podatne na dezinformację rozpowszechnianą przez rosyjską sieć dezinformacyjną o nazwie Pravda.

Według francuskiej agencji antydezinformacyjnej Viginum, za kampanią stoi firma informatyczna zlokalizowana na okupowanym przez Rosję Krymie. Sieć powstała wkrótce po rosyjskiej inwazji na półwysep, działa w kilkudziesięciu krajach i regularnie rozpowszechnia prokremlowskie narracje. 

Posiada setki stron internetowych i kont w mediach społecznościowych, które automatycznie powielają i wzmacniają treści dezinformacyjne, często posługując się maszynowymi tłumaczeniami.

Szacuje się, że tylko w 2024 roku Pravda opublikowała ponad 3,6 miliona artykułów online. Naukowcy przeanalizowali piętnaście najczęściej występujących w nich narracji i porównali je z odpowiedziami dziesięciu najważniejszych LLM-ów, w tym ChatGPT od OpenAI i Gemini od Google. W 33 proc. przypadków zidentyfikowano pokrywanie się treści. W niektórych przypadkach jako źródło informacji LLM-y powoływały się nawet wprost na Pravdę. Sugeruje to, że LLM-y mogą być użytecznym narzędziem rozpowszechniania propagandy, zmanipulowanych lub po prostu fałszywych informacji.

Badacze z American Sunlight Project nazwali tę strategię dezinformacji „LLM Grooming”. Jej założeniem jest celowe zmanipulowanie danych treningowych LLM-ów, by osadzić w nich pewne narracje, a następnie wpłynąć na odpowiedzi generowane przez modele sztucznej inteligencji. W styczniu 2024 r. kremlowski propagandysta John Mark Dougan po raz pierwszy publicznie rozważał zatrucie LLM-ów za pomocą dezinformacji, słusznie rozpoznając potencjał dla rosyjskiej machiny manipulacji. Rezultaty tych działań najwyraźniej można właśnie zaobserwować, choć nie możemy być całkowicie pewni skali takich działań, a treści generowane przez LLM-y także się zmieniają. 

Co ciekawe, podobne badania pod koniec 2025 roku powtórzył zespół naukowców z Uniwersytetów w Manchesterze i Bernie. Wyniki były mniej spektakularne: okazało się bowiem, że odsetek powielanych dezinformacyjnych treści spadł do 5 proc., a testowane LLM-y powoływały się na rosyjskie źródła w 8 proc. przypadków. Nie oznacza to całkowitego uodpornienia LLM-ów na rosyjską propagandę. To raczej kwestia rozpoznania schematu i wdrożenia odpowiednich zabezpieczeń. Sieć Pravda, także w wyniku raportów Viginum, NewsGuard i American Sunlight Project, jest już dzisiaj wprost kwalifikowana jako narzędzie kremlowskiej dezinformacji. W jej miejsce szybko powstaną kolejne i ponownie będą testować odporność nowej architektury obiegu informacji. 

Przeciętni obywatele są z każdym miesiącem coraz intensywniej narażeni na kontakt z treściami spiskowymi w swoich spersonalizowanych kanałach informacyjnych. Ilustracja: shutterstock / NLshop

Jak powstaje Grooming LLM-ów? 

Podejście stosowane przez rosyjskich aktorów dezinformacji jest podobne do strategii spamuflage, wykorzystywanej na przykład przez Chiny. W przypadku spamuflage’u informacje propagandowe lub wprost dezinformujące są umieszczane w masie neutralnych i nieszkodliwych wiadomości na platformach mediów społecznościowych, aby się przesadnie nie wyróżniać. Pozwalają w ten sposób przykryć krytyczne narracje i zaburzyć parytet wypowiedzi negatywnych do pozytywnych lub neutralnych.

W Groomingu LLM chodzi z kolei o późniejsze mechaniczne powielanie zmanipulowanych narracji w odpowiedziach chatbotów. Wykorzystuje się przy tym istotną słabość mechanizmu web scrapingu, za pomocą którego modele sztucznej inteligencji są karmione danymi szkoleniowymi.

Ponieważ firmy technologiczne karmią swoje LLM-y (bez przejmowania się prawami autorskimi i przynajmniej po części nielegalnie) publicznie dostępnymi danymi, możliwe jest manipulowanie późniejszymi wynikami poprzez zalewanie tych źródeł własnymi danymi. Ze względu na masową publikację dezinformacji na stronach internetowych i w mediach społecznościowych, choćby na Reddit, treści dezinformacyjne wchodzą w zakres danych treningowych modeli sztucznej inteligencji. W ten sposób dochodzi do swoistego zakażenia, pewnej infekcji tych danych. 

Konsekwencje tego zjawiska staną się prawdopodobnie w pełni widoczne w dłuższej perspektywie, gdy zostanie wyszkolona kolejna generacja LLM-ów, które będą integrować miliony artykułów wyprodukowanych przez Pravdę i jej podobne sieci. Dlatego powinniśmy traktować to zagrożenie jako wyzwanie na teraz i na przyszłość. Zwłaszcza że media syntetyczne mają coraz większy wpływ na rzeczywistość polityczną.

Farmy kontentu i wygenerowani syntetyczni eksperci to zresztą coraz poważniejszy problem. Farmy treści produkują internetowy szlam, którym karmione są modele językowe sztucznej inteligencji. Otrzymują śmieci i śmieci wydalają. Efekty procesu trawienia dostajemy my, ludzie – wepchnięci w mechanizm nakręcania spirali fałszu.

Google stara się walczyć z takimi treściami, ograniczać widoczność tego typu farm i nie proponować ich w swoich wyszukiwarkach. W teorii podobne praktyki chce wprowadzić Meta, właściciel m.in. Facebooka i Instagrama, choć póki co szlam AI na feedzie portali to standard.

W przypadku karmienia LLM-ów giganci technologiczni mają znacznie mniej rozterek: tutaj zasada jest prosta. Trzeba utuczyć danymi model, nawet jeśli trafią się tam dane śmieciowe. Liczy się skala. 

Garbage in, garbage out

LLM-y nie mają ani moralnego kompasu, ani umiejętności racjonalnej oceny prawdziwości stwierdzeń, zwłaszcza gdy te stwierdzenia służą zniekształcaniu rzeczywistości. Jest to bezpośrednia konsekwencja architektury transformerów odpowiedzialnych za generowanie treści. To ledwie namiastka rozumowania. Opierają się bowiem na probabilistycznym (opartym na rachunku prawdopodobieństwa określonych połączeń) tworzeniu łańcuchów wyrazów (a precyzyjniej: tokenów), które łączą się w logicznie i semantycznie poprawne struktury. Tyle że polegają na materiałach szkoleniowych. Popularne powiedzenie "garbage in, garbage out" można by sparafrazować jako "dezinformacja in, dezinformacja out". Im więcej dezinformacji krąży w Internecie, tym bardziej skażone będą dane treningowe, co znajdzie odzwierciedlenie w wynikach generowanych przez LLM-y.

Na przykład w serwisie X rozstrzygający nieraz spory między użytkownikami Grok może z kolei powielać tweety z kont, które zdobyły popularność jako główne węzły dezinformacji. W efekcie – chatboty mogą powielać nierzetelny, pseudonaukowy, propagandowy przekaz pod pozorem nieomylności i neutralności. 

Pocieszające, że przynajmniej aktualnie LLM-y wykazują się pewną odpornością. Już badania News Guard pokazały, że LLM-y były w stanie zdementować treści dezinformacyjne w ponad 48 proc. przypadków. Późniejsze badania naukowców z Manchesteru i Berna były znacznie bardziej optymistyczne. Nie dajmy się jednak zwieść. Musimy być świadomi, że kolejne uderzenia w architekturę LLM-ów są kwestią czasu.

Nie zmienia to także faktu, że twórcy nowych modeli stają przed wyzwaniem poszukiwania nowych, wysokiej jakości danych treningowych lub opracowania odpowiednich środków bezpieczeństwa. Obecne podejście Open AI i innych, polegające na bezmyślnym zbieraniu wszystkiego, co wpadnie im w ręce, niezależnie od tego, czy jest to w pełni legalne, czy też znajduje się w szarej strefie prawnej, nie jest możliwe do utrzymania w dłuższej perspektywie, jeśli LLM-y mają się rozwijać i nie przekłamywać rzeczywistości.  

Autorytarne tendencje i normalizacja kłamstw

33-procentowy wskaźnik reprodukcji dezinformacji w odpowiedziach LLM nie był wyłącznie wynikiem celowego zatruwania danych treningowych przez rosyjskich agentów lub hakowania LLM. To także częściowo naturalny rezultat rozpowszechnienia rosyjskiej dezinformacji, powielanej przez różnych, wydawać by się mogło poważnych aktorów. Krótko mówiąc, normalizacja kłamstw i politycznego bullshitu (co po polsku moglibyśmy określić mianem "gówno prawdy") również przyczyniają się do zwiększenia tej dynamiki.

Aktorzy relacji politycznych generujący duże zasięgi, tacy jak choćby Donald Trump czy Elon Musk, aktywnie powtarzają rosyjskie narracje dezinformacyjne i w ten sposób legitymizują je wśród swoich zwolenników. Jednocześnie w USA cały czas trwają prace nad demontażem mechanizmów ochronnych przed wpływami Rosji: platformy społecznościowe likwidują istniejące systemy moderacji i coraz częściej polegają na "community notes". A te mogą być z łatwością zmanipulowane przez boty.

W USA likwidowane są agencje federalne, redukowane są fundusze, wycinane projekty badawcze i organy specjalizujące się w wykrywaniu i zapobieganiu dezinformacji. Otwiera to drzwi dezinformacji na jeszcze większą skalę niż dotychczas. Skutek jest oczywisty: jeśli LLM-y miałyby wyciągać wnioski z wyników głosowania Community Notes w nowo zaprojektowanych mediach społecznościowych, staną się jeszcze bardziej podatne na dezinformację.

Wszystkie te czynniki utrudniają walkę z dezinformacją, a jednocześnie ułatwiają jej rozprzestrzenianie. W takim ekosystemie informacyjnym LLM-y są po prostu skazane na powielanie negatywnych zjawisk. To kolejny etap ewolucji świata post-prawdy. Technologia zwyczajnie sprzyja autorytarnym władzom, a w niektórych miejscach, jak choćby na X czy na Truth Social dominujące narracje promowane przez algorytmy są pełnoprawnym paliwem dla operujących wewnątrz tej architektury LLM-ów.

Tego typu zjawiska będą miały konsekwencje także dla polskiej infosfery. Jakub Szymik, założyciel Fundacji Obserwatorium Demokracji Cyfrowej, wskazuje:

– Trzeba się spodziewać, że takie same taktyki jakie dziś obserwujemy po stronie rosyjskich propagandzistów już w wyborach w 2027 roku będą zdobywać popularność także wśród mainstreamowych aktorów politycznych w Polsce. Stanie się to poprzez rozwój już dostępnych usług takich jak pozycjonowanie treści politycznych w modelach AI czy powolnym wprowadzaniu treści reklamowych i sugerowanych do wyników wyszukiwania w największych czatbotach – mówi. 

Zdaniem Szymika narzędzia AI bardzo szybko się popularyzują, ale standardy etyczne i bezpieczeństwa tworzą się w powoli.

– Na wdrożenie standardów Aktu w Sprawie Sztucznej Inteligencji dotyczących oznaczania treści wygenerowanych przez AI czy systemów wysokiego ryzyka poczekamy jeszcze dobrych kilka miesięcy, jeśli nie lat – podkreśla.

Wartości zachodnie

Staje się coraz bardziej oczywiste, że liberalno-demokratyczna Europa ma, przynajmniej na ten moment, inne pojmowanie wartości niż USA z ich autorytarnymi tendencjami. Szczególnie problematyczna jest idea wolności słowa promowana przez administrację Prezydenta Trumpa, czy wręcz „absolutyzm wolności słowa” upolityczniony najpierw przez Muska, a potem wiceprezydenta USA J. D. Vance’a, które znacznie różnią się od koncepcji wolności słowa w Europie.

Nowe, libertariańskie rozumienie wolności słowa w USA polega na tym, że (pozornie) można mówić, co się chce. W takim systemie zwycięża ten, kto jest najgłośniejszy i wypowiada się najczęściej. Ten model zakłada, że ​​wszystkie informacje mają taką samą wartość: zwykły bullshit, nieprzemyślane bzdury, celowa dezinformacja czy starannie opracowane lub sfałszowane fakty naukowe. W praktyce ważą tyle samo, choć prawda ma tu jeszcze bardziej pod górkę.

Prawda tonie w morzu "gorszych" informacji, gdyż wytworzenie prawdy i jej opisanie jest bardziej złożone i kosztowne. Łatwiej jest rozpowszechniać nieprawdę na masową skalę, niż ją weryfikować. Weryfikowanie nieprawdy jest z kolei dużo bardziej kosztowne i pochłania masę czasu i energii. 

Europejskie rozumienie wolności słowa, które ma swoje korzenie w oświeceniu i zostało ukształtowane przez doświadczenia XX-wiecznych totalitaryzmów, nadal ma swoje granice. Każdy, kto świadomie rozpowszechnia fałszywe informacje o innych, ponosi odpowiedzialność i może zostać do niej pociągnięty, jeśli na przykład naruszone zostaną prawa osób trzecich lub jeśli rozpowszechniane będą treści niezgodne z konstytucją, takie jak negowanie Holokaustu.

Tyle że "absolutna wolność słowa" najwyraźniej wcale taka absolutna nie jest. Paradoksalnie, jej zwolennicy mają bardzo wybiórcze podejście do własnego paradygmatu, na przykład gdy niepożądanym, krytycznym przedstawicielom prasy zabrania się używania pewnych słów na konferencjach prasowych lub gdy na mocy dekretu wyklucza się pewne frazy w praktyce instytucjonalnej rządu USA. W tym kontekście na ponury żart zakrawa, że wiceprezydent USA narzeka na domniemaną cenzurę w Europie, gdy jednocześnie w USA wprowadzane są drastyczne ograniczenia w języku polityki i świata nauki.

Technologia zwyczajnie sprzyja autorytarnym władzom. Ilustracja: shutterstock / NLshop

LLM-y jako zwierciadło społeczeństwa

W 2024 roku przeprowadzono eksperyment, który wykazał, że LLM-y powstające w tzw. "krajach zachodnich" odnoszą się bardziej pozytywnie do wartości demokratycznych. LLM-y spoza kręgu kultur zachodnich chętniej opowiadały się za wartościami związanymi z systemami autorytarnymi i nie były tak otwarte na promowanie praw i wolności obywatelskich. Innymi słowy, jedne i drugie odzwierciedlały system wartości i kontekst kulturowy, w których zostały „wychowane”. 

– Chaty oparte na modelach językowych służą dziś m.in. do wyszukiwania informacji, tworzenia artykułów, a nawet do rozstrzygania, co jest prawdą, a co fałszem. Osoby, które korzystają z LLM w ten sposób, mogą w nich widzieć bezbłędne i neutralne narzędzie, idealne jako podstawa do budowania własnych przekonań. Chaty doskonale tworzą pozory rzetelności, przykładowo podając źródła z których biorą swoje odpowiedzi. Nie wszyscy tym źródłom się przyglądają, a warto. Czasem okazuje się, że nie ma w nich tego, co podał chat, a czasem, że są to źródła niskiej jakości – komentuje Marcin Kostecki redaktor naczelny Stowarzyszenia Demagog. 

Kostecki podkreśla, że najlepiej jest samemu wyszukiwać źródła, a przynajmniej weryfikować, skąd chatbot "wie" to, co pisze. 

– W ten sposób mamy większą kontrolę nad tym, skąd czerpiemy wiedzę o świecie. Z LLM według mnie najbezpieczniej korzystać przy analizie wcześniej wyselekcjonowanych treści – podkreśla.

Sztuczna inteligencja nie powstaje w oderwaniu od rzeczywistości. Staje się rodzajem lustra, w którym odbijają się zbiorowe iluzje i półprawdy, pewna społeczna i polityczna tożsamość. 

"Sztuczna inteligencja odbija niczym w lustrze wartości, którymi kierują się bogate społeczeństwa. Za kluczową koncepcję w dziedzinie bezpieczeństwa AI uchodzi dopasowanie wartości sztucznej inteligencji do wartości ludzkich (tzw. AI alignment)" – mówił niedawno w rozmowie z naszym magazynem prof. Michał Krzykawski, filozof technologii. 

Warto także pamiętać, że LLM-y i generowane przez nie dane mogą stać się narzędziem samospełniającej się przepowiedni. Kiedy LLM-y są karmione dezinformacją, powtarzają ją, co ostatecznie wydaje się potwierdzać prawdziwość dezinformacji. Dzieje się tak zwłaszcza wówczas, gdy użytkownicy nie poddają już krytycznej analizie generowanych treści i nadmiernie ufają temu, co podsuwa im sztuczna inteligencja.

Te zjawiska mają także konsekwencje natury strategicznej. Jeśli zakładamy, że LLM-y odzwierciedlają wartości społeczeństw, w których są tworzone, a amerykańskie rozumienie podstawowych wartości będzie dalekie od europejskiego, to wzrośnie potrzeba, aby LLM-y w UE odzwierciedlały wartości UE. To z kolei podbije zapotrzebowanie na rodzime LLM-y jako alternatywę dla rozwiązań amerykańskich. Inicjatywy takie jak Bielik czy PLLuM w Polsce mogą być dobrym przykładem poszukiwania niezależności, choć póki co jeszcze na małą skalę. Być może także w infrastrukturze zawiera się jedna z szans na zwalczanie dezinformacji. 

Ale i tutaj potrzebne jest zrozumienie złożonych relacji społecznych i ekosystemu informacji. Ważne jest, by prócz technicznych "poprawek" podczas trenowania LLM-ów skupić się również na ludziach, ich prawach i wolnościach, wzmacnianiu procesów demokratycznych oraz ich rozumieniu przez opinię publiczną. Środki przeciwdziałania dezinformacji nigdy nie są idealne, ponieważ kontrola informacji i demokracja są z natury rzeczy logiczną sprzecznością. Niezależnie od tego, niezbędne jest znalezienie sposobów na ograniczenie zasięgu i wpływu niebezpiecznych informacji rozpowszechnianych przez zewnętrznych aktorów, przy jednoczesnym dopuszczeniu naturalnych różnic zdań i poglądów. 

Powinien być to filar odporności społecznej, który pozwoli wyjść z błędnego koła dezinformacji.

Wydaje się, że wciąż i niezmiennie krytyczne myślenie pozostaje kluczowym narzędziem walki z postprawdą i manipulacjami. A także empatia. W epoce nadmiaru treści, agresywnej propagandy kierowanie się szkiełkiem i okiem, rozumem i sercem, wydaje się przepustką do spokoju. A może nawet i do pokoju. 

***

Skrócona wersja artykułu ukazała się w języku niemieckim na łamach Tagesspiegel Background Cybersecurity.

Współautorem publikacji jest dr Matthias Schulze, ekspert Security Research Labs oraz były pracownik Instytutu Badań nad Pokojem i Polityką Bezpieczeństwa na Uniwersytecie w Hamburgu (IFSH).