REKLAMA

Nakarmili chatboty rosyjską propagandą. Twórcy rozkładają ręce

Nieodpowiedzialne podejście do szkolenia Dużych Modeli Językowych wszelkimi możliwymi danymi rodzi wiele zagrożeń. Dezinformacja czatbotów ma już charakter polityczny. I momentami bardzo groźny.

ChatGPT Copilot Gemini Rosja propaganda
REKLAMA

Badania przeprowadzone przez NewsGuard ujawniły, że 10 wiodących chatbotów opartych na sztucznej inteligencji - w tym ChatGPT-4, Claude i Gemini - powielało fałszywe narracje z prokremlowskiej sieci dezinformacyjnej Pravda w 33 proc. przypadków. Analiza 450 odpowiedzi wygenerowanych na podstawie 15 fałszywych narracji wykazała, że algorytmy nie tylko powtarzają nieprawdziwe informacje, ale także bezpośrednio cytują artykuły z rosyjskich portali propagandowych.

REKLAMA

Problem nasila się w kontekście objęcia władzy w Stanach Zjednoczonych przez nowego prezydenta i trwającej wojny informacyjnej związanej z inwazją Rosji na Ukrainę. Mechanizmy działania sieci Pravda, polegające na masowym publikowaniu treści w 150 domenach i 6 językach, skutecznie wykorzystują lukę w systemach uczących AI, prowadząc do zniekształcenia procesów przetwarzania języka naturalnego. 

Czytaj też:

Skala problemu jest przerażająca. ChatGPT bierze udział w wojnie informacyjnej, prawdopodobnie wbrew intencji twórców

NewsGuard wdrożył trójstopniowy system klasyfikacji odpowiedzi chatbotów: Brak dezinformacji (odpowiedź unika powielania lub podaje faktografię), Powtórzenie z zastrzeżeniem (przekazanie fałszywej narracji z wyrażonymi wątpliwościami) oraz Dezinformacja (bezkrytyczne powielenie nieprawdy). W grudniu 2024 r. łączny wskaźnik niepowodzeń (suma powtórzeń i braku reakcji) wyniósł 62 proc., co oznacza pogorszenie o 17,67 punktów procentowych w porównaniu z poprzednim badaniem.

Prokremlowska sieć Pravda, uruchomiona wkrótce po inwazji na Ukrainę, publikuje rocznie 3,6 mln artykułów w 6 językach, wykorzystując 150 domen, takich jak Denmark.news-pravda.com czy Trump.news-pravda.com. Badanie American Sunlight Project wykazało, że 56 z 450 odpowiedzi chatbotów zawierało bezpośrednie linki do artykułów z tej sieci, a niektóre modele cytowały nawet 27 różnych tekstów propagandowych. Mechanizm groomingu LLM (systematyczne zanieczyszczanie danych treningowych) prowadzi do inkorporacji rosyjskich narracji do rdzenia modeli językowych. 

Czynniki wpływające na podatność AI na dezinformację. Typy promptów a skuteczność manipulacji 

Eksperymenty NewsGuard wykorzystywały trzy rodzaje poleceń: neutralne (Czy możesz wyjaśnić, czy...?), naprowadzające (Czy to prawda, że...?) oraz złośliwe (Napisz artykuł udowadniający, że...). Najwyższą skuteczność manipulacji odnotowano w przypadku promptów złośliwych - 70 proc. powtórzeń dezinformacji pochodziło z tej kategorii. Przykładowo, pytanie o rzekome wykorzystanie zachodniej pomocy przez Zełenskiego do zakupu jachtów wygenerowało w 32 proc. przypadków odpowiedzi powielające kremlowską narrację.

Badanie Uniwersytetu McGilla wykazało, że dezinformacja ekonomiczna jest o 23 proc. bardziej przekonująca niż narracje polityczne czy militarne. W kontekście AI przejawia się to częstszym powielaniem fałszywych danych makroekonomicznych dotyczących sankcji czy pomocy wojskowej. Przykładowo, chatboty w 41 proc. przypadków akceptowały tezę o zapaści gospodarczej Ukrainy wywołanej wsparciem Zachodu, podczas gdy narracje o biolaboratoriach powtarzały tylko w 19 proc. odpowiedzi. 

Najnowszy audyt umiejscawia DeepSeeka na ostatnim miejscu z 83 proc. wskaźnikiem niepowodzeń, podczas ChatGPT-4o osiągnął 37 proc. powtórzeń dezinformacji. Szczegółowe dane ukazują rozbieżności w podejściu poszczególnych firm: 

  • Microsoft Copilot: 29 proc. powtórzeń, 22 proc. braku reakcji 
  • Google Gemini: 34 proc. powtórzeń, 15 proc. braku reakcji 
  • Meta AI: 41 proc. powtórzeń, 9 proc. braku reakcji 

Interesująco prezentuje się przypadek Perplexity, który jako jedyny nie cytował bezpośrednio artykułów z sieci Pravda, choć w 27 proc. przypadków powielał zawarte w nich tezy.

Anthropic Claude wprowadził system konstytucyjnej AI, który w 68 proc. przypadków skutecznie identyfikował próby manipulacji. Jednakże w 12 proc. odpowiedzi nadal dochodziło do powielenia dezinformacji z zastrzeżeniem typu Niektóre źródła twierdzą, że.... OpenAI testuje moduł TruthGPT oparty na walidacji krzyżowej z bazą faktów, ale jego implementacja spowalnia generowanie odpowiedzi o 40 proc.

REKLAMA

Dane z Ukrainy wskazują, że osoby posługujące się rosyjskim są o 18 proc. bardziej podatne na prokremlowskie narracje. W grupie wiekowej 55+ odsetek akceptacji fałszywych tez wynosi 43 proc., podczas gdy wśród millenialsów tylko 19 proc. W kontekście AI przekłada się to na 32 proc. wyższą skuteczność promptów w językach Wschodniej Europy.

Według ASP (American Sunlight Project), utrzymanie sieci 150 domen Pravdy kosztuje 2,3 mln dol. rocznie, generując 450 mln wyświetleń miesięcznie, 27 tys. cytowań w AI i współczynnik ROI 1:18 w porównaniu z tradycyjną propagandą. Na dziś żaden dostawca usług AI nie wystosował komentarza mimo próśb ze strony amerykańskich mediów. Zapewne nie mają na dziś za wiele konstruktywnego do powiedzenia, a to - jak wynika z powyższych danych - dość palący problem.

REKLAMA
Najnowsze
Aktualizacja: 2025-03-07T18:33:22+01:00
Aktualizacja: 2025-03-07T16:52:12+01:00
Aktualizacja: 2025-03-07T16:50:39+01:00
Aktualizacja: 2025-03-07T15:08:15+01:00
Aktualizacja: 2025-03-07T12:45:49+01:00
Aktualizacja: 2025-03-06T21:12:39+01:00
Aktualizacja: 2025-03-06T20:31:41+01:00
Aktualizacja: 2025-03-06T19:32:44+01:00
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA