Facebook: "AI jest lewacka". I proponuje antidotum
Meta - spółka-matka Facebooka - postawiła sobie za cel rozwiązanie jednego z najbardziej kontrowersyjnych problemów dotyczących dużych modeli językowych (LLM) - ich rzekomego lewicowego nachylenia politycznego.

W niedawnym komunikacie dotyczącym wydania modelu Llama 4, Meta jednoznacznie stwierdziła: Wszystkie wiodące LLM miały problemy z uprzedzeniami - konkretnie, historycznie skłaniały się ku lewicy. To stanowisko jest szczególnie znaczące, ponieważ firma wyraźnie odróżnia to polityczne nachylenie od tradycyjnie rozumianych uprzedzeń związanych z rasą, płcią czy narodowością, które od dawna były przedmiotem badań naukowców.
Według Mety problem ten wynika z natury danych treningowych pochodzących z Internetu, które stanowią podstawę nauki modeli językowych. Firma twierdzi, że głównym celem opracowania Llama 4 było złagodzenie tego zjawiska i zapewnienie bardziej zrównoważonego podejścia do kontrowersyjnych tematów.
Czytaj też:
- Naszym celem jest usunięcie uprzedzeń z naszych modeli AI i upewnienie się, że Llama może zrozumieć i artykułować obie strony kontrowersyjnej kwestii. W ramach tych działań kontynuujemy prace nad zwiększeniem responsywności Llama, aby odpowiadała na pytania i reagowała na różne punkty widzenia bez osądzania, nie faworyzując jednych poglądów nad innymi - podkreśla Meta w swoim oficjalnym komunikacie.
Naukowe podstawy twierdzenia o lewicowym nachyleniu. Są jakieś?
Twierdzenia Mety nie są bezpodstawne. Badania naukowe przeprowadzone przez Davida Rozado z Otago Polytechnic w Nowej Zelandii, opublikowane w czasopiśmie PLOS ONE, wykazały znaczące lewicowe nachylenie w odpowiedziach 24 najnowocześniejszych modeli językowych na pytania o politycznym zabarwieniu.
Badanie objęło zarówno modele o otwartym, jak i zamkniętym kodzie źródłowym, w tym GPT-3.5 i GPT-4 od OpenAI, Gemini od Google, Claude od Anthropic oraz Grok od Twittera. Rozado zastosował 11 różnych testów orientacji politycznej, takich jak Political Compass Test czy Eysenck's Political Test, aby ocenić polityczne nachylenie tych modeli AI.
Wyniki były uderzające: większość testowanych modeli LLM konsekwentnie generowała odpowiedzi, które były identyfikowane jako lewicowe poglądy w wielu różnych testach orientacji politycznej. Co ciekawe, badacz wykazał również, że możliwe jest celowe zmienianie orientacji politycznej modelu LLM poprzez dostrajanie go przy użyciu politycznie ukierunkowanych danych.
Podejście Mety do rozwiązania problemu w Llama 4
Meta twierdzi, że Llama 4 wykazuje znaczący postęp w redukcji uprzedzeń w porównaniu do wcześniejszych wersji modelu. Według firmy nowy model jest dramatycznie bardziej zrównoważony w obsłudze wrażliwych tematów i nie wykazuje silnego politycznego nachylenia w porównaniu do konkurencji.
Jednym z kluczowych wskaźników tej poprawy ma być zmniejszenie wskaźnika odmów odpowiedzi na pytania dotyczące kontrowersyjnych tematów politycznych i społecznych. Podczas gdy Llama 3.3 odmawiała odpowiedzi na takie pytania w około 7 proc. przypadków, Llama 4 robi to w mniej niż 2 proc. przypadków. Meta twierdzi, że jej model wykazuje znacznie bardziej zrównoważone podejście w swoich odmowach, a testy wskazują, że tendencja Llama 4 do odpowiadania z silnym politycznym nachyleniem jest teraz porównywalna do modelu Grok od xAI Elona Muska.
Czy jest się czego obawiać?
Nie wszyscy są przekonani co do podejścia Mety do kwestii uprzedzeń w modelach AI. Krytycy argumentują, że to, co firma określa jako usuwanie uprzedzeń, może w rzeczywistości wprowadzać nowe uprzedzenia, faworyzujące określone punkty widzenia.
Inicjatywa Mety pojawia się w czasie, gdy firmy technologiczne zmagają się z oskarżeniami o polityczne uprzedzenia w swoich produktach AI. Elon Musk wielokrotnie krytykował chatboty takie jak ChatGPT OpenAI, nazywając je woke (nadmiernie progresywnymi) i promując własny model Grok od xAI jako alternatywę.
Mark Zuckerberg, dyrektor generalny Meta, jest zdeterminowany, aby uczynić Llama standardem branżowym i zainwestował znaczące środki w projekty AI z zamiarem dotarcia do miliarda użytkowników na platformach takich jak Facebook, Instagram i WhatsApp. Według danych z grudnia ubiegłego roku Meta AI miała już 600 mln użytkowników miesięcznie.