1. Spider's Web
  2. plus
  3. Technologie
  4. Oprogramowanie

Sztuczna dezinformacja. Tak wykorzystują AI na wojnie Izraela z Hamasem

– Tysiące osób udostępniały zdjęcie nieżyjącego chłopca, zaprzeczając jego śmierci i twierdząc, że jego ciało to lalka czy rekwizyt mający wzbudzić współczucie – mówi Natalia Sawka, dziennikarka fact-checkingowa Agence France-Presse. W brutalnej wojnie Izraela z Hamasem sztuczna inteligencja stała się narzędziem dezinformacji. Jej wszechobecność sprawia, że ludzie zaczynają wątpić nawet w teoretycznie niepodważalne fakty. 

27.11.2023
6:54
Sztuczna dezinformacja. Tak wykorzystują AI na wojnie Izraela z Hamasem

Makabryczne zdjęcie rzekomo przedstawiające zwęglone ciało izraelskiego dziecka obiegło internet w pierwszych dniach konfliktu między Izraelem a Hamasem. Udostępnione między innymi przez premiera Izraela Benjamina Netanjahu miało pokazać okrucieństwo Hamasowców, jakiego dopuszczają się na Izraelczykach.

Niektórzy internauci szybko zaczęli komentować, że zdjęcie to podróbka wygenerowana przez sztuczną inteligencję (AI). Dyskusji postanowiły przyjrzeć się media. Zespół weryfikujący fake newsy portalu Deutsche Welle nie mógł wykryć na zdjęciu żadnych wyraźnych oznak manipulacji. Wrzucając zdjęcie do narzędzia "AI or NOT" okazało się, że wynik był nierozstrzygnięty, bo obraz miał zbyt małą rozdzielczość. Potwierdzili to także twórcy narzędzia.

Strefa Gazy, 10 października 2023 r. Fot. Anas-Mohammed / Shutterstock

Od terrorystycznego ataku Hamasu na Izrael, do którego doszło 7 października, wiele mówi się o dezinformacji. Szczególnie uwypuklone zostały obawy dotyczące użycia sztucznej inteligencji i deepfake’ów, które miałyby wzmacniać przekazy propagandowe obu stron konfliktu i tym samym manipulować opinią publiczną. Chociaż AI rzeczywiście jest bardzo widoczna na tej wojnie, stała się powodem, dla którego ludzie odrzucają autentyczne treści, myśląc, że to fake.

Z Natalią Sawką, dziennikarką fact-checkingową Agence France-Presse, rozmawiamy o tym, jak strony konfliktu wykorzystują sztuczną inteligencję do negowania prawdy wojennej, jakich narzędzi używać do weryfikowania treści w internecie, a także komu nie warto ufać w sieci. 

Natalia Sawka, dziennikarka AFP
Natalia Sawka, fot. Monika Redzisz

Rozmowa z Natalią Sawką*, dziennikarka fact-checkingową AFP

Wojna Hamasu i Izraela to chyba pierwszy konflikt, który zaczął się już w erze generatywnej AI. Czy widzisz, że jest rzeczywiście grubo obudowany treściami wytworzonymi przez AI?

Sztuczna inteligencja pozwala nam tworzyć obrazy przedstawiające niemal każdy scenariusz i to właśnie dzieje się teraz, w czasie konfliktu między Izraelem a Hamasem. Rzeczywiście, na początku agresji Rosji na Ukrainę w mediach społecznościowych nie mieliśmy do czynienia z tyloma obrazami generowanymi przez sztuczną inteligencję jak na początku konfliktu między Hamasem a Izraelem. Dziś za pomocą sztucznej inteligencji można stworzyć wizualną, jak i alternatywną rzeczywistość konfliktu. 

Pewnie łatwo się naciąć, bo bez przyjrzenia się te zdjęcia wyglądają naprawdę wiarygodnie.

Niestety nawet dziennikarzom zdarza się pomylić. Nasi anglojęzyczni koledzy opublikowali artykuł na temat mężczyzny, który ratował dzieci z gruzów w strefie Gazy. Bardzo obrazowy przypadek: mężczyzna cały w kurzu idzie przez ruiny z małymi dziećmi na rękach. Ludzie, udostępniając te zdjęcia, chcieli zapewne pokazać, jak ta wojna jest krwawa, brutalna, jak ta rzeczywistość jest straszna. A później się okazało, że zdjęcie było stworzone przez sztuczną inteligencję.

I co?

I oczywiście nikomu to nie zaszkodziło, nikogo nie obraziło, jednak udostępniając taki post nawet w dobrej wierze, nadal szerzymy dezinformację.  

Żeby właśnie nie szerzyć dezinformacji, próbując odróżnić prawdę od sztucznej inteligencji, niektórzy użytkownicy mediów społecznościowych zwrócili się ku narzędziom do wykrywania manipulacji cyfrowych, w tym AI or NOT. Czy takie narzędzia są wiarygodne?

Takie darmowe narzędzia mogą się przydać na początku naszego śledztwa, jednak należy być ostrożnym, gdy z nich korzystamy, ponieważ również programy mogą się mylić. Zespół naszych dziennikarzy korzysta z darmowego narzędzia InVid/WeVerify, który agencja AFP współtworzyła, i który pomaga nam ustalić, czy mamy do czynienia ze sztuczną inteligencją. Na pewno, jeśli ktoś chciałby zacząć z takich aplikacji korzystać, warto byłoby sprawdzić, kto jest twórcą takiego narzędzia i czy nie chce nam narzucić pewnej narracji.

Jak w AFP klasyfikujecie treści internetowe jako te warte sprawdzenia? Co musi mieć taki post, żebyście go wzięli na warsztat?

Są dwa główne czynniki, które o tym decydują. Pierwszy to popularność. Oceniamy, czy dana treść jest szeroko udostępniana w mediach społecznościowych i komentowana przez opinię publiczną. Drugi czynnik, to rozmiar potencjalnych szkód społecznych, jakie dana informacja może spowodować – na przykład czy fałszywy materiał może wpłynąć na wyniki wyborów albo czy rzekome badanie podszywa się pod publikację naukową, która może wpłynąć na zdrowie czy życie ludzi. Nie zajmujemy się satyrą i opiniami, weryfikujemy wyłącznie fakty. 

Strefa Gazy. października 2023 r. Fot. Anas-Mohammed / Shutterstock

I kiedy już sklasyfikujecie konkretną treść jako tę wartą sprawdzenia, co robicie?

Dzięki InVid mamy możliwość wyszukiwania obrazów za pomocą różnych wyszukiwarek m.in. Google, Bing, Yandex, TinEye i Baidu poprzez proste kliknięcie w obraz prawym przyciskiem myszy po zainstalowaniu tego rozszerzenia. Dzięki temu możemy sprawdzić, kiedy takie zdjęcie było po raz pierwszy opublikowane. Kontaktujemy się także z autorem zdjęcia czy nagrania, jeśli uda się go ustalić. W ramach możliwości kontaktujemy się także z osobami, które są widoczne na zdjęciu czy na wideo.

Wielu internautów oskarżało rumuńską dziennikarkę, która ukrywała się po usłyszeniu syreny przeciwlotniczej, o udawanie sytuacji zagrożenia. AFP zweryfikowało ten film i zastrzegło, że nie jest to sfingowana akcja. Jak do tego doszliście?

To bardzo ciekawy przypadek, bo ktoś po prostu wziął fragment jej relacji, kiedy ona już leżała na ziemi, ukrywała się koło samochodu, ale jednocześnie nadal była na żywo w telewizji. Cały materiał jest dostępny na stronie tej rumuńskiej stacji, której logo widnieje na wideo. Tam można to obejrzeć i przyjrzeć się, jak to wyglądało. Dziennikarka ubrana w kamizelkę i kask relacjonowała to, co się dzieje, na bieżąco mówiła, że ciągle są bombardowania, że trzeba być cały czas uważnym. I nagle w czasie relacji rozbrzmiały syreny alarmowe, więc ta zgodnie z procedurą i w trosce o własne bezpieczeństwo zdecydowała się położyć jak najszybciej na ziemię. Nie przestała nadawać, a w tle słychać było ostrzał. Oglądając cały materiał, poznaliśmy kontekst tej sytuacji. Bez niego zachowanie kobiety w publikowanym urywku, gdzie dziennikarka leżała na ziemi, mogło wydawać się przesadzone, naciągane, wyreżyserowane. 

Ale tutaj sprawa była prosta: weszliście na stronę telewizji, sprawdziliście cały materiał i sprawa była załatwiona. A jak działacie w przypadkach bardziej skomplikowanych?  

Na początku listopada w internecie pojawiło się nagranie na którym młody żołnierz mówiący w języku ukraińskim miał zachęcać Ukraińców do wyjazdu z kraju i wstąpienia do armii izraelskiej. Sugerował, że chętnych czekają wyższe zarobki i lepsze życie. O ile nagranie jest prawdziwe i zostało opublikowane przez Siły Obronne Izraela (IDF), okazało się, że podłożono pod nie nową ścieżkę dźwiękową. W miejsce oryginalnej wypowiedzi w języku hebrajskim wstawiono wypowiedź po ukraińsku.

I jak do tego doszliście?

Najpierw zauważyliśmy, że ruch ust żołnierza nie synchronizuje się z wypowiadanymi na nagraniu słowami. Później zidentyfikowaliśmy symbole na ścianie. Pierwszy niebieski i czarny jako logo jednostki odpowiedzialnej za kontakty z mediami IDF, a drugi jako symbol Sił Obronnych Izraela. Żeby dowiedzieć się czegoś więcej o żołnierzu i o nagraniu, użyliśmy narzędzia facecheck.id, które wykorzystuje technologię rozpoznawania twarzy i pomaga zweryfikować tożsamość osoby występującej w nagraniu czy na zdjęciu. Wśród wyników wyszukiwania pojawił się wizerunek mężczyzny w izraelskim mundurze. Obraz pochodził z oficjalnego konta IDF na TikToku. 

W rezultacie okazało się, że oryginalne wideo opublikowane zostało 9 października 2023 roku, a mężczyzna mówiący po hebrajsku podaje ważne telefony. Wymienia m.in. numery infolinii dla rezerwistów, do ośrodków świadczących pomoc psychologiczną, a także podaje adres, pod którym rodziny zaginionych 7 października osób mogą zgłosić się, aby pobrać próbki DNA, w celu ewentualnej identyfikacji ciał. Skontaktowaliśmy się również z IDF, która potwierdziła, że wideo zostało sfabrykowane.

Putin, który spotkał się ostatnio z przywódcami Hamasu, opisał wojny na Ukrainie i w Gazie jako część tej samej szerokiej walki przeciwko amerykańskiej dominacji globalnej. Czy widzisz jakieś podobieństwa ze swojej działki między wojną w Ukrainie a Palestynie?

Zdecydowanie. Na początku konfliktu w Gazie krążyło wideo, rzekomo wyprodukowane przez BBC i przez międzynarodową grupę śledczą Bellingcat, które opowiadało, że broń użyta przez Hamas podczas ataków na izraelskich cywilów była przekazana przez Ukrainę. BBC i Bellingcat zdementowali tę informację, ale ona się rozeszła. Podobny przekaz miał być rzekomo podawany przez "The Washington Post". Chodziło o to, żeby oczernić Zachód, Unię Europejską, NATO, Stany Zjednoczone. Natomiast w kontekście wojny w Ukrainie krążyło wideo podszywające się pod telewizję Al-Jazeera, która miała rzekomo informować o skandalicznym zachowaniu ukraińskich kibiców w Katarze, którzy zostali aresztowani za malowanie nazistowskich symboli. Okazało się to nieprawdą. 

Strefa Gazy, 12 maja 2023 r. Fot. Anas-Mohammed / Shutterstock

Wykorzystywani są także sławni ludzie.

W kontekście konfliktu w Gazie występuje termin "Pallywood" – czyli połączenie słów Palestine i Hollywood. Termin jest obraźliwy i oznacza, że treści w mediach społecznościowych przedstawiają opłacanych aktorów, którzy chcą zyskać przychylność opinii publicznej. Rzekomo ma za tym stać wykorzystanie mediów przez Palestyńczyków do manipulacji przekazem z wojny, żeby przynajmniej PR-owo wygrać wojnę z Izraelem. W niektórych fałszywych kontekstach wykorzystywani są nawet celebryci jak choćby modelka Bella Hadid, której ojciec jest Palestyńczykiem, Lionel Messi czy Cristiano Ronaldo.

Jest też sporo głosów dyskredytujących dziennikarzy, którzy mają pracować na zlecenie Hamasu albo Izraela i sprzyjać ich narracjom.

Dyskredytowanie dziennikarzy to jeden ze sposobów siania i pogłębiania dezinformacji. Jednak uważałabym, żeby nie wpaść w te sidła i mimo wszystko zaufać dziennikarzom, za którymi stoją duże redakcje. Zespoły wydawców, redaktorów sprawdzają każdy artykuł, zanim zostanie opublikowany. Weryfikują fakty, sprawdzają źródła. Oczywiście, błędy mogą się zdarzyć, ale one są rzadkie, a nawet jeśli wystąpią, pojawiają się korekty w tekstach, a redakcje tłumaczą, że popełniły błąd, ale udało się go wyłapać.

Czy dziennikarzowi fact-checkingowemu może przydarzyć się błąd?

Fact-checkerzy, czyli osoby weryfikujące fakty muszą być wiarygodne. Jako dziennikarze fact-checkingowi jesteśmy jeszcze bardziej obciążeni odpowiedzialnością za przestrzeganie ustalonych i wypracowanych przez środowisko dziennikarskie standardów. 

A co jeśli fact-checker pomyli się?

Każdemu zdarzają się błędy. Ale zespoły fact-checkingowe robią, co w ich mocy, by do tego nie dopuścić. Bo jeśli pomyli się dziennikarz fact-checkingowy – co zdarza się bardzo rzadko – to potem takiej osobie trudniej zaufać.

A co z osobami w mediach społecznościowych, influencerami, którzy pozują na dziennikarzy? Można im ufać?

Tel Aviv, ,14 października 2023 r. Fot.  Yehuda Bergstein / Shutterstock

Zacytuję mojego kolegę reportera Pawła Pieniążka, że w czasie wojny "niczemu nie można ufać". Jak widzimy na TikToku influencera czy inną osobę, która opowiada np. o konflikcie w Gazie, w większości przypadków nie wiemy, kto lub co za tą osobą stoi, jaki cel jej przyświeca. Zresztą takim osobom, które nie mają doświadczenia dziennikarskiego, łatwiej jest popełnić błąd, bo zwykle działają same.

Ale jednak takie osoby, o których niewiele wiemy, ściągają rzesze fanów. Od razu przychodzi mi na myśl Łukasz Bok i jego działalność, która polega na tym, aby szybko przepisywać ustalenia mediów zagranicznych. 

Nie ma się co dziwić. Ludzie chcą wiedzieć więcej, chcą uzyskiwać informacje jak najszybciej właśnie poprzez media społecznościowe. Zamiast czerpać z zaufanych źródeł, gdzie dostarczane informację są zweryfikowane, ludzie mają tendencję do śledzenia newsów na Facebooku, Instagramie, Twitterze, poprzez co sami też się angażują w konflikt.

A ten w Gazie jest szczególnie spolaryzowany.

To prawda. Europejskie Obserwatorium Mediów Cyfrowych, którego AFP jest partnerem, badało zaburzenia w przestrzeni informacyjnej. Wyniki badania wskazują, że narracje na temat tego, co dzieje się w Gazie, są bardzo skrajne i biorą jedną albo drugą stronę konfliktu. A to sprzyja pogłębianiu podziałów.

W tym konflikcie bardzo widoczne jest też negowanie prawdy.

Trudno mi mówić o prawdzie. Wolę mówić o faktach. Dezinformacja i manipulowanie faktami na tak dużą skalę pojawiły się niestety wraz z pojawieniem się mediów społecznościowych. A tego typu konflikty, jak ten, który obserwujemy w Gazie, sprzyjają polaryzacji, pogłębiają już istniejące podziały w społeczeństwie. Zalew zmanipulowanych treści, sprzyjający jednej stronie utrudnia zrozumienie tego, co dzieje się naprawdę i na czym też polega ten konflikt.

Czy twoim zdaniem umiejętność odrzucenia niewygodnych faktów odgrywa główną rolę w tym konflikcie?

Moim zdaniem tak. Flagowym przykładem jest historia dwóch czteroletnich chłopców. Palestyńczyka Omara i Izraelczyka Omera. Obaj chłopcy zginęli: Omer 7 października, gdy Hamas zaatakował jego dom, Omar cztery dni później w wyniku izraelskiego nalotu. Kiedy pogrążone w żałobie rodziny opłakiwały śmierć chłopców, internet wrzał od wpisów twierdzących, że ich śmierć nie miała miejsca. Internauci przychylni Hamasowi pisali, że Omer to opłacony aktor, bo Hamas nie zabija. Materiał przedstawiający ciało Omara trzymanego przez mężczyznę w szpitalu udostępniało tysiące osób, twierdząc, że to ciało jest używane jako rekwizyt mający wzbudzić współczucie.

Wtedy nad ich historiami pochyliło się BBC, które opublikowało swoje śledztwo…

Tak. BBC udowodniło, że chłopcy naprawdę nie żyją, a ich historie są prawdziwe. 

Czyli wygrała prawda, na dodatek dowiedziona przez tradycyjne media? 

Choć tym chłopcom już nic nie wróci życia, to tak, prawda wygrała.

*Natalia Sawka zajmuje się weryfikacją treści w Polsce. Zanim dołączyła do zespołu fact-checkingowego agencji AFP w Warszawie, pracowała w "Gazecie Wyborczej". Prowadzi warsztaty z fact-checkingu organizowane przez AFP.

Zdjęcie główne: Syndi Pilar / Shutterstock