REKLAMA

Wyglądają jak ludzie, ale nie istnieją. Rosjanie produkują fałszywych dziennikarzy, żeby skuteczniej kłamać

Wyglądają jak zwykli ludzie, ale tak naprawdę nie istnieją. Wystarczy dosłownie kilka kliknięć, aby stworzyć przekonujące zdjęcie. Patrzysz na awatar, widzisz poważną twarz, a tak naprawdę to wykreowany przez sztuczną inteligencję portret, za którym kryje się propagandowy bot.

04.03.2022 12.56
Rosjanie produkują fałszywych dziennikarzy, żeby skuteczniej kłamać
REKLAMA

Deep fake nie jest niczym nowym, więc odwoływanie się do haseł w stylu "Black Mirror w rzeczywistości" dawno trąci banałem. Jednak warto przypomnieć sobie obawy sprzed lat nie po to, żeby stwierdzić "a nie mówiliśmy". Ciekawe jest coś innego.

REKLAMA

W dyskusji o deep fake'ach, czyli wykreowanych przez sztuczną inteligencję filmikach, sugerowano, że w niedalekiej przyszłości może pojawić się nagranie prezydenta danego kraju, w którym ten mówi o ataku na inne mocarstwo. To zaś odpowiada nalotem, bo uznało, że jest zagrożone. Rzecz jasna całość była sfingowana, chodziło o pretekst, a technologia pomogła uwiarygodnić zbrodnicze działanie.

I faktycznie – po sieci zaczęły teraz krążyć ostrzeżenia, że Rosjanie mogą spreparować wypowiedzi prezydenta Ukrainy, w których mówi np. o poddaniu się. W propagandzie wszystkie chwyty dozwolone.

Dywaguję o tym nie po to, żeby straszyć. Raczej żeby pokazać, że wcale nie potrzeba aż tak skomplikowanych i weryfikowanych technik, by siać zamęt w szeregach wroga.

Okazuje się, że w mediach społecznościowych wiele jest fejkowych kont dziennikarzy relacjonujących wydarzenia w Ukrainie

Niektórzy, jak np. Wiktor Bondarenko, żyli w Kijowie i szczerze nie cierpieli ukraińskich władz.

Z Bondernką pracowała Irina Kemerowa, która podzielała jego poglądy. Poważni dziennikarze, wykształceni ludzie to przecież nie to samo, co zwykła ulica – można by więc odnieść wrażenie, że może i w rosyjskiej narracji coś jest. Zresztą część zachodu właśnie tak pomyślała. Możemy się zastanawiać, czy właśnie dzięki wpisom osób, które nie istnieją.

Wystarczyło bliżej przyjrzeć się awatarom, by dostrzec, że np. Bondarenko ma dziwne uszy, a jego koleżanka dwa różne kolczyki

To błędy, które zdradzają obraz wygenerowany przez sztuczną inteligencję. Na pierwszy rzut oka mamy do czynienia z twarzą wyglądającą jak prawdziwa, ale wystarczy się przyjrzeć, aby poznać prawdę.

Jak zauważył Wojciech Gołębiowski w swoim wpisie na linkedin.com, wygenerowanie twarzy przypominającej ludzką to kwestia kilku kliknięć. Wystarczy wejść na tę stronę i sztuczna inteligencja sklei z niezliczonej ilości fotek coś, co będzie przypominało człowieka.

Teoretycznie system nie jest idealny. Na przykład przy tej wygenerowanej fotce widzimy rozmyte tło, czapka jest też dziwna, podobnie jak kurtka. Ale trudno zauważyć takie detale w pomniejszonym awatarze. Zamiast tego widzimy pana, który może się przedstawiać jako dziennikarz, naukowiec, nauczyciel, inżynier i popierać bandyckie działania Putina.

REKLAMA

O ile w przypadku Krzyśka0921374201312 można dojść do wniosku, że wypisuje bzdury, tak przy bardziej postaranych profilach łatwiej uśpić czujność. A przecież to wcale nie jest takie skomplikowane – wystarczy jedna strona, aby awatar wzbudzał jeśli nie zaufanie, to przynajmniej dawał nadzieję, że po drugiej stronie jest prawdziwy człowiek.

Jak się więc chronić? Dokładnie sprawdzać, co dana osoba pisze, od jak dawna, ile osób ją obserwuje. Zwracać uwagę nie tylko na treść – róbmy prosty "putinowski test"; jeśli narracja ma pomóc Rosji, uważajmy – ale również detale.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA