REKLAMA

Jesteś pewien, że odróżnisz człowieka od idealnej podróbki? Naukowcy w ciebie wierzą

Choć deepfake'i mają bogatą historię oszukiwania ludzkich oczu i uszu, to zdaniem naukowców podświadomie jesteśmy w stanie odróżnić prawdziwe zdjęcie od wytworu sztucznej inteligencji. Nowego światła na sprawę rzuca popularna metoda obrazowania EEG, która według uczonych może zostać wykorzystana do walki z oszustami.

14.07.2022 10.45
Czy człowiek może odróżnić deepfake od prawdziwego zdjęcia?
REKLAMA

Technologia poszła do przodu na tyle, że nawet najbardziej uśmiechnięta, fotorealistyczna twarz może okazać się fałszywką wygenerowaną przez sztuczną inteligencję. Tzw. deepfake'i zostały stworzone, by wzbudzać zaufanie i wprowadzać ludzi w błąd. I mówimy tu nie tylko o zdjęciach, bo już FBI ostrzega przed fałszywymi rozmowami rekrutacyjnymi z deepfake'ami.

REKLAMA

Jednak zgodnie z wynikami eksperymentu naukowców z Uniwersytetu w Sydney, podświadomie jesteśmy w stanie odróżnić prawdziwe zdjęcia od deepfake'ów. Jednakże nie zawsze jesteśmy o tym na tyle przekonani, by otwarcie to powiedzieć.

W ramach prac badawczych, których wyniki opublikowane zostały na łamach czasopisma Vision Research, australijscy uczeni zorganizowali dwa eksperymenty - behawioralny i neuroobrazowy. W tym pierwszym uczestnikom pokazano 50 zdjęć i poproszono, aby wskazali, które ze zdjęć są prawdziwe, a które to wygenerowane komputerowo deep fake'i. Następnie podczas testu neuroobrazowego zupełnie innej grupie osób pokazano ten sam zestaw zdjęć. Jednakże w tym przypadku uczestnicy nie mieli pojęcia, że część z obrazów, które są im wyświetlane to deep fake'i. Podczas testu neuroobrazowego naukowcy stale mierzyli aktywność mózgu za pomocą elektroencefalografii (szerzej znanej jako EEG).

 class="wp-image-2260041"
Część portretów wygenerowanych przez sztuczną inteligencję, które zostały użyte w eksperymencie

Po przeanalizowaniu aktywności mózgu zarejestrowanej za pomocą EEG naukowcy doszli do wniosku, że mózgi uczestników w 54 procent przypadków były w stanie odróżnić rzeczywiste fotografie od obrazów wygenerowanych przez sztuczną inteligencję. W przypadku testu behawioralnego skuteczność wynosiła jedynie 37 procent.

Nowy front w walce z deepfake'ami

Jak zastrzegają uczeni, biorąc pod uwagę, że badania nad rozróżnianiem deep fake'ów są stosunkowo nową dziedziną, wyniki ich eksperymentu nie powinny być uznawane za przełom, lecz za punkt wyjścia do dalszych prac.

Według australijskich uczonych poznanie sposobu, w jaki ludzki mózg odróżnia deep fake'i od prawdziwych zdjęć mógłby potencjalnie doprowadzić inżynierów do opracowania algorytmów, które wykrywałyby użycie fałszywych fotografii na platformach społecznościowych takich jak Twitter czy Facebook.

REKLAMA

Jak potwierdzili uczeni z Uniwersytetu Kolumbii, rosyjska tzw. farma trolli przyczyniła się do wpływu na wyniki wyborów prezydenckich w Stanach Zjednoczonych w 2016 roku. Grupa około 50 tysięcy kont - przede wszystkim na Twitterze - publikowała fałszywe informacje dot. Donalda Trumpa i Hilary Clinton. Biorąc pod uwagę zasięgi, jakie miały konta, które posługiwały się fałszywymi tożsamościami - w tym zdjęciami profilowymi wygenerowanymi przez sztuczną inteligencję, szacuje się, że rosyjska farma trolli dała Trumpowi niemal 3% więcej głosów. Deepfake jest aktywnie wykorzystywany przez Rosjan w wojnie informacyjnej, czego najlepszym przykładem jest sfabrykowane wideo prezydenta Ukrainy wzywającego naród do kapitulacji.

Thomas Carlson sugeruje również, że dalsze prace nad rozwojem technologii wykrywania deepfake'ów mogłyby doprowadzić do stworzenia specjalnych kasków ze wbudowanym EEG dla ochroniarzy. Kaski dawałyby znać ochroniarzom, gdy ich aktywność mózgu wskazuje na to, że mają do czynienia z deepfake'iem. Australijczyk wspomina o przypadku ze Zjednoczonych Emiratów Arabskich, gdzie oszuści, by dostać się do aktywów bankowych, za pomocą sztucznej inteligencji "podrobili" głos dyrektora banku. Po uzyskaniu autoryzacji wykradli 35 milionów dolarów amerykańskich.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA