Oszustwo na kolegę zaraz wejdzie na wyższy poziom. Podrobili głos prezesa i obrabowali duży bank
Deepfake to technologia wykorzystywana do preparowania twarzy, ale sztuczna inteligencja może także podrobić czyjś głos. Nowocześni rabusie zrobili z tego użytek i podszyli się pod szefa dużej firmy, wyłudzając w ten sposób olbrzymie pieniądze z banku.
Dotychczas deepfake kojarzył się z przeróbkami filmów. Zaczęło się niewinnie i imponująco: od tworzenia scen, w których np. Arnold Schwarzenegger mógł być wiedźminem Geraltem.
Szybko jednak narzędzie wymknęło się spod kontroli i trafiło na strony pornograficzne, przez co twoja sąsiadka nagle mogła stać się gwiazdą filmów dla dorosłych. Nie będąc tego nawet świadoma.
Sztuczna inteligencja jest w stanie zmienić tożsamość na wideo, a oprócz tego potrafi wygenerować głos, który ma odwzorować na podstawie zebranych próbek. Właśnie to pomogło włamywaczom wykraść 35 mln dol. z banku w Dubaju. Do ataku doszło na początku 2020 roku, ale dopiero teraz poznaliśmy szczegóły na jego temat.
Szef firmy przez telefon przekazał pracownikowi banku, że ten musi autoryzować bardzo duże przelewy – bo właśnie dokonuje dużego przejęcia. Przedstawiciel nie miał wątpliwości, że rozmawia z właściwą osobą, wszak znał dobrze głos prezesa. Do tego doszły maile potwierdzające transakcje (tu musiał pomóc stary, dobry phishing), więc sytuacja wydawała się czysta.
Nie była to robota amatorów. W sprawę zaangażowanych było co najmniej 17 osób, a pieniądze rozeszły się po całym świecie.
Czas na nową wersję kampanii „Cześć, jestem Wojtek, też mam 12 lat”.
Deepfake już pozwolił wrobić polityków czterech krajów. Ci mieli wrażenie, że prowadzą wideokonferencję z Leonidem Wołkowem, szefem sztabu Aleksieja Nawalnego, rosyjskiego opozycjonisty. Tak naprawdę za wszystkim stali hakerzy.
Dodajmy do tego skłonność ludzi do wiary w fake newsy, a obudzimy się w naprawdę nieciekawych czasach. „Jak to prezydent XYZ nie powiedział, że trzeba mordować wrogów politycznych? Przecież słyszałem i widziałem, że to on!”.
To oczywiście najbardziej skrajny scenariusz. W mniej efektownym, ale równie skutecznym takie narzędzia będą żyłą złota dla oszustów. Już olbrzymią popularnością cieszą się oszustwa na policjanta czy kolegę.
Znajomy pisze z prośbą, ofiara podaje kod Blik, złodziej wypłaca pieniądze i dziękuję – przestępstwo doskonałe. A wszystko zaczęło się od przejęcia czyjegoś konta na Facebooku.
W przypadku takich przekrętów zawsze przestrzega się, by dodatkowo weryfikować, kto stoi za daną propozycją. Tylko tu może być trudniej, skoro oszuści mogą zadzwonić do ofiary i wykorzystać spreparowany głos.
Wbrew pozorom zdobycie informacji, o których „nikt nie wie, tylko bliscy” nie jest wcale takie trudne. Niedawno ciekawy przykład pokazał Niebezpiecznik: ludzie w mediach społecznościowych sami dzielą się teoretycznie niewinnymi szczegółami, które jednak znacząco ułatwiają życie przestępcom.
Teoretycznie deepfake to technologia nie dla pierwszego lepszego oszusta, ale to wcale nie jest pocieszająca informacja. Jeżeli ktoś ma w ręku takie narzędzie, to będzie w stanie doskonale przygotować się do skoku.