REKLAMA

Na ekranie widzisz znajomego proszącego o pieniądze. Temu oszustwu się nie oprzesz

Już nie SMS-y o niedopłatach za prąd czy dziwne oferty składane przez OLX, a generowane przez sztuczną inteligencję deepfake w rozmowach ze znajomymi będą przyszłością oszustw internetowych. Udana próba wyłudzenia pieniędzy odbiła się szerokim echem w Chinach i pokazała, że ciężko zaufać nawet znajomej twarzy.

Na ekranie widzisz znajomego, który prosi cię o pieniądze. Takiemu oszustwu się nie oprzesz
REKLAMA

O oszustwach na sumy niewykraczające poza parę tysięcy złotych i mniej lub bardziej przebiegłych metodach oszustw i wyłudzeń możemy przeczytać niemal codziennie. Choćby dwa dni temu informowaliśmy o przekręcie, w ramach którego 34-letnia Polka straciła dwa tysiące złotych, próbując sprzedać dziecięce ubranka.

Jednak aby wyłudzić znacznie większe sumy potrzeba bardziej wyrafinowanych metod niż podsyłanie fałszywych linków, a generatywna sztuczna inteligencja niesamowicie upraszcza działanie cyberprzestępców. Tak stało się w przypadku pewnego obywatela Chin, od którego wyłudzono astronomiczną sumę 2,5 miliona złotych.

REKLAMA

Wykorzystał sztuczną inteligencję i podszył się pod znajomego. Oto przepis na stratę dwóch i pół miliona złotych

Jak podaje Reuters, powołując się na policję w chińskim Baotou, w zeszłym tygodniu doszło do wyłudzenia na sumę 4,3 mln chińskich Junaów. Do ofiary, która pozostaje anonimowa, zadzwonił cyberprzestępca podający się za jej znajomego. Ofiara nic nie podejrzewała, gdyż sprawca zadzwonił z wykorzystaniem wideorozmowy.

W czasie wideorozmowy wykorzystał wygenerowany przez sztuczną inteligencję obraz i dźwięk, łudząco przypominające znajomego ofiary, pod którego się podszywał - tzw. deepfake. W toku rozmowy przyznał, że potrzebuje dużej sumy pieniędzy na wpłacenie zaliczki na poczet bliżej nieokreślonej licytacji.

Ofiara uwierzyła w scenariusz i przekazała przestępcy żądaną sumę. Cała sprawa wyszła na jaw, gdy ofiara skontaktowała się ze znajomym, któremu rzekomo przesłała pieniądze, a który nie miał pojęcia o całej sprawie.

Sprawa została zgłoszona policji Baotou, której udało się odzyskać większość przekazanych pieniędzy. Jednocześnie stała się głośna w Chinach - przede wszystkim na platformie społecznościowej Weibo, na której zaczął trendować hashtag związany z coraz częstszymi wykorzystaniami sztucznej inteligencji do przeprowadzania oszustw.

Sztuczna inteligencja to jedynie narzędzie, którego wykorzystania mogą być obiektywnie szkodliwe

Choć sprawa miała miejsce w odległych nam Chinach, a obecnie stworzenie kompletnego "klona" danej osoby to proces niełatwy i nietani, to wykorzystanie sztucznej inteligencji w przygotowywaniu oszustw będzie rosło. Wystarczy sobie przypomnieć sławny przypadek sprzed dwóch lat, gdzie sztuczną inteligencję wykorzystano do podrobienia głosu prezesa banku i obrabowania instytucji.

REKLAMA

Technologia się rozwija i już teraz Google pracuje nad modelem sztucznej inteligencji, który generuje wideo na podstawie tekstu. Oczywiście narzędzie nadal jest zamknięte za drzwiami jednostek badawczych, ale sygnał jest jasny: potrzebne do tego modele SI już istnieją.

Jednocześnie sam relatywnie łatwy dostęp do generatywnej SI to całkiem spory problem, bo daje pole do popisu w choćby oszustwach "na amerykańskiego żołnierza", gdzie jednym ze wskazówek co do intencji rozmówcy są niskie umiejętności językowe "żołnierza" (także w języku angielskim), a także możliwość wyszukania zdjęć za pomocą Google Grafika. Generatywna SI to łatwy sposób na zapewnienie sobie wiarygodnych, dobrej jakości treści niezbędnych w internetowych oszustwach.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA