Uważaj na telefony z prośbą o pożyczkę. Głos w słuchawce może pochodzić z generatora
Telefony od rodziny i znajomych z prośbą o pieniądze mogą być próbą oszustwa. Generatory głosu naśladujące prawdziwych ludzi to już nie potencjalny, tylko realny problem, a będzie tylko gorzej. Tyle dobrego, że polski język jest dla sztucznej inteligencji trudniejszy niż angielski, ale i tak powinniśmy mieć się na baczności.
Cyberprzestępcy uwielbiają przejmować konta w serwisach społecznościowych, bo mogą je potem wykorzystać do wyłudzania pieniędzy. Na szczęście coraz więcej osób ma świadomość, że prośby o kliknięcie w szemrany link, podanie kodu BLIK lub przelania środków na numer konta bądź numer telefonu, mogą pochodzić od osoby, której udało się podszyć pod członka rodziny albo znajomego.
Do tej pory dobrym sposobem na to, by wykryć próbę oszustwa, było wykonanie telefonu do osoby, z której konta wysłana została prośba o pożyczkę za pośrednictwem np. komunikatora internetowego. Jeśli osoba w słuchawce zaprzeczała, że wysłała prośbę o pożyczkę lub potwierdzała, że faktycznie prośba o przelew pochodzi od niej, to sprawa była jasna. Niestety to już nieaktualne.
Winne są temu generatory głosu, które potrafią naśladować prawdziwych ludzi.
Algorytmy sztucznej inteligencji radzą sobie coraz lepiej z generowaniem wypowiedzi. Jeszcze kilka lat temu głos wygenerowany komputerowo można było rozpoznać na pierwszy rzut ucha, ale nowoczesne algorytmy z roku na rok stają się coraz lepsze i wcale nie powstały w niecnym celu. Mogą pomagać np. aktorom, którzy głos stracili, jak to miało miejsce w przypadku Vala Kilmera i jego występu w Top Gun: Maverick.
Niestety jak zwykle nowe technologie, które w założeniu miały się przysłużyć ludzkości, są też dla nas zagrożeniem. Aktorzy boją się, że stracą pracę, a z rozwoju deepfake’ów cieszą się też naciągacze. Problem z generatorami głosu jest już na tyle poważny, że amerykańska Federalna Komisja Handlu ostrzega przed oszustami, którzy podszywają się pod bliskich w rozmowach telefonicznych mających na celu wyłudzenie pieniędzy.
Jak wygląda próba oszusta z użyciem generatora głosu?
Modus operandi scamerów jest dość proste: wykonują telefon, w którym podszywają się pod bliską osobę rozmówcy i proszą o szybki przelew, gdyż znaleźli się w sytuacji kryzysowej i potrzebują pieniędzy, bo znaleźli się w areszcie, mieli wypadek itp. Celem ataków mogą padać osoby starsze, którym do głowy nie przyjdzie, że głos w słuchawce może pochodzić z generatora.
Czytaj też: Steve Jobs udziela wywiadu. Sztuczna inteligencja przywraca zmarłych do życia
W celu wygenerowania wiarygodnie brzmiącej wiadomości wystarczy krótki klip audio z próbką głosu, który można pozyskać z serwisów społecznościowych. Jeśli ktoś publikuje np. filmiki na TikToku albo Storiesy na Instagramie, to mogą one zostać potem wykorzystane do przeprowadzenia próby oszustwa wycelowanego w dziadka, babcię albo jednego z rodziców.
Jak się bronić przed tego typu atakami?
Jednym ze sposobów jest odmawianie udzielenia jakiejkolwiek pożyczki niezależnie od sytuacji lub domaganie się uprzednio spotkania na żywo, aczkolwiek to takie wylewanie dziecka z kąpielą. Jeśli nie chcemy odmawiać bliskim pomocy, gdy ci faktycznie będą w trudnej sytuacji, warto przed wykonaniem przelewu skontaktować się z osobą, która rzekomo prosi o pożyczkę różnymi kanałami, w tym poprzez inne profile social media i różne usługi VOIP.
Niestety zawsze istnieje ryzyko, że cyberprzestępca jest na tyle sprytny, że przed próbą ataku przejął zarówno numer telefonu poprzez sim swap, jak i nie jedno, a wiele kont w serwisach społecznościowych. Dobrym pomysłem może być też wykonanie wideopołączenia… przynajmniej do czasu, aż nie staną się powszechne algorytmy sztucznej inteligencji generujące na żywo nie tylko głos, ale również twarz człowieka…
Pewnym pocieszeniem może być fakt, że polski język jest dla maszyn dużo trudniejszy niż angielski - właśnie dlatego u nas usługi związane z przetwarzaniem języka często debiutują znacznie później niż w innych krajach. Z tego powodu oszustwa wykorzystujące sklonowany głos oraz technologię deepfake również mogą być mniejszym problemem w Polsce niż w krajach anglojęzycznych. Przynajmniej przez jakiś czas.