REKLAMA

Fałszywe filmiki z polskimi celebrytami to już plaga. Gwiazdy zachęcają do trefnych inwestycji i promują leki

Deepfejki zadomowiły się w Polsce. Kolejne znane osobistości występują na filmikach i zachęcają do inwestowania bądź też kupowania produktów – często tych medycznych. Sęk w tym, że tak naprawdę to nie oni, a ich wizerunki i głosy zostały skradzione. Ofiara jednak myśli, że telewizyjna gwiazda swoim autorytetem uwiarygadnia przedsięwzięcie.

oszustwo
REKLAMA

Teatr Narodowy poinformował media o krążących w sieci reklamach. Materiał przedstawia rozmowę aktora Jana Englerta z dziennikarzem Marcinem Prokopem. Pretekstem wywiadu jest promocja leku na nadciśnienie. W fikcyjnej debacie Jan Englert opowiada o swoim złym stanie zdrowia i pobycie w szpitalu. „Pojawiające się tam informacje są kłamstwem” – zaznacza teatr w swoim oświadczeniu.

REKLAMA

Reklamy zawierają sugestię, że aktor konsultował się z lekarzem Krzysztofem Bieleckim. Jak się okazuje już wcześniej w sieci pojawiły się podobne spoty, w których występował właśnie ten chirurg.

Ukradziono mój wizerunek, ukradziono mój głos. To nie jest moja inicjatywa. To jest brutalne podszycie się, wykorzystanie mojej sylwetki

- mówił prof. Krzysztof Bielecki w rozmowie z dziennikarzami programu "Uwaga!" TVN.

Deepfejki atakują polski internet

Eksperci z firmy Eset ostrzegali ostatnio przed fałszywymi filmikami, w których oszuści wykorzystali wizerunek programu informacyjnego TVP i9:30 i prowadzącego Marka Czyża. Dziennikarz w stworzonych przy pomocy sztucznej inteligencji spotach zachęcał do pobrania aplikacji hazardowej, która rzekomo pozwala zgarnąć sporo pieniędzy. „Samotna mama z Warszawy została milionerką dzięki aplikacji blogera Mr Beast” – nosi tytuł fikcyjnego materiału TVP. Co ciekawe wizerunek gwiazdy zagranicznego internetu nie po raz pierwszy jest wykorzystywany do tego typu przekrętu.

 class="wp-image-4302545" width="687"
fot. Eset

Na Spider's Web piszemy o podobnych oszustwach z wykorzystaniem sztucznej inteligencji:

Jeszcze kilka lat temu demaskowanie sfabrykowanych filmów i obrazów było stosunkowo proste, ale z biegiem czasu stało się znacznie trudniejsze. Obecnie coraz trudniej stwierdzić czy dany materiał jest wytworem AI. Narzędzia do tworzenia materiałów deepfake są na wyciągnięcie ręki dla każdego cyberprzestępcy. Bardzo szybko rozwija się technologia związana z klonowaniem głosu

– komentuje Kamil Sadkowski, analityk laboratorium antywirusowego Eset.

Na całe szczęście sami przestępcy popełniają proste błędy. Jak zwracają uwagę analitycy z Eset do promowania materiału wykorzystano markę popularnego w Brazylii, ale nieznanego w Polsce medium, a „samotna matka z Warszawy” ma na imię… Hanah. To sugeruje, że za oszustwo odpowiadają zagraniczni cyberprzestępcy, a takie niepasujące do siebie elementy mogą zwrócić uwagę potencjalnych ofiar i powstrzymać przed kliknięciem w link.

Mimo wszystko to marne pocieszenie, bo zarówno oszustwo z Janem Englertem, jak i podrobiony materiał TVP dobrze pokazują, że oszuści wiedzą, czyj wizerunek wykorzystać

REKLAMA

Śledzą, co się dzieje w kraju, i dostosowują swoje akcje do aktualnych wydarzeń – wszak program TVP jest na antenie od niedawna, a już zdążył zostać wykorzystany do oszustwa. Wcześniej media faktycznie informowały o problemach zdrowotnych aktora, więc to pewnie nie przypadek, że w akcji oszustów wykorzystano wizerunek akurat Jana Englerta.

Właśnie dlatego przekręty są tak niebezpieczne. Mniej wtajemniczeni i doświadczeni użytkownicy sieci mogą mieć wrażenie, że znany aktor czy prezenter faktycznie zachęca do inwestycji lub też poleca skuteczny lek na chorobę. Przecież sami widzieli. Niestety oszustwa wchodzą na wyższy poziom i jeszcze mocniej trzeba uświadamiać bliskich, że to co widzą w internecie nie zawsze musi być prawdą.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA