REKLAMA

Znany polski YouTuber okradziony przez AI. Jutro to będziesz ty

Współtwórca popularnego podcastu Wojenne Historie nigdy nie przypuszczał, że jego głos pewnego dnia poprowadzi kanał konkurencji. A jednak tak się stało - nie dlatego, że postanowił zmienić pracę, ale dlatego że ktoś po prostu... ukradł mu głos.

AI kradnie głos wojenne historie
REKLAMA

Wykorzystując sztuczną inteligencję nieznany sprawca stworzył kanał Opowieści II wojny, na którym publikuje treści wzbogacone głosem brzmiącym identycznie jak głos Bączyka.

Kanał Opowieści II wojny istnieje zaledwie od kilku dni i na szczęście nie zebrał jeszcze pokaźnej widowni – niecałe 150 subskrybentów to niewiele w porównaniu z 275 tys. obserwujących Wojenne Historie. Jednak technologiczny modus operandi oszusta jest niepokojąco prosty i dostępny dla każdego. Wystarczyło pobrać próbki głosu Norberta Bączyka z publicznie dostępnych materiałów na YouTube, wrzucić je do jednego z wielu narzędzi do klonowania głosu - takich jak ElevenLabs, Speechify czy Resemble AI - i w ciągu kilku minut uzyskać syntetyczny głos niemal nie do odróżnienia od oryginału.

REKLAMA

Czytaj też:

Bączyk oświadczył że wspólnie z Kamilem Kawalcem zgłosili sprawę YouTube’owi, ale nadal czekają na reakcję giganta. Równolegle problem zgłaszali fani Bączyka, którzy szybko wychwycili, że coś jest nie tak. Głos brzmiał znajomo, ale popełniał błędy językowe - nie odmieniał prawidłowo nazw państw, co zdradziło jego sztuczną naturę.

Sprawca miał czelność skopiować również styl miniaturek, próbując zmylić potencjalnych widzów. Informacja o użyciu AI jest obecna na kanale, ale ukryta - pojawia się dopiero w opisach poszczególnych filmów, gdzie widnieje formułka: Treści zmodyfikowane lub wygenerowane syntetycznie. Dźwięki lub elementy wizualne zostały znacząco zmodyfikowane lub wygenerowane cyfrowo.

Trzy sekundy dzielą cię od klona

Być może najbardziej niepokojący jest fakt jak niewiele trzeba, aby stać się ofiarą takiego oszustwa. Badania pokazują, że wystarczy zaledwie trzy sekundy nagrania głosu, aby narzędzia AI mogły stworzyć przekonującego klona. A przecież większość twórców publikuje setki godzin materiału wideo online - każdy odcinek podcastu, każdy live stream, każdy filmik na TikToku to potencjalne źródło danych dla oszustów.

Technologia klonowania głosu stała się tak zaawansowana, że niezwykle trudno rozróżnić sklonowanego głosu od prawdziwego. Eksperci mówią wręcz, że jakość klonowania przekroczyła już dolinę niesamowitości (uncanny valley) - ludzkie ucho po prostu nie jest w stanie wykryć różnicy między tym, co ludzkie, a tym, co wygenerowane maszynowo.

Gdzie kończy się innowacja, a zaczyna przestępstwo?

Norbert Bączyk nie pozostawia wątpliwości co do charakteru tego incydentu. Zadeklarował że będzie próbował ustalić tożsamość sprawcy i rozważa kroki prawne. Polskie prawo przewiduje odpowiedzialność karną za publikację i rozpowszechnianie materiałów deepfake. Może to wypełniać znamiona przestępstwa podszywania się pod tożsamość opisanego w art. 190a Kodeksu karnego, za które grozi kara od 6 miesięcy do 8 lat pozbawienia wolności.

YouTube jest obecnie zalewany treściami generowanymi przez AI, które zaczynają zdobywać coraz większą widownię w celu monetyzacji. W Europie sytuacja prawna klonowania głosu znajduje się w swoistej szarej strefie. W ramach RODO głosy są klasyfikowane jako wrażliwe dane osobowe, co oznacza, że ich przetwarzanie wymaga wyraźnej zgody. Unia Europejska wprowadza także AI Act, który nakłada obowiązki transparentności na twórców treści generowanych przez AI, w tym deepfake'ów. Dania poszła nawet dalej, wprowadzając prawo przyznające obywatelom prawa autorskie do własnego wizerunku i głosu - wszelkie realistyczne imitacje generowane przez AI bez zgody będą łamać prawo.

Mechanizm oszustwa: prosty, ale skuteczny

Aby zrozumieć skalę zagrożenia warto przyjrzeć się, jak działa typowe oszustwo z wykorzystaniem klonowania głosu. Schemat jest zatrważająco prosty:

  1. Przestępcy przeszukują Internet w poszukiwaniu nagrań głosu - TikTok, Instagram, YouTube, a nawet automatyczne sekretarki to idealne źródła. Badania pokazują, że 53 proc. dorosłych dzieli się swoim głosem online co najmniej raz w tygodniu, a 49 proc. robi to nawet dziesięć razy.
  2.  Wykorzystując darmowe lub tanie narzędzia AI oszuści tworzą klon głosu w ciągu kilku minut. Raport Consumer Reports z bieżacego roku ocenił sześć najpopularniejszych platform do klonowania głosu i odkrył, że cztery z nich oferują minimalne zabezpieczenia - wymagają jedynie zaznaczenia pola potwierdzającego, że użytkownik ma prawo do sklonowania danego głosu.
  3. Realizacja ataku. To może przybrać różne formy - od fałszywych połączeń do członków rodziny (najczęstszy scenariusz: Miałem wypadek, potrzebuję pieniędzy natychmiast) po oszustwa korporacyjne, gdzie przestępcy podszywają się pod dyrektorów firm instruując pracowników by przekazali w dane miejsce środki finansowe. W jednym głośnym przypadku oszuści wykorzystali sklonowany głos CEO, aby nakłonić pracownika do przekazania 243 tys. dol.

Obrona w czasach deepfake'ów

Skoro zagrożenie jest realne i powszechne to co twórcy mogą zrobić, aby się chronić? Niestety, nie ma prostej odpowiedzi. Eksperci zalecają warstwowe podejście do bezpieczeństwa:

  1. Ograniczenie dostępności materiału źródłowego. Choć dla twórców treści online to paradoks - bo ich biznes opiera się na publikowaniu materiałów - warto być świadomym, że każde nagranie głosu może zostać wykorzystane. Niektórzy twórcy decydują się na ograniczenie dostępności starszych materiałów lub dodawanie cyfrowych szumów utrudniających klonowanie.
  2. Watermarking audio. Technologia znakowania wodnego audio to jeden z obiecujących kierunków ochrony. Polega ona na osadzeniu niewidocznych (a raczej niesłyszalnych) dla człowieka sygnałów w nagraniu, które mogą potwierdzić autentyczność materiału. Jednak eksperci ostrzegają, że obecne rozwiązania są podatne na ataki - doświadczeni oszuści potrafią usunąć znaki wodne poprzez proste manipulacje, takie jak kompresja pliku.
  3. Edukacja odbiorców. McAfee, Resemble AI i inne firmy oferują narzędzia do wykrywania deepfake'ów audio, które analizują wzorce głosu pod kątem manipulacji.
  4. Weryfikacja tożsamości. Dla przedsiębiorstw i instytucji eksperci zalecają wieloczynnikowe uwierzytelnianie zamiast polegania wyłącznie na weryfikacji głosowej. W świecie, gdzie głos można sklonować w trzy sekundy hasła i biometria stają się niebezpiecznie zawodne. Banki już teraz rezygnują z systemów weryfikacji głosowej - aż 91 proc. amerykańskich banków rozważa zmianę swoich systemów z powodu rosnącego ryzyka oszustw związanych z syntetyczną tożsamością.
  5. Ustalenie bezpiecznych słów. Dla osób fizycznych, rodzin i zespołów - stworzenie unikalnego hasła lub frazy, która może zostać użyta do weryfikacji tożsamości w sytuacjach awaryjnych. Jeśli ktoś dzwoni z prośbą o pilne przekazanie pieniędzy, zapytanie o tajne hasło może uratować przed oszustwem.

Przyszłość, w której każdy może być każdym

Technologia klonowania głosu nie zniknie - przeciwnie, będzie się rozwijać. Rynek AI voice cloning ma osiągnąć wartość 7,75 mld dol. do 2029 r., rosnąc w tempie 26,1 proc. rocznie. Zastosowania są niezliczone i w wielu przypadkach niezwykle pozytywne: od pomocy osobom, które utraciły zdolność mowy z powodu choroby (jak Stephen Hawking), przez tworzenie audiobooków w wielu językach, po personalizację asystentów głosowych.

Problem polega na tym, że ta sama technologia, która przywraca głos pacjentom z ALS, może być użyta do oszukania starszej osoby przez fałszywego wnuka proszącego o pieniądze. Ta sama technologia, która umożliwia dubbingowanie filmów w dziesiątkach języków może posłużyć do kompromitacji polityka przez wygenerowanie fałszywego oświadczenia.

Problem nie leży tylko w samej technologii, ale w ekonomii uwagi. Treści generowane przez AI są tanie, szybkie i mogą być produkowane na masową skalę. Jeśli platformy takie jak YouTube nie podejmą zdecydowanych kroków aby filtrować i oznaczać takie materiały to naturalne treści tworzone przez ludzi mogą zostać zagłuszone przez ocean tanich, generycznych narracji prowadzonych przez sklonowane głosy.

REKLAMA

Czy nie jest już za późno?

Sprawa Wojennych Historii to nie jednostkowy incydent, ale symptom szerszego problemu. W rzeczywistości każdy twórca treści - YouTuber, podcaster, influencer, a nawet dziennikarz - jest potencjalną ofiarą. Każdy, kto publikuje swój głos online, pozostawia za sobą cyfrowy ślad, który może zostać wykorzystany bez zgody i bez wiedzy.

Technologia klonowania głosu to narzędzie - jak każde inne może służyć dobru lub złu. Problem polega na tym, że dostęp do niego jest powszechny, koszt użycia minimalny, a potencjalne korzyści dla oszustów ogromne. Jeśli nie podejmiemy zdecydowanych kroków - prawnych, technologicznych i społecznych - świat, w którym nie można ufać własnemu głosowi, stanie się rzeczywistością szybciej, niż nam się wydaje.

REKLAMA
Najnowsze
Aktualizacja: 2025-10-18T07:52:00+02:00
Aktualizacja: 2025-10-18T07:11:00+02:00
Aktualizacja: 2025-10-18T07:00:00+02:00
Aktualizacja: 2025-10-17T19:19:27+02:00
Aktualizacja: 2025-10-17T18:01:11+02:00
Aktualizacja: 2025-10-17T17:36:45+02:00
Aktualizacja: 2025-10-17T17:02:11+02:00
Aktualizacja: 2025-10-17T15:11:35+02:00
Aktualizacja: 2025-10-17T14:34:40+02:00
Aktualizacja: 2025-10-17T12:55:41+02:00
Aktualizacja: 2025-10-17T12:26:28+02:00
Aktualizacja: 2025-10-17T11:30:33+02:00
Aktualizacja: 2025-10-17T08:02:23+02:00
Aktualizacja: 2025-10-17T07:04:22+02:00
Aktualizacja: 2025-10-17T06:40:03+02:00
Aktualizacja: 2025-10-17T06:39:32+02:00
Aktualizacja: 2025-10-16T20:55:04+02:00
REKLAMA
REKLAMA
REKLAMA