YouTube ma bat na oszustów. "Elon Musk" nie sprzeda ci już inwestycji
YouTube wprowadza narzędzie do wykrywania deepfejków. System podobny do Content ID ma skanować filmy w poszukiwaniu sztucznie wygenerowanych twarzy i pozwolić ich właścicielom na skasowanie treści z serwisu.

YouTube ma spory problem z deepfejkami - w najlepszym przypadku są one wykorzystywane do tworzenia treści o charakterze humorystycznym, w najgorszym do promowania oszustw i tworzenia fake newsów. Dlatego platforma zapowiedziała właśnie nowe narzędzie, które ma pomóc w wykrywaniu i usuwaniu materiałów wykorzystujących wizerunek znanych osób bez ich zgody.
YouTube chce zatrzymać deepfejki. Platforma uruchamia nowe narzędzie
Nowa funkcja nazywa się likeness detection ("wykrywanie podobieństwa") i w dużym skrócie działa podobnie do dobrze znanego youtuberomsystemu Content ID. Ten drugi skanuje wszystkie filmy na platformie w poszukiwaniu chronionych prawem autorskim materiałów audio i wideo. Likeness detection robi coś podobnego, ale zamiast muzyki czy fragmentów filmów analizuje twarze pojawiające się w materiałach opublikowanych na platformie.
Jeśli system wykryje wideo zawierające wygenerowany przez AI wizerunek danej osoby, owa osoba otrzyma powiadomienie. Następnie będzie ona mogła przejrzeć materiał i zdecydować, czy chce złożyć wniosek o jego usunięcie. YouTube podkreśla jednak, że samo zgłoszenie nie oznacza automatycznej blokady filmu - każda decyzja ma być oceniana zgodnie z obowiązującą polityką prywatności serwisu.
Jeśli materiał wyraźnie ma charakter parodii, satyry lub komentarza politycznego, prawdopodobnie pozostanie dostępny. Platforma podkreśla, że takie treści są częścią publicznej debaty i nie powinny być automatycznie blokowane.
W praktyce oznacza to, że system ma przede wszystkim pomóc w walce z treściami wprowadzającymi w błąd - na przykład deepfejkami wykorzystującymi wizerunek znanych osób do promowania kryptowalutowych oszustw lub fałszywych inwestycji. To właśnie w takich materiałach często pojawiają się wygenerowane przez AI wersje znanych postaci medialnych.
Dotychczas narzędzie likeness detection było dostępne dla milionów twórców działających w ramach YouTube Partner Program. Teraz firma rozszerza jego działanie na nową grupę użytkowników - dziennikarzy, polityków oraz kandydatów w wyborach. Według YouTube osoby znajdujące się w centrum debaty publicznej są szczególnie narażone na manipulacje z wykorzystaniem sztucznej inteligencji. Deepfake przedstawiający polityka czy znanego komentatora może szybko stać się viralem i wpłynąć na opinię publiczną, zanim zostanie zweryfikowany.
Aby dołączyć do programu, uczestnicy będą musieli potwierdzić swoją tożsamość. Wymaga to przesłania krótkiego nagrania wideo oraz dokumentu tożsamości. Firma zapewnia, że dane te będą wykorzystywane wyłącznie do działania systemu wykrywania wizerunku i nie trafią do treningu modeli generatywnej sztucznej inteligencji.
Według przedstawicieli YouTube liczba faktycznych wniosków o usunięcie takich materiałów jest na razie niewielka. Amjad Hanif, wiceprezes odpowiedzialny za produkty dla twórców, przyznał podczas briefingu dla mediów, że wielu uczestników programu korzysta z narzędzia głównie do monitorowania tego, gdzie i w jaki sposób pojawia się ich wizerunek. W wielu przypadkach treści okazują się nieszkodliwe lub wręcz korzystne dla twórców, zwiększając ich rozpoznawalność.
Jednak jak podkreślił Hanif, YouTube ma świadomość że sytuacja może wyglądać zupełnie inaczej w przypadku osób zaangażowanych w politykę i życie społeczne. Dlatego politycy i dziennikarze to dopiero pierwsze grupy, które otrzymują dostęp do likeness detection - YouTube zapowiedział, że obecnie pracuje nad rozszerzeniem ochrony wizerunku na kolejne grupy. Na razie jednak nie ma planów, aby podobna ochrona objęła wszystkich użytkowników internetu.
Więcej na temat YouTube'a:
Zdjęcie główne: Bangla press / Shutterstock



















