UE bierze się za AI rozbierające ludzi. "Twardy zakaz"
Rozbierane zdjęcia generowane przez sztuczną inteligencję mają zniknąć z Europy. Parlament Europejski i państwa członkowskie uzgodniły nowe przepisy zakazujące tzw. "nudifierów".

Po tym jak Elon Musk w ubiegłym roku puścił samopas swojego chatbota, który rozbierał osoby ze wszystkich możliwych zdjęć, Unia zauważyła że AI ma potencjał do masowego generowania nieautoryzowanych materiałów dla dorosłych. Teraz, aby przeciwdziałać tego typu sytuacjom w przyszłości, Bruksela zdecydowała się na bezpośredni zakaz aplikacji służących do tworzenia seksualizowanych deepfake’ów oraz materiałów przedstawiających dzieci.
Europa zaostrza walkę z deepfejkami tworzonymi przez AI
Nowe przepisy obejmują systemy AI zdolne do generowania obrazów, nagrań wideo lub audio przedstawiających nagie osoby albo osoby uczestniczące w czynnościach seksualnych bez ich zgody. Regulacje dotyczą zarówno producentów takich narzędzi, jak i firm udostępniających je na rynku europejskim bez odpowiednich zabezpieczeń.
Zakaz obejmie również wykorzystywanie AI do tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci. Parlament Europejski podkreśla, że firmy będą musiały dostosować swoje systemy do nowych wymagań do 2 grudnia 2026 r.
Unijni negocjatorzy nie ukrywają, że impulsem do zmian stały się wydarzenia z ubiegłego roku. Wówczas użytkownicy Groka - chatbota należącego do firmy xAI Elona Muska - zaczęli masowo generować seksualizowane obrazy kobiet i dzieci. Pomimo ogromnej krytyki, jaka spadła na Muska i jego platformę, i styczniowej blokady dalszego generowania grafik, w serwisie wciąż można znaleźć pozostałość skandalu.
Zmiany nie ograniczają się jednak wyłącznie do zakazu "nudifierów"
Unia poinformowała dziś o przesunięciu terminu wdrożenia obowiązkowego znakowania treści generowanych przez AI. Zgodnie z nowym prawem, wszystkie systemy AI pozwalające na generowanie obrazów będą musiały zostać w mechanizmy automatycznego umieszczania znaków wodnych. Mechanizmy te mają pozwalać na wykrywanie i śledzenie materiałów stworzonych przez modele generatywne. Obowiązkowe znakowanie ma rozpocząć się 2 grudnia 2026 r.
Równolegle Bruksela zdecydowała się również przesunąć terminy wejścia w życie części najbardziej rygorystycznych przepisów AI Act. Systemy wysokiego ryzyka, wykorzystywane m.in. w biometrii, edukacji, zatrudnieniu, infrastrukturze krytycznej, organach ścigania czy kontroli granicznej, będą objęte nowymi obowiązkami dopiero od 2 grudnia 2027 r.
Jeszcze później zaczną obowiązywać przepisy dotyczące systemów AI będących elementami bezpieczeństwa produktów objętych innymi regulacjami sektorowymi. W tym przypadku nową datą graniczną został 2 sierpnia 2028 r.
Pakiet zmian zawiera również szereg uproszczeń dla biznesu. Firmy produkujące maszyny wykorzystujące AI nie będą już musiały równocześnie spełniać wymagań AI Act i odrębnych regulacji bezpieczeństwa dla maszyn. Unijni prawodawcy zawęzili też definicję "komponentu bezpieczeństwa", dzięki czemu część produktów wykorzystujących AI wyłącznie do optymalizacji działania uniknie klasyfikacji jako systemy wysokiego ryzyka.
Nowelizacja rozszerza ponadto część ulg regulacyjnych dla małych i średnich przedsiębiorstw oraz umożliwia wykorzystywanie danych osobowych do wykrywania uprzedzeń i błędów w systemach AI, pod warunkiem zastosowania odpowiednich zabezpieczeń.
Porozumienie osiągnięte przez Parlament Europejski i Radę UE ma jeszcze zostać formalnie zatwierdzone przez oba organy. Europejscy prawodawcy chcą zakończyć cały proces przed 2 sierpnia 2026 r., czyli terminem wejścia w życie obecnych przepisów dotyczących systemów wysokiego ryzyka.
Czytaj też:



















