REKLAMA

Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany

Świat byłby piękniejszy gdyby użycie generatywnej sztucznej inteligencji kończyło się na odrabianiu prac domowych i tworzeniu śmiesznych obrazków z kotami. Jednak tak nie jest, w związku z czym wiceprzewodnicząca Komisji Europejskiej ponagla big techy by te zaadresowały problemy SI i zaczęły oznaczać sztucznie stworzone treści. Na dywaniku m.in. Google i Meta, a priorytetem Europa Środkowo-Wshodnia.

Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany
REKLAMA

Generowanie treści przez sztuczną inteligencję znajduje wiele zastosowań nie tylko w zawodach kreatywnych i wszelkich sytuacjach, gdzie potrzebna jest inwencja twórcza. Sztuczna inteligencja znajduje także zastosowanie w tworzeniu phishingu i szeroko pojętej dezinformacji, co zauważają nie tylko eksperci od cyberbezpieczeństwa, ale i Unia Europejska.

W poniedziałek 5 czerwca Vera Jourova, wiceprzewodnicząca Komisji Europejskiej spotkała się z sygnatariuszami Kodeksu postępowania w zakresie dezinformacji - porozumienia zawartego w 2018 roku pomiędzy KE a największymi firmami technologicznymi na europejskim rynku, m.in. Google, Metą (wtedy jeszcze Facebookiem), TikTokiem, Microsoftem oraz Mozillą. Pod koniec maja z porozumienia wycofał się Twitter.

REKLAMA

Komisja Europejska i Big Techy ramię w ramię przeciwko dezinformacji. Przewodnicząca KE daje wytyczne

Jourova oprócz przeanalizowania dotychczasowych wysiłków koncernów we wdrożeniu w życie rozwiązań zgodnych z postanowieniami Kodeksu, wezwała sygnatariuszy do zaadresowania kolejnych wyzwań, które pojawiły się w ciągu ostatnich miesięcy. Mowa tu konkretnie o ochronie internetowej przestrzeni podczas wyborów, zapewnieniu dostępu do danych dla naukowców, walki z rosyjską dezinformacją czy zaadresowanie ryzyka związanego ze sztuczną inteligencją.

Wiceprzewodnicząca Komisji Europejskiej skupiła się przede wszystkim na generatywnej SI, wymieniając Barda, Bing oraz ChatGPT jako potencjalne źródła i narzędzia do tworzenia dezinformacji, które powinny mieć zaimplementowane niezbędne system przeciwdziałające nadużyciom.

Jourova zagrożenie widzi nie tylko w szeroko dostępnych dużych modelach językowych, ale także w modelach text-to-image czy text-to-speech pozwalających na generowanie dowolnego obrazu, mowy czy dźwięku oraz wideo. W związku, z czym ponagliła ona sygnatariuszy do wdrożenia systemów oznaczających treści wygenerowane przez SI, tak aby użytkownicy z krajów europejskich mieli świadomość, że wchodzą w interakcję z nieprawdziwą treścią.

Jeśli chodzi o twórczość sztucznej inteligencji, nie widzę prawa maszyn do wolności słowa. Sygnatariusze Kodeksu postępowania UE przeciwko dezinformacji powinni wdrożyć technologię rozpoznawania treści AI i wyraźnego oznaczania ich użytkownikom.

REKLAMA

Jednocześnie zaapelowała ona o priorytetowe potraktowanie oznaczania treści wygenerowanych przez sztuczną inteligencję w "mniejszych państwach członkowskich i językach". Według polityk chodzi przede wszystkim o kraje Europy Środkowej i Wshodniej, które "są stale atakowane przez rosyjskie źródła informacji".

REKLAMA
Najnowsze
Aktualizacja: 2025-10-29T21:09:37+01:00
Aktualizacja: 2025-10-29T19:53:14+01:00
Aktualizacja: 2025-10-29T18:04:46+01:00
Aktualizacja: 2025-10-29T17:38:38+01:00
Aktualizacja: 2025-10-29T17:11:02+01:00
Aktualizacja: 2025-10-29T16:58:48+01:00
Aktualizacja: 2025-10-29T16:12:03+01:00
Aktualizacja: 2025-10-29T15:27:25+01:00
Aktualizacja: 2025-10-29T15:10:05+01:00
Aktualizacja: 2025-10-29T14:49:01+01:00
Aktualizacja: 2025-10-29T13:16:47+01:00
Aktualizacja: 2025-10-29T11:52:04+01:00
Aktualizacja: 2025-10-29T11:22:46+01:00
Aktualizacja: 2025-10-29T10:35:00+01:00
Aktualizacja: 2025-10-29T09:17:29+01:00
Aktualizacja: 2025-10-29T06:47:00+01:00
Aktualizacja: 2025-10-29T06:45:00+01:00
Aktualizacja: 2025-10-29T05:48:00+01:00
Aktualizacja: 2025-10-28T18:43:45+01:00
Aktualizacja: 2025-10-28T17:44:30+01:00
Aktualizacja: 2025-10-28T17:04:27+01:00
Aktualizacja: 2025-10-28T17:02:31+01:00
Aktualizacja: 2025-10-28T16:03:48+01:00
REKLAMA
REKLAMA
REKLAMA