REKLAMA

Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany

Świat byłby piękniejszy gdyby użycie generatywnej sztucznej inteligencji kończyło się na odrabianiu prac domowych i tworzeniu śmiesznych obrazków z kotami. Jednak tak nie jest, w związku z czym wiceprzewodnicząca Komisji Europejskiej ponagla big techy by te zaadresowały problemy SI i zaczęły oznaczać sztucznie stworzone treści. Na dywaniku m.in. Google i Meta, a priorytetem Europa Środkowo-Wshodnia.

Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany
REKLAMA

Generowanie treści przez sztuczną inteligencję znajduje wiele zastosowań nie tylko w zawodach kreatywnych i wszelkich sytuacjach, gdzie potrzebna jest inwencja twórcza. Sztuczna inteligencja znajduje także zastosowanie w tworzeniu phishingu i szeroko pojętej dezinformacji, co zauważają nie tylko eksperci od cyberbezpieczeństwa, ale i Unia Europejska.

W poniedziałek 5 czerwca Vera Jourova, wiceprzewodnicząca Komisji Europejskiej spotkała się z sygnatariuszami Kodeksu postępowania w zakresie dezinformacji - porozumienia zawartego w 2018 roku pomiędzy KE a największymi firmami technologicznymi na europejskim rynku, m.in. Google, Metą (wtedy jeszcze Facebookiem), TikTokiem, Microsoftem oraz Mozillą. Pod koniec maja z porozumienia wycofał się Twitter.

REKLAMA

Komisja Europejska i Big Techy ramię w ramię przeciwko dezinformacji. Przewodnicząca KE daje wytyczne

Jourova oprócz przeanalizowania dotychczasowych wysiłków koncernów we wdrożeniu w życie rozwiązań zgodnych z postanowieniami Kodeksu, wezwała sygnatariuszy do zaadresowania kolejnych wyzwań, które pojawiły się w ciągu ostatnich miesięcy. Mowa tu konkretnie o ochronie internetowej przestrzeni podczas wyborów, zapewnieniu dostępu do danych dla naukowców, walki z rosyjską dezinformacją czy zaadresowanie ryzyka związanego ze sztuczną inteligencją.

Wiceprzewodnicząca Komisji Europejskiej skupiła się przede wszystkim na generatywnej SI, wymieniając Barda, Bing oraz ChatGPT jako potencjalne źródła i narzędzia do tworzenia dezinformacji, które powinny mieć zaimplementowane niezbędne system przeciwdziałające nadużyciom.

Jourova zagrożenie widzi nie tylko w szeroko dostępnych dużych modelach językowych, ale także w modelach text-to-image czy text-to-speech pozwalających na generowanie dowolnego obrazu, mowy czy dźwięku oraz wideo. W związku, z czym ponagliła ona sygnatariuszy do wdrożenia systemów oznaczających treści wygenerowane przez SI, tak aby użytkownicy z krajów europejskich mieli świadomość, że wchodzą w interakcję z nieprawdziwą treścią.

Jeśli chodzi o twórczość sztucznej inteligencji, nie widzę prawa maszyn do wolności słowa. Sygnatariusze Kodeksu postępowania UE przeciwko dezinformacji powinni wdrożyć technologię rozpoznawania treści AI i wyraźnego oznaczania ich użytkownikom.

REKLAMA

Jednocześnie zaapelowała ona o priorytetowe potraktowanie oznaczania treści wygenerowanych przez sztuczną inteligencję w "mniejszych państwach członkowskich i językach". Według polityk chodzi przede wszystkim o kraje Europy Środkowej i Wshodniej, które "są stale atakowane przez rosyjskie źródła informacji".

REKLAMA
Najnowsze
Aktualizacja: 2025-09-10T19:16:46+02:00
Aktualizacja: 2025-09-10T18:07:50+02:00
Aktualizacja: 2025-09-10T17:28:13+02:00
Aktualizacja: 2025-09-10T16:57:25+02:00
Aktualizacja: 2025-09-10T16:49:07+02:00
Aktualizacja: 2025-09-10T11:09:57+02:00
Aktualizacja: 2025-09-10T06:34:00+02:00
Aktualizacja: 2025-09-10T06:12:00+02:00
Aktualizacja: 2025-09-09T21:38:22+02:00
Aktualizacja: 2025-09-09T21:07:40+02:00
Aktualizacja: 2025-09-09T20:59:49+02:00
Aktualizacja: 2025-09-09T20:18:45+02:00
Aktualizacja: 2025-09-09T20:05:39+02:00
Aktualizacja: 2025-09-09T19:54:10+02:00
Aktualizacja: 2025-09-09T19:44:24+02:00
Aktualizacja: 2025-09-09T19:43:07+02:00
Aktualizacja: 2025-09-09T19:41:19+02:00
REKLAMA
REKLAMA
REKLAMA