REKLAMA

Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany

Świat byłby piękniejszy gdyby użycie generatywnej sztucznej inteligencji kończyło się na odrabianiu prac domowych i tworzeniu śmiesznych obrazków z kotami. Jednak tak nie jest, w związku z czym wiceprzewodnicząca Komisji Europejskiej ponagla big techy by te zaadresowały problemy SI i zaczęły oznaczać sztucznie stworzone treści. Na dywaniku m.in. Google i Meta, a priorytetem Europa Środkowo-Wshodnia.

06.06.2023 15.12
Wolność słowa nie dotyczy maszyn. Unia żąda od big techów ważnej zmiany
REKLAMA

Generowanie treści przez sztuczną inteligencję znajduje wiele zastosowań nie tylko w zawodach kreatywnych i wszelkich sytuacjach, gdzie potrzebna jest inwencja twórcza. Sztuczna inteligencja znajduje także zastosowanie w tworzeniu phishingu i szeroko pojętej dezinformacji, co zauważają nie tylko eksperci od cyberbezpieczeństwa, ale i Unia Europejska.

W poniedziałek 5 czerwca Vera Jourova, wiceprzewodnicząca Komisji Europejskiej spotkała się z sygnatariuszami Kodeksu postępowania w zakresie dezinformacji - porozumienia zawartego w 2018 roku pomiędzy KE a największymi firmami technologicznymi na europejskim rynku, m.in. Google, Metą (wtedy jeszcze Facebookiem), TikTokiem, Microsoftem oraz Mozillą. Pod koniec maja z porozumienia wycofał się Twitter.

REKLAMA

Komisja Europejska i Big Techy ramię w ramię przeciwko dezinformacji. Przewodnicząca KE daje wytyczne

Jourova oprócz przeanalizowania dotychczasowych wysiłków koncernów we wdrożeniu w życie rozwiązań zgodnych z postanowieniami Kodeksu, wezwała sygnatariuszy do zaadresowania kolejnych wyzwań, które pojawiły się w ciągu ostatnich miesięcy. Mowa tu konkretnie o ochronie internetowej przestrzeni podczas wyborów, zapewnieniu dostępu do danych dla naukowców, walki z rosyjską dezinformacją czy zaadresowanie ryzyka związanego ze sztuczną inteligencją.

Wiceprzewodnicząca Komisji Europejskiej skupiła się przede wszystkim na generatywnej SI, wymieniając Barda, Bing oraz ChatGPT jako potencjalne źródła i narzędzia do tworzenia dezinformacji, które powinny mieć zaimplementowane niezbędne system przeciwdziałające nadużyciom.

Jourova zagrożenie widzi nie tylko w szeroko dostępnych dużych modelach językowych, ale także w modelach text-to-image czy text-to-speech pozwalających na generowanie dowolnego obrazu, mowy czy dźwięku oraz wideo. W związku, z czym ponagliła ona sygnatariuszy do wdrożenia systemów oznaczających treści wygenerowane przez SI, tak aby użytkownicy z krajów europejskich mieli świadomość, że wchodzą w interakcję z nieprawdziwą treścią.

Jeśli chodzi o twórczość sztucznej inteligencji, nie widzę prawa maszyn do wolności słowa. Sygnatariusze Kodeksu postępowania UE przeciwko dezinformacji powinni wdrożyć technologię rozpoznawania treści AI i wyraźnego oznaczania ich użytkownikom.

- powiedziała Jourova na spotkaniu z dziennikarzami
REKLAMA

Jednocześnie zaapelowała ona o priorytetowe potraktowanie oznaczania treści wygenerowanych przez sztuczną inteligencję w "mniejszych państwach członkowskich i językach". Według polityk chodzi przede wszystkim o kraje Europy Środkowej i Wshodniej, które "są stale atakowane przez rosyjskie źródła informacji".

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA