REKLAMA

Jest źle, będzie gorzej. Tak rujnuje się internet - ostrzegają naukowcy Google'a

-Nigdy jeszcze nie było tak łatwo tworzyć treści za pomocą maszyny! - z tego powodu cieszą się ludzie, ale i przestępcy. Natomiast naukowcy ubolewają nad stanem cyfrowej przestrzeni, którzy nie wróżą internetowi zbyt dobrze.

Jest źle, będzie gorzej. Tak rujnuje się internet - ostrzegają naukowcy Google'a
REKLAMA

Internet - jako przestrzeń cyfrowa - to obecnie ulubione miejsce milionów osób na świecie. I trudno się dziwić, bo na przestrzeni lat za sprawą rozwoju technologicznego internet stał się głównym miejscem wyszukiwania informacji, pozyskiwania wiedzy, kontaktu z ludźmi czy rozwoju zainteresowań i hobby.

Jednak wraz z rozwojem technologicznym głównym zagrożeniem w internecie nie jest już złośliwe oprogramowanie czy osoby mające złe zamiary wobec naiwnych internautów. Jak przekonują badacze Google DeepMind, tym co obecnie najbardziej szkodzi internetowi jest generatywna sztuczna inteligencja.

REKLAMA

Ludzie nadużywają generatywnej sztucznej inteligencji na potęgę. Naukowcy Google'a pokazują jak

Zespoł naukowców powiązanych z Google DeepMind, think tankiem Google'a Jigsaw i organizacją charytatywną Google.org opublikowali nierecenzowaną publikację o charakterze naukowym dotyczącą nadużyć i niewłaściwego użycia generatywnej sztucznej inteligencji. Obecne trendy w rozwoju tej technologii oraz w jej użyciu nazwali "zagrożeniem dla zaufania, autentyczności i integralności systemu informacji".

Badacze zauważyli, że choć w ciągu ostatniego półtora roku multimodalna generatywna sztuczna inteligencja (GenAI) znalazła szereg różnych zastosowań, to liczna literatura naukowa powstała w tym okresie oraz "analizy jakościowe różnych incydentów" wskazują na rosnący potencjał GenAI jako narzędzia do różnego rodzaju nadużyć.

Naukowcy wskazują trzy główne kierunki nadużyć: manipulację ludzkim wizerunkiem i fałszowanie faktów, użycie multimodalnej generatywnej sztucznej inteligencji do technicznie zaawansowanych ataków przez osoby o nikłej technicznej wiedzy (np. tworzenia złośliwego oprogramowania) oraz nadużyć niższego poziomu. Jako nadużycia niższego poziomu definiują przypadki użycia GenAI, które choć nie łamią regulaminów i warunków użytkowania modeli, to wzbudzają obawy natury etycznej.

Obejmują one pojawienie się nowych form komunikacji na potrzeby działań politycznych, autopromocji i rzecznictwa, które zacierają granice między autentycznością a oszustwem

Po analizie doniesień medialnych, publikacji naukowych oraz danych ilościowych z narzędzia do monitorowania danych społecznościowych, badacze doszli do wniosku, że w okresie pomiędzy styczniem 2023 r. a marcem bieżącego roku najczęstszym sposobem niewłaściwego użycia GenAI były próby manipulacją opinią publiczną. A to poprzez publikację zmodyfikowanych i sfabrykowanych treści, którymi osoby publikujące próbowały zniesławić swoich przeciwników lub zniekształcić obraz rzeczywistości politycznej.

Zjawiskiem o podobnej skali jest content farming, czyli masowe tworzenie treści (obrazów, publikacji tekstowych, animacji czy reklam) które firmy lub osoby prywatne osoby lub firmy publikują w internecie w celu osiągnięcia korzyści materialnych lub niematerialnych. Badacze zwrócili także uwagę na ogromną liczbę przypadków oszustw z udziałem celebrytów oraz phishingu, czyli podszywania się pod firmy i instytucje celem wzbudzenia zaufania potencjalnej ofiary.

Jest źle, będzie gorzej

Według uczonych ważnym negatywnym skutkiem jest nie tylko wprowadzanie w błąd nieświadomych osób czy manipulacje, ale także podważenie społecznego zaufania do cyfrowych środków masowego przekazu.

Masowa produkcja niskiej jakości, podobnych do spamu i nikczemnych treści syntetycznych może zwiększyć sceptycyzm ludzi wobec informacji cyfrowych i przeciążyć użytkowników zadaniami weryfikacyjnymi. Jeśli nie podejmie się odpowiednich działań, to zanieczyszczenie publicznie dostępnych danych treściami generowanymi przez sztuczną inteligencję może potencjalnie utrudnić wyszukiwanie informacji i zniekształcić zbiorowe zrozumienie rzeczywistości społeczno-politycznej lub konsensusu naukowego.

Naukowcy zauważają również, że problemem generatywnej AI jest jej dostępność. Obecnie każda zainteresowana osoba niezależnie od wiedzy, doświadczenia czy posiadanych środków, jest w stanie sfabrykować informacje, wytworzyć realistycznie wyglądające obrazy czy utworzyć kod programistyczny programu komputerowego.

Badacze apelują o podjęcie kroków w celu zapobiegnięciu kolejnym przypadkom nadużyć, które będą się pojawiać wraz z rozwojem technologii stojącej za generatywną sztuczną inteligencją.

Dziedzina ta szybko rozwija się w kierunku bardziej wyrafinowanych modeli multimodalnych, zdolnych do przetwarzania i generowania różnorodnych form treści. Przewidujemy, że nowe modalności i możliwości, takie jak zdolność do podpowiadania modeli za pomocą danych wejściowych wideo i obrazów, prawdopodobnie doprowadzą do nowych wzorców nadużyć, które należy dokładnie zbadać.

REKLAMA

Więcej na temat sztucznej inteligencji (AI):

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA