REKLAMA

Biegły miał wydać opinię w sprawie fałszywych informacji. No i się zaczęło

Opinie ekspertów są ważne w dyskusji o tym co jest prawdą w internecie i o potencjalnym ryzyku posiłkowania się treściami generowanymi przez AI. To znaczy, są ważne tak długo jak piszą je eksperci, a nie czatboty na polecenie ekspertów.

Biegły miał wydać opinię w sprawie fałszywych informacji. No i się zaczęło
REKLAMA

W erze popularności generatywnej AI i łatwości udostępniania treści bardzo łatwo jest sfabrykować różnego rodzaju informacje i próbować przemycić je jako prawdziwe do mass mediów. Wobec czego obecnie bardziej niż kiedykolwiek potrzebujemy opinii ekspertów, którzy obalą dezinformację, przedstawią fakty i będą tłumaczyć otaczającą nas rzeczywistość. Problem zaczyna się jednak, gdy eksperci sami wysługują się generatywną AI, udostępniając wątpliwej jakości informacje.

Znany profesor został poproszony o opinię w sprawie dezinformacji generowanej przez AI. Możesz zgadnąć, co stało się potem

REKLAMA

We wrześniu bieżącego roku do sądu okręgowego Stanów Zjednoczonych w stanie Minnesota wpłynął pozew przeciwko prawu tego stanu, które zakazuje udostępniania "treści generowanych przez sztuczną inteligencję w celu wpłynięcia na wybory". Pozew został złożony przez dwie instytucje non-profit zajmujące się angażowaniem w spory sądowe, które wspierają interes publiczny - Hamilton Lincoln Law Institute (HLLI) i Upper Midwest Law Center (UMLC) - w imieniu youtubera, satyryka politycznego znanego pod pseudonimem "Mister Reagan". W lipcu Reagan opublikował satyryczne wideo parodiujące kampanię Kamalę Harris, do którego stworzenia wykorzystał generatywną AI imitującą głos Harris. Na mocy obowiązującego prawa parodia została usunięta z jego profili społecznościowych, co HLLI i UMLC uważają za naruszenie pierwszej i czternastej poprawki do konstytucji Stanów Zjednoczonych.

W budzącej kontrowersje sprawie o głos poproszono profesora Jeffa Hancocka, założyciela i obecnego dyrektora Stanford Social Media Lab - jednostki badawczej Uniwersytetu Stanforda zajmującej się badaniami nad procesami psychologicznymi i interpersonalnymi w mediach społecznościowych. Hancock został zaangażowany do sprawy przez Biuro Prokuratora Generalnego Minnesoty w celu dostarczenia ekspertyzy i opinii na temat wpływu sztucznej inteligencji na dezinformację w mediach społecznościowych.

Opinia profesora wpłynęła do sądu na początku listopada, bardzo szybko wywołując reakcję strony pozywającej. Bowiem Hancock w uzasadnieniu swojej opinii wspomniał o badaniu "Wpływ fałszywych filmów wideo na postawy i zachowania polityczne", które nie istnieje.

"Cytat nosi znamiona "halucynacji" sztucznej inteligencji (AI), co sugeruje, że przynajmniej cytat został wygenerowany przez duży model językowy, taki jak ChatGPT. [...] Powodowie nie wiedzą, w jaki sposób ta halucynacja znalazła się w deklaracji Hancocka, ale kwestionuje ona cały dokument, zwłaszcza gdy znaczna część komentarza nie zawiera żadnej metodologii ani logiki analitycznej"

Jak informuje Minnesota Reformer, we wniosku wspomniano "halucynacje" tylko jednej publikacji naukowej, choć profesor prawa Eugene Volokh odkrył, że jeden z cytatów zawarty w opinii Hancocka, "pochodzi" z badania, które również nie istnieje.

Ani profesor Jeff Hancock, ani zarządzane przez niego Stanford Social Media Lab nie odpowiedziało na pytania mediów w sprawie.

Może zainteresować cię także:

REKLAMA
REKLAMA
Najnowsze
Aktualizacja: 2025-04-03T20:38:19+02:00
Aktualizacja: 2025-04-03T08:04:41+02:00
Aktualizacja: 2025-04-03T06:00:00+02:00
Aktualizacja: 2025-04-02T21:35:00+02:00
Aktualizacja: 2025-04-02T18:25:33+02:00
Aktualizacja: 2025-04-02T17:35:28+02:00
REKLAMA
REKLAMA
REKLAMA