Biegły miał wydać opinię w sprawie fałszywych informacji. No i się zaczęło
Opinie ekspertów są ważne w dyskusji o tym co jest prawdą w internecie i o potencjalnym ryzyku posiłkowania się treściami generowanymi przez AI. To znaczy, są ważne tak długo jak piszą je eksperci, a nie czatboty na polecenie ekspertów.
W erze popularności generatywnej AI i łatwości udostępniania treści bardzo łatwo jest sfabrykować różnego rodzaju informacje i próbować przemycić je jako prawdziwe do mass mediów. Wobec czego obecnie bardziej niż kiedykolwiek potrzebujemy opinii ekspertów, którzy obalą dezinformację, przedstawią fakty i będą tłumaczyć otaczającą nas rzeczywistość. Problem zaczyna się jednak, gdy eksperci sami wysługują się generatywną AI, udostępniając wątpliwej jakości informacje.
Znany profesor został poproszony o opinię w sprawie dezinformacji generowanej przez AI. Możesz zgadnąć, co stało się potem
We wrześniu bieżącego roku do sądu okręgowego Stanów Zjednoczonych w stanie Minnesota wpłynął pozew przeciwko prawu tego stanu, które zakazuje udostępniania "treści generowanych przez sztuczną inteligencję w celu wpłynięcia na wybory". Pozew został złożony przez dwie instytucje non-profit zajmujące się angażowaniem w spory sądowe, które wspierają interes publiczny - Hamilton Lincoln Law Institute (HLLI) i Upper Midwest Law Center (UMLC) - w imieniu youtubera, satyryka politycznego znanego pod pseudonimem "Mister Reagan". W lipcu Reagan opublikował satyryczne wideo parodiujące kampanię Kamalę Harris, do którego stworzenia wykorzystał generatywną AI imitującą głos Harris. Na mocy obowiązującego prawa parodia została usunięta z jego profili społecznościowych, co HLLI i UMLC uważają za naruszenie pierwszej i czternastej poprawki do konstytucji Stanów Zjednoczonych.
W budzącej kontrowersje sprawie o głos poproszono profesora Jeffa Hancocka, założyciela i obecnego dyrektora Stanford Social Media Lab - jednostki badawczej Uniwersytetu Stanforda zajmującej się badaniami nad procesami psychologicznymi i interpersonalnymi w mediach społecznościowych. Hancock został zaangażowany do sprawy przez Biuro Prokuratora Generalnego Minnesoty w celu dostarczenia ekspertyzy i opinii na temat wpływu sztucznej inteligencji na dezinformację w mediach społecznościowych.
Opinia profesora wpłynęła do sądu na początku listopada, bardzo szybko wywołując reakcję strony pozywającej. Bowiem Hancock w uzasadnieniu swojej opinii wspomniał o badaniu "Wpływ fałszywych filmów wideo na postawy i zachowania polityczne", które nie istnieje.
"Cytat nosi znamiona "halucynacji" sztucznej inteligencji (AI), co sugeruje, że przynajmniej cytat został wygenerowany przez duży model językowy, taki jak ChatGPT. [...] Powodowie nie wiedzą, w jaki sposób ta halucynacja znalazła się w deklaracji Hancocka, ale kwestionuje ona cały dokument, zwłaszcza gdy znaczna część komentarza nie zawiera żadnej metodologii ani logiki analitycznej"
- czytamy we wniosku o wykluczenie ekspertyzy Hancocka, który przekazała sądowi strona pozywająca.
Jak informuje Minnesota Reformer, we wniosku wspomniano "halucynacje" tylko jednej publikacji naukowej, choć profesor prawa Eugene Volokh odkrył, że jeden z cytatów zawarty w opinii Hancocka, "pochodzi" z badania, które również nie istnieje.
Ani profesor Jeff Hancock, ani zarządzane przez niego Stanford Social Media Lab nie odpowiedziało na pytania mediów w sprawie.
Może zainteresować cię także: