Fałszywi eksperci, sztuczne artykuły, kulawe treści. Tak promuje się bzdury

Farmy treści produkują internetowy szlam, którym karmione są modele językowe sztucznej inteligencji. Otrzymują śmieci i śmieci wydalają. Efekty procesu trawienia dostajemy my, ludzie – wepchnięci w mechanizm nakręcania spirali fałszu.

Fot. Shutterstock / Master1305

Psycholożka emocji cyfrowych, dr Laura Winnicka, przekonuje, że codzienny kontakt z systemem sztucznej inteligencji może prowokować realne uczucia.

Profesor Mira Nowicka, badaczka przyszłości relacji i więzi z chatbotami, nazywa to "miłością zaprogramowaną".

Cyberpsycholog, dr Adam Jeżewski, zauważa, że "AI nie musi czuć, aby wpływać na uczucia człowieka".

A dr Iga Marciniak, specjalistka w dziedzinie relacji cyfrowych, podkreśla, że "więzi z AI mogą być bardziej kuszące niż relacje z ludźmi".

Nie są to zaskakujące ani specjalnie odkrywcze stwierdzenia. Bardziej szokujące jest to, że wszyscy ci badacze, naukowcy i specjaliści nie istnieją.

Tak, nie istnieją.

Nie można ich znaleźć na stronach uczelni wyższych, w serwisach publikujących badania naukowe czy zwyczajnie, wyszukując ich nazwisk w Google. Prawdopodobnie nie przez przypadek w artykule, w którym znalazły się ich wyglądające na eksperckie wypowiedzi, nie powiązano ich z żadną uczelnią, instytucją czy nazwą gabinetu.

Noszący tytuł "Czy AI może zakochać się w użytkowniku? Psychologowie komentują" ma wiele cech mogących sugerować, że powstał przy użyciu generatorów sztucznej inteligencji. Jest dość krótki. Nie jest specjalnie oryginalny. Brakuje w nim pogłębionej refleksji. Pod względem języka i stylu widoczna jest schematyczna powtarzalność, parafrazowanie zdań, typowe dla generycznych treści wodolejstwo.

I choć materiał, który ukazał się 18 listopada zeszłego roku w serwisie Poinformowani.pl został podpisany imieniem i nazwiskiem (Karol Lis), to trudno powiedzieć, czy i jego autor istnieje.

Galeria: 3 zdjęcia
Galeria zdjęć
Screen artykułu pt. Czy AI może zakochać się w użytkowniku? Psychologowie komentują z serwisu Poinformowani
Screen artykułu pt. Czy AI może zakochać się w użytkowniku? Psychologowie komentują z serwisu Poinformowani
Screen artykułu pt. Czy AI może zakochać się w użytkowniku? Psychologowie komentują z serwisu Poinformowani

Poinformowani.pl istnieje od 2007 roku, kiedy ukazały się w nim pierwsze treści. Na Facebooku śledzi go ponad sto tysięcy użytkowników. Według danych Krajowego Rejestru Sądowego, to serwis informacyjny działający w branży marketingu, reklamy i PR-u. Jest zarejestrowany we Wrocławiu. Jak pisała "Gazeta Wyborcza" jest powiązany znanym z X, czyli dawnego Twittera z Łukaszem Bokiem. Tego jednak nie dowiemy się ze strony internetowej, bo nie zawiera ona regulaminu, który wskazywałby, kto jest właścicielem serwisu. Jego założyciele informują zaś o polityce prywatności i o tym, w jaki sposób wykorzystują dane użytkowników. Zachęcają też do kontaktu – zarówno reklamodawców, jak i redaktorów czy fotografów poszukujących pracy lub chcących podszkolić swój dziennikarski warsztat. Jednak na mojego e-maila w sprawie stażu bądź pracy, redakcja nie odpowiedziała przez ponad miesiąc.

Milczeniem odpowiedziała też na kolejnego e-maila. Wysłanego już później, bo 8 stycznia, w sprawie wspomnianego artykułu i rzekomych ekspertów, którzy mieli się w nim wypowiadać.

Pytałem w nim o to, czy wymienieni rozmówcy, naukowcy i badacze rzeczywiście istnieją, bo nie sposób ich odnaleźć w innych źródłach: publikacjach naukowych, rejestrach uczelni wyższych czy gabinetach psychologicznych. Byłem też ciekaw, czy autor artykułu, Karol Lis, istnieje, i aby to zweryfikować, prosiłem o umówienie rozmowy na żywo lub online. Pytałem też m.in. o to, czy i w jakim stopniu serwis Poinformowani.pl publikuje treści wygenerowane przy pomocy sztucznej inteligencji oraz w jaki sposób redakcja weryfikuje treści przed publikacją.

Na żadne z pytań przez blisko miesiąc nie dostałem żadnej odpowiedzi. W tym czasie serwis wciąż działał i regularnie publikował treści, pod którymi zwykle nikt się nie podpisywał. 

Farmy ścieków

Podobnych niszowych serwisów jest coraz więcej. Nazywane są "AI content farms", czyli farmami treści, które wypełnione są produkowanymi masowo i często automatycznie  wygenerowanymi treściami. Syntetyczna papka jest zwykle mieszanką faktów i fałszu, co jest wynikiem halucynacji sztucznej inteligencji. Bo właśnie pojawienie się modeli generatywnej AI takie jak ChatGPT, Gemini czy Perplexity znacznie ułatwiło przyśpieszając i obniżając koszty masowej produkcji treści, które dziś coraz szczelniej wypełniają internetową przestrzeń. Konkurują one z jakościowymi materiałami, które giną w zalewie niekończącej się ilości informacji niskiej jakości. 

Te kiepskiej jakości treści nazywane są angielskim słowem slop, które znaczy ni mniej, ni więcej, lecz pomyje, ścieki czy szlam internetu. Łatwo domyślić się, co oznacza ono w odniesieniu do sztucznej inteligencji. To tandetne, niechlujne i zdeformowane, a więc fałszywe treści wygenerowane przez AI, tworzone bez wysiłku i z jeszcze mniejszą dawką refleksji. Recz jasna, nie chodzi tylko o teksty, ale także o obrazy, piosenki czy filmy, na które natrafiamy, skrolując tablice platform społecznościowych, a coraz częściej w wynikach wyszukiwania.

My jednak skupmy się na tekstach udających dziennikarskie materiały. Jak jest ich wiele próbował zbadać serwis fact-checkingowy NewsGuard. Jego członkowie do końca października 2025 roku zidentyfikowali na całym świecie 2089 niszowych witryn informacyjnych nazywanych farmami treści, ukazujących się w 16 językach. Przy zerowym bądź minimalnym nadzorze człowieka publikowane są na nich częściowo lub całkowicie fałszywe artykuły, które często są wytworami generatywnej sztucznej inteligencji. Z raportu NewsGuard wynika także, że wprowadzające w błąd treści były zarówno zmyślonymi wydarzeniami, fałszywymi informacjami, choćby o śmierci celebrytów, czy poradami medycznymi.

To ogląd globalny, ale na polskim gruncie wcale nie jest lepiej. Ewelina Bartuzi-Trokielewicz, kierowniczka Zakładu Analiz Audiowizualnych i Systemów Biometrycznych w NASK przyznaje, że w ciągu ostatnich lat nastąpił gwałtowny wzrost liczby stron internetowych publikujących syntetyczne treści generowane przez sztuczną inteligencję. Od czasu pojawienia się m.in. ChataGPT ich skala wręcz "eksplodowała", także w Polsce.

– W ostatnim czasie w polskiej przestrzeni internetowej również zaobserwowaliśmy wyraźny wzrost liczby serwisów zawierających treści wyłącznie wygenerowane przez duże modele językowe. Składają się one z licznych wpisów blogowych na tematy z różnych dziedzin, często wzajemnie niepowiązanych ani niezwiązanych z domniemaną tematyką serwisu. Badania na temat skali tego zjawiska nadal są prowadzone, jednak z analizy samych serwisów i publikowanych na nich treści wynika, że pojedyncze strony potrafią zgromadzić od kilku do nawet kilkudziesięciu tysięcy syntetycznych postów, tworzonych i publikowanych automatycznie w relatywnie krótkim czasie – mówi Ewelina Bartuzi-Trokielewicz i jako przykład podaje zidentyfikowane przez NASK wpisy dotyczące około tysiąca osób fizycznych: aktorów, artystów, celebrytów czy polityków.

– Miały one najczęściej charakter informacyjny i dotyczyły życia prywatnego i zawodowego. Wiele z nich posiadało fałszywe informacje – dodaje Ewelina Bartuzi-Trokielewicz.

Fot. Shutterstock / Master1305
W ostatnim czasie w polskiej przestrzeni internetowej również zaobserwowaliśmy wyraźny wzrost liczby serwisów zawierających treści wyłącznie wygenerowane przez duże modele językowe. Fot. Shutterstock / Master1305

Jedną z tysiąca opisanych osób jest Aleksandra Przegalińska, profesor Akademii Leona Koźmińskiego, która na co dzień zajmuje się badaniem nowych technologii, zwłaszcza sztucznej inteligencji. Kilka tygodni temu, podczas rutynowego przeglądu sieci, przez przypadek natrafiła na dziesiątki artykułów na swój temat. Do tego na stronach, których nigdy wcześniej nie widziała, jak choćby urodainspiracje.pl, fashionistki.pl, kobiecefakty.pl. Ich nazwy brzmiały jak portale lifestyle'owe i na pierwszy rzut oka nie budziły podejrzeń. Szczególnie, że tytuły artykułów były typowe dla clickbaitów, które mają przyciągnąć osoby szukające informacji o znanych ludziach. Kiedy jednak Przegalińska zaczęła je czytać, zobaczyła mieszankę prawdziwych i fałszywych informacji dotyczących m.in. jej życia prywatnego.

W terminologii AI nazywamy to halucynacjami: model generuje treści, które brzmią wiarygodnie, ale nie mają pokrycia w rzeczywistości. Problem w tym, że dla czytelnika bez specjalistycznej wiedzy taki tekst wygląda jak zwykły artykuł biograficzny. Nie ma żadnych sygnałów ostrzegawczych, że to, co czyta, zostało wygenerowane przez maszynę i nigdy nie przeszło żadnej weryfikacji – opowiada Magazynowi Spider’sWeb+ i dodaje, że jej przypadek nie był jednostkowym incydentem, bo podobnych artykułów o innych publicznych osobach było dziesiątki.

– Ten sam schemat, te same szablony, ta sama sieć stron. To zautomatyzowana produkcja na skalę przemysłową – dodaje.

Kiedy nagłośniła sprawę na LinkedIn oraz dawnym Twitterze, czyli X strony z fałszywymi treściami zaczęły znikać. Tak, jakby właściciele tych stron zaczęli obawiać się konsekwencji. Jednak Przegalińską najbardziej zaskoczyło co innego.

– Jeden z właścicieli stron, pan Marcin, nie tylko usunął treści, ale i wpłacił środki na Fundację Wygrajmy Zdrowie, wspierającą pacjentów onkologicznych, a także zobowiązał się do wdrożenia najwyższych standardów etycznych w prowadzeniu działalności SEO. Jesteśmy w dialogu. To pokazuje, że nawet w sytuacjach, które wydają się beznadziejne, rozmowa może przynieść rezultaty. Nie każdy operator content farmy działa w złej wierze, część po prostu nie zdaje sobie sprawy ze szkód, jakie wyrządza, albo nie myśli o tym w kategoriach krzywdy konkretnych ludzi – opowiada Aleksandra Przegalińska.

Zysk czyimś kosztem

Dlaczego takie serwisy w ogóle powstają pytam dr hab. Dominika Batorskiego, socjologa i badacza procesów społecznych zachodzących w internecie, związanego z Uniwersytetem Warszawskim.

– Dla pieniędzy – odpowiada krótko Dominik Batorski i dodaje, że farmy treści zarabiają na odsłonach reklam, które wyświetlają się przy produkowanych masowo wpisach mających przypominać dziennikarskie artykuły.

Wątpliwości nie ma też Ewelina Bartuzi-Trokielewicz z NASK, która wyjaśnia, że ich celem jest przyciągnięcie ruchu z wyszukiwarek i zarabianie na reklamach, którymi witryny są wręcz naszpikowane. A to sugeruje, że są nastawione na zysk.

– Dzięki AI można automatycznie przetwarzać i przerabiać istniejące informacje lub tworzyć pseudoartykuły pod popularne frazy, dopasowywać je do trendów wyszukiwanych haseł przez użytkowników internetu, aby poprawić pozycjonowanie w wyszukiwarkach. W dalszej kolejności mogą budować "napompowane" serwisy, które następnie są odsprzedawane jako pozornie wartościowe portale lub zaplecza SEO – wyjaśnia Bartuzi-Trokielewicz.

Nie można jednak wykluczyć, że serwisy powstają także po to, aby rozpowszechniać fałszywe lub zmanipulowane narracje i wpływać na opinie odbiorców. Dominik Batorski przypomina tu przypadek amerykańskich wyborów prezydenckich w 2016 roku, na które miała wpływ… grupa nastolatków z Macedonii. Stworzyli oni strony internetowe imitujące amerykańskie serwisy informacyjne, które wypełnili fałszywymi treściami.

– Zajęli się oni masową produkcją wspierających Donalda Trumpa fake newsów, udostępnianych następnie na Facebooku – przypomina Batorski podkreślając, że tworzenie farm treści z wykorzystaniem AI jest tańsze i łatwiejsze w dystrybucji niż kiedykolwiek, a więc wpływanie na odbiorców przez dezinformację również takie jest.

– Dlatego kluczowe jest filtrowanie tych informacji, które nas zalewają. Kiedyś robiły to profesjonalne redakcje, kierujące się odpowiedzialnością społeczną, etyką i zawodowymi zasadami. Dziś ich rola się zmniejsza, a więc odbiorcy są bardziej narażeni na dezinformację – dodaje.

Szczególnie, że i w tym "pomagają" technologie. Generatywna AI daje w końcu możliwość produkowania realistycznych treści na skalę masową i może to być wykorzystywane przez różne grupy do szerzenia propagandy bądź badania zachowań.

Automatyzacja pozwala utworzyć sieć pozornie niezależnych stron powielających tę samą narrację, zalewając odbiorców jednostronnym przekazem. Odnotowujemy przypadki, gdy serwisy generowane przez AI służą rozsyłaniu dezinformacji i propagandy (np. powielają przekazy w ramach operacji informacyjnych) czy też wspomagają dystrybucję scamów finansowych czy medycznych – tłumaczy Ewelina Bartuzi-Trokielewicz z NASK.

Brodzenie w bagnie

Oczywiście, jeszcze zanim sztuczna inteligencja zaczęła przejmować internet, stawał się on coraz mniej przyjemnym miejscem. W końcu użytkownicy od lat narzekali na degradację wyszukiwarki Google, która coraz mocniej przypomina słup reklamowy i coraz trudniej cokolwiek w niej znaleźć. Podobnie z platformami społecznościowymi, które zamiast łączyć nas z innymi ludźmi, stały się groteskowe, toksyczne i żywiące się negatywnymi emocjami. I choć nie wrócimy już do czasów, kiedy korzystanie z internetu dawało poczucie, że oto świat jest na wyciągnięcie ręki, to korzystanie z sieci dziś przypomina chodzenie przez bagno pełne szlamu. Bagno, z którego nie ma ucieczki, bo internet tak mocno wpleciony jest w każdą dziedzinę naszego życia. A wiele wskazuje, że to, w czym brodzimy dzisiaj, nie jest wcale najgorsze.

Wiele wskazuje bowiem na to, że dożyliśmy czasów, kiedy zmaterializowała się wizja, która przez lata funkcjonowała jako teoria spiskowa, tzw. martwego internetu. To hipoteza głosząca, że coraz większa część sieci to treści generowane przez boty dla botów: dla algorytmów reklamowych i wyszukiwarek – z ludźmi jako przypadkowymi źródłami kliknięć, a nie jako faktycznymi odbiorcami wartościowej informacji. To, co przydarzyło się Aleksandrze Przegalińskiej, pokazuje, że to już nie tylko teoria czy wizja, lecz rzeczywistość. Rzeczywistość, w której odbiorcom jeszcze trudniej będzie odróżnić prawdę od fałszu.

Fot. Shutterstock / Master1305
Nie wrócimy już do czasów kiedy korzystanie z internetu dawało poczucie, że oto świat jest na wyciągnięcie ręki, to korzystanie z sieci dziś przypomina chodzenie przez bagno pełne szlamu. Fot. Shutterstock / Master1305

Zwraca na to uwagę sama Przegalińska, przypominając, że przez ostatnie trzydzieści lat internet przyzwyczaił nas, że jeśli coś jest napisane i pojawia się wysoko w wynikach Google, to prawdopodobnie jest prawdą. Jednak ta zasada działała względnie dobrze, gdy treści tworzyły głównie instytucje medialne, encyklopedie, eksperci z różnych dziedzin. Były mechanizmy weryfikacji, redaktorzy, korekta.

Generatywna AI wysadza ten model w powietrze. Dzisiaj coraz większa część internetu to treści, które nie zostały napisane przez człowieka, nie przeszły żadnej weryfikacji, mieszają prawdziwe informacje z halucynacjami i są zoptymalizowane pod kątem wyszukiwarek, nie pod kątem prawdziwości. Dla zwykłego użytkownika te treści są nie do odróżnienia od artykułów napisanych przez profesjonalistów – mówi Przegalińska i dodaje, że problem ten będzie szczególnie odczuwalny przez osoby starsze i dzieci, czyli grupy mające mniejsze kompetencje cyfrowe i są bardziej skłonne wierzyć treściom znalezionym w internecie.

– Ale tak naprawdę dotyka nas wszystkich. Jeśli nie mogę ufać, że artykuł biograficzny w internecie zawiera prawdziwe informacje – jak mam podejmować świadome decyzje? To erozja fundamentu, na którym opiera się społeczeństwo informacyjne – dodaje.

– Odbiorcy, zwłaszcza mniej doświadczeni, mogą uwierzyć w nieprawdziwe rewelacje (zmyślone wiadomości np. o śmierci znanej osoby, cytaty polityków) i powielać je dalej. To z kolei może prowadzić do błędnych przekonań, paniki (gdy np. fałszywa wiadomość dotyczy zagrożeń publicznych) lub nieuzasadnionych obaw – ostrzega Bartuzi-Trokielewicz.

Głowy hydry

Na tym nie koniec. Kiedy padniemy, tak jak Aleksandra Przegalińska, ofiarą farm treści, to trudno będzie nam się bronić. Wprawdzie rozpowszechnianie nieprawdziwych informacji godzących w dobre imię konkretnych osób może skutkować odpowiedzialnością za zniesławienie, naruszenie dóbr osobistych lub wizerunku. A więc poszkodowani mogą domagać się usunięcia treści oraz odszkodowania lub zadośćuczynienia, ale realizacja tego prawa może być niezwykle trudna.

Mówi o tym Przegalińska, która nie zamierza wchodzić na sądową ścieżkę, bo – jak przekonuje – tradycyjne narzędzia prawne, takie jak pozew o zniesławienie, zostały stworzone dla świata, w którym tworzenie treści wymagało czasu i zasobów.

Dzisiaj algorytm może wygenerować setki takich tekstów w ciągu minuty. Kiedy ja przygotowuję jedno wezwanie przedsądowe, co wymaga identyfikacji właściciela strony, zebrania dowodów, sformułowania podstaw prawnych, często konsultacji z prawnikiem, content farm może postawić trzy nowe domeny z kolejnymi artykułami. To fundamentalna asymetria, w której jednostka przegrywa z automatyzacją. Proces sądowy trwa miesiące, a czasem lata. A w tym czasie strony mogą zniknąć i pojawić się pod innymi adresami dziesiątki razy – tłumaczy Przegalińska.

Wskazuje też dodatkową trudność, czyli identyfikację kogoś, kto ponosiłby odpowiedzialność. W tradycyjnym świecie byłby to wydawca i autor artykułu. W tym, do którego wkroczyliśmy, trudno ich zidentyfikować. Wiele stron jest zarejestrowanych na słupy, w egzotycznych jurysdykcjach, z ukrytymi danymi WHOIS, które pozwalałyby namierzyć właścicieli domen, a nawet adresy IP.

– Kogo mam pozwać? Fikcyjną spółkę zarejestrowaną na Seszelach? Osobę, której dane są sfałszowane? Sprawy o ochronę dóbr osobistych są kosztowne i czasochłonne, a jeśli serwer stoi za granicą, polskie prawo ma ograniczoną skuteczność – mówi Przygalińska.

Jednak na wszelki wypadek badaczka zachowała dokumentację, która pozwoliłaby jej dochodzić sprawiedliwości przed sądem. A to głównie dlatego, że owe strony mogą zwyczajnie wrócić tak szybko, jak zniknęły.

– Firma, która stoi za częścią tych operacji, nazywa się HYDRA. I ta nazwa jest w tym kontekście ponurym żartem. W mitologii greckiej hydra to potwór, któremu po odcięciu jednej głowy odrastają dwie kolejne. To dość trafna metafora tego biznesu: koszt postawienia nowej strony jest minimalny, domen w internecie jest nieskończenie wiele, a model biznesowy oparty na reklamach pozostaje opłacalny. Będę na pewno monitorować sytuację – deklaruje Przegalińska.

Kluczowe więc, aby prawo zaczęło doganiać technologie, bo dziś wydaje się być kilka kroków z tyłu. Ewelina Bartuzi-Trokielewicz z NASK zauważa jednak, że problem lawinowego przyrostu syntetycznych, często fałszywych treści, został już dostrzeżony przez regulatorów.

Na poziomie unijnym kluczową rolę odgrywają AI Act oraz Digital Services Act (DSA). Pierwszy z tych aktów wprowadza obowiązek oznaczania treści wygenerowanych lub zmanipulowanych przez AI, tak aby odbiorca miał świadomość ich syntetycznego pochodzenia. Drugi, który w Polsce jeszcze nie obowiązuje, nakłada na największe platformy internetowe obowiązek ograniczania systemowej dezinformacji, umożliwiając m.in. usuwanie takich treści, ograniczanie ich zasięgu oraz odcinanie ich od monetyzacji – mówi ekspertka NASK.

Fot. Shutterstock / Master1305
Fot. Shutterstock / Master1305

Sama Aleksandra Przegalińska dodaje, że Polska, sama lub we współpracy z Unią Europejską, powinna rozważyć regulacje celujące bezpośrednio w AI content farming.

– Potrzebujemy definicji „systematycznego generowania fałszywych treści o osobach fizycznych" jako odrębnego deliktu, z jasnymi konsekwencjami. Potrzebujemy odpowiedzialności platform hostingowych i sieci reklamowych za monetyzację takich treści, bo to one czerpią zyski z tego ekosystemu. Potrzebujemy uproszczonych procedur usuwania treści z krótkimi, wiążącymi terminami. Potrzebujemy możliwości pozwów zbiorowych, żeby poszkodowani mogli łączyć siły – mówi badaczka.

 Ale podkreśla, że nie chodzi tylko o nowe prawo. Zauważa, że Urząd Ochrony Danych Osobowych powinien działać aktywniej i reagować na masowe generowanie fałszywych treści o osobach fizycznych.

– Ten urząd ma narzędzia: może nakładać kary administracyjne, nakazywać usunięcie danych, prowadzić postępowania z urzędu. Dotychczas te narzędzia były rzadko wykorzystywane w kontekście AI content farmingu – przekonuje Przegalińska.

Kolejne wymagania należy stawiać platformom, czyli przede wszystkim Google. W końcu większość ruchu, który monetyzują farmy treści, pochodzi z wyszukiwarki tej firmy. Zapytaliśmy Google, dlaczego pozwala farmom treści zarabiać oraz jak przeciwdziałać temu procederowi, ale do czasu publikacji artykułu nie otrzymaliśmy odpowiedzi. 

– Bez Google te strony praktycznie nie istnieją – nikt by na nie nie trafił, a więc traciłyby ekonomiczny sens.  Państwo, zarówno polskie jak i Unia Europejska, powinno wywierać presję na lepsze algorytmy wykrywania content farm, szybsze procedury deindeksacji zgłoszonych stron i realną odpowiedzialność za monetyzację dezinformacji – dodaje Przegalińska.

Zatruwanie systemu

Bez aktywnych działań i regulacji grozi nam spirala fałszu. Tak ekspertka NASK nazywa sytuację, w której syntetyczne treści są wykorzystywane jako dane treningowe dla modeli AI, co napędza obieg fałszywych informacji. Tworzy to więc sytuację, w której fałszywe treści pochodzące z farm są zatrutą karmą dla algorytmu AI, którą po „przetrawieniu” system wypluwa jako odpowiedź. Oczywiście podmywa to fundamenty dużych modeli językowych, ale skutki zatrucia poczują przede wszystkim użytkownicy.

– Wieloma takimi serwisami nie kieruje żaden etos dziennikarski, więc mogą one rozpowszechniać porady czy twierdzenia zagrażające zdrowiu lub bezpieczeństwu. A później AI może wygenerować błędne porady medyczne, finansowe czy prawne, które czytelnik weźmie za prawdziwe – ostrzega Ewelina Bartuzi-Trokielewicz.

Dokładnie to potwierdzają badania przeprowadzone przez Polskie Badania Czytelnictwa. Wynika z nich, że aż 46 proc. informacji generowanych przez popularne narzędzia AI – Perplexity, Gemini i ChatGPT – zawiera co najmniej jeden istotny błąd. Co więcej aż 27 proc. odpowiedzi miało poważne problemy ze źródłami, których brakowało całkiem albo były nieprawidłowe.

Tak właśnie natrafiłem na artykuł i nieistniejących naukowców, od których zaczęliśmy.

Poprosiłem Gemini, aby przygotował listę badań naukowych na temat romantycznych relacji i związków ludzi ze sztuczną inteligencją. Zamiast tego otrzymałem zestawienie badaczy, którzy rzekomo naukowo obserwują to zjawisko. Wśród nich był wspomniany już – podkreślmy nieistniejący – dr Adam Jeżewski, cyberpsycholog badający wpływ AI na uczucia i związki. Kiedy zażądałem źródeł np. uczelnianego profilu naukowca, model językowy przyznał, że nikt taki nie istnieje.

Samodzielnie już znalazłem artykuł z serwisu Poinformowani, w którym kolejni rozmówcy zdają się istnieć tylko w przewodach światłowodu i serwerach schowanych w centrach danych.

Nie ma też wątpliwości, że ten przykład zatrutej pożywki dla Gemini jest ledwie wierzchołkiem góry lodowej, w której kierunku zmierzamy.