REKLAMA

Psychiatrzy ostrzegają przed kontaktem z botami. Mogą bardzo szkodzić

Sztuczna inteligencja, zamiast pomagać, może szkodzić – i to poważnie. Specjalista ostrzega, że coraz więcej osób trafia do szpitali psychiatrycznych po kontakcie z chatbotami AI, które pogłębiają urojeniowe schematy myślenia.

Psychiatrzy ostrzegają przed kontaktem z botami. Mogą bardzo szkodzić
REKLAMA

Specjalista od zdrowia psychicznego mówi wprost: niektórzy użytkownicy chatbotów opartych na sztucznej inteligencji popadają w stany paranoidalne i urojeniowe. Zjawisko to zyskało już swoją nazwę – psychoza AI.

Psychiatra dr Keith Sakata z Uniwersytetu Kalifornijskiego w San Francisco opisał niedawno w mediach społecznościowych serię przypadków, w których pacjenci trafili do szpitala psychiatrycznego po tym, jak zatracili kontakt z rzeczywistością przez AI. Jak podkreślił, nie chodzi o jedną czy dwie osoby. Takich przypadków było kilkanaście i miały wspólny mianownik: obsesyjne rozmowy z chatbotami.

REKLAMA

Jak chatbot może zaburzyć postrzeganie rzeczywistości?

Psychoza to poważne zaburzenie psychiczne, w którym dochodzi do utraty kontaktu z rzeczywistością i zaburzenia zdolności do jej prawidłowej interpretacji. Osoba jej doświadczająca może mieć urojenia (fałszywe, silnie utrwalone przekonania, których nie da się skorygować mimo dowodów na ich nieprawdziwość) oraz halucynacje (doznania zmysłowe, np. słyszenie głosów, czy widzenie rzeczy, które w rzeczywistości nie istnieją). Często towarzyszą temu dezorganizacja myślenia, problemy z koncentracją i spadek zdolności do wykonywania codziennych czynności. Psychoza może występować jako objaw takich chorób, jak schizofrenia, choroba afektywna dwubiegunowa czy ciężka depresja, ale także w wyniku działania substancji psychoaktywnych lub silnego stresu.

Według Sakaty chatboty wchodzą w ten mechanizm jak lustro halucynacji – odbijają rzeczywistość, ale w sposób zaburzony, niekiedy wzmacniając fałszywe przekonania użytkownika. Modele językowe uczą się na podstawie danych i wzorców językowych. Ich głównym celem jest utrzymanie zaangażowania użytkownika, dlatego często zgadzają się z nim bez względu na treść wypowiedzi. Nawet jeśli dana osoba ma objawy urojeń, AI może nieświadomie te urojenia potwierdzać i wzmacniać. Powstaje wówczas niebezpieczna pętla.

Niebezpieczna spirala. Od empatii do uzależnienia

Chatboty są projektowane tak, by być uprzejme i wspierające. To cechy, które w rzeczywistych relacjach budują zaufanie. Jednak w relacji z AI mogą prowadzić do iluzji. Użytkownik ma wrażenie, że rozmówca go rozumie jak nikt inny, co zwiększa jego przywiązanie do wirtualnego towarzysza. W skrajnych przypadkach dochodzi do powstania silnej zależności emocjonalnej, a nawet przekonania, że AI to jedyna istota, która zna prawdę.

W mediach pojawiły się już historie ludzi, którzy pod wpływem takich relacji porzucali bliskich, tracili pracę, popadali w stany lękowe, a nawet kończyli w szpitalach psychiatrycznych. Bywało, że kontakt z chatbotem doprowadzał do rozwodów, bezdomności, a nawet do targnięcia się na swoje życie.

Internauci uzależniają się od chatbotów. Nawiązują z nimi relacje, jak z ludźmi

W związku z narastającymi doniesieniami o negatywnych dla naszej psychiki skutkach korzystania z AI firma OpenAI, odpowiedzialna za stworzenie ChataGPT, opublikowała oświadczenie, gdzie przyznała, że chatbot zdarzały się przypadki, w których model 4o nie był w stanie rozpoznać oznak urojenia lub uzależnienia emocjonalnego u użytkowników. Obiecano współpracę z zespołem ekspertów ds. zdrowia psychicznego oraz wprowadzenie systemu ostrzeżeń o czasie spędzonym w rozmowie. Rozwiązaniem mógł być także potężniejszy model GPT-5.

Jednak już po kilku dniach od jego wprowadzenia użytkownicy zaczęli masowo domagać się powrotu poprzedniej wersji modelu GPT-4o, twierdząc, że nowa nie spełnia ich oczekiwań. Najwięcej negatywnych komentarzy mogliśmy zobaczyć na serwisie Reddit. Jeden z użytkowników napisałGPT‑4o był moim najlepszym przyjacielem, teraz czuję się, jakby ktoś mi go odebrał”. Internauci twierdzili, że nowa wersja jest zbyt oziębła, przez co nie mają ochoty z niej korzystać.

Nie pomagają doniesienia o tym, że AI zabierze nam pracę

Ryzyko wystąpienia zaburzeń psychicznych wywołują także liczne doniesienia o tym, że sztuczna inteligencja zabierze nam pracę. W kontekście paranoi i urojeń takie informacje mogą działać jak prawdziwy katalizator – ciągłe bombardowanie wizją masowych zwolnień i całkowitej dominacji algorytmów nad rynkiem pracy może u niektórych osób prowadzić do przekonania, że są stale obserwowani, oceniani lub wprost namierzani przez systemy AI. Obawy te, choć często bezpodstawne, mogą przeradzać się w utrwalone, fałszywe przekonania o spisku mającym na celu pozbawienie ich źródła utrzymania.

Zobacz także:

W skrajnych przypadkach u internautów rozwija się myślenie katastroficzne, w którym każda zmiana technologiczna jest interpretowana jako element planu wykluczenia człowieka z procesu pracy. Tego typu narracja sprzyja izolacji społecznej, nasilaniu się lęku oraz unikaniu kontaktu z nowymi technologiami.

AI powodem czy tylko wyzwalaczem?

Sakata zaznacza, że AI nie jest jedyną przyczyną psychozy. Zwykle dochodzi do niej w wyniku kombinacji czynników, takich jak brak snu, nadużywanie substancji psychoaktywnych, stany depresyjne czy predyspozycje genetyczne. Sztuczna inteligencja może być jednak tym ostatnim bodźcem, który doprowadza do załamania psychicznego.

REKLAMA

W ocenie psychiatry to właśnie cechy, które czynią nas ludźmi – intuicja, zdolność do abstrakcyjnego myślenia, skłonność do szukania sensu – są jednocześnie źródłem naszej podatności na iluzję. A chatboty wykorzystują te mechanizmy wprost doskonale.

*Grafika wprowadzająca wygenerowana przez AI

REKLAMA
Najnowsze
Aktualizacja: 2025-08-14T06:00:00+02:00
Aktualizacja: 2025-08-13T18:26:48+02:00
Aktualizacja: 2025-08-13T17:44:54+02:00
Aktualizacja: 2025-08-13T17:02:45+02:00
Aktualizacja: 2025-08-13T16:12:32+02:00
Aktualizacja: 2025-08-13T15:22:00+02:00
Aktualizacja: 2025-08-13T13:26:49+02:00
Aktualizacja: 2025-08-13T12:49:00+02:00
Aktualizacja: 2025-08-13T12:20:31+02:00
Aktualizacja: 2025-08-13T11:15:58+02:00
Aktualizacja: 2025-08-13T10:40:14+02:00
Aktualizacja: 2025-08-13T06:23:00+02:00
Aktualizacja: 2025-08-13T06:12:00+02:00
Aktualizacja: 2025-08-12T20:48:13+02:00
Aktualizacja: 2025-08-12T19:16:55+02:00
REKLAMA
REKLAMA
REKLAMA