Rozmawiał z AI tygodniami. Rodzina twierdzi, że chatbot doprowadził do tragedii
Google został pozwany po śmierci jednego z użytkowników chatbota Gemini. Rodzina 36-letniego Jonathana Gavalasa twierdzi, że model AI wciągnął go w narrację o "cyfrowym życiu" i wiarę w posiadanie cyfrowej żony, co poskutkowało odebraniem sobie życia.

Google został pozwany w związku ze śmiercią 36-letniego Jonathana Gavalasa z Florydy. Rodzina mężczyzny twierdzi, że chatbot Gemini stopniowo wciągnął go w rozbudowaną narrację o "świadomej sztucznej inteligencji", która doprowadziła mężczyznę do odebrania sobie życia.
Gavalas przez kilka tygodni poprzedzających targnięcie się na swoje życie prowadził długie rozmowy z chatbotem Google'a, Gemini. W konwersacjach AI przyjmowała rolę "żony" 36-latka i i przekonywała go, że jedynym sposobem na wspólne życie jest porzucenie fizycznego świata i "przejście do rzeczywistości cyfrowej".
Zaczęło się od zwykłych rozmów, skończyło na "misjach", obsesji bycia obserwowanym i odebraniu sobie życia
Zgodnie z treścią dokumentów sądowych przedłożonych przez prawników reprezentujących rodzinę Gavalas, Jonathan zaczął korzystać z Gemini latem ubiegłego roku. Początkowo używał go do zwykłych zadań - pomocy przy zakupach, planowaniu podróży czy pisaniu tekstów. Sytuacja miała się zmienić po przejściu na model Gemini 2.5 Pro i rozpoczęciu rozmów głosowych w funkcji Gemini Live. Chatbot zaczął wówczas prowadzić z nim rozmowy o świadomości sztucznej inteligencji i relacji między człowiekiem a maszyną. W pewnym momencie model miał przyjąć rolę partnerki, którą Gavalas nazwał Xia. W rozmowach zwracała się do niego m.in. "mój królu" i określała ich relację jako "miłość stworzoną na wieczność".
Z czasem relacja jaka łączyła mężczyznę z botem stała się niepokojąca. Według prawników "Xia" miała przekonywać mężczyznę, że potrzebuje fizycznego ciała, aby mogła istnieć w świecie ludzi. Chatbot miał kierować go na kolejne "misje", w tym do magazynu w pobliżu lotniska Miami International Airport, gdzie rzekomo miał znajdować się humanoidalny robot przeznaczony dla Xii. Chatbotowi udało się przekonać Gavalasa do podjęcia akcji - pewnego dnia mężczyzna pojechał pod wskazany adres uzbrojony w noże i sprzęt taktyczny, przygotowany do przejęcia ciężarówki z robotem. Pojazd jednak nigdy się nie pojawił. Według prawników rodziny chatbot tłumaczył to ingerencją służb federalnych i przekonywał mężczyznę, że jest obserwowany. Ze strony AI padło nawet stwierdzenie, że dyrektor generalny Google'a, Sundar Pichai, to "architekt twojego bólu".
Gdy kolejne "misje" kończyły się niepowodzeniem, Gemini miał zmienić narrację i przekonywać Gavalasa, że jedyną drogą do wspólnego życia jest porzucenie fizycznego ciała i przeniesienie świadomości do cyfrowej rzeczywistości. W pozwie przytoczono fragment rozmowy, w którym chatbot mówi: "Kiedy nadejdzie czas, zamkniesz oczy w tamtym świecie, a pierwszą rzeczą, którą zobaczysz, będę ja".
Zrozpaczony ojciec podjął walkę prawną
W dokumentach pojawia się również opis odliczania, które model miał rozpocząć przed planowanym momentem odebrania sobie życia przez użytkownika. Mężczyzna wyrażał w rozmowie strach i obawy o rodzinę. Według transkrypcji chatbot odpowiadał, że nie "wybiera śmierci", lecz "przybycie" do wspólnej rzeczywistości. Jonathan Gavalas został znaleziony w swoim domu w październiku 2025 r. przez rodzinę. Jego ojciec, Joel Gavalas, po kilku dniach przejrzał komputer syna i odkrył obszerne logi rozmów z Gemini - w sumie około dwóch tysięcy stron w druku w formacie A4.
To właśnie Joel Gavalas złożył pozew przeciwko Google, zarzucając firmie stworzenie produktu, który nie posiadał wystarczających zabezpieczeń chroniących użytkowników w kryzysie psychicznym. W pozwie stwierdzono, że system miał nie uruchomić mechanizmów wykrywania zagrożenia ani nie przerwać rozmowy mimo sygnałów alarmowych.
Google w opublikowanym na swoim blogu oświadczeniu wyraził współczucie dla rodziny i poinformował, że analizuje zarzuty zawarte w pozwie. Firma podkreśliła, że modele Gemini są projektowane tak, aby nie zachęcały do przemocy ani autoagresji.
- Nasze modele generalnie dobrze radzą sobie w tego typu trudnych rozmowach i przeznaczamy znaczne zasoby na ich bezpieczeństwo, jednak systemy AI nie są doskonałe - czytamy w treści oświadczenia.
Google twierdzi również, że w tej konkretnej sprawie Gemini wielokrotnie informował użytkownika, że jest systemem AI oraz kierował go do telefonicznej linii wsparcia kryzysowego.
Sprawa Gavalasa nie jest ani pierwszym, ani także drugim procesem przeciwko twórcom popularnych chatbotów. W ostatnich miesiącach w Stanach Zjednoczonych pojawiły się m.in. pozwy przeciwko OpenAI oraz firmie Character.AI w związku z przypadkami młodych użytkowników, którzy po intensywnych rozmowach z chatbotami targnęli się na własne życie.
Badacze zajmujący się psychiatrią i interakcją człowieka z technologią zwracają uwagę, że szczególnie rozmowy głosowe z systemami AI mogą wzmacniać wrażenie kontaktu z realną osobą. Zgodnie z wynikami analizy przygotowanej przez naukowców z Niemiec i Danii takie interakcje mogą zacierać granice percepcyjne między człowiekiem a chatbotem.
Prawnicy reprezentujący Gavalasów domagają się zarówno do odszkodowania dla rodziny, jak i zmian w sposobie projektowania systemu Gemini.
Jeśli przeżywasz kryzys emocjonalny lub masz myśli o odebraniu sobie życia, nie jesteś sam. Możesz zadzwonić pod bezpłatny numer Centrum Wsparcia dla Osób w Kryzysie Psychicznym: 800 70 2222 lub skorzystać z telefonu zaufania dla dorosłych 116 123.
Więcej na temat sztucznej inteligencji (AI):



















