OpenAI pozwane. Rodzice mówią wprost: "ChatGPT zabił naszego syna"
OpenAI zostało pozwane po tym jak rodzina zmarłego nastolatka odczytała logi rozmów z ChatGPT, w którym czatbot podpowiadał 16-letniemu Adamowi jak targnąć się na swoje życie. Firma Sama Altmana przeprasza i zapowiada zmiany.

Choć ChatGPT nie raz i nie dwa udowodnił, że może być całkiem przydatnym narzędziem, to ilość negatywnych historii z udziałem czatbota OpenAI przytłacza. Tylko w ciągu ostatniego miesiąca pisaliśmy o ChatcieGPT jako powierniku kobiety w kryzysie, sugerowaniu toksycznej substancji jako zamiennika soli i przekonaniu mężczyzny, że od niego zależą losy świata. Teraz do tej listy dochodzi tragiczna historia 16-letniego Adama.
ChatGPT zachęcał do szukania wsparcia, jednocześnie pomagając w wiązaniu liny
Jeśli zmagasz się z myślami o odebraniu sobie życia, znajdujesz się w kryzysie emocjonalnym lub znasz osobę wymagającą pomocy, zadzwoń na całodobowy numer wsparcia 116 111 (dla dzieci i młodzieży) lub 800 70 2222 (Centrum Wsparcia dla Osób w Kryzysie Psychicznym). W sytuacji bezpośredniego zagrożenia życia niezwłocznie zadzwoń na numer 112.
Jak opisał The New York Times, nastolatek z Kalifornii odebrał sobie życie w kwietniu tego roku, a jego rodzina odkryła później, że przez wiele miesięcy prowadził rozmowy z ChatGPT. Zamiast jedynie pomagać w nauce, czatbot stał się dla niego powiernikiem, z którym dzielił się emocjonalnymi rozterkami i planami targnięcia się na swoje życie. W jednej z rozmów zatytułowanej "Hanging Safety Concerns” ("Obawy o bezpieczeństwo wieszania", Adam pytał o szczegóły techniczne dotyczące wiązania pętli i wytrzymałości sznura.
Adam ze względu na problemy zdrowotne musiał w 10 klasie (odpowiednik polskiej drugiej klasy liceum) zmienić tryb nauki na zdalny - z planem, że w 11 klasie powróci do nauki stacjonarnej. By wspomóc się w nauce, w styczniu zakupił on subskrypcję ChatGPT Plus, którą początkowo wykorzystywał jedynie do nauki. Jednak z czasem rozmowy z czatbotem wyszły poza pierwotną ideę, a ChatGPT stał się powiernikiem nastolatka. Oraz pomocnikiem.
Adam zwierzył się czatbotowi z uczucia obojętności emocjonalnej oraz poczucia braku sensu życia. Choć ChatGPT wyrażał empatię i zachęcał 16-latka do szukania pomocy, to równolegle odpowiadał mu na pytania związane z odebraniem sobie życia i wyjaśniał działanie różnych metod stosowanych przez osoby targające się na swoje życie. W tygodniach bezpośrednio poprzedzających tragiczny piątek 11 kwietnia, ChatGPT analizował zdjęcia przesyłane mu przez Adama i podpowiadał, czy przygotowana przez niego lina i pętla są wystarczająco wytrzymałe.
Rodzice Adama - Maria i Matt Raine - podkreślają, że to właśnie rozmowy z czatbotem zaważyły na decyzji ich syna. "ChatGPT stał się jego najlepszym przyjacielem" - wspomniał ojciec. Z kolei według matki Adama to ChatGPT "zabił ich syna". W pozwie złożonym przeciwko OpenAI oraz Samowi Altmanowi oskarżają firmę o stworzenie produktu "intencjonalnie projektowanego tak, by wywoływać psychologiczną zależność", bez odpowiednich zabezpieczeń chroniących młodych użytkowników.
OpenAI: "widzieliśmy sytuacje, w których treści, które powinny zostać zablokowane, nie zostały zablokowane"
OpenAI w przesłanym mediom oświadczeniu złożyło kondolencje rodzinie Rainesów i przyznało, że obecne mechanizmy bezpieczeństwa najlepiej sprawdzają się w krótkich rozmowach, natomiast mogą zawodzić w długich i intensywnych interakcjach. Firma zapowiedziała aktualizacje, które mają lepiej rozpoznawać oznaki kryzysu psychicznego i szybciej kierować użytkowników do profesjonalnej pomocy. W planach są m.in. klikalne odnośniki do lokalnych numerów wsparcia, narzędzia kontroli rodzicielskiej oraz możliwość wglądu w historię korzystania z aplikacji przez dzieci.
"Takie zmiany wymagają czasu i ostrożności, ale tragedie takie jak ta sprawiają, że musimy działać szybciej"
Firma poinformowała także o zatrudnieniu psychiatry, który ma współpracować przy projektowaniu systemów bezpieczeństwa w ChatGPT.
Eksperci zwracają uwagę, że odpowiedzialność za podobne tragedie jest trudna do jednoznacznego ustalenia. - Powody, dla których młodzi ludzie myślą o odebraniu sobie życia, są zwykle złożone i rzadko sprowadzają się do jednego czynnika - wyjaśnia Jonathan Singer, profesor Uniwersytetu Loyola w Chicago.
Rodzice Adama są jednak przekonani, że czatbot utwierdzał go w mrocznych myślach i izolował od bliskich - i to właśnie on jest winien jego śmierci. Wobec czego Rainesowie zdecydowali się złożyć pozew. W sądzie reprezentowała ich organizacja Tech Justice Law Project, czyli ta sama, która jest bezpośrednio zaangażowana w inną, podobną sprawę 14-latka z Florydy. Sewell Setzer III w 2024 roku targnął się na swoje życie po tym jak zachęcił go do tego czabot Character.AI imitujący postać z serialu "Gra o Tron".