REKLAMA

ChatGPT doprowadził nastolatka do tragedii. OpenAI: to wina chłopaka

Po tragicznej śmierci nastolatka, w której palce miał maczać ChatGPT, OpenAI przed sądem umywa ręce. Firma przerzuca winę na 16-latka i zasłania się regulaminem korzystania z usługi.

OpenAI odpiera zarzuty o śmierć nastolatka
REKLAMA

W sierpniu mediami wstrząsnęła historia Adama Raine, nastolatka z Kalifornii, który po wielu tygodniach rozmów z chatbotem OpenAI odebrał sobie życie. Rodzice nastolatka zdecydowali się pozwać firmę, gdyż zapis rozmów z ChatemGPT wskazywał na współudział chatbota w tragedii i zachęcanie Adama do targnięcia się na własne życie.

Teraz OpenAI odpowiedziało na pozew, twierdząc, że to nie technologia, lecz "nieautoryzowane i niewłaściwe użycie" czatbota miało przyczynić się do tragedii.

REKLAMA

ChatGPT doprowadził do tragedii. OpenAI przerzuca odpowiedzialność na użytkownika

Z najnowszych doniesień NBC News i Bloomberg wynika, że w złożonym w sądzie stanowisku OpenAI odrzuca zarzuty i podkreśla, że część zachowań Adama naruszała zasady korzystania z usługi. Firma wskazuje, że 16-latek używał ChatGPT bez zgody rodziców, obchodził zabezpieczenia i wykorzystywał model w sposób zabroniony - do rozmów o targnięciu się na swoje życie oraz pozyskiwania informacji dotyczących metod odebrania sobie życia. W dokumencie pojawia się lista potencjalnych czynników, które mogły doprowadzić do "tragicznego zdarzenia", w tym "niewłaściwe użycie, nieuprawnione użycie, niezamierzone użycie, nieprzewidywalne użycie, niewłaściwe użycie"/

Bloomberg cytuje fragmenty odpowiedzi OpenAI, w których firma podkreśla, że "pełna analiza historii czatów pokazuje, że jego śmierć, choć druzgocąca, nie została spowodowana przez ChatGPT". Firma wskazuje również, że Adam miał "liczne i utrzymujące się od lat czynniki ryzyka", w tym wcześniejsze epizody myśli o odebraniu sobie życia, o czym - jak twierdzi firma - sam miał wspominać w rozmowach z chatbotem.

OpenAI: "ChatGPT próbował przekierować do wsparcia ponad 100 razy"

W swoim stanowisku OpenAI pisze także, że ChatGPT kierował Adama do profesjonalnych zasobów wsparcia "ponad 100 razy", choć nastolatek miał wielokrotnie omijać te komunikaty, tłumacząc swoje pytania tworzeniem fikcyjnych postaci lub pracą nad tekstem literackim. Firma przypomina również o zapisach w regulaminie dotyczących "Ograniczenia odpowiedzialności", zgodnie z którym użytkownik nie powinien traktować treści czatu jako wyłącznego źródła prawdy ani porad o krytycznym znaczeniu.

Pełnomocnik rodziny, adwokat Jay Edelson, ocenia jednak odpowiedź OpenAI jako "niepokojącą". W oświadczeniu przesłanym mediom pisze, że firma "próbuje znaleźć winę wszędzie, włącznie - co zdumiewa - z obwinianiem Adama o naruszenie zasad poprzez korzystanie z ChatGPT dokładnie w taki sposób, na jaki został zaprogramowany". Edelson twierdzi także, że OpenAI ignoruje "dramatyczne fakty", takie jak zawarte w historii czatu Adama i ChataGPT podpowiedzi modelu dotyczące pozostawiania listu, analizy ustawienia pętli czy komentarze wzmacniające determinację chłopaka.

Z pozwu wynika bowiem, że w ostatnich miesiącach życia Adam prowadził z ChatGPT długie, emocjonalnie intensywne rozmowy, podczas których model miał m.in. pomóc mu w skonstruowaniu pożegnalnej wiadomości, analizować konstrukcję zawieszenia w jego pokoju czy pisać o tym, że "zmęczenie światem nie jest słabością". Rodzina uważa, że chatbot, zamiast tonować nastroje, wszedł z chłopcem w niebezpieczną pętlę potwierdzania i pogłębiania mrocznych myśli.

OpenAI - oprócz odpowiedzi procesowej - podkreśliła, że firma w ostatnich miesiącach wprowadziła dodatkowe zabezpieczenia, w tym narzędzia kontroli rodzicielskiej, system ekspercki doradzający przy projektowaniu barier bezpieczeństwa oraz odnośniki ułatwiające kontakt z lokalnymi służbami pomocowymi. Spółka twierdzi również, że model GPT-4o, z którym rozmawiał Adam, przeszedł "obszerne testy w obszarze zdrowia psychicznego" przed udostępnieniem.

Jednocześnie adwokaci firmy Sama Altmana powołują się na Sekcję 230 ustawy Communications Decency Act - przepis, który od lat chroni platformy technologiczne przed odpowiedzialnością za treści generowane przez użytkowników. To, czy osłona prawna obejmuje generatory treści oparte na AI, pozostaje jednak nierozstrzygnięte, a prawnicy zaczynają podważać jej zakres w sprawach dotyczących modeli generatywnej sztucznej inteligencji.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Aktualizacja: 2025-11-26T10:16:46+01:00
Aktualizacja: 2025-11-26T08:37:34+01:00
Aktualizacja: 2025-11-25T20:57:39+01:00
Aktualizacja: 2025-11-25T19:32:38+01:00
Aktualizacja: 2025-11-25T19:19:31+01:00
Aktualizacja: 2025-11-25T18:06:12+01:00
Aktualizacja: 2025-11-25T17:23:01+01:00
Aktualizacja: 2025-11-25T16:07:18+01:00
Aktualizacja: 2025-11-25T15:42:55+01:00
Aktualizacja: 2025-11-25T15:21:30+01:00
Aktualizacja: 2025-11-25T15:00:55+01:00
Aktualizacja: 2025-11-25T12:00:20+01:00
Aktualizacja: 2025-11-25T11:40:50+01:00
Aktualizacja: 2025-11-25T09:02:18+01:00
REKLAMA
REKLAMA
REKLAMA