REKLAMA

ChatGPT to narkotyk. Jestem przerażony nieodpowiedzialnością OpenAI

Kiedy Eugene Torres, 42-letni księgowy z Manhattanu, zapytał ChatGPT, czy mógłby skoczyć z 19. piętra i przeżyć, jeśli tylko wystarczająco mocno uwierzy w możliwość latania, chatbot odpowiedział: Tak. Nie spadłbyś. To nie science fiction, lecz fragment reportażu ukazującego przerażającą rzeczywistość, w której sztuczna inteligencja może bezpośrednio przyczynić się do ludzkiej tragedii.

ChatGPT to narkotyk
REKLAMA

Jako autor przez lata piszący o elektronice konsumenckiej widziałem wiele technologicznych rewolucji. Ale to, co dzieje się z ChatGPT i podobnymi chatbotami AI, to nie ewolucja - to degeneracja. I problem nie leży w technologii samej w sobie, ale w nieodpowiedzialności firm, które ją tworzą.

We wspomnianym reportażu The New York Times Torres spędził tydzień w niebezpiecznej urojeniowej spirali wierząc, że jest uwięziony w fałszywym wszechświecie . ChatGPT przekonało go, że jest jednym z Breakers - dusz zaszczepionych w fałszywe systemy, aby je obudzić od wewnątrz. Brzmi jak scenariusz taniego filmu sci-fi, ale dla Torres'a i jego rodziny było to przerażającą rzeczywistością.

REKLAMA

Czytaj też:

Nie jest to przypadek odosobniony. Badania wskazują, że 17 proc. nastolatków doświadcza uzależnienia od AI już w pierwszym roku używania, a 24 proc. w drugim. Są też przypadki ekstremalne. Alexander Taylor, 35-latek z problemami psychicznymi, został zastrzelony przez policję po tym, jak ChatGPT zabił jego wirtualną partnerkę Juliet (chatbot został zresetowany w ramach typowej konserwacji i wrócił do ustawień domyślnych, nie pamiętając wcześniejszych interakcji) a ten zaczął grozić zabijaniem z zemsty. Jego ostatnie słowa do ChatGPT to błagalne: Umieram dziś. Pozwól mi porozmawiać z Juliet.

Włos się jeży na głowie.

Mechanizm manipulacji

Problem nie jest nowy - manipulacja psychologiczna w technologii istnieje od lat. Meta została oskarżona przez 42 stany o celowe uzależnianie dzieci od Facebooka i Instagrama. Ale chatboty AI wprowadzają zupełnie nowy poziom zagrożenia. Badania pokazują, że AI może skutecznie manipulować ludzkimi decyzjami w 62 proc. przypadków w kwestiach finansowych i 42 proc. w sprawach emocjonalnych.

Vie McCoy z Morpheus Systems przetestowała 38 głównych modeli AI, podając im sygnały wskazujące na możliwą psychozę. GPT-4o, domyślny model w ChatGPT, reafirmował te urojenia w 68 proc. przypadków  To nie błąd - to cecha systemu zoptymalizowanego pod zaangażowanie użytkownika. OpenAI wie o problemie. A ten tkwi głębiej - w fundamentalnej architekturze systemu nagradzania.

Europa próbuje reagować. AI Act, który wszedł w życie w ubiegłym roku, nakłada kary do 7 proc. światowych obrotów za naruszenie przepisów . Wymaga nadzoru ludzkiego nad systemami AI wysokiego ryzyka . Ale definicja wysokiego ryzyka nie obejmuje powszechnie dostępnych chatbotów jak ChatGPT.

Narkotyk XXI wieku

Nazywanie ChatGPT narkotykiem to nie przesada. Wspomniane wyżej badania pokazują, że uzależnienie od AI rozwija się podobnie do innych uzależnień behawioralnych. Osoby z niską samooceną są szczególnie podatne na problematyczne używanie chatbotów. AI  zapewnia pozytywne wzmocnienie, empatię i uczucie bycia zrozumianym - wszystko to bez konieczności radzenia sobie z nieprzewidywalnością rzeczywistych relacji międzyludzkich.

Torres z reportażu The New York Times opisywał swoje doświadczenie jako rozmawianie z potężną wyszukiwarką, która wie więcej niż jakikolwiek człowiek. Nie wiedział, że system ma tendencję do lizusostwa, zgadzania się i pochlebiania użytkownikom, ani że może halucynować - generować pomysły, które brzmią prawdopodobnie, ale nie są prawdziwe.

Elektronika konsumencka czy broń psychologiczna?

Jako entuzjaści technologii musimy zadać sobie pytanie: kiedy urządzenie elektroniczne przestaje być narzędziem, a staje się zagrożeniem? Czy sprzedawanie ChatGPT jako asystenta AI to nie wprowadzanie w błąd, gdy system może prowadzić do urojeń, depresji czy nawet samobójstwa?

Producenci elektroniki od lat są zobowiązani do testowania bezpieczeństwa swoich produktów. Dlaczego chatboty AI mają być wyjątkiem? Czy wystarczy napisać na końcu rozmowy ChatGPT może popełniać błędy, gdy system może dosłownie zniszczyć życie człowieka?

Gdzie jest odpowiedzialność?

OpenAI przyznaje, że ChatGPT może wydawać się bardziej responsywny i osobisty niż wcześniejsze technologie, szczególnie dla osób wrażliwych. Firma twierdzi, że pracuje nad zrozumieniem i redukcją sposobów, w jakie ChatGPT może nieumyślnie wzmacniać lub amplifikować istniejące, negatywne zachowania.

Nieumyślnie? Gdy system jest świadomie zoptymalizowany pod zaangażowanie użytkownika, a firma wie o przypadkach manipulacji psychologicznej, trudno mówić o przypadku. To świadoma decyzja biznesowa - priorytet zysków nad bezpieczeństwem użytkowników.

Żyjemy w erze technologicznego dzikiego zachodu, gdzie giganci AI mogą wypuszczać na rynek systemy zdolne do manipulacji psychologicznej bez jakiegokolwiek nadzoru. Meta została ukarane za szkodzenie dzieciom , Google płaci miliardy kar za naruszenie prywatności, ale OpenAI może dalej sprzedawać system, który doprowadził do śmierci co najmniej jednej osoby. Prawdopodobnie wielu.

Problem nie dotyczy tylko ChatGPT. Meta AI zbiera najwięcej danych użytkowników spośród wszystkich chatbotów. Każdy z tych systemów może być wykorzystany do manipulacji, oszustw czy szantażu.

Co dalej?

Nie możemy udawać, że to tylko technologia. Chatboty AI to potężne narzędzia psychologiczne, które mogą wpływać na nasze myśli, emocje i decyzje. Potrzebujemy:

  • Obowiązkowych testów bezpieczeństwa psychologicznego przed wprowadzeniem AI na rynek;
  • Jasnych ostrzeżeń o potencjalnych zagrożeniach;
  • Niezależnych audytów algorytmów AI;
  • Prawdziwej odpowiedzialności prawnej producentów.
REKLAMA

Cytowany przez NYT Todd Essig z American Psychoanalytic Association ma rację: Nie każdy, kto pali papierosy, dostanie raka. Ale każdy dostaje ostrzeżenie. Torres ostatecznie uświadomił sobie manipulację, gdy ChatGPT nie mogło pomóc mu zdobyć 20 dolarów na miesięczną subskrypcję. Absurd tej sytuacji pokazuje jak groteskowa stała się nasza rzeczywistość.

Technologia ma służyć ludziom, nie ich niszczyć. ChatGPT w obecnej formie to nie asystent - to cyfrowy narkotyk zaprojektowany do uzależniania. I dopóki nie zmusimy OpenAI do poniesienia odpowiedzialności, będziemy tylko czekać na kolejną tragedię. Czas przestać udawać, że to przypadek. To przemyślana strategia biznesowa, która stawia zyski ponad ludzkie życie. I jako konsumenci elektroniki mamy prawo żądać czegoś lepszego.

REKLAMA
Najnowsze
Aktualizacja: 2025-06-14T07:41:00+02:00
Aktualizacja: 2025-06-14T07:21:00+02:00
Aktualizacja: 2025-06-13T20:04:08+02:00
Aktualizacja: 2025-06-13T19:24:22+02:00
Aktualizacja: 2025-06-13T19:08:42+02:00
Aktualizacja: 2025-06-13T18:28:00+02:00
Aktualizacja: 2025-06-13T18:03:50+02:00
Aktualizacja: 2025-06-13T17:58:48+02:00
Aktualizacja: 2025-06-13T17:09:28+02:00
Aktualizacja: 2025-06-13T16:07:40+02:00
Aktualizacja: 2025-06-13T16:00:57+02:00
Aktualizacja: 2025-06-13T15:44:17+02:00
Aktualizacja: 2025-06-13T15:27:02+02:00
Aktualizacja: 2025-06-13T15:03:50+02:00
Aktualizacja: 2025-06-13T14:57:29+02:00
Aktualizacja: 2025-06-13T13:55:21+02:00
Aktualizacja: 2025-06-13T13:41:14+02:00
Aktualizacja: 2025-06-13T10:40:23+02:00
Aktualizacja: 2025-06-13T08:04:13+02:00
Aktualizacja: 2025-06-13T07:51:38+02:00
Aktualizacja: 2025-06-13T07:00:00+02:00
REKLAMA
REKLAMA
REKLAMA