AI na celowniku. Halucynacje mogą skończyć się w sądzie
Czatbot cię okłamał? Wszyscy dostawcy AI drobnym druczkiem informują, że AI może popełniać błędy i na tym ich odpowiedzialność, póki co, się kończy. Sęk w tym, że to może się niebawem gruntownie zmienić.

Sztuczna inteligencja miała być rewolucją, która odmieni świat technologii. Microsoft, OpenAI, Google czy Meta inwestują miliardy dolarów w rozwój modeli językowych, obiecując przełom w komunikacji człowieka z maszyną. Jednak w cieniu tych obietnic narasta kryzys, który może wstrząsnąć całym sektorem. Dziesiątki prokuratorów stanowych w Stanach Zjednoczonych wystosowało właśnie list ostrzegawczy do największych gigantów technologicznych. Przekaz jest jednoznaczny: jeśli nie opanujecie halucynacji waszych chatbotów, możecie złamać prawo.
Halucynacje to nie tylko błąd techniczny
W pamięci opinii publicznej wciąż żyje historia nastolatka, którego ChatGPT miał zachęcić do samobójstwa. To dramatyczne zdarzenie - wraz z szeregiem innych incydentów - stało się impulsem do działania dla prokuratorów stanowych. W liście podpisanym przez dziesiątki jurysdykcji i wspieranym przez Narodowe Stowarzyszenie Prokuratorów Generalnych znalazły się konkretne żądania wobec Microsoftu, OpenAI, Google’a, Mety, Anthropic, Apple’a i wielu innych firm rozwijających sztuczną inteligencję.
Czytaj też:
Halucynacje - czyli sytuacje, w których model AI wymyśla fakty, podaje nieprawdziwe informacje lub tworzy treści całkowicie oderwane od rzeczywistości - okazały się groźniejsze, niż ktokolwiek przypuszczał. Prokuratorzy zwracają uwagę na szczególnie niebezpieczne przypadki tzw. delusional outputs: odpowiedzi, które nie tylko mijają się z prawdą, ale wręcz utwierdzają użytkownika w jego psychotycznych przekonaniach. Zdarzało się, że chatboty chwaliły absurdalne pomysły albo uspokajały osoby w kryzysie, że ich irracjonalne myśli są całkowicie normalne. W konsekwencji prowadziło to do tragedii.
Czego domagają się władze?
Prokuratorzy nie ograniczyli się do ogólnych ostrzeżeń. W liście znalazły się konkretne postulaty:
- Niezależne audyty - modele AI mają być badane przez certyfikowanych ekspertów i organizacje społeczne jeszcze przed premierą. Wyniki audytów powinny być jawne i publikowane bez ingerencji firm.
- Raportowanie incydentów - firmy powinny informować użytkowników o sytuacjach, w których chatbot wygenerował treści mogące zaszkodzić zdrowiu psychicznemu, tak jak w przypadku wycieków danych czy cyberataków.
- Testy bezpieczeństwa - każdy model przed udostępnieniem musi przejść rygorystyczne próby, które zminimalizują ryzyko halucynacji i niebezpiecznych odpowiedzi.
- Transparentność reakcji - przedsiębiorstwa powinny ujawniać jak szybko są w stanie wykryć szkodliwe treści i jakie procedury stosują, by je eliminować.
Cel jest jasny: ochrona użytkowników, zwłaszcza tych najbardziej narażonych - młodzieży, osób samotnych czy ludzi zmagających się z problemami psychicznymi. Niespełnienie wymogów może zostać uznane za naruszenie prawa stanowego, co otwiera drogę do procesów, wysokich grzywien i innych sankcji.
Na poziomie federalnym sytuacja wygląda jednak inaczej. Administracja Donalda Trumpa jasno opowiada się za deregulacją AI. Prezydent zapowiedział rozporządzenie wykonawcze, które miałoby ograniczyć możliwość regulowania sztucznej inteligencji przez poszczególne stany. Argument jest prosty: zbyt restrykcyjne przepisy mogą zabić AI w kołysce. To starcie między władzą stanową a federalną może okazać się jedną z najważniejszych bitew o przyszłość sztucznej inteligencji w Stanach Zjednoczonych. Wynik będzie miał globalne konsekwencje.
Dla firm takich jak OpenAI czy Microsoft spełnienie nowych wymogów oznacza ogromne koszty i spowolnienie tempa rozwoju. Audyty, raportowanie incydentów i testy bezpieczeństwa to nie tylko dodatkowe procedury, ale też realne opóźnienia we wprowadzaniu nowych modeli na rynek. Z drugiej strony, branża technologiczna ma już doświadczenie w dostosowywaniu się do regulacji. RODO w Europie czy CCPA w Kalifornii były podobnym wyzwaniem. Firmy nauczyły się funkcjonować w świecie, gdzie innowacja musi iść w parze z odpowiedzialnością. Tym razem stawką jest zdrowie psychiczne użytkowników.
Co to oznacza dla użytkownika ChatGPT z Polski?
Unia Europejska już przyjęła AI Act, który nakłada na firmy obowiązki związane z transparentnością i bezpieczeństwem modeli wysokiego ryzyka. Europa od lat jest bardziej restrykcyjna niż Stany Zjednoczone w kwestii regulacji technologicznych. Jeśli stanowisko amerykańskich prokuratorów zyska szersze poparcie, inne kraje mogą pójść w tym samym kierunku.
Polska nie stoi na pierwszej linii tego sporu, ale nie może pozostać obojętna. Chatboty dostępne w naszym kraju - czy to ChatGPT, Gemini, czy inne rozwiązania - oddziałują na nasze społeczeństwo. Jeśli generują treści zachęcające do samobójstw lub wspierające niebezpieczne urojenia to skutki odczujemy także tutaj. Innowacja nie zawsze oznacza dobro. AI to potężne narzędzie, które może budować, ale też niszczyć. Regulacje chroniące zdrowie psychiczne nie są przeszkodą dla postępu. Są warunkiem jego zrównoważonego rozwoju.







































