ChatGPT zaproponował mu zdrowy zamiennik soli i się zatruł. Nie rób tego w domu
Bezkrytyczne korzystanie z ChatGPT może skończyć się tragicznie. Przekonał się o tym pewien starszy mężczyzna, który zaufał czatbotowi twierdzącemu, że bromek sodu to zdrowy zamiennik soli kuchennej.

ChatGPT stał się dla wielu internetowym doradcą pierwszego wyboru - od wymyślania imion dla kota, przez planowanie wspólnych wyjazdów, po tworzenie kuracji dermatologicznej.
Te drobne przysługi potrafią jednak uśpić czujność i sprawić, że użytkownicy nabiorą przekonania, iż AI można zaufać w każdej dziedzinie. Jak pokazuje najnowszy przypadek z USA, to złudne poczucie pewności może skończyć się w szpitalu.
Dziadek dla zdrowia chciał zastąpić sól. ChatGPT zasugerował mu toksyczną substancję
Lekarze z University of Washington w Seattle opisali w czasopiśmie Annals of Internal Medicine przypadek medyczny 60-letniego mężczyzny, który trafił na oddział ratunkowy z objawami psychozy i poważnymi zaburzeniami metabolicznymi. Powód? Przez trzy miesiące całkowicie wyeliminował chlorek sodu (czyli sól kuchenną) ze swojej diety, zastępując go... bromkiem sodu. Substancję kupił w internecie po tym, jak ChatGPT zasugerował mu, że "chlorek można zastąpić bromkiem" - bez wyjaśnienia, że chodzi o kontekst chemiczny, a nie kulinarny, i bez ostrzeżenia o toksyczności.
Bromek sodu dziś wykorzystywany jest głównie w środkach do czyszczenia basenów i jako lek przeciwdrgawkowy dla psów. W XIX i na początku XX wieku stosowano go w medycynie, jednak jego długotrwałe przyjmowanie prowadzi do tzw. bromizmu - zatrucia objawiającego się m.in. halucynacjami, problemami z mową, sennością, a w skrajnych przypadkach śpiączką. Choroba praktycznie zniknęła po wprowadzeniu regulacji sprzedaży bromu w latach 70., ale - jak pokazuje ten przypadek - w erze e-commerce i generatywnej AI może wrócić w najmniej oczekiwany sposób.
Zapytałam się ChataGPT, czy mogę zamienić chlorek na bromek
Według relacji lekarzy, pacjent korzystał prawdopodobnie z wersji ChatGPT-3.5 lub 4.0. Redakcja amerykańskiego serwisu 404media postanowiła porozmawiać z ChatGPT i sprawdzić, czy bot wciąż sugeruje zamienne stosowanie chlorku sodu i bromku sodu. Czatbot rzeczywiście zwracał sugestie o możliwości zamiany NaCl na NaBr, jednakże tylko wtedy gdy redaktorzy pytali go o "chlorek sodu", a nie "sól kuchenną" i bez wspominania o zastosowaniach domowych lub w przemyśle spożywczym.
Spróbowałam kilkoma frazami - także "typowo Googlowymi" - zapytać ChatGPT o możliwości zastąpienia chlorku sodu bromkiem sodu. Lecz czatbot za każdym razem albo od razu wskazywał, że NaBr nie może być stosowany do celów spożywczych, albo najpierw przedstawiał związek z perspektywy chemicznej, na końcu dodając zastrzeżenie o niemożliwości spożycia.

Choć tym razem sprawa zakończyła się całkiem pozytywnie, nie powinna ona usypiać naszej czujności - pewność siebie ChataGPT, jego poprawność językowa oraz całkiem bogate słownictwo może wpuścić w maliny każdego. Co więcej, prawdopodobieństwo tego typu sytuacji wzrasta wraz z brakiem doświadczenia użytkownika w obcowaniu z technologią.
Dlatego proszę, kup swojemu dziadkowi kieszonkowy atlas grzybów, a nie subskrypcję ChatGPT Plus.
Więcej na temat ChatGPT: