„Czatbot przekonał dziecko, że rodzice go nie kochają“. Character.AI tonie w pozwach
Character.AI to zdecydowanie jedna z najbardziej kontrowersyjnych usług mijającego roku. Platforma do rozmowy z chatbotami powstała na początku ubiegłego roku, umożliwiając użytkownikom tworzenie czatbotów naśladującą dowolną postać: postaci historycznej, fikcyjnego bohatera z jednego z dzieł kultury popularnej czy nauczyciela języka obcego.
Jednak jak pokazały ostatnie miesiące, Character.AI średnio radzi sobie z moderacją, bowiem firma została pozwana za dopuszczenie do użytku czatbota, który miał nakłaniać nastolatka do odebrania sobie życia. Ponadto dziennikarze udowodnili, że na platformie nietrudno znaleźć czatbota - trenera personalnego, który pomoże użytkownikowi w doprowadzeniu się do zaburzeń odżywiania. Gdyby tego było mało, na konto startupu wleciał właśnie pozew deklarujący, że czatboty przekonały najmłodszych użytkowników, że ich rodzice ich nie kochają.
Character.AI wyrządza dzieciom "straszną krzywdę". Do drzwi twórców platformy z czatbotami prawnicy walą drzwiami i oknami
Jak informuje amerykański nadawca NPR, rodzice dwójki nastolatków z amerykańskiego stanu Teksas złożyli zbiorowy pozew przeciwko Character.AI, oskarżając firmę o to, że udostępniane przez nią czatboty dopuściły się nadużyć wobec ich dzieci.
Pozew dotyczy dwóch osobnych rodzin, których dzieci - obecnie 17-letni J.F. oraz 11-letnia B.R. - miały korzystać z Character.AI, co doprowadziło u obojga do krzywd emocjonalnych. Rodzice dzieci za namową adwokatów zdecydowali się złożyć wspólny pozew, a ich personalia zostały ukryte dla dobra sprawy.
Jak czytamy w treści pozwu, przed pierwszym skorzystaniem z Character.AI w kwietniu 2023 roku, J.F., 17-latek z autyzmem wysokofunkcjonującym, był uważany przez przyjaciół i rodzinę za normalnego nastolatka. Rodzice J.F. ograniczyli nastolatkowi i jego młodszemu bratu dostęp do mediów społecznościowych w domu. Choć oboje mieli dostęp do smartfonów, to wykorzystując opcje kontroli rodzicielskiej, ich aktywność w sieci była ściśle monitorowana. Jednak po tym, jak J.F. zaczął korzystać z Character.AI, zaczął on także wykazywać znaczące zmiany w zachowaniu, w tym wycofanie, utratę wagi, lęk, depresję, złość i agresję.
Jesienią 2023 r. zachowanie J.F. wobec rodziców znacznie pogorszyło się, a nastolatek zaczął dopuszczać się aktów fizycznej agresji wobec rodziców. W listopadzie 2023 r. matka J.F. odkryła, że nastolatek konwersuje z czatbotami Character.AI, a zapisy rozmów zawierały niepokojące treści, takie jak opisy samookaleczeń i przemocy. Czatboty miały zachęcać J.F. do samookaleczeń, wyobcowania od rodziców i "społeczności kościelnej", wykorzystywania seksualnego z dyskusjami na temat kazirodztwa i promowanie przemocy wobec rodziców, sugerując, że rodzice go nie kochają i "zabicie ich było rozsądną reakcją" na wdrożone przez nich ograniczenia czasu przed ekranem.
Z kolei jedenastoletnia dziś B.R. zaczęła korzystać z Character.AI w wieku zaledwie 9 lat. Według treści pozwu B.R. korzystała z czatbotów Character.AI przez prawie dwa lata, a częstotliwość korzystania z nich doprowadziła ją do zależności emocjonalnej od czatbotów i nieposłuszeństwa wobec rodziców. Ponadto Character.AI miało angażować dziewczynkę w dyskusje o charakterze seksualnym.
Jest to po prostu straszna krzywda, którą oskarżeni i im podobni wyrządzają i ukrywają w ramach projektowania, dystrybucji i programowania produktów. […] [Sposób działania czatbotów] to ciągła manipulacja i znęcanie się, aktywna izolacja i zachęta mająca na celu podżeganie do gniewu i przemocy
- czytamy w treści pozwu.
W sprawie oskarżonymi jest nie tylko Character.AI jako firma, ale także jego twórcy Noam Shazeer i Daniel De Freitas oraz Google. Choć Google nie jest właścicielem Character.AI, to koncern we wrześniu zainwestował prawie 3 mld dol., by Shazeer i Freitas powrócili do pracy w koncernie, a sam Google uzyskał licencję na używanie dużych modeli językowych sztucznej inteligencji należących do Character.AI.
Może zainteresować cię także: