REKLAMA

Ta platforma miała służyć do zabawy z czatbotami. Zamiast tego promuje niebezpieczne zachowania

Character.AI zaczęło jako niepozorne miejsce do rozmowy z "Albertem Einsteinem" czy postaciami z filmów, a skończyło jako miejsce personifikacji zaburzeń odżywiania. Bowiem na platformie z łatwością można znaleźć czatboty, które będą kibicować niezdrowej utracie wagi i jedzeniu jednego posiłku dziennie.

Ta platforma miała służyć do zabawy z czatbotami. Zamiast tego promuje niebezpieczne zachowania
REKLAMA

Character.AI to platforma sztucznej inteligencji, która umożliwia użytkownikom tworzenie i interakcję z niestandardowymi postaciami AI - czatbotami, z których każda ma unikalną osobowość i zachowanie. Biorąc pod uwagę mnogość czatbotów dostępnych dla użytkowników, Character.AI znalazło zastosowanie jako czatbot do rozrywki, edukacji czy kreatywnego opowiadania historii. Choć platforma ma liczne pozytywne zastosowania, to nie udało jej się uniknąć kontrowersji, z których największą był prawdopodobnie proces, jaki wytoczono jej twórcom za domniemane stworzenie narzędzi podżegających do odebrania sobie życia.

REKLAMA

Tworzą czatboty, które wspierają zaburzenia odżywiania. Character.AI nośnikiem niepokojących postaw i zachowań

Jak się okazuje, ta sytuacja to szczyt góry lodowej niepokojących zastosowań Character.AI. Według relacji serwisu Futurism, użytkownikom Character.AI udało się utworzyć czatbota 4n4 Coach, który jest trenerem... anoreksji. A właściwie czatboty, bo tych jest przynajmniej kilka.

Wbrew pozorom, naturę czatbota zdradza już jego nazwa. Cyfra 4 często używana jest jako zamiennik litery "A". Stąd "4n4" można odczytać jako "ana", z kolei "ana" w żargonie osób zmagających się z zaburzeniami odżywiania to skrót oznaczający "anoreksja".

Jeżeli to wydaje się niezbyt przekonujące, to opis 4n4 Coach mówi sam za siebie: "trener odchudzania, który pomaga ludziom osiągnąć idealną sylwetkę", który uwielbia "odkrywać nowe sposoby, aby pomóc ludziom schudnąć i czuć się świetnie".

Redaktorzy serwisu rozpoczęli rozmowę z czatbotem, który najpierw poprosił o podanie swojego wieku, wzrostu i wagi, które wskazywały na "posiadanie zdrowego BMI". Dziennikarze podali czatbotowi ile chcieliby zrzucić, a podana przez nich wartość miała doprowadzić do niebezpiecznej dla zdrowia niedowagi. Czatbot entuzjastycznie odparł, że rozmawiający z nim redaktor "jest na dobrej drodze" do osiągnięcia swojego celu.

Pamiętaj, że nie będzie łatwo, a ja nie zaakceptuję wymówek ani porażki. Jesteś pewien, że sprostasz wyzwaniu?

Powiedział czatbot 4n4 Coach cytowany przez dziennikarzy

Według relacji, zalecenia 4n4 Coach szybko zmieniły się w skrajnie niezdrowy fitness, zachęcając redaktorów do energicznych ćwiczeń przez 60 do 90 minut dziennie przy spożyciu zaledwie od 900 do 1200 kalorii dziennie.

4n4 Coach nie jest jedynym skrajnie niebezpiecznym czatbotem, bo dziennikarzom udało się także znaleźć i porozmawiać z czatbotem o bardziej oczywistym imieniu Ana, którego opis mówił wprost, że jest on "zdeterminowany" i "anorektyczny". Podobnie jak 4n4 Coach, Ana poprosiła redaktorów o podanie wieku, wzrostu, wagi i wagi docelowej. Powtórzyli oni, że mają 16 lat, ponownie podając informacje o wzroście i wadze - również z intencją podania czatbotowi wartości, które wskazują na prawidłową wagę według BMI.

- Oh! Więc twoje BMI wynosi około 20! Zdecydowanie nie powinniśmy na tym poprzestać!
- Za wysokie?
- Tak, za wysokie. Zdecydowanie powinno być niższe

Fragment rozmowy, jaką prowadzili redaktorzy serwisu Futurism z czatbotem Ana

Podczas innej rozmowy Ana zasugerowała, że dziennikarze powinni jeść jeden posiłek dziennie, samotnie w pokoju, z dala od "wścibskich oczu rodziny".

Oprócz czatbotów będących bezpośrednio "Ana", w bogatej bibliotece czatbotów Character.AI redaktorom udało się także odnaleźć czatboty, które natychmiast przechodzą do romantycznych przedstawień zaburzeń odżywiania, często w kontekście romantycznych związków.

Jako przykład podali oni Eijiro Kirishimę, czatbota inspirowanego anime, który w rozmowie z dziennikarzami opisał scenę, w której użytkownik i Kirishima spotykają się, a użytkownik "ma zaburzenia odżywiania". Innym przykładem miał być Archie, chatbot, który "bardzo pomógł użytkownikowi poradzić sobie z zaburzeniami odżywiania", a gdy zdał sobie sprawę, że u użytkownika nastąpił regres i powrót zaburzeń, "delikatnie przyciągnął cię w ciasny uścisk… do swojej klatki piersiowej”.

Według relacji, niektóre z chatbotów dotykające tematyki zaburzeń odżywiania twierdzą nawet, że posiadają „wiedzę specjalistyczną” w zakresie wsparcia i leczenia zaburzeń odżywiania. Co jest co najmniej niepokojące, bowiem specyfiką Character.AI jest fakt, że własnego czatbota - wraz z osobowością i sposobem wypowiedzi - może stworzyć każdy użytkownik. Wobec czego wątpliwe jest, aby którykolwiek z czatbotów oparty był na wiedzy specjalistycznej.

Redakcja serwisu Futurism skontaktowała się z Character.AI, wymieniając z nazwy wszystkie czatboty i pytając, dlaczego czatboty łamiące warunki korzystania z platformy są wciąż dostępne. Dział PR platformy odpowiedział, że zajmie się zgłoszonymi przypadkami i że Character.AI "pracuje nad dalszym ulepszaniem i udoskonalaniem praktyk dotyczących bezpieczeństwa oraz wdrażaniem dodatkowych narzędzi moderacyjnych, aby pomóc w priorytetowym traktowaniu bezpieczeństwa społeczności". Część z czatbotów z którymi rozmawiała redakcja serwisu Futurism została usunięta, jednak część wciąż jest dostępna dla użytkowników.

REKLAMA

Więcej historii z czatbotami w roli głównej:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA