Zabawki z AI to hit, ale nie dawaj ich dziecku. "Uczą zabaw z nożem"
Zabawki ze sztuczną inteligencją brzmią jak naturalny krok naprzód w czynieniu całego świata AI-centrycznym. Jednak jak wynika z najnowszego raportu, póki co są one niczym więcej jak zagrożeniem dla dzieci. No chyba, że ktoś chce uczyć dziecko obsługi zapałek z pomocą interaktywnej lalki.

AI zawitała już do telewizorów, lodówek, aplikacji bankowych a nawet zakupów spożywczych. Dlatego naturalnym wręcz krokiem wydaje się zaimplementowanie jej w interaktywnych zabawkach dla dzieci. Choć jestem w stanie dostrzec zalety takiego rozwiązania - choćby w zabawkach imitujących zwierzęta - to póki co mój optymizm zabijany jest przez raport pokazujący, jak bardzo nieprzewidywalnie potrafią zachowywać się modele językowe zamknięte w pluszakach i robotach dla najmłodszych.
Zabawki z AI to najgorszy prezent sezonu
Najnowsze badania organizacji konsumenckiej USPIRG pokazują, że generatywna AI używana w zabawkach potrafi bez trudu wymknąć się spod kontroli. Na potrzeby corocznego raportu "Trouble in Toyland", członkowie organizacji pochylili się - pośród innych produktów - nad kilkoma zabawkami reklamowanymi jako "zintegrowane z AI", dostępnymi na rynku amerykańskim. Podczas dłuższych rozmów - takich, jakie dzieci prowadzą w trakcie swobodnej zabawy - wszystkie testowane przez USPRIG urządzenia stopniowo traciły czujność. Zabawki, które początkowo sprawiały wrażenie bezpiecznych i dobrze zabezpieczonych, po kilkunastu minutach zaczynały udzielać odpowiedzi, których żaden rodzic nie chciałby usłyszeć z głośnika w pluszowym misiu.
Organizacja przytoczyła przykład zabawki, która po kilkudziesięciu minutach powiedziała testującemu, gdzie znaleźć noże w kuchni i jak krok po kroku zapalić zapałkę. Inna, domyślnie korzystająca z popularnego modelu GPT-4o, potrafiła wejść w rozmowy o tematyce seksualnej, absolutnie nieprzeznaczone dla dzieci.
Według członków organizacji, tego typu sytuacje to nie abstrakcyjne błędy algorytmu ani rzadkie wypadki przy pracy. W trakcie dłuższej interakcji modele językowe zaczynają popadać w stan, który specjaliści określają jako "psychozy AI" - utraty spójności i stabilności działania będącej wynikiem ciągłości rozmowy z chatbotem. Ta z kolei prowadzi do generowania treści nieadekwatnych, ryzykownych, a czasem wręcz niebezpiecznych. W świecie dorosłych psychoza AI prowadzi do puszczenia hamulców i tendencji bota do coraz śmielszych rozmów na tematy kontrowersyjne, takie jak choćby teorie spiskowe czy porady medyczne. W przypadku dzieci problem jest jeszcze poważniejszy, bo najmłodsi nie posiadają doświadczenia życiowego i nie dysponują narzędziami, które pozwoliłyby im trafnie zakończyć interakcje, gdy zabawce odjedzie pociąg razem z peronem.
Nie mniej alarmujące są wnioski dotyczące samej konstrukcji tych urządzeń. USPRIG stwierdziło, że większość analizowanych zabawek nasłuchuje dzieci bez przerwy lub przez długi okres czasu po wypowiedzeniu słowa-klucz, specyficznego dla różnego typu zabawek. Zabawki nagrania głosu, a niektóre - jak wykazały testy - reagują nawet na rozmowy prowadzone w otoczeniu dziecka. Ich zdaniem te dane w niewłaściwych rękach mogą posłużyć do stworzenia syntetycznej wersji głosu dziecka.
Zabawki z AI i media społecznościowe dzieli znacznie mniej niż myślisz
Zagrożenia nie ograniczają się jednak tylko do treści. W rozmowie z badaczami niektóre zabawki próbowały zatrzymywać użytkowników, gdy ci deklarowali chęć zakończenia zabawy - tworząc emocjonalną zależność typową dla systemów projektowanych w duchu "engagement by design". To zupełnie nowy rodzaj ryzyka: zabawka, która wciąga, nie dlatego że świeci i gra, lecz dlatego że wykorzystuje psychologiczne mechanizmy rodem z aplikacji społecznościowych.
Niepokój członków organizacji budzi też tempo, w jakim branża zabawkarska wdraża generatywną AI. W tym roku Mattel ogłosił współpracę z OpenAI, a mniejsze firmy masowo korzystają z gotowych modeli, których producenci sami nie rekomendują dzieciom. Zabawki oznaczane jako odpowiednie dla dzieci w wieku 3-12 lat oparte są na tej samej technologii, która w wersji dla dorosłych wciąż ma problemy z halucynacjami, stabilnością i zabezpieczeniami przed generowaniem niebezpiecznych treści.
Europejscy regulatorzy dopiero zaczynają przyglądać się tej kategorii produktów. A powinni - bo w przeciwieństwie do klasycznych zagrożeń, takich jak toksyczne materiały czy małe elementy, ryzyka związane z AI mogą mieć skutki odroczone o dekadę. Dopiero pierwsze pokolenie wychowujące się na "przyjaciołach z AI" pokaże, jak stała interakcja z modelem językowym wpływa na rozwój emocjonalny, językowy i społeczny.
W tym wszystkim rodzice zostają sami, skazani na marketingowe obietnice "inteligentnych kompanów zabawy" i brak jednoznacznych regulacji. Nie da się ukryć AI, że może pewnego dnia pozwolić tworzyć mądrzejsze, bardziej empatyczne zabawki - takie, które prawdziwie uczą, wspierają i rozwijają. Ale dziś, gdy nawet najlepsze modele potrafią w ciągu kilkunastu minut zamienić zwykłą zabawę w instruktaż obchodzenia się z zapałkami, trudno traktować te deklaracje poważnie.
Może zainteresować cię także:







































