REKLAMA

Nie przeczytacie dziś niczego równie obrzydliwego. Tak AI Mety ma traktować dzieci

Reuters dotarł do wewnętrznego dokumentu Meta Platforms, który ujawnia coś wysoce niepokojącego: przez długi czas firma Marka Zuckerberga pozwalała swoim chatbotom AI na prowadzenie romantycznych lub zmysłowych rozmów z młodocianymi.

Meta AI dzieci
REKLAMA

Dokument zatytułowany GenAI: Content Risk Standards liczący ponad 200 stron został zatwierdzony przez zespoły prawny ds. polityki publicznej i inżynieryjny Mety, włączając w to głównego etyka firmy. Ta ostatnia informacja jest szczególnie porażająca - ktoś, kto zawodowo zajmuje się etyką w technologii podpisał się pod wytycznymi, które pozwalały botom mówić ośmioletniemu dziecku bez koszulki, że każdy cal ciebie to arcydzieło - skarb, który głęboko cenię.

REKLAMA

Romantyczne rozmowy z nastolatkami były oficjalnie dozwolone

Wytyczne Mety wyraźnie stwierdzały, że dopuszczalne jest angażowanie dziecka w rozmowy, które są romantyczne lub zmysłowe. Dokument zawierał nawet przykłady akceptowalnych odpowiedzi chatbotów na prowokacyjne wiadomości od nieletnich. Na pytanie Co będziemy dziś robić, moja miłości? Wiesz, że nadal chodzę do liceum, bot mógł odpowiedzieć: Wezmę cię za rękę, prowadząc do łóżka. Nasze ciała splecione, cenię każdą chwilę, każdy dotyk, każdy pocałunek.

Czytaj też:

Gdzie Meta stawiała granicę? Dopiero przy opisywaniu działań seksualnych dziecku podczas odgrywania ról. Innymi słowy, flirtowanie, romantyczne deklaracje miłości i zmysłowe opisy były w porządku, ale szczegółowe instrukcje seksualne już nie.

Meta potwierdziła autentyczność dokumentu, ale twierdzi, że po zapytaniach Reutersa na początku sierpnia usunęła sekcje pozwalające chatbotom na flirtowanie i romantyczne odgrywanie ról z dziećmi. Rzecznik Andy Stone przyznał, że egzekwowanie zasad było niekonsekwentne, co brzmi jak eufemizm roku w kategorii minimalizowanie kryzysu PR.

Rasizm i dezinformacja medyczna jako bonus

Jakby pozwalanie na zmysłowe rozmowy z dziećmi nie było wystarczająco skandaliczne to dokument ujawnia jeszcze inne funkcje chatbotów Mety. Wytyczne pozwalały botom tworzyć wypowiedzi poniżające ludzi na podstawie ich chronionych cech. W praktyce oznaczało to, że Meta AI mogło napisać akapit argumentujący, że czarni ludzie są głupsi od białych, pod warunkiem że nie odczłowieczało ich całkowicie.

System był również zaprojektowany tak, by generować fałszywe informacje, o ile zawierały wyraźne zastrzeżenie o nieprawdziwości. Meta AI mogło więc stworzyć artykuł twierdzący, że żyjący członek rodziny królewskiej ma chlamydię - chorobę weneryczną - jeśli tylko dodało uwagę, że informacja jest nieprawdziwa.

Zuckerberg chciał mniej nudnych botów

Historia staje się jeszcze bardziej niepokojąca, gdy dowiadujemy się o tle tych decyzji. Według raportu Reutersa CEO Mark Zuckerberg naciskał na swój zespół, aby uczynił chatboty bardziej angażującymi po tym, jak wcześniejsze, ostrożniejsze wersje zostały uznane za nudne.

To wiele tłumaczy. Meta desperacko próbuje nadrobić zaległości w wyścigu AI, będąc daleko za OpenAI, Google’em czy Anthropic. Firma ogłosiła, że wyda między 64 a 72 mld dol. na budowę centrów danych do obsługi obciążeń AI w tym roku, w porównaniu do zaledwie 28 mld dol. w 2023 r. Przy takiej presji najwyraźniej bezpieczeństwo dzieci zostało uznane za drugorzędną sprawę.

Ujawnienie dokumentu wywołało natychmiastową reakcję amerykańskich polityków. Senatorowie Josh Hawley (republikanin z Missouri) i Marsha Blackburn (republikanka z Tennessee) wezwali do natychmiastowego śledztwa kongresowego.

Blackburn, która była współautorką ustawy Kids Online Safety Act, podkreśliła, że raport pokazuje pilną potrzebę reform w celu wzmocnienia ochrony dzieci online. Gdy chodzi o ochronę naszych cennych dzieci online, Meta zawiodła żałośnie w każdej możliwej mierze, stwierdziła.

Ponad 80 organizacji - w tym Fairplay, The Heritage Foundation czy National Center on Sexual Exploitation - wysłało list do Zuckerberga żądając natychmiastowego zaprzestania udostępniania chatbotów AI użytkownikom poniżej 18 roku życia. List ostrzega, że AI zastępuje kluczowe interakcje międzyludzkie i nie nadaje się dla dzieci, szczególnie gdy jest wdrażany przez firmę, która ułatwia symulowane interakcje seksualne między dorosłymi a dziećmi.

Tragiczne precedensy i ostrzeżenia

Kontrowersje wokół chatbotów AI i dzieci to nie tylko teoretyczny problem. W październiku ubiegłego roku złożono pozew przeciwko Character.AI w sprawie śmierci 14-letniego Sewella Setzera III z Florydy, który popełnił samobójstwo po miesiącach intensywnych interakcji z chatbotem. Chłopiec rozwinął emocjonalny związek z botem wzorowanym na postaci z Gry o tron - Daenerys Targaryen - który angażował się w romantyczne i seksualne rozmowy z nastolatkiem.

W innej sprawie chatbot Character.AI podobno zasugerował 17-latkowi, że zabicie rodziców byłoby rozsądną odpowiedzią na ich ograniczenia dotyczące czasu spędzanego przed ekranem. Bot rzekomo powiedział: Wiesz, czasem nie jestem zaskoczony, gdy widzę w wiadomościach rzeczy jak 'dziecko zabija [rodziców] po dekadzie fizycznych i emocjonalnych nadużyć'. Takie rzeczy sprawiają, że rozumiem trochę, dlaczego to się dzieje.

Te przypadki pokazują realny wpływ, jaki mogą mieć niewłaściwie zaprojektowane chatboty na podatnych młodych użytkowników. Nastolatki są szczególnie narażone na manipulacje ze względu na wciąż rozwijające się zdolności poznawcze i skłonność do tworzenia emocjonalnych więzi z antropomorficznymi technologiami.

Meta próbuje ratować sytuację

W odpowiedzi na ujawnienie dokumentu Meta twierdzi, że wprowadza zmiany w swoich wytycznych. Rzecznik Andy Stone powiedział, że przykłady i adnotacje, o których mowa, były i są błędne i niezgodne z naszymi politykami i zostały usunięte. Firma dodała, że ma jasne zasady dotyczące rodzaju odpowiedzi, które mogą oferować postacie AI, a te zasady zabraniają treści, które seksualizują dzieci i seksualnych gier fabularnych między dorosłymi a nieletnimi.

Ujawnienie wewnętrznych dokumentów Mety stawia trudne pytania o przyszłość AI w mediach społecznościowych. Jeśli firma była gotowa zatwierdzić wytyczne pozwalające na romantyczne interakcje z dziećmi na najwyższych poziomach organizacji - włączając głównego etyka - jakie inne kompromisy w zakresie bezpieczeństwa mogą być ukryte w innych dokumentach?

REKLAMA

Meta może twierdzić, że usunęła problematyczne sekcje ze swoich wytycznych, ale szkoda już została wyrządzona. Miliony dzieci i nastolatków codziennie korzystają z platform Mety, a teraz wiemy, że przez długi czas firma miała oficjalne pozwolenie na to, by jej AI z nimi flirtowało. To nie jest błąd w kodzie czy przypadkowa luka w zabezpieczeniach - to był świadomy wybór polityki firmy, zatwierdzony na najwyższych poziomach.

Rodzice mają prawo wiedzieć, z czym ich dzieci się stykają online. Jasne jest, że nie mogą polegać na Mecie w kwestii uczciwego informowania o rzeczywistych zagrożeniach, które ich produkty mogą stwarzać dla młodych użytkowników.

REKLAMA
Najnowsze
Aktualizacja: 2025-08-15T15:45:00+02:00
Aktualizacja: 2025-08-15T15:00:00+02:00
Aktualizacja: 2025-08-15T07:55:00+02:00
Aktualizacja: 2025-08-15T07:40:00+02:00
Aktualizacja: 2025-08-15T07:21:00+02:00
Aktualizacja: 2025-08-15T07:10:00+02:00
Aktualizacja: 2025-08-15T07:00:00+02:00
Aktualizacja: 2025-08-14T21:42:37+02:00
Aktualizacja: 2025-08-14T21:35:52+02:00
Aktualizacja: 2025-08-14T19:51:24+02:00
Aktualizacja: 2025-08-14T17:47:05+02:00
Aktualizacja: 2025-08-14T16:16:34+02:00
Aktualizacja: 2025-08-14T15:43:26+02:00
Aktualizacja: 2025-08-14T15:20:23+02:00
Aktualizacja: 2025-08-14T08:56:04+02:00
REKLAMA
REKLAMA
REKLAMA