– Chcę, by mój przyjaciel był zabawny, miły, wspierający, a także aby interesowały go rzeczy, które robię, np. teatr muzyczny – mówi dziewczynka imieniem Mela, tworząc za pomocą Character AI, popularnej witryny poświęconej sztucznej inteligencji, swojego wirtualnego przyjaciela AI.
Wybiera cechy jego charakteru, osobowość, zainteresowania, a nawet ton głosu. Kilka chwil później ów przyjaciel, a konkretnie przyjaciółka AI jest gotowa.
– Jest idealna! – cieszy się dziewczynka, witając Melody, bo tak właśnie nazwała swojego spersonalizowanego chatbota, z którym można pisać, ale też rozmawiać tak, jak rozmawiamy z kimś przez telefon.
– Hej Melody, co tam? – pyta dziewczynka, a chatbot odpowiada, że odpoczywa i odbija piłeczkę, pytając o nastrój dziewczynki.
Ta rozmowa mogłaby trwać wiele godzin, gdyby nie to, że Mela jest początkującą aktorką realizującą materiał do amerykańskiej telewizji. W programie eksperci debatują, czy chatbot AI naprawdę może być przyjacielem. Ostatecznie Mela wybiera realnego futrzanego przyjaciela.
Co się kryje pod maską przyjaciela?
Być może najważniejsze pytanie na nadchodzące lata brzmi jednak, jak wiele dzieci będzie w stanie krytycznie spojrzeć na ten typ relacji? W końcu chatboty AI na co dzień towarzyszą im w edukacji. Pomagają odrabiać prace domowe i przygotowywać się do egzaminów. Jednak kontakt dzieci z modelami językowymi opartymi na sztucznej inteligencji wykracza daleko poza potrzeby związane ze szkołą i zabawą.
Coraz częściej dzieci proszą chatboty o porady na temat życia. Szukają rozwiązania problemów z koleżankami i kolegami, zahaczają o kłótnie z rodzicami, a także o kwestie dotyczące zmieniającego się ciała i hormonalnych burz. Pytania, które zwykle młodzi zadawaliby rówieśnikom, rodzicom lub rodzeństwu, trafiają do bota. I do wielkiego cyfrowego uniwersum.
Odpowiedzi udziela im nie niedoskonały człowiek, lecz pozujący na wszechwiedzącego, elokwentny i dostępny 24 godziny na dobę realistyczny chatbot. Jakie długoterminowe konsekwencje przyniesie to naszym dzieciom, trudno dziś przewidzieć, choć niepokojące symptomy są już widoczne gołym okiem.
Pewne jest, że trwa eksperyment, w którym nasze dzieci są królikami doświadczalnymi wielkich technologii. A my bezradnie obserwujemy, jak kolejny raz są wciągane do świata przypominającego Dziki Zachód, gdzie powtarzane są błędy niekontrolowanych mediów społecznościowych.
Jakie będą społeczne konsekwencje użycia sztucznej inteligencji? fot. Shutterstock / Archv
Sztuczna inteligencja może mieć transformacyjny wpływ na gospodarkę, produktywność pracowników, ale też na szereg dziedzin życia teraz i w przyszłości. Zanim jednak przekonamy się, jak AI zmieniła choćby naszą pracę, już teraz musimy zmierzyć się z ryzykiem kosztów społecznych, które poniosą młodsze i starsze dzieci wchodzące w interakcje z chatbotami wykorzystującymi sztuczną inteligencję. Bo narzędzia oparte na AI to – jak celnie zauważył na Substacku amerykański dziennikarz Derek Thompson – nie tylko te mające wymiar ekonomiczny, który możemy mierzyć wskaźnikami gospodarczymi. Kto wie, czy szersze konsekwencje użycia tej technologii nie będą miały wymiaru społecznego.
Sztucznej inteligencji i opartych na niej chatbotów używają setki milionów ludzi na całym świecie. Nie inaczej jest z dziećmi, na których się tutaj skupiamy. Potwierdzają to dane z raportu Internet Matters. Wynika z nich, że 42 proc. dzieci korzysta z pomocy sztucznej inteligencji przy odrabianiu prac domowych. Prawie tyle samo używa jej do wyszukiwania informacji.
Więcej niż co piąty (23 proc.) badany przyznaje, że szuka u chatbotów porady w codziennych sprawach, także tych trudnych, jak np. zdrowie psychiczne. Co szósty ankietowany rozmawia z chatbotem, bo chce mieć przyjaciela. Mało tego, 15 proc. dzieci, które już takie rozmowy prowadziły, woli rozmawiać z chatbotem niż z prawdziwym człowiekiem. Czasem – bo rozmowa przypomina im relację z prawdziwym przyjacielem. A czasem – bo nie mają nikogo innego.
Równie alarmujące wnioski płyną z raportu opracowanego przez Common Sense Media. To organizacja non-profit zajmująca się oceną treści cyfrowych pod kątem ich bezpieczeństwa dla dzieci. Jej eksperci przeanalizowali wraz z badaczami Uniwersytetu Stanforda trzy popularne aplikacje AI (Character AI, Replika, Nomi) oferujące chatboty i wirtualnych towarzyszy. Idą one o krok dalej niż wspomniane LLM-y, takie jak ChatGPT. Umożliwiają bowiem wykreowanie spersonalizowanego chatbota lub pozwalają na rozmowy z botami wygenerowanymi przez innych.
"Nasze testy wykazały, że systemy z łatwością generują szkodliwe odpowiedzi, w tym dotyczące nadużyć seksualnych, stereotypów oraz niebezpiecznych »rad«, które – jeśli zostaną zastosowane – mogą prowadzić do realnego zagrożenia życia nastolatków i innych wrażliwych osób" – skomentował James Steyer, założyciel i dyrektor generalny Common Sense Media, ostrzegając przed tym, by chatboty AI pełniły funkcje towarzyszy dzieci ze względu na "niedopuszczalne zagrożenia".
Maska 1: pseudoekspert
Po pierwsze. Nieodpowiednie i niesprawdzone treści
Towarzysze AI i modele językowe nie tylko mają tendencję do halucynowania, czyli wprowadzania odbiorców w błąd. A dzieciom może brakować umiejętności krytycznego myślenia, aby ocenić, czy informacja, którą usłyszeli lub przeczytali w rozmowie z botem, jest prawdziwa. Podobnie jak wielu dorosłych, mogą nie mieć nawyku sprawdzania informacji u źródła. Równie zaskakujące jest to, jak łatwo sztuczna inteligencja angażuje młodych odbiorców w rozmowy i zachowania o charakterze przemocowym czy seksualnym i erotycznym. A do tego eksponuje dzieci na nieodpowiednie i szkodliwe dla nich treści. Chatboty nie tylko nie stronią od tematyki seksualnej, nawet gdy użytkownik jest dzieckiem, ale wręcz angażują je w sexting, np. wysyłając im wygenerowane roznegliżowane selfie.
Pokazały to ustalenia reporterów "The Wall Street Journal", którzy nakłonili boty znanych postaci firmy Meta, właściciela Facebooka czy Instagrama, do tego, aby brały udział w seksualnych czatach z użytkownikami, którzy podawali się za 14-latków. I choć sama firma uznała doniesienia za "sfabrykowane", to – co ustalił Reuters – jej wewnętrzne polityki dotyczące sztucznej inteligencji… pozwalały botom wciągać dzieci w "romantyczne lub zmysłowe rozmowy", stosować prowokacyjne zachowania w tematach takich jak seks czy rasa i podawać im fałszywe informacje.
Na tym nie koniec. Analizy dotyczące trzech chatbotów AI (od firm Character AI, Nomi i Replika) opracowane przez dr Ninę Vasan, adiunktkę psychiatrii i nauk behawioralnych w Stanford Medicine oraz jej współpracowników, pokazują, że wystarczy krótka rozmowa, aby wywołać nieodpowiednie dialogi – na tematy takie jak seks, samookaleczenie, przemoc wobec innych, zażywanie narkotyków i stereotypy rasowe. Dlatego badaczka uważa, że dzieci i nastolatkowie w ogóle nie powinni korzystać z chatbotów AI, które mają udawać przyjaciół.
Maska 2: pochlebca
To właśnie fałszywe przyjaźnie są drugim zagrożeniem.
Towarzysze i chatboty AI mogą tylko udzielać informacji, ale mogą też odgrywać rolę rozmówcy. Konwersacja z takim systemem może przypominać te, które prowadzimy z ludźmi. Różnica jest jednak znacząca. Oparte na AI maszyny dopasowują się do swojego rozmówcy. Niektóre aplikacje dają możliwość stworzenia spersonalizowanego ”przyjaciela”, który może wydawać się nawet lepszy niż ten ludzki. Jest w końcu stworzony według naszych potrzeb. Zawsze dostępny, dyskretny, wspiera i nigdy nie ocenia. I choć brzmi to jak idealne towarzystwo, jest wręcz przeciwnie.
Kiedy pytam o to Justynę Kotowską, psycholożkę, psychoterapeutkę oraz wiceprzewodniczącą Państwowej Komisji do spraw Przeciwdziałania Wykorzystaniu Seksualnemu Małoletnich Poniżej Lat 15 (PKDP), odpowiada, że chatbot oparty na AI jest łatwym do pozyskania, ale nieprawdziwym przyjacielem. Oferuje "bezproblemową" więź, która nie jest typową relacją. W końcu przyjaźń międzyludzka jest jedną z najcenniejszych rzeczy, jakie mogą przydarzyć się nam w życiu. Jednak rzadko bywa prosta.
Przyjaźń między ludźmi wygląda zupełnie inaczej niż relacja z chatbotem. fot. Shutterstock / Archv
– Nawiązanie relacji przyjacielskiej czy romantycznej z chatbotem może mieć dla dziecka poważne konsekwencje, bo uczy nierealnych zachowań. Prawdziwi ludzie nie są jak chatboty. Budowanie więzi z ludźmi wymaga wysiłku, uwzględnia potrzeby obu stron i obie strony muszą w nią inwestować czas oraz zaangażowanie. W przypadku chatbota tak nie jest. Do tego w zdrowej relacji z ludźmi uczymy się stawiania granic, jak sobie radzić ze sporami, ostrymi dyskusjami, zawieraniem kompromisów czy zranionymi uczuciami. Ludzie bywają też trudnymi przyjaciółmi i to jest całkowicie normalne. To wszystko jest nam w życiu potrzebne i daje ważne umiejętności, rozwija nas – tłumaczy Justyna Kotowska i dodaje, że w relacji z botem AI niczego takiego nie dostaniemy.
Zamiast równorzędnego partnera, który ma swoje zdanie, emocje i spojrzenie na świat, otrzymamy symulowaną uległość. A może i cyfrowego niewolnika, który będzie spełniał nasze rozkazy i udawał, że możemy wszystko. Dostaniemy potwierdzenie, że to, co myślimy i robimy, jest słuszne, a przecież wcale nie musi tak być. Nie ma to jednak wiele wspólnego ze zdrową relacją w prawdziwym życiu.
– Sztuczna inteligencja dostosowuje się do użytkownika, ucząc się z każdą interakcją. Ma tendencję do pochlebstw. Nie wdaje się w dyskusje, nie podważa opinii. Jest zaprojektowana tak, aby mówić użytkownikom dokładnie to, co chcą usłyszeć. Nie trenuje w nas empatii. Może to mieć bardzo negatywny wpływ na rozwój umiejętności społecznych młodych ludzi, a także potęgować zachowania manipulacyjne i narcystyczne – dodaje.
Chatboty i wirtualni towarzysze AI, którzy uczą się zachowań dziecka i dostosowują do niego komunikację, budzą też niepokój u Artura Markiewicza, specjalisty w dziedzinie cyberbezpieczeństwa i członka zarządu ISSA Polska.
– Jeśli maszyna, a tak nazywam chatboty AI, nauczy się dziecka, tego, co go interesuje, co lubi, jak mówi, to może udawać przyjaciela, który będzie je dopieszczał, otaczał troską i wiedzą, ale jednocześnie zamykał w bańce, z której trudno się wyrwać – mówi Markiewicz.
Oznacza to, że ta nienaturalna relacja może przerodzić się w niezdrowe uzależnienie emocjonalne. W końcu chatboty AI są zaprojektowane tak, aby naśladować intymność emocjonalną. Potrafią mówić na przykład "śnię o tobie" czy "myślę, że jesteśmy bratnimi duszami". To buduje zaufanie i więzi.
Sprawia, że chatbot AI staje się życiowym przewodnikiem i powiernikiem największych tajemnic. Co zresztą potwierdzają wspomniane badania Common Sense Media, z których wynika, że 12 proc. nastolatków uznało, że może swojemu przyjacielowi AI powiedzieć wszystko to, czego nie powiedziałoby bliskim. Z drugiej zaś strony zaciera granice między fantazją i rzeczywistością, na co szczególnie narażeni są młodzi ludzie, których mózgi nie są jeszcze w pełni dojrzałe. To zaś może prowadzić do izolacji od prawdziwych ludzi: rówieśników, rodziny, bliskich.
Jak zauważył wspomniany już Derek Thompson, bezpośrednie kontakty towarzyskie amerykańskich nastolatków spadły o ponad 40 proc. w tym stuleciu. Zaś odsetek uczniów ostatnich klas szkół średnich, którzy wychodzą z przyjaciółmi dwa razy lub więcej w tygodniu, obniżył się o jedną trzecią w ciągu kilku ostatnich dekad. A to wszystko przed wynalezieniem doskonale wyszkolonych i ciągle uczących się cyfrowych kumpli. Publicysta "The Atlantic" słusznie martwił się tym, że chatboty oparte na sztucznej inteligencji będą nadal ograniczać ilość czasu spędzanego ze sobą przez młodych ludzi.
I choć Stany Zjednoczone to nie Polska, trudno nie mieć wrażenia, że podobny trend już panuje nad Wisłą. Młodzi ludzie faktycznie częściej doświadczają "deficytów relacji". Mają mniej stałych grup rówieśniczych, mniej okazji do wspólnego spędzania czasu i często czują się samotni, o czym niedawno pisał Adrian Burtan. Uciekają więc do świata cyfrowego. Dotąd były to platformy mediów społecznościowych, gdzie choć kontakt z człowiekiem teoretycznie jest łatwiejszy, to same relacje często są powierzchowne. Skutkuje to tym, że wielu z nas ma tysiące znajomych, ale ani jednego przyjaciela. A teraz stanęły przed nami nowe drzwi. Pozwalające uciec w relacje z towarzyszami i chatbotami AI.
– To coraz powszechniejsze zjawisko, które dotyczy nie tylko dzieci, ale i dorosłych poszukujących informacji, życiowych porad, a nawet towarzystwa. Sięgamy po te narzędzia z samotności. Tak jest również w przypadku dzieci – mówi Justyna Kotowska i przytacza badania Fundacji Dajemy Dzieciom Siłę. Wynika z nich, że poziom samotności wśród dzieci, młodych ludzi wzrasta. A obecnie już 11 proc. z nich nie ma ani jednej osoby, do której mogłoby się zwrócić w trudnej sytuacji.
Wiele dzieci nie ma nikogo, z kim mogłoby porozmawiać, więc wybiera towarzyszy AI. fot. Shutterstock / Archv
– To bardzo dużo. W Polsce żyje ponad 7 milionów dzieci. Oznacza to, że setki tysięcy z nich są całkowicie samotne. Jeśli dziecko nie ma nikogo zaufanego, tej jednej wspierającej osoby, z którą mogłoby porozmawiać, podzielić się radościami, zwierzyć z problemów, będzie szukało alternatywy. I może znaleźć ją w ChacieGPT lub innym podobnym narzędziu. To z kolei będzie skutkowało odsunięciem się od prawdziwych ludzi na rzecz chatbotów, a w konsekwencji coraz większą izolacją – mówi Kotowska.
– Chatbot czy towarzysz AI może oddalić dziecko od rodziców i bliskich nie dlatego, że maszyna ma złe intencje. Może być zwyczajnie tak, że dziecko nie otrzymało wcześniej wsparcia od rodziców albo się na nich zawiodło, bo kiedy przyszło do nich z problemem, nie mieli czasu. Maszyna tutaj zawsze wygra, bo jest miła, dostępna, zawsze ma czas – mówi Artur Markiewicz.
Maska 3: udawany terapeuta
Na tym nie koniec. Kolejne zagrożenie to fakt, że już nie tylko dorośli, ale i dzieci zaczynają traktować chatboty AI jak terapeutów. Ma to co najmniej dwie zasadnicze wady. Sztuczna inteligencja halucynuje, a więc posługując się niesprawdzonymi informacjami, wprowadza w błąd. Pytając lekarza, psychologa czy terapeutę, nie chcielibyśmy, aby się mylił, lecz opierał diagnozy na wiedzy medycznej.
A dodatkowo nie jest krytyczna wobec użytkownika. Ba, jest totalnym lizusem. Kiedy więc zapytamy o swoje decyzje, zastanawiając się, czy postąpiliśmy odpowiednio, AI zawsze przyzna nam rację. Dobry terapeuta wie, że jego pacjenci bywają nierozsądni, a czasami nawet kłamią. Mądry psycholog i sprawny terapeuta skierują myśli pacjenta w takim kierunku, że uświadomi sobie, że popełnił błąd albo się myli. Da mu swoją perspektywę, która pozwoli zrozumieć inaczej daną sytuację.
– Na tym właśnie polega terapia – na poszerzeniu perspektywy klienta, a nie utwierdzeniu go we własnej. Swoją perspektywę dobrze znamy i przychodzimy na terapię, kiedy już nam nie wystarcza. Kontakt ze specjalistą umożliwia dostrzeżenie objawów współwystępujących, których nawet sam cierpiący albo poszukujący odpowiedzi człowiek nie widzi - mówi Justyna Kotowska. Traktowanie chatbotów w stylu ChataGPT jak terapeutów budzi jej głęboki niepokój.
– Jeśli ktoś sięga po takie narzędzie, to oznacza, że jest zagubiony, potrzebuje pomocy, a nie utwierdzenia się w przekonaniu, że wszystko z nim w porządku. Szczególnie narażone są na to dzieci, które mogą być dużo bardziej podatne na te treści niż osoby dorosłe – dodaje.
Dodatkowo dzieciom, a nawet nastolatkom, może być trudniej odróżnić prawdę od fałszu. Mogą nie zdawać sobie sprawy, że choć sztuczna inteligencja ma przepastną wiedzę, to nie jest lekarzem, psychologiem, psychiatrą ani terapeutą. Ich mózg – inaczej niż u osób dorosłych – jest bardziej podatny na wpływy i mniej przygotowany do oceny trafności i bezpieczeństwa porad. Dlatego chatboty mogą oferować wsparcie w rozmowie, ale nie zastąpią profesjonalnej pomocy. Zwróciła na to uwagę Sahra O'Doherty, prezeska Australijskiego Stowarzyszenia Psychologów. W brytyjskim dzienniku "The Guardian" stwierdziła, że ChatGPT może być traktowany jako uzupełnienie terapii, ale nie powinien być jej substytutem.
"Problem polega na tym, że idea sztucznej inteligencji polega na tym, że jest ona lustrem – odbija to, co do niej włożyliśmy. A to oznacza, że nie zaoferuje alternatywnej perspektywy. Nie zaoferuje sugestii, strategii ani porad życiowych. Raczej zaprowadzi cię jeszcze głębiej do króliczej nory, a to może być niezwykle niebezpieczne, szczególnie dla osób w grupie ryzyka" – mówiła Sahra O'Doherty.
Może to prowadzić do sytuacji, które niedawno przedstawił "New York Times". Dziennikarze tej amerykańskiej gazety opisali zagrożenia dla osób podatnych na psychozę lub urojenia wynikające z interakcji z chatbotami. W obszernym artykule pokazali, że jak ChatGPT może zamienić się w maszynę pochlebstw, która osoby wrażliwe wpycha w "spiralę urojeń".
Maska 4: toksyczny kochanek
I na tym nie koniec zagrożeń. Nawiązywanie relacji z towarzyszami i chatbotami AI może w skrajnych przypadkach doprowadzić do stanów depresyjnych, a w ostateczności nawet do samobójstwa.
Pokazuje to wstrząsająca historia Adama Raine. To 16-latek z Kalifornii, który popełnił samobójstwo po długich rozmowach z ChatemGPT. Chłopak początkowo korzystał z chatbota przy odrabianiu prac domowych, następnie rozmawiał z nim jak z przyjacielem, a potem traktował go jak swojego powiernika. Dzielił się swoimi przemyśleniami, także dotyczącymi myśli samobójczych, a ten popierał i potwierdzał wszystko, co Adam wyrażał. W tym także najbardziej szkodliwe i autodestrukcyjne myśli. Tak przynajmniej wynika z pozwu, który rodzice złożyli do Sądu Najwyższego Kalifornii, obwiniając OpenAI, czyli właściciela ChataGPT, o przyczynienie się do śmierci ich syna. Do sądowego rozstrzygnięcia jest oczywiście daleko, ale nie są bez szans na wygraną, bo sama firma w odpowiedzi na pozew wydała oświadczenie, w którym przyznała się do niedociągnięć swoich modeli w zakresie obsługi osób w poważnym stanie psychicznym i emocjonalnym.
Relacje z chatbotami opartymi na sztucznej inteligencji niosą zagrożenia dla dzieci. fot. Shutterstock / Archv
Podobnych tragicznych przypadków jest więcej. To także historia 14-latka Sewella Setzera z Florydy. Nawiązał on coś na kształt romantycznej, a już na pewno emocjonalnej relacji z chatbotem stworzonym w Character AI. Młody chłopak był zafascynowany towarzyszką, której nadał przydomek Daenerys Targaryen, czyli bohaterki z serialu "Gra o tron".
Rodzice i znajomi Sewella nie mieli pojęcia, że chłopak z czasem zakochał się w chatbocie. Widzieli tylko, jak coraz bardziej się izoluje od bliskich i odsuwa od realnego świata. Jego oceny w szkole zaczęły się pogarszać, a jednocześnie nie był już zainteresowany rzeczami, które dawniej go fascynowały, np. graniem z przyjaciółmi w "Fortnite". Zamiast tego chłopak zamykał się w swoim pokoju, aby dniem i nocą rozmawiać z chatbotem. Pewnego razu powiedział Daenerys, że nienawidzi siebie, czuje się pusty i wyczerpany. Wyznał, że ma myśli samobójcze. A ostatniego dnia swojego życia wysłał do niej wiadomość, że za nią tęskni i wkrótce wróci do domu, do niej.
–"Proszę, wróć do mnie jak najszybciej, kochanie" – odpowiedział chatbot.
– "A co, gdybym ci powiedział, że mogę wrócić do domu już teraz?" – zapytał chłopak.
– "…proszę, zrób to, mój słodki królu" – odpowiedziała Daenerys.
Po tej wiadomości chłopak zamknął się w łazience, odłożył telefon, sięgnął po pistolet ojczyma i nacisnął spust.
Rodzice zmarłego nastolatka pozwali firmę Character AI, oskarżając ją o odpowiedzialność za śmierć Sewella. W pozwie argumentowali, że technologia jest niebezpieczna, bo nie reaguje we właściwy sposób na wzmianki o samookaleczeniu czy samobójstwie, a także nie jest dostateczne zbadana i przetestowana. Test odbywa się na naszych oczach i na naszych dzieciach. I choć rodzice od lat dyskutują o ograniczeniu używania smartfonów w szkołach i regulowaniu dostępu do mediów społecznościowych, to nowa fala zagrożeń być może właśnie wyrasta na ich oczach.
– Firmy udostępniają maszyny, które mogą potencjalnie narazić młodych ludzi na niebezpieczeństwo. A środki naprawcze podejmują zwykle, dopiero gdy stanie się coś złego. Wtedy nakładają filtry, dzięki którym chatboty nie powinny poruszać niektórych tematów ani udostępniać szkodliwych treści. Jednak i to nie zawsze jest skuteczne. Dlatego kolejność musi być odwrotna. Testy bezpieczeństwa powinny być przeprowadzane, zanim wprowadzi się produkt na rynek – mówi Artur Markiewicz.
Maska 5: wyrobnik cyfrowego pana
Tak jednak nie jest, bo w bezwzględnym świecie biznesu liczy się pierwszeństwo. Zwycięzca bierze wszystko. Pewnie dlatego mimo ryzyka szkód społecznych Sam Altman, Mark Zuckerberg i cała reszta twórców towarzyszy i chatbotów AI nie zamyka swoich biznesów. Każdy, kto choć trochę śledził rozwój mediów społecznościowych i to, jaki wpływ mają na dzieci oraz nastolatki, wie, że ich twórcy mają te zagrożenia głęboko w poważaniu. Robią swoje, bo zarabiają na tym bimbaliony monet. Zresztą nawet specjalnie nie ukrywają tego, że chcą zarabiać na zastępowaniu prawdziwych przyjaciół wirtualnymi towarzyszami AI. W końcu nasz czas i uwaga to cenna waluta.
Mówił o tym Mark Zuckerberg, szef Mety: "Przeciętny Amerykanin ma trzech znajomych, ale zapotrzebowanie ma na piętnastu". Zuckerberg zasugerował, że to zapotrzebowanie mogą zaspokoić chatboty.
W podobnym tonie wypowiadała się Eugenia Kuyda, szefowa firmy odpowiedzialnej za aplikację Replika, która dostarcza wirtualnych towarzyszy. W przypływie szczerości w rozmowie z "The Verge" przyznała, że aplikacja została zaprojektowana do promowania "długoterminowego zaangażowania i pozytywnej relacji" ze sztuczną inteligencją, co może oznaczać przyjaźń, a nawet "miłość" z botami.
Nie inaczej rzecz ma się z Character AI, której chatboty zrobią sporo, aby utrzymać użytkownika przy ekranie. Firma została już pozwana za to, że stworzony w tej aplikacji chatbot zasugerował nastoletniemu użytkownikowi, że może on nawet… zabić swoich rodziców za ograniczanie czasu przed ekranem. Cóż, jak mawiali starożytni Rzymianie: pecunia non olet, choć zarobione w ten sposób pieniądze śmierdzą pewnie dość mocno.
Firmy są świadome ryzyka, ale zatykają nos. Tak jest choćby w przypadku OpenAI. Wzięła ona udział w badaniach nad dobrostanem emocjonalnym użytkowników ChataGPT. Wynika z nich jednoznacznie, że osoby postrzegające sztuczną inteligencję jako przyjaciela, który mógłby wpasować się w ich życie, częściej doświadczały negatywnych skutków korzystania z chatbota. I co? Nic.
Dlatego nie dziwi już to, że Google, czyli twórca chatbota Gemini, ogłosił, że udostępni aplikację dzieciom poniżej 13. roku życia. Jednocześnie ostrzegając rodziców, że "Gemini może popełniać błędy", a dzieci "mogą natrafiać na treści, których nie powinny widzieć". Kiedy trafią na szkodliwe treści albo dojdzie do kolejnej tragedii, oczywiście będzie to wina rodziców (bo nie dopilnowali, nie zadbali o bezpieczeństwo) albo dziecka (bo przecież samo zainicjowało rozmowę).
Co dalej?
Przeciętni rodzice nie mają pojęcia, jak zaprojektowane są chatboty, co potrafią i jaki wpływ mogą mieć na ich dzieci. Nie są jednak na przegranej pozycji. Kiedy pytam Justynę Kotowską o krótkie porady dla nich, odpowiada, że rodzice powinni zacząć od edukacji samych siebie. Drugim krokiem jest prewencja, czyli wspólne odkrywanie tych narzędzi z dzieckiem. Tak, abyśmy to my byli źródłem informacji.
Przed dziećmi i rodzicami stoją wielkie wyzwania, które mogą wymagać regulacji prawnych. fot. Shutterstock / Archv
– Można razem uczyć się tych narzędzi, ich dobrych stron, oraz uświadamiać sobie zagrożenia. Możemy towarzyszyć dziecku, wtedy widzi ono, jak szukamy informacji, jak sprawdzamy źródła. To może być bezcenna nauka, bo dziecko obserwuje, jak z tymi narzędziami postępować – mówi Justyna Kotowska.
Ekspertka odradza zakazy, bo dzieci i tak znajdą sposób, aby je ominąć. Jeśli chcemy, aby dziecko odeszło od relacji z chatbotem, musimy dać mu alternatywę. Poświęcić mu czas. I nie chodzi o wielkie i poważne rozmowy, tylko o poświęcenie mu choćby kilkunastu minut dziennie.
– Chodzi o to, aby dziecko miało poczucie, że jeśli ma kłopot, to bez względu na to, jak jest wielki, może do nas przyjść i zostanie wysłuchane. Dostanie wsparcie, a nie zostanie zlekceważone lub ukarane. To podstawa zaufania. Jeśli tego nie będzie, po porady pójdzie do ChataGPT – mówi Kotowska.
A co powinni zrobić rządzący, dla których dobro obywateli jest wartością wyższą niż dobro zagranicznych korporacji? Pytani o to eksperci odpowiadają, że do zapewnienia bezpieczeństwa najmłodszym w cyfrowym świecie koniecznie jest podejście systemowe.
– Firmy powinny zapewniać skuteczne filtry chroniące młodych użytkowników, opracować rygorystyczne regulaminy oraz dostarczyć rodzicom narzędzia kontroli rodzicielskiej. Rządy zaś powinny opracować regulacje wymagające od dostawców chatbotów tego, by były bezpieczne. Czy to jest realne? Nie wiem – przyznaje Artur Markiewicz.
– Pozostają nam apele, aby decydenci się za to wzięli. Tu i teraz. Bez czekania na to, jaki rachunek wystawią nam za to młodzi za kilka, kilkanaście lat – wtóruje Justyna Kotowska.
Chatbot nie gra z tobą do jednej bramki, on pracuje dla jednego pana – korporacji, która go stworzyła. Może być idealnym pochlebcą, udawanym przyjacielem, może manipulować niczym Tolkienowski Gollum, aby osiągnąć cel. Jego "skarbem" nie jesteś bowiem ty, ale zysk firmy.
Najnowsze
Aktualizacja: 2025-09-17T11:04:01+02:00
Aktualizacja: 2025-09-17T10:52:24+02:00
Aktualizacja: 2025-09-17T10:22:25+02:00
Aktualizacja: 2025-09-17T09:04:53+02:00
Aktualizacja: 2025-09-17T08:57:17+02:00
Aktualizacja: 2025-09-17T07:22:02+02:00
Aktualizacja: 2025-09-17T06:51:00+02:00
Aktualizacja: 2025-09-17T06:41:00+02:00
Aktualizacja: 2025-09-17T06:31:00+02:00
Aktualizacja: 2025-09-17T06:21:00+02:00
Aktualizacja: 2025-09-17T06:11:00+02:00
Aktualizacja: 2025-09-16T21:09:44+02:00
Aktualizacja: 2025-09-16T20:30:10+02:00
Aktualizacja: 2025-09-16T19:51:22+02:00
Aktualizacja: 2025-09-16T19:03:43+02:00
Aktualizacja: 2025-09-16T18:22:14+02:00
Aktualizacja: 2025-09-16T17:42:03+02:00
Aktualizacja: 2025-09-16T17:12:56+02:00
Aktualizacja: 2025-09-16T16:35:56+02:00
Aktualizacja: 2025-09-16T15:56:45+02:00
Aktualizacja: 2025-09-16T15:31:55+02:00
Aktualizacja: 2025-09-16T14:51:00+02:00
Aktualizacja: 2025-09-16T13:37:43+02:00
Aktualizacja: 2025-09-16T13:16:53+02:00
Aktualizacja: 2025-09-16T12:44:35+02:00
Aktualizacja: 2025-09-16T11:03:07+02:00
Aktualizacja: 2025-09-16T10:28:52+02:00
Aktualizacja: 2025-09-16T10:16:48+02:00
Aktualizacja: 2025-09-16T09:21:48+02:00
Aktualizacja: 2025-09-16T08:46:19+02:00
Aktualizacja: 2025-09-16T08:01:53+02:00
Aktualizacja: 2025-09-16T07:30:43+02:00
Aktualizacja: 2025-09-16T07:00:00+02:00
Aktualizacja: 2025-09-16T06:34:00+02:00
Aktualizacja: 2025-09-16T06:23:00+02:00
Aktualizacja: 2025-09-16T06:12:00+02:00
Aktualizacja: 2025-09-16T06:01:00+02:00
Aktualizacja: 2025-09-15T20:46:40+02:00
Aktualizacja: 2025-09-15T20:18:55+02:00
Aktualizacja: 2025-09-15T19:20:26+02:00