Pomyje ejaj zalewają sieć. W bagnie martwego internetu zaraz zostaną same boty 

Jeszcze wczoraj, gdy kładliśmy się spać, internet należał do nas. Patrzyliśmy na niego z zachwytem. Dziś scrollujemy w ciszy, konsumując pozornie ludzkie słowa, dźwięki i obrazy, za którymi nie stoi żadna myśl ani serce. To tylko echo algorytmu, który nauczono naśladowania człowieka. 

Pomyje ejaj zalewają sieć. W bagnie Martwego Internetu zaraz zostaną same boty 

Warszawa, godzina 5.46.

W pokoju pełnym sprzętu komputerowego panuje cisza. Nagle jedna ze skrzynek zaczyna szumieć. To bot monitorujący wychwytuje alert: "Nowy komunikat rządu. Potencjalnie istotny". Bot analizator skanuje treść wiadomości z oficjalnego kanału RSS, zarządzanego przez inny program tworzący i wysyłający komunikaty. W ciągu 0,6 sekundy przetwarza go i przesyła AI odpowiedzialnej za dopasowanie języka publikacji do aktualnych nastrojów społecznych. Algorytm wybiera ton lekko sensacyjny, ale ostrożny, z naciskiem na aspekt technologiczny. Informacja trafia do modelu językowego, który tworzy artykuł długi na kilka tysięcy znaków. Jego tytuł, wygenerowany automatycznie, brzmi: "Nowy Zielony Ład? Rząd podjął decyzję ws. zmian klimatu!". 

Program sprawdza, gdzie warto opublikować tekst, żeby zdobyć potencjalnie największe zasięgi. Treść trafia na główny portal ogólnopolski, kilka portali regionalnych, dwa feedy anglojęzyczne, dziewięć kont w social mediach i platformę B2B. Komentarze? Boty opiniotwórcze, szkolone na danych demograficznych i psychograficznych, już działają. Pierwsza reakcja: "W końcu coś konkretnego. Mam tylko nadzieję, że to nie kolejne puste słowa".

Kolejna: "Poważnie? Dość już tych zielonych kłamstw, won!". Trzecia: “Nie dla Zielonego Ładu #polexit”. Ta ostatnia zostaje najwyżej oceniona przez moderatora AI, więc jest promowana. Inne boty podchwytują ton wypowiedzi i rozpoczynają symulowaną dyskusję. Być może później dołączą do niej nieliczni prawdziwi ludzie, nieświadomi, że rozmawiają i wdają się w kłótnie z maszynami. 

Całość trwa niecałe 10 minut. W tym czasie żaden człowiek nie dotknął nawet klawiatury.

Parę lat temu mógłby to być zarys scenariusza odcinka "Black Mirror". Ale tak jak nowe serie produkcji Netflixa, tak i dystopijne wizje tego typu nie robią już na nikim wrażenia. 

"Przecież to już się dzieje" – reagujemy, wzruszając ramionami. To prawda, rzeczywistość dogoniła mroczne fantazje. Pozostaje jednak pytanie: co dalej? Skoro twórcy "Czarnego lustra" nie dowożą satysfakcjonująco upiornych opowieści o przyszłości świata ludzi, to prawdziwie przerażającą (i prawdziwą) wizję przedstawię ja. 

Ptasiek*

Ptaki nie istnieją. Uwierz mi. To tak naprawdę rządowe drony wyposażone w kamery używane do obserwowania nas każdego dnia. Myślisz, że drozd siada na gałązce przy twoim oknie, śpiewając wesoło? To robot, który ogląda cię i przesyła na bieżąco informacje do centrali. Jedzenie, którym go dokarmiasz, zabiera, by służby mogły bez przeszkód pobrać twoje DNA.

Chwila, co?

Cofnijmy się na moment do roku 2017. Twórca filmowy i satyryk Peter McIndoe bierze udział w Marszu Kobiet w Memphis, w stanie Tennessee. Zwraca uwagę na absurdalne jego zdaniem kontrmanifestacje zwolenników Donalda Trumpa, mające się nijak do postulatów organizatorek marszu. Wtedy rodzi się pomysł założenia ruchu "Birds Aren’t Real", satyry na zwolenników teorii spiskowych skupionej wokół narracji stworzonej przez samego założyciela. Poznaliście ją przed chwilą. 

Jak to się ma do opowieści o przyszłości internetu? To, co dla McIndoe było żartem, dla nas powoli staje się rzeczywistością. Z tą różnicą, oczywiście, że nie mówimy o ptakach, ale o użytkownikach sieci.

W styczniu tego roku imperium Marka Zuckerberga obwieściło światu za pośrednictwem Connora Hayesa o planach rozszerzenia aktywności nie-ludzkich użytkowników, czyli kont zarządzanych przez AI. 

"Oczekujemy tak naprawdę, że te AI z czasem zaistnieją na naszych platformach w podobny sposób jak normalne konta" — powiedział Hayes w styczniowej rozmowie z "Financial Times".  

— Już to dostrzegam i obawiam się, że nie doszacowujemy skali problemu — mówi dr Krzysztof M. Maj, twórca internetowy i adiunkt w Katedrze Technologii Informacyjnych i Mediów Wydziału Humanistycznego AGH. 

— Na każde tysiąc komentarzy na moim kanale (na YouTube - przyp. red.) przynajmniej sto rozpoznaję jako jawne treści wygenerowane przez AI, a co do dalszych 100 mam podejrzenia. Choć może być to wina polskiego systemu edukacji, który robi z ludzi maszyny nieodróżnialne od prymitywnego oprogramowania — wyjaśnia.

— Jeszcze gorzej jest w produktach społecznościopodobnych Mety. Tam co najmniej 40-50 procent komentarzy i interakcji, które widzę, wzbudza takie podejrzenia. To dość istotne spostrzeżenie wobec faktu, że sama Meta ubolewała nad systematycznym odpływem użytkowników i spadkiem ich aktywności. Widać to bardzo na fanpage'ach, co nie dziwi o tyle, iż większość ludzi przeniosła się do grup dyskusyjnych i konwersacji na Messengerze — dodaje. 

Rozmowy z przyjaciółmi

Eksperymenty z użytkownikami AI w swoich usługach firma z Menlo Park podjęła około dwóch lat temu. Ich owocem było między innymi konto Liv, “dumnej czarnoskórej queer mamy dwojga i krzewicielki prawdy” czy kołcza dla par, Cartera

Rozmowy z nimi szybko wymykały się spod kontroli, kiedy użytkownicy zaczynali zadawać niewygodne pytania. Karen Attiah z "The Washington Post" dowiedziała się na przykład od Liv, że jej persona powstała bez jakiegokolwiek udziału osób czarnoskórych, kobiet czy przedstawicieli mniejszości seksualnych. “Dość rażące pominięcie, biorąc pod uwagę moją tożsamość” – skomentował ten fakt… sam bot. 

Co więcej, prototypowych profili AI nie można było zablokować ani usunąć ze znajomych, gdy raz się je dodało. Liz Sweeney, rzeczniczka Mety, tłumaczyła to błędem systemu.

– Boty AI można bardzo łatwo rozpoznać – uważa Krzysztof M. Maj. 

– Po pierwsze, same toczą ze sobą konwersację szybciej, niż są to w stanie robić ludzie, nawet ci bardzo aktywni na Twitterze, a to sztuka. Rekordowo miałem wątek na 80 odpowiedzi w ciągu kilkunastu sekund, oczywiście dotyczył superokazji bitcoinowej. Po drugie, na YouTube długa jest tradycja jurnych seksbotów, ponieważ rewolucja technologiczna zawsze musi się rozgrywać najpierw w przemyśle zbrojeniowym i pornograficznym. Boty te zazwyczaj wrzucają kilkanaście dwuznacznych emoji i link do Only Fans. Po trzecie, są to boty wykupowane przez innych użytkowników platformy i spamujące tymi samymi wiadomościami, więc też dziecinnie łatwo się je filtruje, gdy człowiek już rozpozna wzorzec – wyjaśnia badacz.

Kluczowa w tej wypowiedzi jest część ostatnia: gdy człowiek rozpozna wzorzec. No i gdy w ogóle wie o istnieniu botów. Specjaliści, osoby świadome tego, jak działają nowe media, może i nie mają problemu z rozpoznaniem śladów AI w socialach. Gorzej z resztą, czyli większością.

AI z czasem zaistnieją na naszych platformach w podobny sposób jak normalne konta.

Ludzie nie radzą sobie z botami. Do takiego wniosku doszli badacze z Uniwersytetu Notre Dame. 

W swoim badaniu dowiedli, że większość użytkowników nie potrafi odróżnić kont sterowanych przez AI od tych, za którymi stoją ludzie. Badanie przeprowadzone przez zespół z Uniwersytetu Yonsei w Seulu wykazało zaś, że treści wygenerowane przez konta AI w social mediach są dla większości bardziej atrakcyjne aniżeli te tworzone przez człowieka. Część internautów nie rozumie tego, że ma do czynienia z botem nawet wtedy, gdy konta opatrzone są wprost informacją o byciu wytworem sztucznej inteligencji. Nie wspominając o tych, które takiej adnotacji nie posiadają. 

Zaraz po komunikacie Connora Hayesa dyskusja o podkręcaniu aktywności sztucznych userów przybrała na sile. Pod wpływem krytyki i wątpliwości Meta szybko porzuciła plany. Oficjalnie. Rodzą się podejrzenia, że firma dała niejako zielone światło do tego, by otworzyć tamę, przez którą Facebooka i Instagrama zaleje mrowie kont AI. I nikt nie będzie się bawił w etykietowanie ich w jakikolwiek sposób.

Zapytałem oddział prasowy firmy o to, czy i w jakim zakresie planuje wprowadzać profile prowadzone przez AI oraz w jaki sposób ma zamiar je oznaczać. Nie liczyłem na zbyt wiele i tyle właśnie otrzymałem: całe nic. 

– Nieoznaczenie aktorów AI jest zwykłym oszustwem, które może nosić znamiona przestępstwa w sytuacji, gdy namawiają one do hazardu czy jakichkolwiek nieetycznych zachowań – uważa Krzysztof M. Maj. 

– Jeśli nie zaczniemy tego robić teraz, póki jeszcze wyglądają one naiwnie i niewinnie, będziemy mieć potężne problemy za moment – podkreśla. 

Martwe dusze

Mentalnie jesteśmy jeszcze w czasach, gdy internet pachniał ludźmi. Nic dziwnego, bo było to raptem kilka lat temu. Jakoś pomiędzy erą Grumpy Cata a memami z "Gry o tron". Gdy nikt właściwie nie wiedział, co i dlaczego stanie się nowym wiralem. Dziś internet nadal tak działa. Na pierwszy rzut oka wszystko wygląda jak zwykle. Ale to, co dzieje się pod powierzchnią, to już zupełnie inna opowieść, bo coraz częściej po drugiej stronie nie ma już nikogo.

"Dawna" sieć zaczyna przypominać starą pocztówkę z wakacji: piękną, sentymentalną i całkowicie martwą. W jej miejsce rodzi się nowa rzeczywistość, w której treści tworzą maszyny dla maszyn, a człowiek staje się biernym obserwatorem.

Niektórzy symboliczną śmierć globalnej sieci wieszczyli już na początku XXI wieku, wraz z nadejściem Web 2.0 Były to jednak nieliczne głosy, które rozmyły się gdzieś w odmętach najnowszej historii. Obecnie niepokojące, defetystyczne komentarze przybierają na sile. 

"Internet to teraz istny bajzel. (...) sztuczki SEO i uczenie maszynowe zniszczyły silniki wyszukiwarek. Algorytm Google zaczął zjadać siebie samego: jeśli nie wiesz dokładnie, czego szukasz, nie potrafi ci pomóc, a nawet jeśli wiesz, to i tak spróbuje wcisnąć ci wszelkiego rodzaju niepowiązane bzdury, zanim to znajdziesz. Co więcej, Twittera opanowały spamboty, a Facebook stał się cmentarzyskiem pełnym wygenerowanego kontentu tworzonego na farmach lajków i komentarzy " – twierdziła dwa lata temu Rachel Cunliffe na łamach "The New Statesman", nie mając jeszcze pojęcia, że niedługo Google wprowadzi do wyszukiwarki swój model Gemini, który owszem, daje odpowiedź natychmiast, ale przeważnie są to kompletne bzdury. 

W krótkim czasie opinie w podobnym tonie zalały przestrzeń komentarzy. "To koniec internetu, jaki znamy", ostrzegają dziennikarze i eksperci. Diagnozy te potwierdzają liczby. Według autorów "Bad Bot Report" w 2022 roku prawie 50 procent ruchu w sieci generowała aktywność botów. Ich zdaniem pod koniec dekady sztuczna inteligencja będzie odpowiadać za 90 procent ruchu online.

Nie dziwi zatem fakt, że dominować zaczynają tezy, iż internet A.D. 2030 będzie przypominał wielkie pustkowie. Przestrzeń, w której generowane maszynowo treści będą konsumowane przez inne maszyny, a użytkownicy będą botami udającymi ludzi czytających posty innych botów udających ludzi.

Taki scenariusz to nic innego jak ziszczenie się założeń innej teorii spiskowej, tej o martwym internecie, wedle której większość treści i interakcji w sieci generowana jest przez sztuczną inteligencję. Latami czekała spokojnie na swój czas zamknięta w szufladzie z napisem "foliarstwo" po to, by objawić się w erze botów i zyskać rzeszę zwolenników, których przybywa w tempie lawinowym.   

– Po raz pierwszy (teoria - przyp. red.) zdobyła szerszą popularność w 2019 roku, kiedy pojawiła się na 4chanie – opowiada Mateusz Cholewa, koordynator ds. merytorycznych działu przeciwdziałania dezinformacji w Demagogu i niestrudzony tropiciel teorii spiskowych. 

– Jeden z użytkowników przekonywał, że już w 2007 roku nasze ulubione strony internetowe czy anonimy, z którymi wchodziliśmy w interakcje na różnych czatach, były wytworem sztucznej inteligencji. Dosyć odważne założenie, jeśli weźmiemy pod uwagę, że to rok, w którym dopiero pojawił się pierwszy iPhone, a AI była jeszcze pieśnią przyszłości – wyjaśnia. 

– Kiedy pisałem tekst o martwym internecie w styczniu 2024 roku, łatwo można było się natknąć na X na dyskusje, w których w długich wątkach trafiały się odpowiedzi zupełnie niezwiązane z pierwotnym postem – zauważa. 

– Kilka razy takie losowo generowane interakcje powodowały pojawianie się komentarzy o tym, że na tej platformie nie ma już prawdziwych ludzi, lecz tylko boty. Jeszcze wyraźniej podobne opinie wypłynęły, gdy Meta zapowiedziała zaimplementowanie kont prowadzonych przez sztuczną inteligencję na Facebooku czy Instagramie. Kiedy słyszysz to, co mówi Connor Hayes, który przecież jest w Mecie wiceprezesem ds. AI, od razu zaczynasz się zastanawiać, kiedy przestaniemy zauważać różnice pomiędzy botem a losowym Tomkiem z grupki dla miłośników burgerów – dodaje. 

Dziś sieć zalewa niskiej jakości kontent. "Nikt" nie tworzy, nikt nie potrzebuje.

Obcy

Skąd Meta bierze materiał, którym karmi swoje AI? Od ciebie. 

Z twoich postów, zdjęć, komentarzy, filmów i wszystkiego, co wrzucasz na fejsa czy insta. Zresztą nie jest to przypadek odosobniony. Każde oprogramowanie oparte na sztucznej inteligencji musi być trenowane na odpowiednio dużej bazie danych. Dopóki świat nie zaczął patrzeć uważnie, takie podmioty jak OpenAI bez skrupułów kradły ogromne ilości treści z dostępnych w sieci książek, artykułów, opracowań, galerii, blogów, a nawet napisów do filmów

Teraz, jak wyjaśnia Gosia Fraser, redaktorka naczelna projektu Techspresso.Cafe, dane z otwartego dostępu już się kończą, są złej jakości albo ich wykorzystanie coraz częściej wiąże się z problemami prawnymi, a więc i wizerunkowymi dla firm rozwijających AI. Dlatego potrzebują nas, byśmy dobrowolnie oddawali nasze dane.

– Nic prostszego – tłumaczy Fraser. 

– Wystarczy zaoferować konsumentom atrakcyjne z punktu widzenia trendów w social mediach usługi, a strumień danych, w tym także biometrycznych, popłynie sam. Widać to doskonale na przykładzie nieprzemyślanych, motywowanych owczym pędem decyzji o tym, aby generować wizerunki postaci zamkniętych w silikonowych blisterkach na podstawie własnych zdjęć, albo też cieszyć się, że z naruszeniem praw własności intelektualnej Studia Ghibli przerobiliśmy się na japońską kreskówkę – wyjaśnia.

To, o czym wspomina Fraser, to niedawny, budzący spore wątpliwości, hajp na przerabianie obrazów w charakterystycznym stylu wypracowanym przez zespół Hayao Miyazakiego, na które pozwala nowe wydanie GPT w wersji 4o, a także szał na publikowanie swoich zdjęć w wersji pudełka z lalką Barbie. W obu przypadkach, pomijając kontrowersje wokół praw autorskich i wykorzystania własności intelektualnej, wiele osób bezrefleksyjnie oddało swój wizerunek we władanie OpenAI.

Redaktorka jako inny przykład budzącej wątpliwości praktyki podaje kazus Ubisoftu. Jak podają przedstawiciele projektu Noyb, francuski gigant gamingowy zmusza graczy do łączenia się z siecią podczas grania, nawet gdy cała rozgrywka toczona jest offline (fani "Assassin’s Creed dobrze wiedzą, o co chodzi). Dzięki temu zbiera dane o zachowaniach swoich klientów, choć nie tłumaczy specjalnie, w jakim celu to robi, wyraźnie naruszając postanowienia General Data Protection Regulation, znanego u nas powszechnie jako RODO. 

Ogromne bazy informacji na nasz temat gromadzą również powszechnie używani asystenci oraz bardziej zaawansowani agenci AI, o których pisze Marek Szymaniak. Agenci to coś więcej niż Siri, Alexa czy Cortana. To częściowo autonomiczne systemy, które mogą podejmować działania samodzielnie podobnie jak marvelowski asystent Iron Mana, Jarvis, mroczny HAL 9000 od Kubricka czy uwielbiany przez dzieciaki lat 80. i 90. KITT z serialu Knight Rider. Nie oznacza to oczywiście, że te pierwsze nie gromadzą danych na temat użytkowników.

Ten trop prowadzi nas z powrotem do Mety, która w drugim kwartale 2025 roku z dumą zaprezentowała własnego asystenta AI, którego dodała do swoich wszystkich produktów. Meta AI oparty jest na rozwijanym od jakiegoś czasu modelu językowym Llama. Wytrenowano go ponoć na 15 bilionach jednostek danych "dostępnych publicznie". Czyli najpewniej tych, które użytkownicy udostępnili na swoich profilach. Kij w szprychy tej machiny wsadzili Europejczycy.

W czerwcu 2024 roku firma wstrzymała wykorzystywanie treści użytkowników do karmienia modelu na wniosek irlandzkiej Komisji Ochrony Danych. Pomimo iż wątpliwości dotyczące tego procesu nie zostały wyjaśnione, w kwietniu tego roku Meta ogłosiła powrót programu na Starym Kontynencie.

"Chcemy, by nasze AI ciężej pracowało dla Europejczyków" – czytamy w komunikacie opublikowanym 14 kwietnia 2025 roku. Wszystko dla naszego dobra.

Nawiasem mówiąc, Meta AI znalazła się na cenzurowanym z jeszcze innego powodu. Okazuje się, że część pytań zadawanych asystentowi trafia do wspólnego dostępnego publicznie feedu w zakładce Discover. Chciałeś zapytać o rozwód, toksycznego szefa, pracę, trądzik? Miło. Teraz twój prompt mogą zobaczyć wszyscy. Co prawda aplikacja nie poda nazwy twojego konta, ale jeśli zadałeś pytanie przez mikrofon, to twój głos trafi na ogólnie dostępną tablicę.

Podróż do kresu nocy

Wcześniej, przed ghiblizacją i barbizacją, mogliśmy zaobserwować w mediach społecznościowych, szczególnie na Facebooku, inny dziwaczny i mocno niepokojący trend. Nasze feedy zaroiły się od wygenerowanych grafik z podpisami osadzonymi w światopoglądowym kontekście, miękko acz wprost prowokującymi do reakcji. Obraz starszej pani siedzącej przed drewnianą chałupą, patrzącej smutnym wzrokiem w dal z tekstem: "Nikt nie chce ze mną rozmawiać, bo jestem ze wsi".

Uśmiechnięta rodzina przy skromnie zastawionym stole: "Bank odmówił nam kredytu. Powiedzieli, że mamy zbyt wiele dzieci. Ale my się tym nie przejmujemy, jesteśmy szczęśliwi". Atrakcyjna, półnaga kobieta w średnim wieku patrząca zalotnie na odbiorcę i rzekomo mówiąca: "Mąż zostawił mnie dla młodszej. Ale nie wie, co stracił". 

Redakcja serwisu Donald.pl, wywodzącego się z fanpejdża Polska w Dużych Dawkach, zamieściła w ramach ironicznego komentarza podobną grafikę z kobietą w piekarskim fartuchu z towarzyszącym jej w tle koniem stworzonym z chałki opatrzoną podpisem: "Ta kobieta upiekła chałkonia, ale nikt jej nie pogratulował".

Efekt? Post wyświetliło ponad milion kont, a pod nim pojawiła się litania komentarzy z gratulacjami.

Na tym nie koniec. Jak to bywa w dobie współczesnych sociali, obraz ukradł i opublikował ponownie fanpage spamujący wygenerowanymi postami podobnego typu. Wynik: trzy miliony reakcji, 210 tys. komentarzy, 100 tys. udostępnień i serduszko z konta samego… Marka Zuckerberga.

Treści tego sortu, nazywane "pomyjami AI" (w oryginalne “AI slop”), konsekwentnie i bezpardonowo wypierają kontent tworzony przez ludzi. Niskiej jakości “pomyje" generowane przez AI wypychają prawdziwych ludzi w całym internecie.

Ale zamiast regulować ten trend, platformy takie jak Facebook aktywnie go napędzają – pisze Arda Mahdawi z "The Guardian". Jak twierdzi autorka, platforma nie tylko podkręca zasięgi pomyj, ale także sama je produkuje.   

Oprócz obrazów mamy też oczywiście tekst. W ciągu zaledwie dwóch lat od momentu, gdy OpenAI oddała Chat GPT do powszechnego użytku, sieć opanowały serwisy-agregaty będące kadłubową, januszerską wersją prawdziwej redakcji, zalewającą infosferę wyplutymi maszynowo wpisami. Tekstowe chałkonie rażą w oczy tych, którzy pracują ze słowem pisanym na co dzień. Wokabularz i fraza rodem ze szkolnych rozprawek, rżnięte topornie akapity, śródtytuły z wielkich liter, wtykanie emotek, gdzie tylko się da, długie dywizy czy unikanie konkretnych przykładów i źródeł jak diabeł wody święconej. 

O zgrozo, po ten patent sięgają nie tylko mali gracze, lecz także duże portale z wypracowaną marką. Ludzie są nieopłacalni. Twórca potrzebuje czasu, pieniędzy, odpoczynku, może nawet herbaty. Potrafi się rozchorować albo wpada na inne durne pomysły, jak kontakt z rodziną i bliskimi. Generator potrzebuje tylko promptu.

Tak, jasne, GPT, Claude czy Perplexity są nieocenioną pomocą dla dziennikarzy, naukowców, marketerów, copywriterów i contentowców, chociażby pod kątem korekty albo inspiracji. Korzystamy z nich na co dzień i oby ułatwiały nam życie jak najdłużej. Ale tutaj mowa o czymś zupełnie innym. O całych medialnych cyberfarmach prowadzących w trybie instant do korozji infosfery, która może skończyć się implozją na miarę katastrofy klimatycznej. Prawdziwa podróż do kresu (nocy).

Sztuczna inteligencja, w przeciwieństwie do człowieka, to wdzięczny czytelnik i widz. Nie łapie się na baity, nie klika z ciekawości, wchodzi w treści tylko wtedy, gdy ma konkretny cel.

Bajki robotów

Potrafimy bez trudu wyobrazić sobie rzeczywistość, w której wszelka treść dostępna w obiegu medialnym jest generowana. Jedne boty produkują komunikaty, inne analizują trendy, jeszcze inne tworzą materiały, publikują je, rozprowadzają, filtrują, podbijają zasięgi, komentują. Jednak skoro mamy faktycznie wysnuć wizję przyszłości rodzącą obawy, musimy zamknąć krąg i dołożyć ostatniego puzzla, czyli odbiorców.

Już dziś istnieją strony oparte na idei content mill lub content pipeline ("młyn treści" lub "rurociąg treści"), które tworzą materiały dla AI. Na przykład po to, by zmylić boty Google'a. Teksty zapleczowe, których nikt nie czyta, ale które świetnie pozycjonują się w wyszukiwarce, podbijając wyniki witryny. 

W niedalekiej przyszłości może to działać mniej więcej w taki sposób: ktoś tworzy masowo generowane strony zapełniane dziesiątkami tysięcy artykułów dziennie, często bardzo podobnymi do siebie, bazującymi na danych z Wikipedii, Reddita, forów, Quory czy zapytań z Google Trends. Treści nie są pisane z myślą o człowieku. Ich celem jest zwabienie i ugłaskanie algorytmów. Mają wyglądać jak wartościowe treści SEO-friendly, ściągając ruch, dzięki czemu strona zostaje lepiej wypozycjonowana i może zacząć wyświetlać reklamy. One także nie muszą być dla ludzi. Wystarczy, że kliknie w nie inny bot symulator użytkownika (np. program do testowania kampanii, do zautomatyzowanego audytu zasięgów). Wtedy właściciel strony zarabia na kliknięciach, mimo że żaden człowiek nie zajrzał tam ani razu. 

Przy okazji inne roboty robią to, co wszystkie popularne generatory: przychodzą, kopiują treści (albo kradną), przepisują i publikują gdzie indziej. Serwisy medialne za pomocą łańcucha analizy RSS połączonej z Chatem GPT i Zapierem (z których korzystają już m.in. Bloomberg, Reuters czy Associated Press) automatycznie tworzą przekazy i newsy. Analizują na bieżąco trendy i sentymenty, czytając komunikaty RSS, przetwarzają je później w GPT (podsumowują, tłumaczą, redagują na nowo), by finalnie z pośrednictwem zautomatyzowanego workflow, jak Zapier, opublikować treść na stronie albo socialach. Znowu bez udziału człowieka.

Sztuczna inteligencja to wbrew pozorom wdzięczny czytelnik i widz. Nie łapie się na baity, nie klika z ciekawości, wchodzi w treści tylko wtedy, gdy ma konkretny cel, taki jak analiza trendów czy zasilenie własnej bazy danych. Czyta i ogląda wszystko od deski do deski, hurtowo, w jednej chwili. Nie doszukuje się błędów, nie wytyka nieścisłości, nie wymaga źródeł, nie dochodzi do sedna, skupiając się głównie na wzorcach, języku i tonie wypowiedzi. Nie interesuje jej estetyka, lecz wartość materiału w kontekście dalszej pracy. Co jeszcze lepsze: AI można zaprogramować tak, by celowo klikała w reklamy i zwiększała konwersję. Stabilnie i przewidywalnie, a to biznes lubi najbardziej.

Człowiek – wręcz przeciwnie – jest trudnym i wymagającym odbiorcą. Jest leniwy, kosztowny, wolny, przebodźcowany, zmęczony, nieuważny, a jednocześnie bywa krytyczny, emocjonalny. Trzeba tłumaczyć mu kontekst, wyjaśniać. Na końcu i tak przeczyta jedynie nagłówek, spuści parę w komentarzu niepowiązanym z sensem materiału, a reklamy zablokuje wtyczką z adblockiem. Dlatego powoli staje się mniej opłacalny. 

Zanim nasze kalendarze wskażą rok 2030, część big techów może dojść do wniosku, że optymalizacja kontentu pod inne AI spina budżet korzystniej aniżeli działania ukierunkowane na człowieka, który w takim układzie zostanie sprowadzony do roli odbiorcy końcowej wersji przefiltrowanych materiałów, konsumenta estetycznych benchmarków. 

Jeden internet – analityczny, szybki, maszynowy, właściwy – dla robotów, drugi – ładny, strawny, okrojony do niezbędnego minimum – dla ludzi. Przy czym ten ludzki również może się podzielić w duchu internetu dwóch prędkości, o których pisał Tomasz Markiewka, co zresztą widzimy już dzisiaj. Ci, którzy zapłacą, dostaną wysokiej jakości treści sporządzone przez ludzi. Biednym zostanie marny ochłap z generatora. Tania, szybka, masowa treść – jak jedzenie w dobie późnego kapitalizmu. 

– Przez to, jak ogromny jest zalew generowanej przez AI pulpy, już teraz rysuje się w internecie i w kulturze cyfrowej (ale nie tylko) podział, który będzie jedynie się pogłębiał – wyjaśnia Gosia Fraser. 

– Będziemy mieli internet dla szerokich kręgów zalany algorytmiczną papką, algorytmicznie generowane scenariusze seriali, algorytmicznie "komponowaną" muzykę, książki pisane przez czatboty. Z drugiej strony będą treści wysokiej jakości, bardzo drogie, przyszykowane przez ludzi i dla ludzi, tych, którzy szukają czegoś więcej, są skłonni za to zapłacić i mają kompetencje kulturowe, aby się tym cieszyć. Warto bowiem zaznaczyć, że wymagania odbiorcy karmionego pulpą AI obniżają się i treści tworzone przez człowieka dla człowieka wcale nie muszą być z jego punktu widzenia bardziej wartościowe — tłumaczy. 

A może oddanie kontroli nad siecią w ręce algorytmów to nie taki zły pomysł? Wszak niewątpliwie pomagają one dostosować, a nawet stworzyć treści medialne czy reklamy na miarę każdego użytkownika wedle naszych potrzeb oraz preferencji, a także usprawnić proces przeszukiwania wiadomości i zdobywania wiedzy.

– Takie ujęcie sprawy to dehumanizacja – uważa Fraser. 

– Ale to mnie akurat nie dziwi, bo świat cyfrowy dąży do odczłowieczenia, do odebrania człowiekowi indywidualności, relacyjności, osadzenia w rzeczywistości. Od nas zależy, czy na to pozwolimy. Życzyłabym sobie, aby jak najwięcej osób rozumiało, że optymalizacja, dostosowanie treści do odbiorcy i usprawnianie procesów to żargon, który stosują ci myślący o ludziach korzystających z usług cyfrowych jako o biomasie mającej prowadzić wyłącznie do wzrostu kapitalizacji rynkowej ich firm – dodaje. 

Wielkie odwrócenie

Mustafa Suleyman w książce "Nachodząca fala" porównuje AI do broni jądrowej. Obie mają ogromny destruktywny potencjał i obie raz wynalezione zostaną z nami, zdaniem Suleymana, już na zawsze, roztaczając złowieszczą groźbę i destabilizując życie społeczne samym swoim istnieniem. Jednak w odróżnieniu od bomb i rakiet sztuczna inteligencja nie potrzebuje państw, uranu ani laboratoriów. Wystarczy laptop i dostęp do API. I choć nie niszczy miast, to po cichu zasypuje infosferę niekończącą się falą danych, treści, głosów i obrazów, za którymi nie stoi nikt. 

Teoria o martwym internecie zakłada nadejście tak zwanego odwrócenia, czyli momentu, w którym nagromadzenie botów w sieci osiągnie taki poziom, a ich działalność stanie się tak powszechna, że to ludzka aktywność uchodzić będzie za niecodzienną i podejrzaną – opowiada z kolei Mateusz Cholewa. 

– Wydaje mi się, że strach o to, że już wkrótce roboty staną się tak powszechne w internecie, mógł służyć jako dopalacz do powstania tej teorii – wyjaśnia. 

Hegemonia podmiotów kontrolujących zamknięty przepływ treści za pośrednictwem sztucznej inteligencji to ostatni akt naszego scenariusza przyszłości. Dystopii rodem z "Cyberpunka". W tej wizji jedynie big techy poprzez narzędzia AI mają swobodny dostęp do aktualnej, surowej wersji danych, podczas gdy my, cyfrowy prekariat, dostajemy je w postaci okrojonej (chyba że, zupełnie jak w pierwszym odcinku nowego "Black Mirror", zapłacimy za kolejne poziomy pro, premium, ultra i platinum) i przyjemnej dla naszego aparatu poznawczego (chyba że zdecydujemy się na nieznośną wersję z reklamami). 

Kolektywne, ogólnodostępne bazy wiedzy w duchu wiki ustępują miejsca prywatnym silosom AI. Dane surowe z badań i analiz są schowane za paywallem. Asystenci AI, osobiste LLM-y, przestają wyświetlać pełne źródła, pokazują tylko wygenerowaną narrację. Ludzie nie wiedzą już, co jest cytatem, a co wytworzonym sztucznie tekstem. Co oryginałem, a co przerobionym obrazem. 

Większość treści w internecie jest generowana i konsumowana automatycznie. Media publikują w trybie light dla ludzi, gdzie lądują wyłącznie streszczenia z kolorowymi grafikami i clickbaitowymi tytułami oraz w trybie extended z pełnymi wersjami komunikatów z danymi, dokumentami, cytatami bez redakcji, wykresami w formacie .json dla modeli. Łańcuch komunikacji zaczyna się zawsze od tego drugiego - informacje trafiają najpierw do obiegu syntetycznego, dopiero po przefiltrowaniu do ludzkich odbiorców. 

Człowiek szukający informacji trafia na uproszczoną wersję wiedzy. Nie ma dostępu do pełnych źródeł, chyba że wykupi dostęp premium albo zażąda od swojego asystenta AI wersji surowej, choć nawet wtedy nie wiadomo, czy widzi prawdę, czy przetworzoną wersję faktów stworzoną przez inną AI. 

Mała Apokalipsa

To oczywiście potężna hiperbola uszyta w technopesymistycznych barwach. Czy brzmi paranoicznie? Pewnie. Tylko że nowoczesna paranoja nie nosi foliowej czapeczki, nie wbiega do pokoju z teoriami o jaszczuroludziach na ustach. Spaceruje spokojnie w garniturze anioła biznesu albo bluzie wyluzowanego startupowca, wyskakuje na LinkedInie jako błyskotliwy post kolejnego szamana AI, sunie z klasą na slajdach prezentacji marketingu B2B o modelach językowych. Przychodzi jako wygoda. Jako skalowalność. Jako KPI. To nie straszenie buntem maszyn rodem z "Terminatora" i przejęciem kontroli nad światem przez sfrustrowany Skynet. To stara, klasyczna opowieść o chciwości, optymalizacji i sprowadzaniu nas do roli cyferki w Excelu.

Na szczęście nie wszyscy eksperci kupują wizję cyfrowego świata zdominowanego przez algorytmy gadające do siebie nawzajem. Zamiast załamywać ręce i pisać nekrologi dla internetu ludzi, obierają kurs pod prąd. Starają się zaakceptować fakt rosnącego znaczenia sztucznej inteligencji i nauczyć się z nią żyć. Tak przecież robiliśmy ze wszystkimi skokami technologicznymi. I choć ten wydaje się wyjątkowo trudny, nie brakuje komentarzy o tym, że pogłoski o śmierci starej sieci są mocno przesadzone. 

Warto przytoczyć chociażby postulat wspomnianego Mustafy Suleymana, który do beczki dziegciu o nadchodzącej fali przemian dodaje łyżkę miodu. Jak twierdzi Suleyman, nie powinniśmy zastanawiać się nad tym, jak zatrzymać pochód nowej technologii, ale nauczyć się jak najszybciej budować świat dookoła niej. Jeszcze bardziej sceptyczny wobec apokaliptycznych wizji jest chociażby Gary Marcus, zdaniem którego hajp na AI jest o wiele większy, niż faktyczne znaczenie technologii.

– Obecne modele językowe są jak papugi przewidujące słowa, a nie myślące maszyny. Ich wpływ będzie duży, ale nie totalny, bo nadal brakuje im zdrowego rozsądku, kontekstu i celu – mówił podczas swojego wystąpienia w ramach Ted Talks w 2023 roku.

Do grona obrońców ludzkości (jakkolwiek to brzmi) należą również Ezra Klein czy Kevin Roose. Obaj zgodnie twierdzą, że ludzie będą w stanie spostrzec rosnącą dominację syntetycznej komunikacji i odwrócą się od niej, gdy stanie się zbyt sztuczna.  

Co więcej, jak pokazują inne badania, technologia, jaką znamy obecnie, ma sporo ułomności. Jak wskazuje Tor Constantino na łamach "Forbesa", w tym momencie AI nie jest w stanie stworzyć autonomicznego systemu komunikacji bez ciągłej pożywki w postaci ludzkich treści. Kiedy modele próbują uczyć się na danych syntetycznych, wygenerowanych przez inne AI, wpadają w spiralę halucynacji, "zabijają się po cichu" – pisze Constantino. Każda iteracja zawiera coraz większy wkład zmyślonej treści. Finalnie algorytm wypluwa rzeczy będące całkowicie produktem jego fantazji.  

Sztuczna inteligencja na razie nie może pozbyć się człowieka. Jest jej potrzebny jako tani "karmiciel".

Nowy, wspaniały świat

7.32 tego samego dnia. Ola, 21-letnia studentka, rozpoczyna dzień, leżąc w łóżku i przewijając TikToka.

Film numer 1: Dziewczyna z wielkimi oczami tańczy do retroremiksu Doja Cat. Tekst na ekranie: "POV: dowiedziałaś się, że AI właśnie znalazła ci chłopaka na podstawie danych ze Spotify". Ola zostawia serduszko. Nie wie, że twarz dziewczyny to wygenerowany deepfake, a choreografia powstała 14 minut temu na podstawie trendu w Tajlandii wykrytego przez AI.

Film numer 2:  "Kiedy GPT wybiera ci outfit na podstawie twoich zainteresowań". Na ekranie kobieca postać obraca się w kamerze. Ubrana jest w kompletnie niepasujące do siebie elementy garderoby: kolorowe klapki, spodnie bojówki, koszulkę z motywem z Fortnite’a i ciężki skórzany płaszcz. Film został wrzucony przez bot - kompilatora imitującego profil influencerki, która przestała publikować dwa lata temu. Ola śmieje się i scrolluje dalej.

Film numer 3: Chłopak w kapturze z zasłoniętą twarzą mówi do kamery: "Słuchajcie, właśnie wyszło, że rząd ukrywa dane o prawdziwej szkodliwości aut elektrycznych i chce to przykryć nowym Zielonym Ładem. Sprawdźcie to". Bohater to produkt silnika AI. Materiał powstał, bo bot monitorujący sentyment społeczności zauważył spadek zaangażowania w kontencie lifestylowym i zasugerował wrzucenie tematu z kategorii moral outrage. Hashtagi i reakcje? W pełni zautomatyzowane. Ola kompletnie nie zgadza się z tym przekazem. Pisze pełen złości komentarz. 

W tym czasie AI zapisuje jej aktywność, przetwarza reakcje, przekazuje je dalej do modelu predykcyjnego, który ustala, jakie treści zobaczy za 10 sekund. Aplikacja generuje kolejne klipy specjalnie dla niej, zanim skończy oglądać obecny. Jeszcze dwa filmiki i wstaje, by zebrać się na poranne zajęcia.

Ruch Birds Aren’t Real zaczął się jako satyra na teorie spiskowe. Okazało się jednak, że nie musimy niczego udawać. Jeśli weźmiemy na poważnie predykcje ekspertów i zapewnienia przedstawicieli gigantów technologicznych, niedługo większość aktywności w internecie zarządzana będzie przez sztuczną inteligencję. Bo to jest po prostu tańsze, szybsze, bardziej efektywne, bardziej przewidywalne i mniej awaryjne niż ludzie. 

Jeśli teraz śmiejesz się z teorii o ptakach-maszynach, popatrz jeszcze raz na swój feed w socialach. Ile z tych kont, komentarzy, postów, lajków to coś, co mógł napisać, przeżyć i zrozumieć tylko człowiek? A ile to automatyczna reakcja systemu, który wie, że cię zna, i wie, co potrzebujesz właśnie zobaczyć? 

Może ptaki faktycznie nie istnieją, ale boty i chałkonie, przynajmniej w sieci, już z pewnością tak.

*wszystkie śródtytuły to tytuły prawdziwych książek napisanych przez człowieka, które uchodzą za kanon literatury