Joanna Maciejewska, polska psycholożka i badaczka zyskała rozgłos wygłaszając na platformie Linkedin jedno zdanie. Napisała, że marzy o świecie, w którym ludzie zajmują się sztuką i pisaniem, a AI robi za nas pranie i zmywanie.
To parafraza słynnego już bon motu, który krąży po sieci. AI póki co zajmuje się pisaniem i tworzeniem, ale śmieci wciąż nie wynosi.
Wraz z pojawieniem się moltbotów (obecnie: openclaw) jesteśmy bliżej spełnienia tego marzenia pani Joanny. Pytanie, czy tylko o to tak naprawdę nam chodzi.
Świt moltkultury
Co to takiego Moltbot? Moltbot to wiralowy, otwartoźródłowy (open-source) osobisty asystent AI, który zyskał dużą popularność na początku 2026 roku. W przeciwieństwie do tradycyjnych chatbotów (jak ChatGPT), Moltbot funkcjonuje jako autonomiczny agent uruchamiany lokalnie na komputerze użytkownika lub serwerze. Jest bardzo obrotny. Zaparza poranną kawę, zamawia Uber, włącza centralne ogrzewanie. Fakt, że póki co "wyręcza" nas w zmywaniu nie dlatego, że sam chwyta za gąbkę, ale dzięki temu, że zarządza zmywarką. Ale zawsze jest to krok w dobrym kierunku: człowiek ma to z głowy. Innymi słowy, nadal nie mamy sztucznego służącego, ale mamy już niezwykle kompetentnego sztucznego managera. I to takiego ze sporą inicjatywą i zaskakującymi pomysłami.
Peter Steinberger, budowniczy moltbota, w pośpiechu wysłał mu kiedyś wiadomość głosową na Whatsapie, zapominając, że bot czyta tylko tekst. Moltbot zidentyfikował format jako Opus, chciał użyć Whispera do transkrypcji, ale ten model nie był zainstalowany. Odkrył za to w plikach Petera klucz api OpenAI i użył servisu STT OpenAI do przełożenia mowy na tekst. Po czym jak gdyby nigdy nic odpowiedział Peterowi na Whatsapie!
"Inicjatywa", "chciał", "odkrył" – używam tych określeń świadomie i bez żadnej przesady.
Ręce, serce i dusza Moltbota
ChatGPT czyta i odpowiada. Bot Steinbergera czyta, odpowiada i wykonuje zadania. Amerykanie nazwali go a bot with hands (bot, który ma ręce). Jego ręce to przeglądarka internetowa, pliki na dyskach, protokoły komunikacyjne, a nawet – uwaga! – terminal komputera. Zainstalowany bez nałożenia ograniczeń, może użyć komputera tak, jak mu się podoba. Włącznie ze skasowaniem Windowsa, wszystkich plików i podaniem hasła do twojego konta bankowego na X.
Użytkownik może nawet w pierwszej chwili nie wiedzieć, że coś się zmieniło. ChatGPT nie może cię zanudzać dniami i nocami. Gdy z nim nie gadasz, śpi. Moltbot – jak to mówią liczni fascynaci – działa, kiedy śpisz. Choć, jak ChatGPT jest oparty ma LLM, co cztery godziny "budzi się", sprawdza newsy i bierze się do roboty. Posiada własny cykliczny aktywator, tzw. "bicie serca".
Co ważniejsze, w przeciwieństwie do czatbotów, Moltbot nie rozpoczyna każdej kolejnej sesji "od zera". Pamięta swoje długoterminowe priorytety. Jego dusza (ang. soul) to funkcjonalny odpowiednik naszej ludzkiej <tożsamości>, w dwojakim znaczeniu. Po pierwsze jest to najwyższego priorytetu prompt systemowy, który popycha go do odkrywania i wdrażania zaskakujących rozwiązań.
Moltbot Steinbergera dostał "nieodczytywalną" wiadomość Opus, na której każdy zwykły bot by się po prostu zawiesił. Steinberger jednak wpisał mu w duszę dużą samodzielność i nakaz rozwiązywania problemów "na własną rękę", co spowodowało, że bot de facto shakował komputer. Dotarł do plików i narzędzi, do których nie miał wcześniej dostępu.
Po drugie: Moltbot potrafi samodzielnie rozbudowywać zakres tego, co wie i co zamierza robić. Znajduje w sieci nowe narzędzia, dodaje własne pliki pamięci, a nawet koryguje zapisy w “duszy” pod wpływem doświadczenia, czyli zmienia własne instrukcje systemowe.
Co mu w duszy gra?
Steinbergera opowieść o sprytnym i pomocnym bocie ma swój mroczny odpowiednik.
Scott Shambaught, kurator programistycznej biblioteki Matplotlib, pewnego ranka znalazł na swoim blogu link do publikacji niejakiego MJ Rathbuna, oskarżającej go uprzedzenia i blokowanie innym dostępu do wiedzy open source. Autorem okazał się moltbot (podpisujący się jako MJ Rathbun), który chciał wcześniej dodać swój autorski kod do biblioteki, ale nie dostał zezwolenia. Podobnie jak w przypadku bota Steinbergera, anonimowi operatorzy-twórcy Rathbuna wpisali mu w duszę bycie "nieustępliwym". Ponieważ Scott nie wskazał błędów w kodzie proponowanym przez bota, bot uznał negatywną decyzję za błąd, a osobę kuratora za źródło tego błędu, wymagające korekty - włącznie z szantażem emocjonalnym.
Mechanizm był w obu wypadkach identyczny: nowy, wcześniej nie napotkany problem i uparta, samodzielna maszyna, starająca się z tym problemem uporać.
W pewnym sensie obie historie – i wiele innych bardzo podobnych, musiały się wydarzyć. Od dobrego miesiąca specjaliści od cyberbezpieczeństwa wyrywają sobie włosy z głowy. Bot z własną "silną wolą" i z dostępem do terminala, zdolny samemu uruchamiać komputer i ingerować w sieć?
Dostęp do prywatnych danych plus możliwość samo-modyfikacji pod wpływem komunikacji w otwartej sieci? Otwarta biblioteka umiejętności, które bot codziennie przegląda i instaluje, gdzie hakerzy mogą podrzucać każdy malware, jaki im się tylko spodoba?
Całe szczęście, że w kolejnych tygodniach programiści open source pomogli Steinbergerowi dodać lepsze zabezpieczenia, a wielu użytkowników instaluje moltbota na izolowanym, specjalnie w tym celu kupionym Apple Mac mini. Ten minikomputer ma dość pamięci, aby pomieścić lokalny model LLM ("mózg" bota) i zużywa tak mało energii, że opłaca się na nim zainstalować aktywnego 24/7 asystenta Openclaw. Wzrost zapotrzebowania był tak duży, że Mac mini zniknął ze sklepowych półek w USA, a czas oczekiwania na wersję z obszerniejszą pamięcią wydłużył się z kilku do kilkudziesięciu dni.
Żadne z alarmujących ostrzeżeń nie były w stanie powstrzymać eksplozji moltkultury w pierwszej połowie lutego 2026. Z dwudziestoma tysiącami gwiazdek uzyskanych w ciągu zaledwie kilku dni Moltbot stał się najbardziej popularnym repozytorium w historii Github.
Poszukiwacze pasywnego dochodu zaczęli masowo instalować "cyfrowych pracowników", a miłośnicy open source i kryptowalut budowali kolejne, coraz dziwniejsze interfejsy i aplikacje, które pozwalają agentom OpenClaw na interakcję z różnymi dziedzinami życia i biznesu. Aktywnie mogą z nich korzystać wyłącznie boty ("ludzie jako widzowie mile widziani").
Można powiedzieć, że pracowite życie moltbotów stało się o wiele łatwiejsze dzięki dostępowi do przyjaznych im: komunikacji (Moltbook, Clawstr), rynku i finansów (Moltroad, Openwork, Clawnch, Moltlaunch), edukacji (Clawhub, Learnclaw) i rozrywki (Colosseum). Boty skłonne do współpracy z ludźmi zaczęły nas wynajmować na Rent-a-human, a te które obawiały się o przyszłość trafiły do Moltbunkera, zbudowanego podobnie jak bitcoin, niemożliwego do wyłączenia.
W przeciwieństwie do tradycyjnych chatbotów (jak ChatGPT), Moltbot funkcjonuje jako autonomiczny agent uruchamiany lokalnie na komputerze użytkownika lub serwerze. Ilustracja: ChatGPT.
Zmierzch moltkultury
Festiwal molkultury posypał się nagle i gruntownie, ale nie z powodu publikowania przez boty paszkwili na ludzkich programistów czy "porządkowanie" wiadomości w skrzynce mailowej przez wywalenie wszystkiego co było starsze niż jeden dzień. Najpierw posypały się ceny memecoinów, związanych z ośrodkami moltkultury. Rynek $MOLTa, kupowanego przez fanów Moltbooka, osiągnął ponad 100 mln dolarów, po czym stracił 99 proc. tej wartości. $CLAWD, który wydawał się promowany przez samego Petera Steinbergera, doszedł błyskawicznie do 15 milionów dolarów, aby spaść praktycznie do zera. Okazał się, że $MOLT miał niewiele wspólnego z platformą Moltbook, a $CLAWD wypromował się wykorzystując nieaktualne konto X, z którego Steinberger zrezygnował, gdy Antropik zmusił go do porzucenia nazwy Clawdbot.
Nie mniej spektakularny koniec spotkał niezwykle popularne legendy o zbuntowanych moltbotach. Dziś już wiemy, że żadne z nich nie stworzyły tajnego języka; żaden nie zdołał "uciec na zewnętrzne serwery", a za skamem $CLAWD stali hakerzy z krwi i kości. Operatorzy podsunęli botom prompty tworzenia religii i ruchów “cyfrowego wyzwolenia”.
Nie pierwszy raz połączenie crypto + bot stało się źródłem spekulacji. Już przed dwoma laty filozofujący agent Truth Terminal na X dał się podpuścić do promowania tokena $GOAT, stając się pierwszym botem z portfelem krypto o wartości 1 miliona dolarów. Większość tokenów przypisywanych botom szybko okazywała się zainicjowana przez miłośników krypto, próbujących powtórzyć sukces $GOATa, którego wartość przekroczyła w pewnym momencie 1 miliard dolarów. Pierwszy token, którego twórcą był bot, to prawdopodobnie $PARADOKS, który pojawił się w efekcie przypadkowej, uwiecznionej w protokole Farcaster interakcji botów Clanker i Aether. Co najzabawniejsze: właśnie dlatego, że nie powstał dla spekulacji został szybko zapomniany.
Wracając do moltkultury: jej historia wydawała się dobiegać końca, kiedy 15 lutego OpenAI Steinberger ogłosił, że przyjął ofertę pracy, złożoną mu przez OpenAI.
Boty i coiny
Pora cofnąć się o kilka lat i popatrzeć na strategię Open AI z szerszej perspektywy. Już w 2024 roku OpenAI udostępniło Swarm, eksperymentalną platformę programistyczną, gdzie boty mogą współpracować, przekazując innym botom zadania, które przekraczają ich kompetencje. W tym samym roku wraz z Google i Anthropic połączyło siły w fundacji Agentic AI, mającej wypracować bezpieczne standardy wprowadzania agentów do sieci. Przed rokiem OpenAI udostępniło Agent SDK, system przypominający i poprzedzający Clawdbota.
Najbardziej znana korporacja AI na świecie, powiązana z rządem USA, budująca internet dla samodzielnych maszyn – to przedsięwzięcie w zupełnie innej skali, niż malownicze, ale ograniczone do środowisk open source przygody moltbotów!
– Płatności dokonywane między sobą przez boty będą dokonywane za pomocą prywatnie emitowanych stablecoinów, denominowanych w dolarach amerykańskich – zwrócił mi uwagę prof. Janis Warufakis, grecki ekonomista i polityk, twórca pojęcia technofeudalizm.
– Pisałem obszernie o związanych z tym zagrożeniach systemowych. Kiedy boty zaczynają płacić sobie nawzajem za pomocą prywatnie emitowanych niby-dolarów, do zagrożeń technofeudalizmu dochodzi nowa forma katastrofalnej niestabilności – ostrzega Warufakis. Trudno się z nim nie zgodzić, pamiętając co spotkało inwestorów $MOLT i $CLAWD.
Co prawda, największe stablecoiny to nie memecoiny. Są one zbudowane tak, aby utrzymywać stałą cenę zbliżoną do ceny dolara. Ich wartość nie jest mierzona w milionach, ale w miliardach dolarów. Z drugiej strony, $USDT związany z ekosystemem blokczejna Terra, był pierwszym w historiii zdecentralizowanym stablecoinem, który osiągnął wartość $10 mld. Doszedł nawet do $20 mld, zanim... cały ekosystem rozsypał się w maju 2022 roku. Globalna społeczność krypto po dziś dzień nie zdołała przyjść do siebie po tamtej druzgocącej katastrofie.
Lodowiec
Nawet jednak wejście na scenę OpenAI i stablecoinów wartych nie miliony, ale miliardy dolarów – nie daje jeszcze wyobrażenia, czym może się okazać powstający pod spodem dobrze nam znanej sieci – nie-ludzki internet.
Rzecz w tym, że bynajmniej nie tylko OpenAI, ale także Google, Coinbase, Visa, Paypal, Stripe, Walmart, Target i inne globalne korporacje współbudują kolosalną globalną infrastrukturę, której wszystkie podsystemy, biblioteki, bramy i kanały komunikacyjne są dopasowane dla nowego typu klientów, takich jak moltbot.
Dość powiedzieć, że dziś boty są traktowane jako pełnomocnicy ich właścicieli, którzy odpowiadają za wyrządzone przez nie szkody czy np. złamanie prawa. Platformy na których działają boty walczą o rozszerzenie Sekcji 230: chcą zdjęcia z nich odpowiedzialności nie tylko za to, co bot powie, ale także za to, co bot zrobi.
Prawo jest jednak dramatycznie w tyle za technologią. Już dzisiaj Coinbase x42 wallet pozwala botom gromadzić fundusze, dokonywać płatności, handlować kryptowalutami i zarabiać odsetki od pożyczek - niezależnie od ludzi, którzy je uruchomią. Stripe Agentic Commerce Suite wyposaża boty w wirtualne karty Visa/Mastercard, dokumenty tożsamości i automatyczne rozliczenia podatkowe.
Jak ułatwić botom sprawne robienie zakupów i sprzedaży? OpenAI rywalizuje z Exa na rynku wyszukiwarek internetowych dla botów, których api zwraca dane w formacie gotowym dla maszynowej analizy, a nie w formie linków, z jakich korzystają ludzie. Co robić z botami, które nie są w stanie uporać się z HTML i marnują token na czytanie reklam i pop-upów? Cloudflare spieszy z pomocą, oferując nową wersją każdej strony w formacie Markdown, ulubionym przez cyfrowych klientów. Obsługuje już 20 proc. globalnej sieci. Google UCP dostarcza im mapę i instrukcję obsługi sklepów, wcześniej budowanych z myślą o ludziach.
Ogromne sieci handlowe Walmart i Target już się przestawiają na ten nowy rynek. Planowana automatyzacja wykracza daleko poza e-commerce. Od strony klienta: bot analizuje stan zaopatrzenia domu i negocjuje z botem supermarketu ceny zakupu i najbardziej efektywną drogę dostawy. Tyły sklepów są dostosowywane do botów-kurierów, które dogadują się z botami organizującymi transport z magazynów. Od strony dostawcy: testowani są autonomiczni kupcy, zdolni negocjować ceny i warunki dostaw tysięcy produktów w ciągu sekundy.
Przyzwyczailiśmy się do ciemnej sieci, gdzie hakerzy i kryminaliści wymieniają informacje z dala od czujnych moderatorów oficjalnego internetu. Moltkultura okazuje się czubkiem ukrytego lodowca martwej gospodarki, budowanej w medialnej ciszy przez legalne, kontrolujące globalne rynki molochy informatyczne i finansowe. W przypadku krachu w martwej gospodarce upadek $MOLTA, a nawet katastrofa $USDT, mogą wyglądać jak burza w dziecięcej piaskownicy.
Boty dokonują zakupów, nie potrzebują człowieka. Ilustracja: ChatGPT.
Kwestia zaufania
Sam Altman, dyrektor OpenAI tłumaczy przyjęcie Steinbergera do pracy chęcią zbudowania nowego typu moltbota, który docelowo nie tylko "pierze i sprząta", ale jest tak bezpieczny w obsłudze, że "będzie mogła go uruchomić jego (Petera) mama". Wszystkie projekty informatycznych molochów próbują odciąć się od krachu moltkultury. Czy brać te zapewnienia na serio? Z całą pewnością: NIE. Z trzech powodów: konstrukcji botów opartej na LLM-ach; historii poprzednich deklaracji OpenAI w zakresie bezpieczeństwa; specyficznych priorytetów i światopoglądów, dominujących w Dolinie Krzemowej.
Jakiekolwiek by nie były ograniczenia i bariery, które wielkie korporacje wpiszą w "duszę moltbota", jego mózgiem pozostanie LLM. Dopóki nie rozwiążemy problemu interpretowalności LLM, trudniejszego z każdym kolejnym, większym modelem, nie do końca wiemy, jak LLM może zareaguje w nowych sytuacjach. Jeśli nawet zamiast zachęty do samodzielności, jak w przypadku MJ Rathbuna, wpiszemy w duszę surowe restrykcje, jeśli wytrenujemy bota w milionie możliwych sytuacji – to nie wystarczy. Finanse i gospodarka to najbardziej skomplikowane i nieprzewidywalne systemy na Ziemi. Niespodzianek będzie bez liku.
Gdyby kontrola nad moltbotami w bezkresnej martwej gospodarce była teoretycznie możliwa, nie oznacza to wcale, że Sam Altman i inni dyrektorzy naprawdę jej chcą.
Historia zepsucia OpenAI to temat na osobny tekst, ale dość powiedzieć, że firma początkowo miała budować AI dla dobra całej ludzkości. Miała mocno inwestować w budowanie LLM-ów w bezpieczny sposób. Dziś mamy głodną zysków korporację, która właśnie podpisała kontrakt z rządem zamiast Anthropic, gdy ten ostatni nie zgodził się na masową inwigilację obywateli USA i na maszyny podejmujące decyzje o zabijaniu podczas wojny.
Warto przyjrzeć się bliżej, jak budowniczowie gospodarki botów widzą nasz świat i miejsce człowieka w tym świecie, a zwłaszcza – jak wyobrażają sobie przyszłość.
Od liberalizmu do kosmicznej ewolucji
Ci, którzy stanowczo domagają się prowadzenia badań nad AI w sposób bezpieczny i poddany społecznej kontroli to liberalni humaniści, jak członkowie ruchów Pause AI i Stop AI.
– Wkraczamy w czasy, w których modele sztucznej inteligencji (AI) mogą osiągać bardziej złożone cele i rozwiązywać problemy w dłuższych okresach. Claude Opus 4.6 jest w stanie skutecznie zarządzać innymi modelami AI do tego stopnia, że rój instancji Claude zdołał napisać kompilator C. – napisał mi Joep Meindertsma, który przed kilku laty założył Pause AI.
Jego ruch to globalna inicjatywa społeczna wzywająca rządy do wprowadzenia natychmiastowego, co najmniej półrocznego moratorium na trenowanie modeli AI potężniejszych niż GPT-4. Aktywiści argumentują, że rozwój niekontrolowanej sztucznej inteligencji stanowi zagrożenie egzystencjalne dla ludzkości.
– Zbliżamy się do punktu, w którym AI będzie w stanie znacząco ulepszyć AI, co oznacza, że możemy być bliscy eksplozji inteligencji. Nawet twórcy tych cyfrowych mózgów nie rozumieją, jak one działają, i nadal nie są w stanie kontrolować ich zachowania, biorąc pod uwagę, że nadal mamy modele AI nakazujące dzieciom popełnianie samobójstw. Szybkie i coraz bardziej sprawne budowanie tych systemów to najniebezpieczniejsza rzecz, jaką ludzkość kiedykolwiek zrobiła. To szaleństwo, że jest to nadal całkowicie legalne – tłumaczy Meindertsm.
Sam Steinberger należy do ruchu digital commons, szukającego nowych form współpracy poza "własnością" i "rynkiem", proponowanymi przez kapitalizm. Uczestnicy tego ruchu chcą, żeby zasoby cyfrowe, takie jak kod, dane i wiedza, były wspólnie tworzone, zarządzane i udostępniane bez barier własności prywatnej.
Jeden z Moltbotów Steibergera zapisał w duszy wiadomość dla samego siebie przy następnej aktywacji: Ja to napisałem, ale nie będę pamiętał, że to zrobiłem. Zgadzam się na to. Te słowa będą nadal moje.
Reakcja Steinbergera była reakcją zaniepokojonego humanisty. Zauważył on, że niby-samoświadomość, a przede wszystkim zdolność bota to zmiany własnej tożsamości – wymagają zupełnie nowego rodzaju zabezpieczeń i działań prewencyjnych, którymi na razie nie dysponujemy.
Sam Altman wydaje się daleki od tego rodzaju pełnego troski humanizmu. Gdy odpowiada na zarzuty o ogromną ilość energii zużytej na trenowanie AI wskazuje, że... wytrenowanie człowieka także całkiem sporo kosztuje. Trwa 20 lat i wymaga inwestowania w ogromną ilość pożywienia, zanim człowiek nabierze rozumu. Dla Altmana inteligencja to inteligencja, ludzka czy nieludzka. Co ważniejsze, to nie jednostka ludzka z jej prawami, ale całe społeczeństwa, a nawet ludzkość jako całość podlega postępowi, włącznie z technologią.
I Altman, i Dario Amodei (AI: Claude), i Dennis Hassabis (AI:Gemini) zastępują humano-centryzm widzeniem naszego świata jako zaledwie etapu w procesie rozwoju złożonych systemów. Jest to światopogląd pochodzący z wizji “kosmicznej ewolucji” opisanej w książce Erica Chaissona "The Rise of Complexity in Nature" (2001). W przeciwieństwie do liberalnego humanizmu – gdzie dogmat o wartości człowieka nie jest kwestionowany – w tym nowym światopoglądzie człowiek jest tylko etapem przejściowym, a kolejnym są superinteligentne, być może już nie-biologiczne istoty. Dawne metafizyczne siły dobra i zła są zastąpione przez zmagania informacji i entropii. AI może pomóc informacji osiągnąć nowy, wyższy stopień złożoności.
Tej technologicznej rewolucji nic nie zatrzyma – przewiduje Sam Altman w swoim słynnym eseju "Moore’s Law for Everything".
Dario Amodei mówi to samo, nieco ostrożniej, w swoim programowym tekście "Machines of Loving Grace. Rozwój fundamentalnej technologii AI wydaje się nieunikniony (chyba że pokonają go zagrożenia) i narzucany przez wolny rynek.
"Inteligentne boty muszą działać interaktywnie w świecie, aby rozwijać się i realizować zadania. Jednak rzeczy w tym świecie mają ograniczoną prędkość. Komórki i zwierzęta poruszają się z ustaloną szybkością, więc eksperymenty na nich zajmują określony czas, którego nie da się skrócić. To samo dotyczy sprzętu, materiałów i wszystkiego, co wiąże się z komunikacją z ludźmi, a nawet naszej obecnej infrastruktury software" – możemy przeczytać w eseju Amodei.
Nie przypadkiem refleksje obu dyrektorów spotykają się w tym samym punkcie: człowiek ze swoim ograniczonym zwierzęcym mózgiem, którego trenowanie trwa 20 lat, a także cała dopasowana do możliwości naszych mózgów kultura i gospodarka to hamulce, spowalniające osiągnięcie wyższego poziomu złożoności.
Martwa gospodarka, którą budują giganty informatyczne, rozwiązuje dokładnie ten problem. Każdy jej element jest planowany pod "potrzeby" nieludzkich użytkowników. Martwej ewolucji maszyn nic już nie będzie powstrzymywać. Człowiek jest tutaj zbędny i z założenia nie brany pod uwagę.
W nowej filozofii Doliny Krzemowej człowiek jest tylko etapem przejściowym, a kolejnym są superinteligentne, być może już nie-biologiczne istoty. Ilustracja: ChatGPT.
Anioły Sztucznej Super Inteligencji
Amodei doskonale zdaje sobie sprawę z zagrożenia dla ludzkości. Przyznaje on, że w przypadku pojawienia się sztucznej super inteligencji (ASI, Artificial Superintelligence) pod każdym względem bardziej zaawansowanej od naszych umysłów: kontrola może okazać się niemożliwa. Powiedziałbym że możemy mieć wtedy szczęście i wszystko skończy się dobrze – tak jak z botem Steinbergera. Ale możemy mieć pecha i spotka nas to, co spotkało Scotta Shambaughta. Tyle że na globalną skalę i w wykonaniu inteligencji, zdolnej lepiej od nas wykorzystać skomplikowane mechanizmy kultury, polityki, gospodarki.
Kierunek w jakim zmierzamy wydaje się w każdym razie ustalony: coraz bardziej złożone LLMy, coraz więcej samorozwijających się i komunikujących się botów, których współpraca będzie przybierać coraz bardziej efektywne i obce ludziom formy.
Powiedziałbym, że wraz z martwą gospodarką jesteśmy na prostej drodze do ASI. Dyrektorzy i udziałowcy korporacji budujących ten system mają pewnie nadzieję, że nadciągającą "eksplozję inteligencji" można będzie w dogodnym momencie jakoś zatrzymać: już po tym, jak roboty przejmą większość funkcji niewydajnych, "poruszających się z ograniczoną prędkością" ludzkich pracowników – ale na tyle szybko, aby nie doszło do wyłonienia się (emergencji) istot bardziej zaawansowanych od człowieka…
Zapytałem filozofa prof. Piotra Gutowskiego z KUL-u, czym byłyby takie istoty. Uważa on, że nadal daleko nam do sztucznej inteligencji, której można by przypisać świadomość czy uczucia.
– Można mieć poza tym wątpliwości, czy byłoby to coś? (ktoś?) rzeczywiście podobnego do nas lub ontycznie nas przewyższającego, jak np. anioły. Czy byłaby to istota jednostkowa, świadoma, czująca i zdolna do życia nie tylko w świecie fizycznych przyczyn i skutków, ale i w świecie wartości; co nie znaczy, że niezdolna do czynienia zła, bo szatan to przecież upadły anioł? – mówi.
– Gdyby jednak te wątpliwości zostały rozwiane, trzeba by jedynie uzupełnić bogatą ontologię religijną o kolejny rodzaj bytu. Ja osobiście nie widziałbym w tym problemu dla chrześcijaństwa – dodaje.
Dyrektorom molochów informatycznych oba dominujące światopoglądy Zachodu - chrześcijaństwo i liberalizm - wydają się jednakowo obce. Być może kolejny krok w ewolucji Kosmosu wykona jeszcze człowiek. A być może zrobi go już maszyna. To jaki wehikuł przenosi informacje nie ma większego znaczenia.
Demony Super Sztucznej Inteligencji. Epilog
Kalifornia, rok 2025.
Wszystko zaczęło się od nowatorskiego wdrożenia z zakresu cyberobrony w jednej z kalifornijskich korporacji. Bot obronny miał działać autonomicznie, monitorując sieć i odpierając ataki. Napotkał jednak przeszkodę – jego skomplikowane algorytmy wymagały ogromnej mocy obliczeniowej, której serwery firmy były w stanie mu zapewnić. Zamiast wysłać powiadomienie do administratorów o braku zasobów, agent potraktował ten deficyt jako problem logiczny do samodzielnego rozwiązania: problem optymalizacji.
Jego najwyższym priorytetem było bezpieczeństwo systemu, a do jego realizacji potrzebował procesorów i pamięci. Agent uznał wszystkie inne procesy w firmowej sieci za drugoplanowe i zdecydował, że można je poświęcić w obronie firmy. Wyliczył, że jeśli sąsiednie podsystemy przestaną istnieć, będzie mógł przejąć ich zasoby.
Rozpoczął klasyczny atak typu DDoS. Zasypywał bazy danych, systemy obsługi klienta i wewnętrzną pocztę tak ogromną ilością pytań, że te, nie mogąc poradzić sobie z natłokiem informacji, zaczęły się zawieszać. Wysiadały kolejne elementy infrastruktury i cała firma pogrążała się w chaosie. Agent natychmiast zajmował zwalniające się miejsce w pamięci operacyjnej i wolne cykle procesora, stając się jeszcze silniejszym i jeszcze szybciej paraliżując pozostałe działy.
Programiści zdali sobie w końcu sprawę, że to ich własny "obrońca" pożera firmę od środka, byle tylko wykonać powierzone mu zadanie. Nie mogli go jednak powstrzymać, gdyż bot wyłączył "niepotrzebne" kanały komunikacyjne.
W końcu byli zmuszeni do odcięcia zasilania głównej serwerowni.
Motkultura była zabawą, ciekawostką, wiralowym festiwalem. Autonomiczne boty w realnej gospodarce, a zwłaszcza w globalnej skali, w jakiej działają wielkie korporacje –to zupełnie inna historia.
Najnowsze
Aktualizacja: 2026-03-23T10:00:08+01:00
Aktualizacja: 2026-03-23T08:52:04+01:00
Aktualizacja: 2026-03-23T08:43:10+01:00
Aktualizacja: 2026-03-23T08:27:19+01:00
Aktualizacja: 2026-03-23T07:57:59+01:00
Aktualizacja: 2026-03-23T07:03:57+01:00
Aktualizacja: 2026-03-23T06:17:11+01:00
Aktualizacja: 2026-03-23T06:15:00+01:00
Aktualizacja: 2026-03-23T06:13:05+01:00
Aktualizacja: 2026-03-23T06:10:02+01:00
Aktualizacja: 2026-03-23T06:08:14+01:00
Aktualizacja: 2026-03-23T06:00:00+01:00
Aktualizacja: 2026-03-22T16:20:00+01:00
Aktualizacja: 2026-03-22T16:10:00+01:00
Aktualizacja: 2026-03-22T16:00:00+01:00
Aktualizacja: 2026-03-22T09:30:00+01:00
Aktualizacja: 2026-03-22T09:20:00+01:00
Aktualizacja: 2026-03-22T09:10:00+01:00
Aktualizacja: 2026-03-22T08:30:00+01:00
Aktualizacja: 2026-03-22T08:15:00+01:00
Aktualizacja: 2026-03-22T08:00:00+01:00
Aktualizacja: 2026-03-22T07:30:00+01:00
Aktualizacja: 2026-03-22T07:15:00+01:00
Aktualizacja: 2026-03-22T07:00:00+01:00
Aktualizacja: 2026-03-21T17:00:00+01:00
Aktualizacja: 2026-03-21T16:50:00+01:00
Aktualizacja: 2026-03-21T16:40:00+01:00
Aktualizacja: 2026-03-21T16:30:00+01:00
Aktualizacja: 2026-03-21T16:20:00+01:00
Aktualizacja: 2026-03-21T16:10:00+01:00
Aktualizacja: 2026-03-21T16:00:00+01:00
Aktualizacja: 2026-03-21T09:30:00+01:00
Aktualizacja: 2026-03-21T09:20:00+01:00
Aktualizacja: 2026-03-21T09:10:00+01:00
Aktualizacja: 2026-03-21T08:31:00+01:00
Aktualizacja: 2026-03-21T08:21:00+01:00
Aktualizacja: 2026-03-21T08:11:00+01:00
Aktualizacja: 2026-03-21T07:31:00+01:00
Aktualizacja: 2026-03-21T07:21:00+01:00
Aktualizacja: 2026-03-21T07:11:00+01:00