SPIS TREŚCI:
1. Jak Big Techy przepalają pieniądze
2. Prawda rynku i prawda w Excelu
3. Nowa zimna wojna
4. Dlaczego "halucynacje" nie istnieją?
5. Co oznacza, że inteligencja jest "sztuczna"?
6. Dlaczego korporacje sprzedają nam bajki o AI?
7. Te prognozy są "wyssane z palca"
8. Kiedy pęknie bańka AI?
Kiedy opada fala, widać, kto pływał bez majtek. W tym słynnym biznesowym powiedzeniu chodzi oczywiście o falę inwestycji. O wielkiej fali sztucznej inteligencji mówi się od dawna, a teraz nadchodzi moment jej opadnięcia. Widok może okazać się zaskakujący. Zostawmy jednak surferskie metafory i przejdźmy do liczb, bo to one najbardziej interesują inwestorów i analityków.
Pod koniec października Microsoft opublikował raport finansowy, z którego wynika, że jego kluczowy obecnie partner – OpenAI – wygenerował w trzecim kwartale 2025 roku stratę na poziomie 11,5 mld dolarów. Po kilku latach maskarady i imponującego prężenia muskułów okazało się, że król świata modeli językowych jest w istocie nagi, a wydatki jego „dworu” rosną równie spektakularnie, jak sam boom na technologię, którą rozwija.
To tylko jedna z jaskółek zapowiadających coś, o czym mówi się już od dłuższego czasu: prawdopodobnie mamy do czynienia z bańką AI. Podobną do tej, która pękła w marcu 2000 roku, znanej jako Dot-com Bubble. Obawy przed niepewną przyszłością sprawiają, że powracają niczym zjawy ostrzeżenia ekspertów, którzy w latach 2022–2023 próbowali zwracać uwagę na fakt, że opowieści o sztucznej inteligencji mającej zbawić świat to często marketingowa narracja sprytnych graczy chcących szybko i dużo zarobić. Bo AI w gruncie rzeczy nie jest ani inteligentna, ani nawet – jak twierdzą niektórzy – w pełni "sztuczna".
Burning man
Informacja o stracie twórcy ChatGPT zbiegła się z zakończeniem procesu przekształcania modelu działania spółki, dotąd formalnie kontrolowanej przez parasolową organizację non-profit, oraz z wydzieleniem podmiotu biznesowego znanego jako OpenAI Group PBC (Public Benefit Corporation). Taki krok umożliwił firmie pozyskiwanie kapitału i generowanie zysków w sposób znacznie bardziej zbliżony do klasycznej spółki komercyjnej. OpenAI zaczęło też coraz bardziej się "zamykać".
Nowa struktura otwiera przed firmą drogę do wejścia na giełdę. Według doniesień Reutersa OpenAI przygotowuje się już do pierwszej oferty publicznej, celując w wycenę na poziomie 1 biliona dolarów – czyli dwukrotnie wyższą niż obecna.
Śmiała zapowiedź może jednak zakończyć się fiaskiem, bo na drodze do giełdowego debiutu stoi kwestia faktycznej kondycji finansowej spółki. Szacunkową stratę netto OpenAI za trzeci kwartał widać w dokumentach złożonych do amerykańskiej Komisji Papierów Wartościowych i Giełd przez Microsoft, posiadający 27 proc. udziałów w firmie Sama Altmana.
W jednym z fragmentów Microsoft ujawnia, że jego bieżący zysk netto został pomniejszony o straty wynikające z inwestycji w OpenAI, co obniżyło jego wynik finansowy o 3,1 mld dolarów. Zdaniem analityków portalu "The Register" oznacza to, że łączne straty twórców GPT wyniosły wspomniane 11,5 mld dolarów.
Nie jest tajemnicą, że zespół Altmana przepala środki w zawrotnym tempie. Do pewnego stopnia jest to naturalne zjawisko w przypadku szybko rosnących startupów technologicznych, które chcą zdominować rynek – jak obserwowaliśmy to choćby w przypadku Ubera, Bookingu czy Airbnb. Jednak taka skala wydatków jest astronomiczna nawet jak na standardy młodej branży AI. Co więcej, według ostatnich doniesień "The Information" OpenAI miało stracić w całej pierwszej połowie 2025 roku 13,5 mld dolarów, generując zaledwie 4,3 mld przychodu.
Rewolucja w slajdach
Pierwsze analizy sugerujące, że biznes związany ze sztuczną inteligencją jest w istocie kolosem na glinianych nogach, który dodatkowo zaczyna się chwiać, pojawiły się już kilka tygodni przed ogłoszeniem przez Microsoft ponurych wieści. Iskrą, która roznieciła płomień defetyzmu wśród obserwatorów, był raport MIT State of AI Business 2025. Wynika z niego, że aż 95 proc. firm, które łącznie zainwestowały w rozwój AI 40 mld dolarów, nie zanotowało żadnych zysków z tego tytułu. Od tamtej pory coraz więcej osób – w tym Brian Merchant, autor książki "Krew w maszynie" – przekonuje, że na naszych oczach rośnie bańka AI, a my zmierzamy nieuchronnie w stronę katastrofy.
Dla jasności: niepokojące wyliczenia z raportu dotyczą głównie krótkoterminowego ROI (zwrotu z inwestycji – przyp. red.). Tyle że według entuzjastycznych zapowiedzi ewangelistów technologii rewolucja miała być tuż za rogiem.
W lipcu sam Rafał Brzoska stwierdził, że w ciągu dwóch lat za sprawą sztucznej inteligencji z rynku zniknie 25 proc. zawodów.
Pomijając fakt, że te szacunki wyglądają, jakby ich źródłem był Instytut Danych z Dupy, to nawet biorąc je na poważnie, trudno znaleźć dla nich potwierdzenie w badaniach. Prognozy Goldman Sachs wskazują, że AI mogłaby odpowiadać za redukcję maksymalnie 7 proc. etatów w Stanach Zjednoczonych. Z kolei badacze z Yale podkreślają, że jak dotąd nie obserwujemy realnej redukcji zatrudnienia, lecz raczej zastępowanie jednych stanowisk innymi.
Nie dziwią więc naturalne porównania obecnej sytuacji do bańki internetowej, znanej też jako bańka dotcomów. W drugiej połowie lat 90. giełdy ogarnęła euforia związana z rozwojem technologii internetowych. Nowo powstające firmy otrzymywały wielomilionowe inwestycje, a ceny ich akcji rosły jak szalone.
Na alarm bije nawet CEO Google’a, Sundar Pichai. W wywiadzie dla BBC stwierdził, że choć skala inwestycji w sektor AI może imponować, to boom ten zaczyna przybierać nieracjonalne rozmiary. A jeśli bańka w końcu pęknie, konsekwencje odczują wszyscy – także giganci, włącznie z jego firmą.
Pojawiają się liczne analizy sugerujące, że biznes związany ze sztuczną inteligencją jest w istocie kolosem na glinianych nogach. Ilustracja: Shuttertosck AI
Nowa zimna wojna
Obawy przed krachem wywołanym pęknięciem bańki AI przywołują – a nawet wzmacniają – sceptyczne analizy z ostatnich lat.
Jewgienij Morozow pisał w 2023 roku na łamach "The Guardian", że termin "sztuczna inteligencja" powinien trafić na śmietnik historii obok takich haseł jak "żelazna kurtyna", "teoria domina" Eisenhowera czy "moment Sputnika". Jego zdaniem fraza ta przetrwała zimną wojnę tylko dlatego, że od dekad działa na wyobraźnię społeczeństw wychowanych na science fiction i nieustannym poczuciu zagrożenia — w tym również inwestorów. Rzeczywistość jest jednocześnie nudna i niepewna, więc chętnie łykamy bajkowe opowieści o supermaszynach, które mają zawładnąć światem, bo – jak pisze Morozow – po prostu ich potrzebujemy.
"W rzeczywistości to, co dziś nazywamy sztuczną inteligencją, nie jest ani sztuczne, ani inteligentne" – stwierdza.
"Wczesne systemy AI były silnie zdominowane przez reguły i programy, więc mówienie o ich sztuczności było do pewnego stopnia uzasadnione. Dzisiejsze systemy – łącznie z ulubionym przez wszystkich ChatemGPT – czerpią jednak swoją moc z pracy prawdziwych ludzi: artystów, muzyków, programistów i pisarzy, których twórczość jest dziś przywłaszczana w imię ratowania cywilizacji. Najlepiej byłoby nazwać to nie-sztuczną inteligencją" – dodaje.
Morozow podkreśla, że maszyny mogą przechowywać i dystrybuować wiedzę w zrozumiałej dla nas formie, ale inteligencja to coś więcej niż dopasowywanie wzorców. To również poczucie upływu czasu, zdolność tworzenia uogólnień czy reinterpretowania znaczeń.
Model GPT może nam o tym opowiedzieć, ale tylko dlatego, że "zasysa" tę wiedzę z Wikipedii czy tekstów pisanych przez ludzi. Nie posiada jednak zdolności uchwycenia samej idei sztuki, ani negocjowania jej znaczeń. Jak pisał klasyk teorii mediów Marshall McLuhan – media są przedłużeniem człowieka, a nie samodzielnymi bytami.
Nie halucynacje, a zwykłe bzdury
Zgodnie z podhalańskim aforyzmem spopularyzowanym przez Józefa Tischnera istnieją trzy rodzaje prawdy: "świento prowda, tyz prowda"... i ta trzecia. Gdyby ta mądrość dotarła na wrzosowiska północnej Szkocji, z pewnością skorzystaliby z niej trzej naukowcy z Uniwersytetu Glasgow: Michael Townsen Hicks, James Humphries i Joe Slater.
W swojej pracy zmierzyli się oni z bigtechową nowomową, która wprowadziła termin "halucynacje" na opis nieprawdziwych treści generowanych przez duże modele językowe. Udowadniają, że nie są to żadne poetyckie omamy, lecz zwykłe bzdury.
"Ostatnio obserwujemy ogromne zainteresowanie dużymi modelami językowymi (...). Systemy te masowo generują nieścisłości, nazywane często halucynacjami AI. Przekonujemy, że ten fałsz — jak i ogólna aktywność LLM-ów – należy traktować jako gówno prawdę (oryg. bullshit) w rozumieniu Frankfurta" — piszą autorzy w pracy o wymownym tytule GPT is Bullshit. Odwołują się przy tym do eseju amerykańskiego filozofa Harry’ego G. Frankfurta "On Bullshit" (wydanego w Polsce jako "O wciskaniu kitu").
Hicks, Humphries i Slater twierdzą, że owo "wciskanie kitu" może przyjmować dwa warianty. Pierwszy z nich to soft bullshit – "miękki kit" polegający na generowaniu treści dotyczących rzeczywistości bez jakiegokolwiek zainteresowania ich prawdziwością.
"Programy te nie mogą troszczyć się o prawdę. Zostały zaprojektowane tak, by produkować tekst wyglądający na prawdopodobny czy prawdziwopodobny, bez rzeczywistego odniesienia do rzeczywistości" – piszą.
Miękki kit pojawia się zatem wtedy, gdy system nie ma intencji ani powiedzenia prawdy, ani fałszu — bo po prostu nie ma żadnej intencji. Ma jedynie wygenerować statystycznie najbardziej pasujący ciąg znaków.
Ich zdaniem istnieją jednak przesłanki do tego, by mówić również o hard bullshit – twardym, celowo tworzonym kicie. Innymi słowy: model może być zaprojektowany tak, by wprowadzać użytkownika w błąd. Jeśli twórcy projektują system w taki sposób, by imitował wiarygodne źródła i rozmówców, jednocześnie nie dbając o prawdziwość generowanych treści, to – jak dowodzą badacze – spełniają definicyjne warunki celowego "wciskania kitu".
Do tego dochodzi aspekt projektowania interfejsów tak, by użytkownik spędzał z modelem jak najwięcej czasu – poprzez dark patterns, pozytywne wzmacnianie przekazu czy "głaskanie" użytkownika. Jeśli firma zarabia na uwadze odbiorców, a jednocześnie świadomie nie dba o rzetelność tworzonych treści, to według szkockich badaczy celowo multiplikuje bzdury.
Ich zdaniem termin "halucynacje" pełni więc wyłącznie funkcję marketingowego eufemizmu. Tak samo jak sugerowanie, że GPT nas "testuje", "żartuje", "obraża się" czy "bawi".
Podobnie jest z wprowadzeniem do obiegu słowa prompting, które ma nadać wpisywaniu komend magicznej otoczki, czy z modnym "fine-tuningiem", przedstawianym jako indywidualne dostrajanie modelu, a w praktyce często oznaczającym wykonywanie darmowej pracy polegającej na dostarczaniu firmom danych – przepraszam: "uczeniu sztucznej inteligencji".
Sztuczna czyli jaka?
Temat wpływu języka używanego do opisu modeli językowych na sposób ich postrzegania przez ludzi bada rumuński semiotyk kultury Alin Olteanu z Shanghai International Studies University, współautor m.in. publikacji "Filozofia sztucznej inteligencji".
– Nasze pojmowanie świata oraz społeczne wyobrażenia na temat rzeczywistości od dawna opierają się na dualistycznych podziałach – mówi Olteanu. – Racjonalistyczne i empirystyczne koncepcje umysłu wprowadziły do obiegu choćby mit "Natury" – pojęcia, o którym wszyscy sądzą, że wiedzą, czym jest, choć nikt nie potrafi go precyzyjnie zdefiniować.
Zdaniem badacza nie sposób jednoznacznie i logicznie rozstrzygnąć, co jest naturalne, a co nie, ponieważ to kategoria fundamentalnie niejasna. W konsekwencji samo stosowanie terminu "sztuczne", definiowanego w opozycji do naturalnego, jest zabiegiem zwodniczym, rodem z marketingowej nowomowy. To naklejanie etykiet i upraszczanie świata poprzez sztuczne dychotomie.
A jednak my, ludzie, uwielbiamy tak postępować. Dzielimy rzeczywistość na przeciwstawne porządki, bo ułatwia nam to jej rozumienie. Olteanu wskazuje tu choćby na europejskich kolonialistów, którzy opisywali świat, opierając się na zestawach dualizmów: Nowy Świat – Stary Świat, cywilizowane – dzikie, racjonalne – prymitywne. Historia obfituje w podobne podziały: boskie – ludzkie, wieczne – doczesne, duchowe – świeckie, wojskowe – cywilne, humanistyczne – techniczne, a wreszcie magiczne – realne. W takiej strukturze opowieść o sztucznej – rzekomo lepszej, bo nienaturalnej – inteligencji trafia na wyjątkowo podatny grunt.
Samo pojęcie "sztucznej inteligencji" nie dostarcza nam wiedzy o tym, czym ten fenomen właściwie jest (bo z pewnością nie jest tym, co tradycyjnie nazywamy inteligencją). Przeskakuje natomiast wprost do afordancji, czyli – jak wyjaśnia Olteanu – zestawu potencjalnych funkcjonalności, np. generowania tekstu. Być może wąskie grono specjalistów potrafi termin AI zdefiniować, lecz w praktyce używa go niemal każdy, powielając slogany pochodzące z korporacyjnych narracji.
W tej logice "czarodzieje" z Big Techu budują swoje agendy PR, konstruując opowieści o technologii AI jako sztucznej, a więc kontrnaturalnej, nadludzkiej, magicznej. Ma to być byt władający najpotężniejszą bronią człowieka – inteligencją – w sposób, w jaki żaden człowiek nigdy nie zdołał. Obietnice są jasne: już za chwilę, już za kilka lat, po wpompowaniu kolejnych setek milionów dolarów, sztuczna inteligencja uleczy wszelkie bolączki i odmieni oblicze Ziemi. Z jednej strony zabierze nam pracę, z drugiej obdarzy nadludzką mocą. Paradoks? W świecie PR żadna sprzeczność nie jest zbyt duża.
Jak jednak wyjaśnia prof. Piotr Durka z Wydziału Fizyki Uniwersytetu Warszawskiego, dyskutując o AI, należy przede wszystkim ustalić, o czym mówimy.
Stosowanie terminu "sztuczne", definiowanego w opozycji do naturalnego, jest zabiegiem zwodniczym, rodem z marketingowej nowomowy. Ilustracja: Shuttertosck AI
– Czym właściwie jest sztuczna inteligencja? – pyta. – Rozporządzenie UE, tzw. AI Act, proponuje bardzo szeroką definicję. Zanim zaczniemy się z niej naśmiewać, zauważmy, że jest na co dzień wykorzystywana – i nadużywana. Coraz trudniej sprzedać produkt, ideę czy firmę, która nie ma w nazwie "AI".
W unijnej definicji zawartej w "EU Artificial Intelligence Act" czytamy, że AI oznacza "system maszynowy zaprojektowany do działania z różnym poziomem autonomii oraz zdolny do adaptacji po wdrożeniu, który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, mogące wpływać na środowisko fizyczne lub wirtualne".
– Jak widać, zakres AI obejmuje zarówno modele oparte na uczeniu maszynowym, od dekad tworzące bańki informacyjne w mediach społecznościowych, jak i najnowsze, największe modele fundamentowe, takie jak ChatGPT – tłumaczy Durka. I to właśnie te duże modele językowe zdają się dochodzić do granic obowiązującej dotąd wiary w efekt skali, streszczanej w maksymie "większe jest lepsze".
Według badacza rozbudowa gigantycznych centrów obliczeniowych i pozyskiwanie resztek dostępnych danych do trenowania kolejnych, coraz bardziej monstrualnych inkarnacji lemowskiego Zbója Gębona przestają automatycznie przybliżać nas do mitycznej AGI – Artificial General Intelligence, rzekomo ogólnej i silnej inteligencji maszyn.
– Tymczasem trenowanie LLM-ów pochłania ogromne ilości energii, przyspieszając katastrofę klimatyczną – wskazuje Durka.
– Ten "drobiazg" nie martwi tych, którzy napędzają hajp, czyli niewyobrażalnie bogatych właścicieli korporacji. Za to brak perspektyw zwrotu z gigantycznych inwestycji przedstawiany jest dziś jako globalny problem ludzkości. Przynajmniej przez tych, których zmiany klimatu w praktyce nie dotkną: Sama Altmana, Elona Muska, Jeffa Bezosa i innych.
Zdaniem fizyka powinniśmy mówić nie o "bańce AI", lecz o "bańce LLM" lub "bańce modeli fundamentowych". Choć niezależnie od nazwy jej pęknięcie będzie mieć realne konsekwencje gospodarcze. To jednak – jak zastrzega Durka – temat dla ekonomistów, podobnie jak zagadnienie przeinwestowania i napompowanej wyceny firm. Zjawiska te wpisują się w znany ekspertom mechanizm finansowania cyrkularnego. W odniesieniu do sektora AI zyskał on nawet własne określenie: "circular AI investments". Mechanizm ten opisuje szczegółowo w swoim artykule Adam Stecyk z Uniwersytetu Szczecińskiego.
Jeśli w całej tej historii istnieje coś naprawdę sztucznego, to właśnie konstrukcje finansowe i widmowe windowanie wartości korporacji rozwijających AI.
Dżin nabity w butelkę
Jednym z najbardziej merytorycznych i zarazem sceptycznych głosów w dyskusji o AI jest Kate Crawford, autorka książki "Atlas AI". Podobnie jak Olteanu wskazuje ona na iluzje dualistycznych podziałów, którymi posługują się "szamani AI": na to, co sztuczne i niesztuczne, inteligentne i nieinteligentne, prawie-ludzkie i ponadludzkie – rzekomą duszę zamkniętą w nie-ciele.
Crawford pisze, że "raz po raz widzimy ideologię kartezjańskiego dualizmu: fantazję, iż systemy AI są odcieleśnionymi mózgami, które absorbują i wytwarzają wiedzę niezależnie od swoich twórców, infrastruktury i otaczającego świata".
"Takie iluzje odwracają uwagę od znacznie istotniejszych pytań: Komu służą te systemy? Jaka polityka ekonomiczna stoi za ich budową? I jakie są szersze konsekwencje dla planety?" – podkreśla autorka.
Wiele narracji o sztucznej inteligencji traktuje ją jako czysty umysł, oderwany od materialności. Tymczasem – jak wskazuje Mirosław Filiciak, kierujący Centrum Kulturowych Badań Technologii Uniwersytetu SWPS i odwołujący się do tez Crawford – już samo pojęcie "sztucznej inteligencji" modeluje nasze myślenie i może być zwodnicze.
– Opiera się na bardzo wąskiej definicji inteligencji, sprowadzającej ją do zdolności szybkiego liczenia, bez miejsca na empatię – mówi Filiciak. – To określenie przesłania też fakt, że modele AI można konstruować na różne sposoby, że nie jest to jakiś odrębny byt, który po prostu manifestuje się w gotowej, niezmiennej formie.
– Zawsze potrzebujemy metafor. Wysłałeś do mnie maila, a w komputerze widzę go pod ikonką koperty, choć przecież nie ma nic wspólnego z papierowym listem – tłumaczy.
– Problem polega na tym, że metafory nigdy nie są neutralne: coś eksponują, coś ukrywają. "Chmura" brzmi poetycko, ale oznacza usługę wymagającą tysięcy serwerów, pozyskania określonych minerałów, ogromnych ilości energii i wody, a więc generującą realne koszty środowiskowe. Oczywiście doceniam AI jako narzędzie, lecz daliśmy sobie narzucić jednostronną, marketingową narrację o jej możliwościach, a dowody na niedoskonałości systemów ucina się stwierdzeniem, że "następna wersja z pewnością wszystko naprawi" – dodaje.
Dyskusja o AI jest tak trudna, bo szybko przestaje dotyczyć technologii. Baśń o Dolinie Krzemowej jako materializacji ducha liberalno-hipisowskiej innowacyjności ściera się z dystopijną opowieścią o ekonomii opartej na brutalnej eksploatacji zasobów, drapieżnym kapitalizmie, uspołecznianiu kosztów i prywatyzacji zysków. Wyłączenie materialnego aspektu z tych narracji ułatwia idealizowanie technologii oraz unikanie pytań o jej etyczny wymiar.
Kurtyna Wielkich Słów
W zachwytach nad AI często pomija się fakt, że technologie te opierają się na pracy ludzi, materialnych zasobach i fizycznej infrastrukturze. Odtwarzają, a nie kreują. Nie funkcjonują jako abstrakcyjne byty ani rozumne mózgi zawieszone w próżni. Jak zauważa Mirosław Filiciak, być może gdybyśmy zamiast o "sztucznej inteligencji" mówili o "stochastycznej papudze" – określeniu zaproponowanym przez Emily Bender i jej współautorów w 2021 roku – mielibyśmy bardziej realistyczne wyobrażenie zarówno o możliwościach, jak i ograniczeniach dużych modeli językowych.
– To w ogóle problem, gdy rozmawiamy o technologii – mówi badacz. – Bardzo często dajemy się przekonać, że stoi za nią zestaw neutralnych rozstrzygnięć, niezrozumiałych dla laików, ale mieszczących się w sferze czysto technicznych wyborów. Tymczasem różne warianty podobnych rozwiązań to często wybór między tym, czyja praca utraci wartość, a czyja ją zachowa. To zbyt poważne kwestie, by oddawać je cyberkorporacjom.
Jednym z aspektów, który te "cyberkorporacje" próbują zasłonić kurtyną wielkich słów, są realne koszty – zarówno materialne, jak i społeczne. Opowieści o "duchu w maszynie" wzmacniają przekonanie, że AI jest autonomiczna, obiektywna i oderwana od ludzkich interesów czy środowiskowych uwarunkowań. W rzeczywistości systemy te działają dzięki zasobom wydobywanym z ziemi, dzięki pracy ludzi oraz w ramach określonych decyzji politycznych i gospodarczych.
– Najbardziej sensowne byłoby mówienie nie o "AI" jako całości, lecz o konkretnych zastosowaniach – twierdzi Filiciak. – Ta technologia może przynieść nam wiele pożytku, ale wymaga to uwzględnienia podstawowych pytań: skąd pochodzą dane do trenowania modeli? Czy korzystając z systemu muszę zgadzać się na udostępnianie własnych danych? Do kogo należy efekt pracy modelu? Wreszcie: jaki jest koszt ekologiczny tego, co robię? Czy duży model językowy jest mi rzeczywiście potrzebny, czy wystarczyłoby prostsze rozwiązanie?
– Oczywiście to zjawisko jest wielowymiarowe i wiem, że pompowanie tej bańki służy również podbijaniu wskaźników ekonomicznych – podsumowuje badacz. – Ale prognozy, że dzięki AI produktywność wzrośnie jak podczas rewolucji przemysłowej, są kompletnie wyssane z palca. Martwi mnie też to, że te narracje utrudniają nam poważną, społecznie potrzebną rozmowę o tym, jakiej AI chcemy, na jakie ryzyka się godzimy, a gdzie powinniśmy powiedzieć "stop".
Baśń o Dolinie Krzemowej jako materializacji ducha liberalno-hipisowskiej innowacyjności ściera się z dystopijną opowieścią o ekonomii opartej na brutalnej eksploatacji zasobów, drapieżnym kapitalizmie, uspołecznianiu kosztów i prywatyzacji zysków. Ilustracja: Shuttertosck AI
Kto pływa bez majtek?
Trzy lata temu, gdy ChatGPT zaczął wchodzić masowo do naszych domów i biur, mało kto zwracał uwagę na krytyczne uwagi części komentariatu o tym, że nazywanie tej technologii sztuczną inteligencją jest zabiegiem mocno na wyrost. Krytyków tej narracji postrzegano raczej jako technologicznych luddystów i dziadersów bojących się postępu. Dziś, w obliczu niepokojących doniesień o kondycji rynku AI, analizy te nabierają nowego sensu.
Bańka dotcomów pęczniała dobre 5 lat zanim ostatecznie eksplodowała. Bańka AI zdaniem obserwatorów rośnie dopiero od 3 i póki co jeszcze nie pękła. Ale każdego dnia otrzymujemy kolejne wieści z ejajowego obozu. Sytuacja jest tak dynamiczna, że być może w momencie pisania tych słów, ulega zmianie.
Emocje wokół rzekomo rosnącej bańki podgrzały słowa CFO OpenAI, Sary Friar, która otwarcie zasugerowała, że w obliczu załamania rynku gwarantem zabezpieczającym finansowanie dla inwestycji w kosztowną infrastrukturę AI, taką jak centra danych, mógłby być… amerykański rząd. Na reakcję nie trzeba było długo czekać. Sociale zapłonęły od komentarzy, że oto firma-kult, wehikuł nadziei Doliny Krzemowej, tak mocno krytykującej ideę państwa opiekuńczego, gdy przychodzi trwoga, wyciąga rękę do tego samego państwa.
Zaraz po tym Friar opublikowała na Linkedinie oświadczenie, w którym tłumaczyła się ze swoich słów i zarzekała, że firma nie ma zamiaru korzystać z pomocy rządowej. Naprędce sklejone sprostowanie na niewiele się jednak zdało. Do akcji musiał szybko wkroczyć Sam Altman, który także kategorycznie zaprzeczył, jakoby OpenAI miało wyciągać ręce po pieniądze podatników.
W międzyczasie do mediów wyciekła notatka Altmana adresowana do pracowników firmy, w której ostrzega przed nadchodzącym trudniejszym okresem ze względu na rosnącą konkurencję ze strony Google i jego Gemini 3. "Wiem, że mamy sporo pracy, ale nadrabiamy szybko” – czytamy w materiale. "Spodziewam się, że sytuacja będzie trudna przez jakiś czas”. Brzmi to jakby CEO OpenAI przygotowywał swoją załogę na kryzys i już wskazywał winnego poza strukturami swojej korporacji.
Dla jasności: nie jesteśmy naiwni. Nie twierdzimy, że AI jako technologia nie może być użyteczna. Może – i już jest. Wspiera naukę, medycynę, edukację, logistykę czy usługi publiczne. Jednak traktowanie jej jak magicznego artefaktu rodem z filmów science-fiction lat osiemdziesiątych zaprowadziło nas w rejony, które boleśnie przypominają o demonach, z jakimi całkiem niedawno musieliśmy się mierzyć.
Warto przypomnieć przesadzone prognozy ery dot-comów, kiedy wierzono, że każdy osiedlowy sklep z pizzą stanie się e-commerce’ową potęgą, jeśli tylko uruchomi stronę z animowanym gifem. Dziś atmosfera entuzjazmu unosząca się nad Doliną Krzemową coraz niebezpieczniej przypomina echo tamtego okresu – z tą różnicą, że skala jest większa, a tempo zmian znacznie szybsze.
Prędzej czy później obudzimy się z tego snu. Może nie skończy się to tragicznie. A może – jak twierdzi Sundar Pichai – oberwie się każdemu, i to solidnie. Choć wizja Sama Altmana niespodziewanie pozbawionego złudzeń (i metaforycznych gaci) może okazać się dla niektórych pocieszająca.
Najnowsze
Aktualizacja: 2025-12-01T09:40:32+01:00
Aktualizacja: 2025-12-01T08:52:49+01:00
Aktualizacja: 2025-12-01T08:48:45+01:00
Aktualizacja: 2025-12-01T08:17:02+01:00
Aktualizacja: 2025-12-01T08:00:08+01:00
Aktualizacja: 2025-12-01T07:06:36+01:00
Aktualizacja: 2025-12-01T06:36:25+01:00
Aktualizacja: 2025-12-01T06:35:21+01:00
Aktualizacja: 2025-12-01T06:30:00+01:00
Aktualizacja: 2025-12-01T06:15:00+01:00
Aktualizacja: 2025-12-01T06:00:00+01:00
Aktualizacja: 2025-11-30T19:21:43+01:00
Aktualizacja: 2025-11-30T18:50:16+01:00
Aktualizacja: 2025-11-30T17:48:56+01:00
Aktualizacja: 2025-11-30T16:30:48+01:00
Aktualizacja: 2025-11-30T16:20:00+01:00
Aktualizacja: 2025-11-30T16:10:00+01:00
Aktualizacja: 2025-11-30T16:04:05+01:00
Aktualizacja: 2025-11-30T16:00:00+01:00
Aktualizacja: 2025-11-30T11:43:40+01:00
Aktualizacja: 2025-11-30T07:55:00+01:00
Aktualizacja: 2025-11-30T07:44:00+01:00
Aktualizacja: 2025-11-30T07:33:00+01:00
Aktualizacja: 2025-11-30T07:22:00+01:00
Aktualizacja: 2025-11-30T07:12:00+01:00
Aktualizacja: 2025-11-30T07:01:00+01:00
Aktualizacja: 2025-11-29T16:50:00+01:00
Aktualizacja: 2025-11-29T16:40:00+01:00
Aktualizacja: 2025-11-29T16:30:00+01:00
Aktualizacja: 2025-11-29T16:20:00+01:00
Aktualizacja: 2025-11-29T16:10:00+01:00
Aktualizacja: 2025-11-29T16:00:00+01:00
Aktualizacja: 2025-11-29T15:14:16+01:00
Aktualizacja: 2025-11-29T12:53:22+01:00
Aktualizacja: 2025-11-29T12:35:32+01:00
Aktualizacja: 2025-11-29T11:51:52+01:00
Aktualizacja: 2025-11-29T11:39:53+01:00
Aktualizacja: 2025-11-29T09:00:00+01:00
Aktualizacja: 2025-11-29T07:51:00+01:00
Aktualizacja: 2025-11-29T07:43:14+01:00