Zostałem Człowiekiem Roku. Ale się nie cieszę

Magazyn "Time" ogłosił w zeszłym tygodniu coroczny tytuł Człowieka Roku. I jestem nim ja. Ty też. Wszyscy jesteśmy. Choć, jak to zwykle bywa w późnym kapitalizmie, nie do końca tak, jakbyśmy chcieli. Jaka będzie AI w 2026 roku i co to dla nas oznacza? 

Zostałem Człowiekiem Roku. Ale się nie cieszę

W "The Atlantic" Chralie Warzel składa nam gratulacje: to my jesteśmy ludźmi roku z okładki magazynu "Time". Jest się z czego cieszyć?

Zanim powiesz, że przecież okładkę prestiżowego magazynu zdobią jednak tuzy technologicznego świata – Mark Zuckerberg, Lisa Su, Elon Musk, Jensen Huang, Sam Altman, Demis Hassabis, Dario Amodei, Fei-Fei Li – słowo wyjaśnienia. Tytuł trafił bowiem nie do konkretnych osób, ale do architektów AI. To zbiorowy byt, hybryda ludzi i procesów, ochrzczona mianem "architektów sztucznej inteligencji". Chociaż redakcja wyciągnęła z szuflady najbardziej oczywisty zestaw nazwisk, to warto, jak zawsze, zajrzeć pod podszewkę technologicznego świata.

Warto jednak jeszcze słowo poświęcić samej okładce. To rekonstrukcja zdjęcia "Lunch a top a Skyscraper" z 1932 roku. Ikonicznego zdjęcia przedstawiającego robotników siedzących na belce, zawieszonych setki stóp nad ziemią, w trakcie budowy Rockefeller Center. To czas Wielkiego Kryzysu. Sytuacja samych robotników to wypisz wymaluj ilustracja panującego wówczas systemu pracy: braku zabezpieczeń i wyzysku. W wersji 2025 robotników zastępują CEO Doliny Krzemowej. Ten sam kadr, ta sama belka, inny kapitał symboliczny, choć są podobieństwa, których nie można pominąć.

W 1932 w niebezpieczeństwie byli robotnicy, dziś jesteśmy my wszyscy.

Lunch atop a Skyscraper – czarno-biała fotografia wykonana 20 września 1932 roku, podczas budowy wieżowca RCA Building (obecnie Comcast Building), będącego najwyższym budynkiem kompleksu Rockefeller Center w Nowym Jorku.

Dziś jesteśmy w innym kryzysie, mniej fotogenicznym, bardziej rozproszonym, ale nie mniej realnym. Kryzysie pracy twórczej, sensu, autorstwa i odpowiedzialności.

Bo oto w ciągu zaledwie trzech lat generatywna sztuczna inteligencja zdążyła przeorać kulturę, internet i gospodarkę. Nie metaforycznie. Dosłownie. Zmieniła sposób, w jaki piszemy, rysujemy, kodujemy, uczymy się i szukamy informacji. Zmieniła też to, kto na tym zarabia. Do stołu żerujących na pracy innych, obok Mety i Google, dołączyli kolejni.

Wiemy już, że funkcja AI Overviews w wyszukiwarce Google – poza irytowaniem użytkowników – obniżyła ruch do zewnętrznych stron o ponad 34 procent. To nie była drobna korekta algorytmu. To była amputacja. Cicha, bez komunikatu prasowego i bez konferencji.

Media, które przez lata budowały swoją pozycję na ruchu organicznym, odkrywają nagle, że stały się surowcem. Dostawcą danych. Zbiorem treningowym. Nie partnerem, lecz paszą.

Liderzy organizacji medialnych – również tych, które jeszcze niedawno ostrzegały przed technologicznym mesjanizmem – podpisują dziś umowy partnerskie z firmami AI. Na papierze: współpraca. W praktyce: relacja zakładnika. Bo jak odmówić komuś, kto i tak już ma twoje archiwum? Jesteśmy jak robotnicy z 1932 roku – nie mamy wyjścia.

I tu dochodzimy do sedna, które "Time" na wszelki wypadek pominął. Modele generatywnej sztucznej inteligencji są trenowane na kreatywnej, a często bardzo przyziemnej produkcji znacznej części ludzkości. Tekstach, zdjęciach, książkach, filmach, komentarzach, postach, wpisach na forach, opisach produktów, fanfikach, recenzjach restauracji. Całym tym cyfrowym błocie, w którym brodzimy od dwóch dekad.

Firmy AI korzystały między innymi z Books3 – zbioru niemal 200 tysięcy książek. Później wyszło na jaw, że skala jest znacznie większa: pirackie biblioteki, transkrypcje filmów i seriali, miliony "odkurzonych" nagrań z YouTube’a. Treści indeksowane przez Google. Treści, które ktoś napisał, nagrał, zmontował – czasem zawodowo, częściej po godzinach.

I tylko Bóg jeden wie – oraz Mark Zuckerberg – jakie dokładnie dane wykorzystują platformy społecznościowe do trenowania własnych modeli.

Nie opracowałeś osobiście dużego modelu językowego w siedzibie wielkiej firmy technologicznej. Najprawdopodobniej. A jednak istnieje spore prawdopodobieństwo, że fragmenty twojego życia tam są. W tych bebechach technologii.

Twoje zdjęcie z Facebooka. Twój wpis z LinkedIna. Twój tekst dziennikarski. Twoja rozmowa z komunikatora. Słowa, obrazy, dzwięki z których zbudowano AI. Dlatego właśnie jesteś Człowiekiem Roku. Owym wyróżnionym "architektem sztucznej inteligencji". Może bezwolnym i przymusowym, może nieopłacanym, za to pozbawionym praw autorskich.

Jesteś Człowiekiem Roku. Nie dlatego, że zbudowałeś imperium. Lecz dlatego, że zostałeś wykorzystany jako materiał budowlany.

Dwie wersje okładki magazynu "Time" przedstawiające Człowieka Roku 2025.

Na placu budowy 

Debata o prawach autorskich i AI jest często sprowadzana do poziomu paragrafów i pozwów. Kto kogo pozwał, kto ma rację, czy scraping to kradzież, czy "dozwolony użytek maszynowy". To ważne pytania, ale nie najważniejsze. Istnieje bowiem aspekt egzystencjalny, o którym mówi się znacznie rzadziej.

Co się dzieje z kulturą, kiedy jej wytwory przestają być rozmową między ludźmi, a stają się paliwem dla systemów predykcyjnych?

Co się dzieje z pracą, kiedy narzędzia trenowane na pracy ludzi zaczynają tę pracę podważać, zastępować albo czynić nieistotną?

I wreszcie: co się dzieje z nami, kiedy odkrywamy, że byliśmy współautorami czegoś, na co nie mamy żadnego wpływu, na czym zarabia ktoś inny a nam zostają okruchy. 

Okładka "Time’a" próbuje sprzedać nam prostą opowieść: oto nowi budowniczowie przyszłości. Oto wizjonerzy siedzący na belce historii. Problem w tym, że oni nie budują miasta. Oni je wydzierżawiają. A plan zagospodarowania przestrzeni nie istnieje. 

Jeżeli już trzymać się metafory architektonicznej, to raczej technologiczni bossowie to właściciele placu budowy i betoniarki jednocześnie. Ci, którzy ustalają zasady dostępu, ceny materiałów i harmonogram prac. A robotnicy? Robotnicy są rozproszeni, niewidoczni i nie podpisują się pod projektem.

W 1932 roku fotografia robotników była afirmacją pracy, ale też niepokojącym przypomnieniem o jej cenie. W 2025 roku jej parafraza jest celebracją władzy, która udaje pracę.

I to jest być może najbardziej złowrogie w całej tej historii.

Bo kiedy "Time" mówi nam, że Człowiekiem Roku są architekci AI, to jednocześnie mówi nam, że reszta jest infrastrukturą. Danymi. Tłem. Statystyką.

A przecież bez tej infrastruktury nie byłoby żadnych modeli. Żadnych cudów generatywnych. Żadnych odpowiedzi w pół sekundy.

Jaka AI w 2026 roku? 

Pytanie tylko, co z tego wynika. I jaka będzie sztuczna inteligencja roku 2026. Jaką sztuczną inteligencję, zbudują ludzie roku 2025?

Eksperci ze Stanfordu próbują dziś przewidywać, co wydarzy się w 2026 roku. Mówią o dalszej automatyzacji pracy umysłowej, o napięciach regulacyjnych, o wojnach modeli i o tym, że AI stanie się mniej spektakularna, a bardziej wszechobecna. Jak elektryczność. Jak internet. Jak powietrze.

Rok 2026 nie przyniesie przełomu. Żadnej ogólnej sztucznej inteligencji. Ale też żadnych masowych zwolnień (przynajmniej nie z powodu AI). 

Era ewangelizacji kończy się, nadchodzi era ewaluacji. Po latach entuzjazmu i spektakularnych zapowiedzi, rok 2026 ma być tym momentem, w którym świadectwem wartości AI nie będą kolejne konferencje TED ani ogłoszenia o "przełomie", ale twarde wskaźniki i benchmarki: realne pomiary wydajności, realne koszty, realne korzyści. Już nie pytamy "czy AI to potrafi?", lecz "jak dobrze, za jaką cenę i dla jakich odbiorców?"

Na poziomie geopolitycznym nadchodzi przyspieszenie "suwerenności AI". To termin, który oznacza zmianę strategiczną: państwa próbują uniezależnić się od gigantów technologicznych – chcą albo własnych dużych modeli językowych, albo chociaż kontroli nad infrastrukturą i danymi, tak by informacje nie przepływały poza ich granice. Inwestycje w centra danych rosną globalnie: od Zjednoczonych Emiratów po Koreę Południową; to nie tylko techniczna kwestia, ale sygnał, że AI staje się polem dla nowej formy suwerenności państwowej. 

W nauce i medycynie nadchodzi czas odsłaniania "czarnej skrzynki". AI, która pomaga odkrywać struktury biologiczne czy przewidywać mutacje białek, nie jest już zabawką akademicką – jest narzędziem, które musi być zrozumiane od środka. Kluczowe pytania nie dotyczą już tylko efektów, ale procesów, które do nich prowadzą, a nawet tego, jak modele łączone są z różnymi typami danych. Otwarcie AI na poziomie architektury i mechanizmów stanie się imperatywem w badaniach podstawowych.

Sektor prawny również ma swój własny moment refleksji. AI w prawie nie będzie już tym, co robi szkice pism — w 2026 pojawi się nacisk na mierzenie jakości, dokładności cytowań, ryzyka naruszeń tajemnicy, a także na zdolność systemów do syntetyzowania argumentacji i oceny dokumentów w kontekście realnych procesów sądowych. To krok od prób do rzetelnych benchmarków, które muszą stać się standardem. 

Co z tym wszystkim robić? Jedna z przewidywanych tendencji to mierzenie skutków AI w czasie rzeczywistym – narzędzia analityczne przypominające narodowe rachunki PKB, ale skoncentrowane na produktach AI: kto zyskuje, kto traci, jakie są zmiany w zatrudnieniu i produktywności. Systemy takie mają pokazać nie tylko czy AI działa, ale jak szybko jego efekty rozprzestrzeniają się w gospodarce i społeczeństwie.

W medycynie z kolei wiele wskazuje na nadchodzący "moment ChatGPT" – analogiczny przełom w diagnostyce i terapii, który upowszechni się dopiero wtedy, gdy modele neuralne będą trenowane na wielkich, ale trafnych i wysokiej jakości zbiorach danych medycznych. To może przynieść narzędzia, które naprawdę diagnozują rzadkie choroby czy przewidują reakcje na leczenie – jeśli tylko kwestie prywatności i bezpieczeństwa zostaną odpowiednio ujęte. 

Ta perspektywa Stanfordu ma jedną wspólną cechę: zamiast "wow – jak daleko AI zaszła", mówi "teraz oceńmy, jak dobrze to działa i co to oznacza dla ludzi". Korekta, którą można nazwać pęknięciem baniek.

To przesunięcie od hype’u ku rygorowi, od obietnic ku rachunkowi skutków, od sukcesów marketingowych ku ocenie rzeczywistych konsekwencji. I to jest być może najbardziej nietypowa prognoza na 2026 rok: nie spektakularny skok technologiczny, ale kultura odpowiedzialności i publiczny audyt tego, co było dotąd sprzedawane jako cud technik.

Plan pokojowy 

To prawdopodobnie trafne prognozy. Jednak żadna z nich nie odpowiada na pytanie, które powinno nas najbardziej niepokoić: czy w tym świecie jest jeszcze miejsce na zgodę?

Nie zgodę regulacyjną. Zgodę użytkownika klikniętą bez czytania. Tylko zgodę kulturową. Świadomą decyzję, że chcemy być częścią tego eksperymentu.

Na pocieszenie zostawię fakt, że w przeciwieństwie do Donalda Trumpa, mogę poza tytułem Człowieka Roku "Time", pochwalić się i Pokojową Nagrodą Nobla. Dostałem ją, choć bardzo cząstkowo w 2012 roku, gdy laur trafił do Unii Europejskiej. Więc także i do mnie, Polaka, Europejczyka. Warto o tym pamiętać, w czasie gdy Unia jest w kryzysie, atakowana przez USA, Rosję i Chiny. Jeśli więc jako Człowiek Roku mogę powiedzieć swoje życzenie na Nowy Rok, to życzę nam wszystkim wiary i entuzjazmu w Europę takiej jak z 2012 roku.

Wtedy siedząc na tej belce, jak robotnik z 1932 roku, mogę mieć pewność, że poza kadrem jest (europejska) siatka chroniąca przed upadkiem. Wtedy nawet "pokojowe" pomysły Trumpa mogą okazać się nie tak groźne i szalone, na jakie wyglądają. Jeśli rok 2026 ma być rokiem, gdy mówimy "sprawdzam", to warto prześwietlić nie tylko technologie, ale i sojusze, a także wartości.