Byłem naiwny. Dostaliśmy nowy feudalizm
Przez ostatnie pół roku używałem AI codziennie. Do analizowania danych, do researchu, do burzy mózgów, do sprawdzania i weryfikacji tesktów, a nawet do do vibe-codingu. Totalnie wsiąkłem.

I jakieś dwa miesiące temu zauważyłem coś niepokojącego: czytam mniej książek niż rok temu, mam mniej własnych, oryginalnych opinii. Zanim skończę myśl - odpalam Claude'a. Zanim sformułuję argument - proszę Chata GPT o pomoc. Mój mózg zaczął delegować to, co wcześniej robił sam.
AI nie poszerzyła mojego umysłu. Zaczęła go zastępować. I to jest najłagodniejsza część tego, co chcę dziś napisać.
Naiwność pierwsza: myślałem, że AI jest dla wszystkich
Gdy modele językowe stały się powszechnie dostępne, byłem wniebowzięty. Nareszcie - myślałem - coś, co naprawdę wyrównuje szanse. Student z małego miasta ma dostęp do tego samego narzędzia co prawnik z Warszawy. Programista samouk może konkurować z absolwentem studiów IT. Każdy może mieć osobistego asystenta, doradcę, nauczyciela. Głupi ja. Albo przynajmniej - naiwny ja.
Bo AI nie jest dla wszystkich w równym stopniu. AI jest proporcjonalna do tego, co już masz. Im więcej wiesz - tym lepsze pytania zadajesz modelowi. Im lepszy masz kontekst - tym trafniejsze dostajesz odpowiedzi. Im wyższe masz kompetencje bazowe - tym skuteczniej weryfikujesz to, co AI wypluwa i wyłapujesz jej błędy.
Osoba wykształcona, z dobrą pracą i dostępem do płatnych narzędzi używa AI jak turbodoładowania. Osoba bez tych zasobów używa AI jak wyroczni i nie ma narzędzi, żeby ocenić, czy wyrocznia ma rację.
To nie jest demokratyzacja wiedzy. To mnożnik istniejących nierówności. Bogaty intelektualnie i materialnie staje się bogatszy. Reszta dostaje ChatGPT w wersji darmowej i myśli, że jest równo.
Naiwność druga: myślałem, że AI stworzy nową klasę średnią
Drugi mit, w który wierzyłem: automatyzacja zabierze nudne, powtarzalne prace, a ludzie przejdą do twórczych, bardziej satysfakcjonujących zajęć. Tak było przecież przy każdej poprzedniej rewolucji technologicznej - traktor zabrał pracę parobkom, fabryki przesunęły ludzi z pól do miast, komputery zastąpiły maszynistki i telefonistki, a smartfony wybiły w pień fotografów robiących zdjęcia do dowodów osobistych.
AI łamie ten schemat. Po raz pierwszy w historii automatyzacja uderza nie w pracę fizyczną i powtarzalną - uderza w pracę umysłową i kreatywną. Prawnicy, analitycy, copywriterzy, graficy, tłumacze, programiści juniorzy, dziennikarze - to są zawody, które AI wypiera dziś, dosłownie teraz, w czasie rzeczywistym. Z kolei spawacz, elektryk i hydraulik mają się całkiem dobrze, bo ich praca wymaga rąk i obecności w fizycznym świecie.
Powstaje nowy podział. Nie na bogatych i biednych. Na tych, którzy "promptują" - czyli umieją kierować AI, weryfikować jej wyniki i budować na jej możliwościach - i tych, którzy będą "promptowani" - czyli będą wykonywać polecenia systemów AI za stawkę, której nie da się negocjować, bo algorytm nie ma związków zawodowych i nie chodzi na zwolnienia lekarskie.
To nowy feudalizm. Pan - algorytm. Chłop - człowiek z kursem na YouTube o promptowaniu.
Czytaj także:
- Musk jak król absolutny, a ty jak pańszczyźniany chłop. Witamy w nowym średniowieczu
- "My tylko dostarczamy narzędzia". Tak dziś w USA buduje się przyjazny faszyzm
- Światem rządzą nafurczani multimiliarderzy. Czytam o problemach Muska i robi mi się słabo
Naiwność trzecia: myślałem, że to dla nas
I tu dochodzimy do sedna, o którym w Polsce mówi się najmniej - bo to niewygodne.
ChatGPT należy do OpenAI, za którym stoi Microsoft. Claude należy do Anthropica, za którym stoją Amazon i Google. Gemini należy do Google'a. Grok należy do Elona Muska. Llama należy do Mety.
5 firm. 4 amerykańskie. Jedna pod kontrolą człowieka, który kupił sobie największą platformę polityczną na świecie i używa jej bez żadnych hamulców.
Te pięć firm kontroluje dziś infrastrukturę poznawczą ludzkości. Nie wyszukiwarki - to już przeżytek. Nie social media - to tylko kanał dystrybucji. Modele AI to coś znacznie głębszego - to warstwa, przez którą coraz więcej ludzi na świecie formułuje pytania, przetwarza informacje i dochodzi do wniosków. To filtry rzeczywistości. Zaprojektowane w Dolinie Krzemowej, wytrenowane na danych zebranych bez pytania kogokolwiek o zgodę, zoptymalizowane pod cele biznesowe ich właścicieli.
Każdy model ma wbudowane unikalne wartości. Każdy odpowiada inaczej na pytania polityczne, społeczne, historyczne - w zależności od tego, kto go wytrenował i na jakich danych. Gdy miliard ludzi pyta AI o rzeczywistość, a AI odpowiada przez filtr pięciu korporacji - to nie jest to na pewno demokratyzacja wiedzy. To najbardziej efektywny system kształtowania opinii publicznej, jaki kiedykolwiek powstał. I nikt nas - ani w Europie, ani tym bardziej w Polsce - nie zapytał, czy się na to zgadzamy.
Co z tym zrobić?
Uczciwa odpowiedź: nie wiem. I każdy, kto mówi, że wie - kłamie lub sprzedaje kurs coachingu w internecie.
Wiem jedno - pierwszym krokiem jest przestać być naiwnym. AI to wcale nie jest neutralne narzędzie, jak kalkulator czy młotek. To środowisko, które kształtuje myślenie - tak samo jak social media ukształtowały debatę publiczną przez ostatnie 15 lat. I widzimy, jak to się skończyło - Trumpem i jemu podobnymi.
Używam AI codziennie i zapewne dalej będę używał. Jak każdy nałogowiec, który rozumie swój nałóg, ale nie potrafi go rzucić. Różnica jest jedna - ja przynajmniej wiem, że jestem uzależniony. Większość użytkowników myśli, że to oni trzymają telefon w rękach.
Otóż nie oni.
Zdjęcie główne wygenerowane przez AI.



















