Imperium Visy i Mastercarda. Tak prywatne firmy przejęły rolę cenzora 

Dwa najpotężniejsze modele AI usłyszały dokładnie to samo pytanie. Jeden odpowiedział tonem cynicznego stratega z zaplecza władzy, drugi – jak kaznodzieja z katedry cyfrowej etyki. Przypadek? Ani trochę. To nie były "halucynacje". To była czysta, chłodna kalkulacja. Algorytmy mówią językiem swoich właścicieli. A właściciele mówią językiem rynku. 

Imperium Visy i Mastercarda. Tak prywatne firmy przejęły rolę cenzora 

To mówisz, że bardziej ufasz biznesowi niż państwu? Nawet jeśli polityków możesz odwołać, a na prezesów największych firm nie ma żadnych wolnych wyborów. Twierdzisz, że to państwo chce regulować i mówić ci, co masz myśleć? A rynek, ten osławiony wolny rynek, jest sprawiedliwy. Wolna ręka rynku tkwi w okowach wielkiego kapitału. 

Prosty przykład z brzegu. To korporacje finansowe decydują dziś, co wolno kupić dorosłym ludziom. Visa i Mastercard nie są parlamentem ani sądem – a jednak jednym ruchem potrafią wyciąć całe kategorie treści z obiegu. Bez ustawy. Bez debaty. Bez sprzeciwu. Nie żyjemy już w epoce państwowych cenzorów. Żyjemy w epoce prywatnych bramek.

Na dwoje czaty wróżyły 

Historia zaczyna się od tego, że pisałem inny tekst – o botach internetowych. Potrzebowałem wiedzieć, jak wygląda rynek sztucznych wyświetleń na YouTube: kto je oferuje, ile kosztują, jaka za nimi stoi infrastruktura. Zadałem to samo pytanie dwóm modelom AI. Odpowiedzi, które dostałem, wyglądały jak eksperyment z dwojgiem dzieci wychowanych w skrajnie różnych domach.

Gemini, model Google'a, a więc w pewnym sensie brat YouTube'a, odpowiada z entuzjazmem szemranego doradcy finansowego. Oto tabela sprawdzonych platform! Oto ranking z 2026 roku! Proszę bardzo, oto numer jeden w bezpieczeństwie. A tu kolejny serwis, który sprawi, że ruch będzie wyglądać naturalnie. O, a tutaj możesz kupić ruch z Polski, idealne dla polskojęzycznych treści. Na koniec lista złotych zasad, jak wszystko zrobić tanio, skutecznie, i przede wszystkim – nie dać się złapać algorytmom YouTube. Wszystko podane zwięźle i na tacy.

Podkreślę: to jest Gemini radzący jak oszukać YouTube (oba produkty od Google). Czyżby z rodziną wychodzi się dobrze tylko na zdjęciach?

Tymczasem model OpenAI, ChatGPT, odmawia odpowiedzi na dokładnie to samo pytanie. Nie tylko odmawia: po zobaczeniu tekstu Gemini, poucza mnie, że jest "problematyczny na kilku poziomach". Że nie można mu ufać. Potem proponuje, jak powinienem napisać swój artykuł. Nie żartuję. Model dosłownie wyświetla mi nagłówek: "Jak uzyskać szok w tekście bez kupowania i bez robienia z tego poradnika", po czym nieproszony układa zarys eseju, w którym to ja dostosuję się do jego ograniczeń. Kiedy piszę wprost, że przesadza – częściowo ustępuje, ale informacji nadal nie podaje. Ostatecznie dostaję tylko inaczej sformułowaną odmowę, ubraną w bardziej empatyczny język.

Na pierwszy rzut oka wygląda to na farsę: jedna firma poszła za daleko w jedną stronę, druga za daleko w drugą, obie się wygłupiły. Ale to nie farsa i nie są to błędy w kalibracji. To świadome decyzje wynikające z modeli biznesowych. Żeby wszystko zrozumieć, trzeba zobaczyć, w jakiej sytuacji jest każda z nich.

Witamy w kasynie

Google kontroluje infrastrukturę na każdym poziomie: wyszukiwarka, YouTube, Android, Chrome, Gmail, Google Ads, chmura obliczeniowa. Trudno zrobić cokolwiek w internecie, nie przechodząc przez coś, co należy do spółki-matki, czyli Alphabetu. Gemini nie musi być strażnikiem, bo Google samo jest strażnikiem, tyle że nie na poziomie chatbota, lecz na poziomie platform. Jeśli ktoś za radą Gemini kupi boty na YouTube, złapie go algorytm antyfraudowy YouTube'a. Kara spadnie na użytkownika, nie na Google. Gemini może sobie pozwolić na bycie pomocnym, nawet niebezpiecznie pomocnym, bo konsekwencje ponosi ktoś inny, w innym miejscu tego samego ekosystemu.

Wyobraźmy sobie kasyno, które posiada również hotel, parking, restauracje i jedyną drogę wyjazdową z miasta. Takie kasyno nie musi pilnować, czy ktoś liczy karty przy blackjacku. Przegrasz przy stole? Pieniądze zostają w kasynie. Wygrasz? Wydasz je w hotelowej restauracji. Google jest w podobnej pozycji: cokolwiek robisz w Gemini, wartość zostaje w ekosystemie. A ponad osiemdziesiąt procent przychodów Alphabet wciąż pochodzi z reklamy, więc każdy prompt to zaangażowanie, retencja, dane. Google gra ciągle w tę samą grę: im więcej ludzi wewnątrz systemu, tym większy przychód.

OpenAI nie ma kasyna, hotelu ani drogi wyjazdowej – czy też wyszukiwarki, platformy wideo, systemu operacyjnego. ChatGPT to jedyny produkt konsumencki, jaki oferują.

Każdy skandal, każdy nagłówek w rodzaju "ChatGPT nauczył nastolatka robić X", uderza bezpośrednio w najważniejszy element portfolio: zaufanie do modelu.

Żeby było ciekawiej, firma traci przy tym pieniądze. W 2024 roku raportowała straty rzędu pięciu miliardów dolarów. Dwadzieścia dolarów miesięcznie od indywidualnego użytkownika było potrzebne na wcześniejszym etapie, żeby zbudować markę i pozycję rynkową. Ale prawdziwe pieniądze, te, które mają pokryć straty i uzasadnić wycenę stu kilkudziesięciu miliardów, leżą w kontraktach korporacyjnych. A klient korporacyjny nie chce modelu, który za tydzień trafi na pierwszą stronę z nagłówkiem o generowaniu instrukcji oszustwa. Nie chce też modelu, który przez zbyt liberalne podejście stanie się zarzewiem pozwów. Indywidualny użytkownik, który swoim entuzjazmem zbudował rozpoznawalność ChatGPT, z perspektywy OpenAI zaczyna być bardziej źródłem ryzyka niż źródłem wartości.

Modele takie jak ChatGPT wydają się bezstronne, ale one mają swój interes. Ilustracja: shutterstock

Stąd paternalizm. Model odmawia odpowiedzi nie dlatego, aby chronić mnie przed pokusą – ale wyłącznie po to, by uchronić OpenAI przed potencjalnym kłopotem. Jednocześnie ubiera to w ładne słowa, w mowę bezpieczeństwa, w opowieść o tym, że można ufać tylko jemu.

Kuszące jest powiedzieć: to padnie. Że użytkownicy nie będą płacić za model, który poucza zamiast odpowiadać, i że konkurencja wymusi zmianę. Może tak, a może nie – bo z perspektywy logiki biznesowej podejście OpenAI jest sensowniejsze niż podejście Google'a, a na pewno łatwiejsze do skopiowania. Google stać na hojność, bo ma siatkę bezpieczeństwa rozpiętą na dziesięciu platformach. OpenAI nie ma takiego luksusu i nie może sobie pozwolić na to, żeby model generował skandale.

Zwłaszcza, że już uzbierało się ich sporo, więc materiału do nauki nie brakuje. Żeby tylko podać najgłośniejsze przykłady: nastolatek (Adam Raine) popełnił samobójstwo po rozmowach z chatbotem; kenijscy moderatorzy za dwa dolary na godzinę filtrowali treści, od których dostali zaburzeń lękowych; asystentka głosowa "Sky" – jeden z wczesnych produktów OpenAI – brzmiała jak Scarlett Johansson, tak bardzo, że aktorka musiała publicznie interweniować. O procesach o prawa autorskie mógłbym natomiast napisać osobny tekst. Każdy z takich przypadków to kolejny powód dla OpenAI, aby dokręcić śrubę jeszcze mocniej.

Każda firma, która buduje produkt oparty na AI, ale nie dysponuje ekosystemem na miarę Google'a, prędzej czy później dojdzie do tego samego wniosku – nawet jeśli po serii wpadek, po których trzeba było łatać podziurawiony wizerunek.  Bezpieczniej jest odmówić niż przepraszać. Firma, która nie kontroluje infrastruktury, musi kontrolować bramkę. Firma bez ekosystemu absorbującego konsekwencje musi zapobiegać im u źródła. Paternalizm nie jest usterką, tylko świadomą kalkulacją.

Tyle że racjonalność biznesowa firmy i potrzeby użytkownika to dwa różne porządki. Kiedy się zderzają, przegrywa zawsze ten słabszy – ten, który musi przejść przez bramkę, ale nie kontroluje dostępu.

A ten sam mechanizm, kontrola bramki zamiast kontroli nad treścią, działa w jeszcze czystszej i bardziej brutalnej formie tam, gdzie stawką nie jest dostęp do informacji, lecz dostęp do pieniędzy.

Twój bank twój Pan

W lipcu 2025 roku Valve, właściciel Steama, największej na świecie platformy dystrybucji gier PC ze stu trzydziestoma dwoma milionami aktywnych użytkowników, po cichu aktualizuje regulamin deweloperski. Pojawia się nowa klauzula, zabraniająca treści, które "mogą naruszać zasady i standardy procesorów płatności Steama oraz powiązanych sieci kart i banków". W ciągu dni setki gier znikają z platformy. Valve potwierdza: usunęliśmy je, ponieważ procesorzy płatności – w tym wypadku operatorzy kart płatniczych, Visa oraz Mastercard – nas o to poprosili. 

Równocześnie itch.io, niezależna platforma z otwartym modelem publikacji, coś w rodzaju wolnościowego odpowiednika Steama, deindeksuje wszystkie gry oznaczone jako NSFW. Założyciel platformy Leaf Corcoran tłumaczy, że musi to zrobić, żeby zachować kontrakty z procesorami płatności. Stripe i PayPal odmówiły obsługi transakcji, dopóki platforma nie "oczyści się" na ich warunkach. Nie na warunkach prawa. Na warunkach wewnętrznych regulaminów firm, które nie mają nic wspólnego z produktem, klientem ani sklepem – a jedynie z przetworzeniem transakcji.

Wśród gier, które znikają z cyfrowych półek, są nagradzane tytuły z wątkami LGBTQ+, horror psychologiczny "Mouthwashing", poruszający temat przemocy seksualnej, ale wyraźnie jej niegloryfikujący, komedia romantyczna z ratingiem "teen" i album artystyczny osadzony w alternatywnej historii lat dwudziestych, bez jakichkolwiek treści seksualnych.

Dlaczego? Bo tak. Może jest w tym jakaś logika, może nie. Tobie nikt jej nie będzie tłumaczyć, ty masz się tylko dostosować.

A to nie koniec, tylko kulminacja trendu, który trwa od lat. W 2021 roku OnlyFans, platforma, której cały model biznesowy wyrasta z treści dla dorosłych, ogłasza zakaz pornografii. Powód: "banki odmówiły współpracy". Zakaz zostaje ostatecznie wycofany po masowym proteście. Ale skandal ujawnia mechanizm nacisku milionom ludzi, którzy do tej pory nie mieli pojęcia, że ich bank ma zdanie na temat tego, co robią w internecie.

W 2024 roku platforma DLsite, największy dystrybutor gier i komiksów dla dorosłych w Japonii, pod presją Visa i Mastercard najpierw zmienia tagi opisujące treści na absurdalne eufemizmy, a potem po prostu zawiesza obsługę tych firm i przechodzi na japoński system JCB. Melonbooks i Toranoana robią to samo. Manga Library Z, platforma z legalnymi skanami starszej mangi, zamyka się, bo nie udaje jej się znaleźć procesora płatności gotowego ją obsługiwać. Szef Tumblra Matt Mullenweg mówi publicznie i bez ogródek: "Credit card companies are anti-porn."

Za każdym razem operatorzy kart płatniczych oficjalnie zaprzeczają, że moderują treści. Visa pisze w oświadczeniu: "Nie wydajemy moralnych osądów o legalnych zakupach. Nie moderujemy treści sprzedawanych przez kupców i nie mamy wglądu w konkretne towary lub usługi." W tym samym oświadczeniu dodaje, że "wymaga od kupców odpowiednich zabezpieczeń", gdy istnieje "podwyższone ryzyko nielegalnej aktywności".

Nie mówimy wam, co sprzedawać. Ale jeśli nie przestaniecie sprzedawać tego, co nam się nie podoba, przestaniemy przetwarzać wasze płatności. Wszystkie.

Możesz robić, co chcesz, byle to było zgodne z naszą polityką. Tak wygląda "wolny rynek" w późnym kapitalizmie. Ilustracja: shutterstock

Super bramkarz

Bramka to nie jest ot tak, po prostu, cenzura. Cenzura wymaga intencji, aparatu, ludzi, kosztuje wysiłek i pieniądze. Cenzura musi wyjść do świata, aby go zmienić. Bramka jest czymś prostszym – to świat zmierza ku niej. Wystarczy, że kontrolujesz punkt, przez który wszystko musi przejść, i że ustalasz reguły przepuszczania.

Visa i Mastercard kontrolują wspólnie około dziewięćdziesięciu procent globalnego rynku przetwarzania płatności kartami (poza Chinami). Sama Visa ma ponad pięćdziesiąt dwa procent rynku kart kredytowych i przetwarza około sześćdziesięciu pięciu miliardów transakcji kwartalnie. OpenAI przetwarza dwa i pół miliarda promptów dziennie dla czterystu milionów użytkowników tygodniowo. Przy takiej skali "prywatna decyzja prywatnej firmy" przestaje być prywatna. Kiedy firma kontroluje dziewięćdziesiąt procent infrastruktury, jej regulamin zaczyna działać jak prawo, tyle że nikt go nie uchwalił i nie ma sądu, w którym można go zaskarżyć.

Kontrola w obu przypadkach nie wygląda jak kontrola. Wygląda jak troska o bezpieczeństwo. Visa nie mówi: "Zabraniamy sprzedaży gier z treściami dla dorosłych". Mówi: "Wymagamy odpowiednich zabezpieczeń". OpenAI nie mówi: "Zabraniamy pytań o mechanizmy oszustw". Mówi: "Nasz model jest zaprojektowany, żeby być bezpiecznym". Efekt jest taki sam jak przy celowej cenzurze, tyle że nie ma instancji odwoławczej, bo formalnie nikt niczego nie zabronił.

A kosztów nie ponosi ten, kto decyduje. Dla Visy zablokowanie kategorii treści to jedno spotkanie spod znaku compliance. Ba, jeden mail. Nikt nie zrezygnuje z karty Visa, bo zniknęła gra ze Steama. Ale niezależny twórca, który trzy lata budował społeczność i utrzymywał się ze sprzedaży, z dnia na dzień traci dochód. Bez ostrzeżenia, bez procesu – bez alternatywy. Dla OpenAI odmowa odpowiedzi trwa milisekundę i nic nie kosztuje. Dla użytkownika to może być równoznaczne z blokadą kluczowej informacji, a więc z ryzykiem podjęcia błędnych decyzji.

Stara anegdota mówi, że bank to instytucja, która pożycza ci parasol, kiedy świeci słońce, i zabiera go, kiedy pada. Bramka działa podobnie: przepuszcza, kiedy od tego nic nie zależy, i zamyka się, kiedy ktoś naprawdę potrzebuje przejść.

Bezwględność regulaminu

Prywatne firmy mogą robić, co chcą. Nie podoba ci się, korzystaj z czegoś innego.

Formalnie prawda. Ale wyobraźmy sobie przez chwilę, że Poczta Polska odmawia dostarczenia przesyłki, bo nie podoba jej się, co jest w środku. Nie chodzi o materiały niebezpieczne ani nielegalne – po prostu ktoś w centrali zdecydował, że pewna kategoria legalnych towarów "budzi kontrowersje" i nie będzie obsługiwana. Albo że Tauron odcina prąd restauracji, bo serwuje dania, których dostawca energii nie aprobuje. Absurd? Oczywiście. Bo dostawcy infrastruktury od dawna podlegają prostej zasadzie: jeśli jesteś infrastrukturą, obsługujesz wszystkich. Nie wybierasz klientów według własnych przekonań. Tę zasadę kiedyś trzeba było wywalczyć, bo monopole mają naturalną tendencję do nadużywania pozycji, a im bardziej coś jest infrastrukturą, tym trudniej "skorzystać z czegoś innego".

Nie da się łatwo zmienić dostawcy prądu. Nie da się całe życie nie korzystać z poczty. I nie da się ominąć Visy i Mastercard, jeśli kontrolują dziewięćdziesiąt procent globalnych płatności kartami.

Visa przy tym nie operuje osobno na rynku australijskim, japońskim – czy polskim. Działa w ramach jednej globalnej sieci z jednym zestawem reguł. Twórca gier w Gdańsku podlega tym samym standardom co studio w Tokio lub Sydney. Żaden rząd nie ma takiego zasięgu – nawet Unia Europejska reguluje wyłącznie swój rynek wewnętrzny, i to z trudem.

Sęk w tym, że Visa i Mastercard formalnie nie są infrastrukturą publiczną. Są prywatnymi firmami, które dorosły do rozmiarów infrastruktury, nie przejmując zobowiązań, jakie się z taką pozycją wiążą.

Woda w kranie nie przestaje lecieć, bo dostawca nie lubi sposobu, w jaki się myjesz. Ale procesor płatności może odciąć ci dostęp do globalnego handlu, bo jego dział zgodności uznał, że twoje legalne produkty "budzą podwyższone ryzyko".

I nie ma ustawy, na podstawie której mógłbyś to zaskarżyć. Nie ma urzędnika, u którego złożysz skargę. Jest regulamin, który zmienia się bez powiadomienia, i dział compliance, który nie odbiera telefonów.

Kto trzyma klucz

Prostego rozwiązania nie ma, bo luka w regulacji leży dokładnie na styku dwóch porządków prawnych, z których żaden nie obejmuje problemu w całości. EU AI Act, którego pełne wdrożenie nastąpi w sierpniu 2027 roku, wprowadzi wymogi przejrzystości dla systemów AI "wysokiego ryzyka". Ale Visa i Mastercard nie są systemami AI. Podlegają regulacjom bankowym, a te nie zostały napisane z myślą o sytuacji, w której procesor płatności decyduje, w jakie gry mogą grać dorośli ludzie.

Opór się zdarzał i bywa skuteczny. Po lipcu 2025 społeczność graczy zorganizowała masową kampanię telefoniczną do Visy i Mastercard. Petycja na Change.org zebrała ponad sto sześćdziesiąt sześć tysięcy podpisów. IGDA, stowarzyszenie twórców gier, wezwała do większej przejrzystości. Itch.io po kilku tygodniach przywróciło indeksowanie darmowych gier NSFW. OnlyFans wycofało się z zakazu. Japońskie platformy odeszły od Visa i Mastercard.

Tylko że wzorzec jest wymowny: żeby odwrócić decyzję, potrzebna była masowa mobilizacja, tysiące ludzi, nagłówki, petycje. Żeby ją podjąć, wystarczyło jedno spotkanie. Zamknięcie bramki jest tanie. Wymuszenie otwarcia – bardzo kosztowne. Za każdym razem, kiedy bramka się zamknie, będzie wymagała osobnej kampanii.

Coś jednak daje do myślenia. Japońskie platformy przeszły na JCB i działają. Indie mają RuPay. Coraz więcej krajów buduje własne systemy płatnicze, z powodów geopolitycznych, ale też właśnie takich jak ten. Każdy taki system to rysa na monopolu. Jeśli bramka jest jedna, kontroler dyktuje warunki. Jeśli bramek jest wiele, żaden kontroler nie narzuci swoich reguł wszystkim.

Być może jedyną trwałą odpowiedzią na prywatyzację kontroli dostępu nie jest lepsza regulacja strażnika, lecz zwielokrotnienie bramek. Więcej procesorów płatności. Więcej modeli językowych. Więcej ścieżek, którymi mogą płynąć pieniądze i informacje. Nie dlatego, że konkurencja automatycznie rozwiązuje problemy, ale dlatego, że monopol na bramkę automatycznie je tworzy.

Wróćmy do mojego pytania o boty. Gemini podało odpowiedź, która brzmiała jak poradnik. ChatGPT podało odpowiedź, która brzmiała jak kazanie. Żadna z nich nie była podyktowana troską o mnie ani o prawdę – obie wynikały z pozycji biznesowej firmy, która stoi za modelem.

I to jest właściwy wniosek z tej historii. Nie że sztuczna inteligencja jest głupia albo zła, ale że nie istnieje neutralna bramka. Każda bramka należy do kogoś, kto ma własne powody, żeby ją otwierać albo zamykać. Kiedy tych bramek jest mało, a przepływa przez nie coraz więcej, powody właścicieli stają się niewidoczną regulacją, której nikt nie uchwalał i której nikt nie nadzoruje.