Pukali się w czoło i pytali, jak można zaufać tłumowi? Im się udało

W świecie, który zachorował na kult jednostki i autorytetu budowanego na liczbie followersów na portalu X, Wikipedia jest ostatnim bastionem merytokracji. To system, który teoretycznie nie powinien działać. Jakim cudem encyklopedia, którą "każdy może edytować", nie zamieniła się po 25 latach w śmietnik pełen wandalizmów, teorii spiskowych i spamu? 

Pukali się w czoło i pytali, jak można zaufać tłumowi? Im się udało

Tekst powstał w ramach patronatu nad 25-leciem Wikipedii.

Pracuję w Wikimedia Polska. Mam służbowego maila, wizytówkę i biurko w organizacji, która wspiera jedną z najpopularniejszych stron na świecie. Wydawałoby się, że to daje mi jakąś władzę, prawda? Że kiedy widzę braki w haśle, mogę po prostu wejść, dopisać, co trzeba i nikt nie śmie podważyć autorytetu osoby z "centrali". Nic bardziej mylnego. Jakiś czas temu napisałam biogram osoby, którą uważałam za ważną dla polskiej kultury. Po paru dniach biogram zniknął. Nie usunął go algorytm, nie skasował go cenzor. Usunęła go społeczność po dyskusji w poczekalni, uznając, że opisywana postać „nie jest jeszcze encyklopedyczna”. I wiecie co? To jest dla wszystkich bardzo dobra wiadomość. Bo na Wikipedii nie liczy się to, kim jesteś, ile zarabiasz ani gdzie pracujesz. Liczy się tylko to, czy potrafisz udowodnić, że masz rację, opierając się na źródłach.

W świecie, który zachorował na kult jednostki i autorytetu budowanego na liczbie followersów na portalu X, Wikipedia jest ostatnim bastionem merytokracji. To system, który teoretycznie nie powinien działać. Jakim cudem encyklopedia, którą "każdy może edytować", nie zamieniła się po 25 latach w śmietnik pełen wandalizmów, teorii spiskowych i spamu?

Odpowiedź leży w skomplikowanej, niewidocznej dla przeciętnego czytelnika maszynerii ról, zasad i rytuałów, które przypominają bardziej zakon rycerski, starożytną agorę lub… mrowisko, niż nowoczesny startup technologiczny z Doliny Krzemowej.

W 25. rocznicę powstania tego projektu warto zajrzeć pod maskę i zrozumieć, że Wikipedia to nie tylko "darmowa wiedza". To forma cyfrowego oporu przed technofeudalizmem i miejsce na przeciwdziałanie dezinforamcji u samych jej podstaw.

Od modelu katedry do modelu bazaru

Żeby zrozumieć fenomen Wikipedii, trzeba cofnąć się do jej zapomnianej starszej siostry: Nupedii.

Był rok 2000. Jimmy Wales i Larry Sanger, dwóch technologicznych przedsiębiorców z Doliny Krzemowej, marzyli o darmowej encyklopedii, ale popełnili błąd poznawczy, typowy dla tamtych czasów: zaufali autorytetom. Nupedia miała wielostopniowy proces recenzji. Artykuł musiał przejść przez sito akademików, korektorów i redaktorów. Było to podejście, które Eric S. Raymond – amerykański haker, krytyk fantastyki i jedna z czołowych postaci ruchu open source – w swoim słynnym eseju "Katedra i bazar" nazwał katedrą. Budową powolną, dostojną, sterowaną odgórnie, dążącą do perfekcji przed publikacją. Efekt? Przez rok powstało zaledwie kilkanaście artykułów. Katedra stała pusta.

Wtedy, w akcie desperacji (lub geniuszu), 10 stycznia 2001 roku Larry Sanger rzucił na listę dyskusyjną hasło: "zróbmy sobie wiki". Idea była prosta i rewolucyjna: zamiast prosić ekspertów o pisanie, dajmy narzędzie każdemu.

Przejdźmy od modelu katedry do modelu "bazaru". Do bazaru czyli gwarnego, chaotycznego miejsca, gdzie każdy może dołożyć swoją cegiełkę, a jakość wyłoni się z chaosu.

15 stycznia 2001 roku ruszyła Wikipedia. Eksperci pukali się w czoło. Jak można zaufać tłumowi? Przecież to prosta droga do dyktatury głupców.

A jednak zadziałało. W ciągu pierwszego roku Wikipedia urosła do 20 tysięcy artykułów. Zadziałał tu mechanizm, który w środowisku open source nazywa się Prawem Linusa (od Linusa Torvaldsa, twórcy Linuxa): "Przy wystarczającej liczbie par oczu, każdy błąd jest drobny" (ang. shallow). Jeśli na tekst patrzy tysiąc osób, w końcu ktoś zauważy literówkę, a ktoś inny błąd merytoryczny. Społeczność zaczęła się samoorganizować, tworząc system, który socjologowie tacy jak Yochai Benkler nazywają "partnerską produkcją opartą na dobru wspólnym" (commons-based peer production). Benkler w swojej monumentalnej pracy "Bogactwo sieci" (The Wealth of Networks) udowadnia, że ludzie mają naturalną potrzebę dzielenia się wiedzą i współpracy, która wykracza poza rynkową logikę zysku. Wikipedia stała się największym laboratorium tej teorii w historii ludzkości.

W świecie, który zachorował na kult jednostki i autorytetu budowanego na liczbie followersów na portalu X, Wikipedia jest ostatnim bastionem merytokracji. Ilustracja: shutterstock/Lisa Haney Scratchboard

Rzemieślnicy w pozornej anarchii

Kiedy klikasz przycisk "Edytuj", wchodzisz do gry, w której wszyscy są równi, ale niektórzy mają klucze do schowka na szczotki. To największy mit Wikipedii – że panuje tam absolutna anarchia. W rzeczywistości to skomplikowana merytokracja, przypominająca strukturę średniowiecznych cechów rzemieślniczych.

Na samym dole są niezarejestrowani (konta anonimowe, do niedawna adresy IP). Mogą edytować, ale ich zmiany nie są widoczne natychmiast dla świata. Oczekują na zatwierdzenie. To jest system wersji przejrzanych  który polska Wikipedia wprowadziła w latach 2008–2009 jako jedna z pierwszych na świecie. Chroni on nas przed wandalizmami – jeśli ktoś wpisze w haśle o prezydencie wulgaryzm, zobaczy go tylko on sam. Reszta świata zobaczy wersję stabilną, a zmiany będą widoczne dopiero po ich zaakceptowaniu przez kogoś z uprawnieniami.

Edycje nowo zarejestrowanych kont nadal podlegają podobnej kontroli. Ich zmiany są sprawdzane pod kątem wandalizmów, zanim zobaczy je świat. Po rejestracji użytkownicy zaczynają poznawać projekt, jego zasady i społeczność – z czasem zyskując dodatkowe uprawnienia (np. już po 4 dniach od rejestracji i wykonaniu 10 edycji mogą zmieniać nazwy artykułów. 

Wyżej są redaktorzy. To nie jest tytuł naukowy ani funkcja nadawana przez Fundację Wikimedia, na której serwerach jest Wikipedia. To uprawnienie techniczne, które zdobywa się po po wykonaniu określonej liczby poprawnych edycji i stażu. Redaktor to ktoś, komu społeczność ufa na tyle, by pozwolić mu zatwierdzać zmiany innych. To oni są pierwszą linią obrony. Każdego dnia setki wolontariuszy przeglądają stronę "ostatnie zmiany", odsiewając ziarno od plew.

Nad redaktorami są administratorzy. I tu uwaga: wbrew nazwie, nie są "szefami" czy "dyrektorami" Wikipedii. Sami o sobie mówią często: sprzątacze. Ich symbolem nie jest berło, ale miotła. To użytkownicy, którym społeczność w drodze głosowania powierzyła uprawnienia porządkowe. Mogą zablokować wandala, usunąć stronę, zabezpieczyć hasło przed edycją podczas "wojny edycyjnej". Ale – i to jest kluczowe, odróżniające Wikipedię od Facebooka czy X – administrator w dyskusji merytorycznej ma taki sam głos jak każdy inny użytkownik. Jeśli admin wejdzie w spór o to, czy Pluton jest planetą, nie może użyć swojej "miotły", by wygrać debatę. Jeśli to zrobi, straci uprawnienia. Społeczność patrzy na ręce tej władzy z dużą czujnością.

Na uboczu użytkowników dbających o rozwój merytoryczny artykułów i porządek w społeczności istnieją role techniczne. Wśród nich są checkuserzy – wspomagający administratorów w walce z powracającymi wandalami, rewizorzy – mogący ukryć treść nawet przed administratorami, biurokraci – nadający uprawnienia zgodnie z wolą społeczności, oraz stewardzi – wybierani w globalnych wyborach by móc zarządzać globalnymi uprawnieniami i wypełniać potrzebne funkcje w mniejszych projektach językowych, w których brak osób z odpowiednimi uprawnieniami. A to i tak nie wszystkie role tego ekosystemu.

I są jeszcze boty. Cisi bohaterowie, o których rzadko się mówi. Programy napisane przez edytorów-pasjonatów, które wykonują miliony nudnych czynności: poprawiają interpunkcję, naprawiają martwe linki, kategoryzują artykuły. Bez tej armii automatów, Wikipedia utonęłaby w chaosie entropii.

Pięć filarów czyli konstytucja dobrego internetu

Co sprawia, że ten zróżnicowany tłum – od profesorów fizyki po licealistów – nie rzuca się sobie do gardeł? Zestaw zasad, które są traktowane niemal z religijną czcią. Nazywamy je „Pięcioma Filarami”.

Pierwszy filar określa tożsamość Wikipedii jako encyklopedii. Mówi że to nie słup ogłoszeniowy, nie blog, nie sejmowa mównica, ani katalog firm – a właśnie encyklopedia. Jeśli coś nie jest udokumentowanym faktem, wylatuje. Drugim filarem jest neutralny punkt widzenia (NPOV). To najważniejsza i najtrudniejsza zasada. Artykuł nie może mówić, "kto ma rację". Musi uczciwie przedstawiać wszystkie istotne punkty widzenia. Piszesz o aborcji? O konflikcie na Bliskim Wschodzie? Musisz wznieść się na wyżyny chłodnego obiektywizmu, zwanego stylem encyklopedycznym. Trzeci z filarów to określenie Wikipedii jako wolnego zbioru wiedzy.

Wszystko, co tu publikujesz, przestaje być Twoje. Zgadzasz się na licencję Creative Commons (CC BY-SA). To radykalny akt w świecie własności intelektualnej i paywalli. To darowizna intelektualna na rzecz ludzkości. Czwarty filar nakazuje przestrzeganie netykiety – a więc wzajemny szacunek. Nawet jeśli uważasz, że twój oponent w dyskusji nie ma racji, nie możesz go obrazić. Ataki osobiste (w tym argumenty ad personam) są bardzo źle odbierane przez resztę społeczności. Brak sztywnych reguł – to ostatni, piąty filar. Paradoks? Nie. To bezpiecznik. Jeśli jakaś zasada biurokratyczna przeszkadza w ulepszaniu Wikipedii, można ją zignorować (zgodnie z regułą ignore all rules).

Weryfikowalność. Nie prawda

To zdanie jest szokiem dla wielu nowych edytorów, ale stanowi fundament epistemologiczny Wikipedii.

Możesz wiedzieć, że twój sąsiad jest wybitnym, genialnym malarzem. Możesz być tego pewna, bo widzisz jego obrazy codziennie. Ale jeśli nie napisała o nim prasa, nie ma go w katalogach muzealnych, nie ma o nim monografii – dla Wikipedii ten malarz nie istnieje. To brutalne, ale konieczne. Konieczne by czytelnicy samodzielnie mogli sprawdzić informacje znalezione w artykułach, zweryfikować je, wyrobić sobie zdanie na temat wiarygodności źródła – a nie mogli jedynie uwierzyć na słowo anonimowym internetowym twórcom.

Ściśle łączy się z tym zasada "bez twórczości własnej" (No Original Research), mówiąca, że, że nie publikujemy na niej tzw. badań pierwotnych.Wikipedia nie służy do ogłaszania nowych prawd światu. Służy zaś do katalogowania tego, co świat już ustalił i opublikował w wiarygodnych źródłach. To potężne zabezpieczenie przed szurami, domorosłymi naukowcami, marketingowcami i politycznymi manipulatorami. Bez przypisu do źródła (książki, artykułu naukowego, poważnej prasy, wiarygodnej strony www) nie ma edycji. Kropka.

W epoce post-prawdy i "faktów alternatywnych", Wikipedia staje się maszyną weryfikacyjną. Nie obiecuje Prawdy Absolutnej (tę zostawiamy filozofom i teologom). Obiecuje stan wiedzy. Filozof nauki Karl Popper byłby dumny z tego podejścia. Wikipedia jest w ciągłym stanie falsyfikacji. Każde hasło dąży do tego by być "najlepszą dostępną wersją na ten moment", otwartą na poprawki, gdy pojawią się nowe dowody (źródła). Jeśli źródła się mylą, Wikipedia też będzie się mylić, dopóki nauka lub dziennikarstwo nie skorygują błędu. To pokora wobec procesu poznawczego, której brakuje modelom AI, halucynującym, by według założeń swoich twórców, przekonać odbiorców o swojej nieomylności..

Płot Chestertona czyli spór o duszę Wikipedii

Wewnątrz społeczności toczy się nieustanna debata prawie filozoficzna, która napędza rozwój projektu. Mamy tu dwie główne frakcje.

Pierwsi to inkluzjoniści. Chcą, by Wikipedia zawierała wszystko: każdy serial, każdego niszowego pisarza, każdy gatunek chrząszcza, każdą szkołę podstawową. Wierzą w ideę "sumy ludzkiej wiedzy". Drudzy to delecjoniści. Stoją na straży jakości i zasad. Pytają: "czy to jest encyklopedyczne?"; gdzie są źródła?”; "czy to nie jest reklama?". To oni najczęściej zgłaszają hasła do usunięcia (DNU – Dyskusja nad Usunięciem, potocznie nazywana Poczekalnią).

Dla nowego użytkownika zderzenie z tym "betonem" bywa bolesne. Napracowałaś się nad hasłem o swojej lokalnej fundacji, a po chwili widzisz komunikat o usunięciu lub szablon z prośbą o źródła. Czujesz gniew. Myślisz: "to zamknięta klika, która blokuje rozwój!".

Ale tutaj warto przywołać zasadę znaną jako płot Chestertona. Pisarz i myśliciel G.K. Chesterton w książce "The Thing" sformułował zasadę, która stała się fundamentem mądrego konserwatyzmu: "Jeśli widzisz płot stojący w poprzek drogi, nie usuwaj go, dopóki nie zrozumiesz, dlaczego został tam postawiony". Delecjoniści na Wikipedii są strażnikami tego płotu. Nie pozwalają usuwać barier wejścia (wymogu encyklopedyczności, źródeł), bo wiedzą, że bez nich Wikipedia zostałaby zalana przez spam, autopromocję i dezinformację.

Ta sztywność wikispołeczności, ten opór materii, jest największą zaletą Wikipedii, a nie jej wadą. Gdyby każde hasło wchodziło bez weryfikacji, Wikipedia dawno stałaby się śmietnikiem. To właśnie ten opór sprawia, że kiedy czytasz o szczepionkach, zmianach klimatu czy historii II wojny światowej, dostajesz wiedzę naukową, a nie opinie z forów internetowych. Ta sztywność to cena, jaką płacimy za jakość w świecie "płynnej nowoczesności" Zygmunta Baumana.

W 2026 roku, w dobie ekspansji AI, która „przeżuwa” kulturę, wiedzę i informacje, Wikipedia staje się czymś więcej niż encyklopedią. Staje się swoistym ruchem oporu. Ilustracja: shutterstock/Lisa Haney Scratchboard

Agonizm i konsensus – jak (nie) głosujemy nad prawdą

Nie myślcie jednak, że Wikipedia to sielanka, gdzie wszyscy trzymają się za ręce i śpiewają Imagine. Strony dyskusji (Talk Pages) to często brutalny poligon. Ludzie kłócą się o nazewnictwo miast (Królewiec czy Kaliningrad), o płeć postaci historycznych, o to, czy dane zdjęcie narusza dobra osobiste.

Ale w Wikipedii nie ma prostego głosowania nad treścią (tzw. voting is evil). Nie wygrywa większość 51 procent. Obowiązuje konsensus. I choć dążenie do konsensusu sparaliżowało Pierwszą Rzeczpospolitą, to mądrość mechanizmów Wikipedii broni ją przed liberum veto i paraliżem. Wikipedia dąży jednak do tworzenia nie uwiądu. Trzeba dyskutować tak długo, aż wypracuje się wersję, którą wszyscy (lub zdecydowana większość) są w stanie zaakceptować w oparciu o źródła.

To proces, który Jürgen Habermas określiłby mianem działania komunikacyjnego dążącego do porozumienia. Wikipedia jest być może jedyną działającą na taką skalę implementacją habermasowskiej „sfery publicznej”, gdzie liczy się siła argumentu, a nie status społeczny dyskutanta. Jest to demokracja deliberatywna w najczystszej postaci. W wyjątkowych sytuacjacjach jednak (np. przy wojnach edycyjnych) administrator ma możliwość podjęcia jednoosobowej decyzji o blokadzie artykułu.

Czasem dochodzi do „wojen edycyjnych” – edytorzy zmieniają treść w tę i z powrotem. Wtedy wkracza administrator, blokuje stronę i mówi: „Ochłońcie. Idźcie na stronę dyskusji”. Wymusza dialog.

Wiki-etnos

Lata wspólnej pracy nad artykułami w encyklopedii spowodowały, że w społeczności Wikipedystów powstała cała kultura, na którą składają się charakterystyczny język, historia, z rodzajem pamięci zbiorowej, i poczucie odrębności, a także zbiór nieformalnych zasad i uzusów. Nie są to twarde regulaminy, ale raczej drogowskazy kulturowe, pełne specyficznego humoru, który pomaga rozładować napięcie.

Jednym z nich jest zasada mówiąca, że "Wikipedia nie jest z papieru" – to przypomnienie, że nie ogranicza nas limit stron, więc możemy pisać o rzeczach, które nie zmieściłyby się w Britannice (przeczytajcie choćby biogram Kamila Stocha), o ile są weryfikowalne.

Innym przykładem jest "reguła kuli śnieżnej" (Snowball clause), stanowiąca triumf zdrowego rozsądku nad biurokracją: jeśli propozycja proceduralna nie ma szans na przejście – jest jak kula śnieżna w piekle – należy ją odrzucić natychmiast, nie tracąc czasu. Fundamentem współpracy pozostaje jednak reguła "zakładaj dobrą wolę" (Assume good faith): zakładamy, że nawet jeśli ktoś popsuł artykuł, chciał dobrze, tylko mu nie wyszło, a dopiero dowód na złe intencje zmienia to podejście.

Działanie Wikipedii czasem porównuje się do stygmergii – mechanizmu znanego ze świata owadów społecznych (mrówek czy termitów). Mrówki nie mają architekta ani planu budowy mrowiska. Każda mrówka reaguje na ślady (feromony) pozostawione przez inne mrówki. Na Wikipedii edycja jest takim cyfrowym śladem. Widzisz literówkę – poprawiasz. Widzisz brak źródła – dodajesz. Widzisz błąd – cofasz. Z tych milionów drobnych, nieskoordynowanych centralnie działań, wyłania się spójna struktura wiedzy. To dowód na to, że inteligencja zbiorowa, o której pisał Pierre Lévy, jest możliwa.

Wikipedia jako opór

W 2026 roku, w dobie ekspansji AI, która „przeżuwa” kulturę, wiedzę i informacje, Wikipedia staje się czymś więcej niż encyklopedią. Staje się swoistym ruchem oporu.

Jest jak slow food w świecie informacyjnego fast foodu. AI generuje odpowiedź w sekundę – czasem błędną, często bez podania źródła. Wikipedia wymaga czasu. Wymaga czytania, sprawdzania, debaty. Ale w zamian daje jakość i transparentność. Każda edycja jest zapisana w historii. Możesz sprawdzić, co zostało dodane, przez kogo i kiedy. AI jest czarną skrzynką. Wikipedia jest szklanym domem.

Jest też oporem wobec technofeudalizmu. Wikipedia jest częścią szerszego ekosystemu Open Source, obok takich gigantów jak Linux (na którym stoi duża część internetu) czy OpenStreetMap (wolna mapa świata). To archipelag wolności, gdzie zasoby należą do wszystkich, a nie do jednej korporacji. W świecie, gdzie Elon Musk czy Mark Zuckerberg mogą jednym ruchem algorytmu zmienić to, co widzisz i myślisz, Wikipedia pozostaje niezależna. Nie ma reklam. Nie sprzedaje danych. Potrzebuje dobrowolnych datków. To ewenement ekonomiczny.

Dlaczego warto zostać cyfrowym rzemieślnikiem?

Socjolog Richard Sennett w książce "Etyka dobrej roboty" (The Craftsman) pisze, że w każdym z nas drzemie potrzeba wykonywania pracy dobrze dla samej satysfakcji z jej wykonania. W korporacyjnym świecie, pełnym bullshit jobs, edytowanie Wikipedii daje powrót do etosu rzemieślnika.

Edytor Wikipedii to cyfrowy mnich-kopista i rzemieślnik w jednym. Dba o detal, o przecinek, o poprawność bibliograficzną przypisu. Nie robi tego dla sławy – historia edycji jest anonimowa dla większości czytelników. Nie robi tego dla pieniędzy. Robi to, bo czuje odpowiedzialność za sumę ludzkiej wiedzy.

Dlatego, mimo że pracuję w Wikimedia Polska i zajmuję się wspieraniem tej społeczności zawodowo, to z pokorą przyjmuję fakt, że anonimowy wolontariusz z drugiego końca Polski usunął mój artykuł. To dowód na to, że system działa. Że nie ma "równych i równiejszych". Że w świecie fake newsów, deep fake'ów i algorytmicznej manipulacji, istnieje miejsce, gdzie Prawda jest negocjowana przez ludzi, dla ludzi, według zasad ustalonych przez ludzi.

I tą machiną nie steruje żaden prezes. Sterujemy nią my. I Ty też możesz. Wystarczy kliknąć "Edytuj". Tylko pamiętaj o źródłach. Bo bez nich Twoja prawda jest tylko opinią. A opinii w internecie mamy już wiele, jakieś 6 miliardów na każdy temat.

Współpraca: Maciek Szostek, administrator Wikipedii