1. SPIDER'S WEB
  2. plus
  3. SW+

„Zuckerberg? To raczej misjonarz, a nie zło wcielone”. Twierdzi profesor Kreft, autor „Władzy algorytmów"

– Facebook stał się imperium analizy złożoności świata, taką superplatformą i jedną wielką maszyną do zarabiania pieniędzy – mówi prof. Jan Kreft, autor książki „Władza algorytmów. U źródeł potęgi Google i Facebooka”.

Mark Zuckerberg, szef Mety Fot. shutterstock.com/ElmsArt

Pozostające bez kontroli algorytmy, rozlewająca się dezinformacja, coraz większa monopolizacja kolejnych rynków czy żerowanie na ludzkich słabościach i monetyzowanie lęków użytkowników. To tylko niektóre zarzuty, które stawia się największym platformom cyfrowym będącym pod coraz poważniejszą krytyką.

W ostatnich miesiącach pod największym ostrzałem jest Meta, czyli dawny Facebook. Po ujawnieniu przez sygnalistkę Frances Haugen dokumentów „Facebook Files” dowiedzieliśmy się, że koncern Marka Zuckerberga miał większą (niż chciałby to przyznać) świadomość generowanych problemów i zagrożeń. Wiedział na przykład, jak niekorzystny dla zdrowia części użytkowników może być wpływ należącego do niego Instagrama. Wiedzy tej jednak – zdaniem Haugen – nie wykorzystał do niwelowania zagrożeń, bo „przedkłada astronomiczne zyski ponad dobro swoich użytkowników”.

Po zeznaniach Frances Haugen w jednej z podkomisji amerykańskiego Senatu, a następnie w Parlamencie Europejskim już masowo zaczęło się mówić o konieczności wprowadzenia regulacji. Sama Haugen zasugerowała stworzenie regulatora platform i zmianę sposobu wyświetlania wiadomości z opartego na algorytmach na chronologiczny. Unijni urzędnicy szykują zaś reformę rynku cyfrowego i moderacji treści w sieci, które zawierają się w pakietach DMA (Digital Markets Act) i DSA (Digital Services Act). W projektach znajdują się m.in. zapisy zakazujące targetowania reklam, czyli ukierunkowania jej pod konkretnego adresata ze względu na jego cechy, takie jak wiek, płeć, miejsce zamieszkania itd.

Jednak problemy ma nie tylko Meta i Zuckerberg. Inni wielcy świata technologii jak Google, Amazon, Airbnb, Uber czy nawet Netflix również budzą konsternację tempem swojego wzrostu, ale przed wszystkim tym, jak silną, czasem wręcz monopolistyczną pozycję zdobyli na kolejnych rynkach i do czego jej używają.

Dlatego w magazynie SW+ zaczęliśmy cykl wywiadów o tym, jak uzdrowić świat cyfrowych platform, by był faktycznie bezpieczny dla ich użytkowników. Zaczęliśmy go rozmową z Niną Jankowicz, ekspertką ds. dezinformacji, autorką książki „How to Lose the Information War” o tym, że Facebook musi zacząć inwestować także w rynki nieanglojęzyczne.

Dr Dominik Batorski, ekspert ds. analizy danych, tłumaczył, że nie możemy całą odpowiedzialnością za polaryzację polityczną obarczać tylko algorytmów, ale zarazem podkreślał konieczność prawdziwej kontroli nad ich programowaniem. Katarzyna Szymielewicz, prezeska Fundacji Panoptykon, twierdzi zaś, że metodą na regulację i uzdrowienie Big Techów jest ich rozwarstwienie – by były możliwe inne modele biznesowe niż tylko te obecnie nam znane. Bo w tych obecnie obowiązujących produktem stali się... ludzie.

Z kolei prof. Jan Kreft, autor książki „Władza algorytmów. U źródeł potęgi Google i Facebooka” oraz wykładowca Politechniki Gdańskiej, ocenia, że publiczny lincz Facebooka nie jest sprawiedliwy i do końca zasłużony. Podkreśla, że równie dobrze można byłoby chłostać Google, Apple czy Tencent. Nie wierzy też w skuteczność regulacji prawnych, które miałyby okiełznać władzę Big Techów. – Żadna regulacja za nimi nie nadąży. To życzeniowe myślenie, że jak oni się „otworzą” i pokażą nam kuchnię swoich algorytmów, to będziemy mogli im narzucić jakieś rozwiązania. Tak się nie stanie, bo oni się zmienią, znajdą sposób, aby to obejść – twierdzi Kreft. 

Facebook stał się Earthbookiem – imperium analizy złożoności świata, superplatformą i wielką maszyną do zarabiania pieniędzy. 

Profesor Jan Kreft, autor książki „Władza algorytmów. U źródeł potęgi Google i Facebooka” oraz wykładowca Politechniki Gdańskiej. Fot. archiwum prywatne

Żyjemy w kulturze algorytmów, w czasach, kiedy algorytmy wpływają na nasze życiowe wybory, decyzje polityczne, a także na to, co czytamy, oglądamy, słuchamy, kupujemy. A my nie wiemy nic albo niemal nic o tym, jak działają. Dlaczego? 

Jan Kreft: Trochę mitologizuje pan ich wpływ, władzę, ale nie tylko pan. My wszyscy mamy taką tendencję. Ale najpierw warto chyba ustalić, czym jest ten tajemniczy algorytm.

Czym jest? Proszę wyjaśnić.

Nie ma jednej, dobrej odpowiedzi. Jak patrzę na to jak programista, to widzę sekwencję określonych kroków w celu osiągnięcia zakładanego wyniku, metodę systematycznego, automatycznego kalkulowania. O taka zgrabna definicja. Ale wolę patrzeć na algorytmy z perspektywy humanistyki, nauk społecznych. 

Czyli jak? 

W publicznej narracji stworzyliśmy sobie mit algorytmu, ponadto samo słowo „algorytm” jest nam obce i jedyne, z czym się kojarzy, to ze światem technologii i programistów. Więc wizerunek jest taki, że jest to coś, co nie wiadomo do końca, jak działa. Trudno to zrozumieć, bo jest tak specjalistyczne, że rozumieją to tylko informatycy i programiści. Więc lepiej to im zostawić, bo się znają. Dlatego powinniśmy im zaufać, bo algorytm jest w tej narracji neutralny, obiektywny i sprawiedliwy.

A nie jest właśnie tak z algorytmami? 

Otóż nie jest. Nie ma czegoś takiego jak neutralność algorytmu. On zawsze na coś wpływa, ma w sobie zakodowane wartości, uprzedzenia, predylekcje, fantazje, marzenia swoich twórców. Dlatego jestem głębokim zwolennikiem tego, aby tej władzy wyłącznie im nie oddawać. Boję się świata skonstruowanego przez programistów. Jeśli tak będzie, to czas umierać. 

Bardzo krytyczna wizja.

Tak, bo nie ma neutralnych społecznie algorytmów, tak jak nie ma całkowicie neutralnych i obiektywnych ludzi, którzy je tworzą. W efekcie ich wpływ jest wielki, wielowymiarowy. Wpływają na to, co oglądamy, słyszymy, czytamy, na relacje z ludźmi, więzi społeczne, nasz światopogląd, ale nie jest to tak neutralne, jakby twórcy tego wpływu chcieli widzieć. Algorytmy formują jednostkę i to, kim jesteśmy. Kreują kulturę indywidualizmu i uproszczeń. Stymulują emocje i tak dalej. A gdyby ktoś chciał je zrozumieć i zajrzeć do tej skrzynki z napisem algorytm Facebooka, YouTube’a czy Google’a, to natrafiłby na kłódkę, bo to tajemnica korporacji.

Fot. shutterstock.com/Autor: Nok Lek
Fot. Nok Lek / Shutterstock.com

Czyli zwykli użytkownicy np. Facebooka są bezradni. Nie mają szans dowiedzieć się, jak to wszystko działa?

Oczywiście, że nie mają, ale ważniejsze jest pytanie: dlaczego nie wiedzą? 

A więc? 

Po pierwsze dlatego, że nikt nawet nie uczy ich zadawania takich pytań. Wielka szkoda, że w polskich szkołach już od podstawówki nie uczy się podstaw kodowania i etyki programowania. Pozostawiamy to samopas, bo jesteśmy zapatrzeni w retorycznie kształtowaną doskonałość narzędzi, które mamy w postaci smartfonów, komputerów. One stały się zresztą centrami zarządzania naszym życiem. Pod tym względem kompletnie abdykowaliśmy z roli człowieka ciekawego, zadającego pytania, bo uwierzyliśmy w narrację, że to nie nasza sprawa i cały ten postęp, niezwykle szybko rozwijająca się gałąź nauki, zwłaszcza uczenia maszynowego i NLP, dzieje się dla naszego dobra. 

A po drugie? 

Po drugie nie za bardzo rozumiemy, co dzieje się w tak dominujących organizacjach, jak Facebook, który dziś nazywa się Meta. Tymczasem na przykład już od dawna Facebook nie jest tylko medium społecznościowym, choć my z takim przeświadczeniem zostaliśmy. Stał się raczej Earthbookiem – imperium analizy złożoności świata, taką superplatformą i jedną wielką maszyną do zarabiania pieniędzy. 

Maszyną, która nie wiemy, jak działa, choć podejrzewamy, że może mieć na nas zły wpływ i wiele brudów za pazurami.

Rzeczywiście niektórzy, szczególnie politycy, chcą wiedzieć w Facebooku narzędzie zła i wiele osób w to uwierzyło, ale publiczny lincz Facebooka, który się odbywa, też nie jest sprawiedliwy. Równie dobrze można byłoby chłostać Google, Apple czy Tencent. Nawiasem mówiąc, ten lincz nie jest zresztą do końca zasłużony. 

Słucham?! Przecież Facebookowi tak wiele się zarzuca: od niewystarczającej walki z dezinformacją, przez polityczne polaryzowanie społeczeństw, żerowanie na naszych słabościach, aż po monetyzowanie naszej prywatności. 

Facebook stał się chłopcem do bicia, a pozostała konkurencja cieszy się, że to nie ich się grilluje. Firma Marka Zuckerberga to globalna korporacja, w której pracuje ponad 100 tys. osób. Wątpię, aby tych 30 tys. najlepszych inżynierów i programistów na świecie, tak świetnie zresztą opłacanych, budziło się i każdego rana po śniadaniu zastanawiało się, jak tu zmanipulować, oszukać i wykorzystać 3 miliardy użytkowników. Tak po prostu nie jest.

Jednak zarzuty są poważne. 

Tak, ale te algorytmy zawiadujące naszym życiem powstały z dobrymi intencjami. O tym jestem przekonany. Natomiast to, co się wydarzyło… to straty uboczne. 

Straty uboczne? Z ujawnionych przez Frances Haugen informacji wynika wiele: Facebook wiedział, że jego serwis Instagram szkodzi nastolatkom, prowadząc ich do uzależnień, obniżenia poczucia własnej wartości, a czasem nawet do problemów psychicznych i myśli samobójczych.

W humanistycznej perspektywie zarządzania organizacjami jest taki termin społecznych strat ubocznych, czyli kosztów, na które godzimy się za cenę rozwoju, w imię lepszej przyszłości. Jestem pewny, że te straty były w Facebooku dostrzegane, ale były tolerowane, bo postęp jest ważniejszy. Niemal wszyscy, nie tylko szefowie Big Techów, często kłaniamy się temu bożkowi postępu i godzimy na te straty uboczne.

Fot. shutterstock.com/Autor: Clara Murcia
Fot. Clara Murcia / Shutterstock

Nie wszyscy. Trwają przecież postępowania w Stanach Zjednoczonych czy w Unii Europejskiej, aby coś z Facebookiem zrobić.

W USA zastanawiają się nad podziałem Facebooka, ale to w żaden sposób nie rozwiąże problemu tego czy innego Big Techa. Wszyscy powołują się tu na przykład zdezorientowanego etycznie Standard Oil sprzed ponad stu laty. Tę firmę podzielono na kilkadziesiąt części, ale później okazało się, że suma tych części była silniejsza niż organizacja przed podziałem. Tak samo byłoby teraz z Facebookiem.

To może trzeba więcej transparentności co do tego, jak działają algorytmy Facebooka i większej ich kontroli, jak chcą urzędnicy w Unii Europejskiej? Pracują już zresztą nad takimi regulacjami. 

Wydaje mi się, że również nie tędy droga. Wielu wierzy, że gdyby Facebook udostępnił kody, to rozwiąże problem. Po pierwsze, to się nie zdarzy, nie powstają takie narzędzia ani regulacje. To, co się dzieje w polityce, to raczej teatr antymonopolowy. A po drugie, nawet gdyby tak się stało i powstały regulacje, to niewiele z tego wyniknie, bo postęp będzie wyprzedzał prawodawców. To nieuniknione. 

Co zatem możemy zrobić z problemem, jakim stały się potężne platformy cyfrowe?

Nie wierzę w rozwiązania prawne, raczej w dobrą wolę i presję społeczną. Wydaje się, że powinna ona dotyczyć interoperacyjności, czyli doprowadzenia do sytuacji, w której konkurenci Big Techów mieliby równy dostęp do danych, a użytkownicy, pod presją ich oczekiwań i wzrostu świadomości, odzyskaliby poczucie sprawczości. Na razie czują się bezradni wobec potęgi Big Tech.

Teraz jest bowiem tak, że istnieje pewna niepisana umowa społeczna. My, użytkownicy, dajemy swoje dane, a wy dajecie nam platformę i jej dobrodziejstwa „za darmo”. Oczywiście już wiemy, że nic nie jest za darmo, dlatego danie nam do nich większego prawa czyniłoby nas partnerami dla platform i zwiększyło konkurencję. Polityczna i społeczna uwaga skupia się bowiem teraz coraz częściej, i słusznie, na tym, że Big Techy są antykonkurencyjne. Co zresztą oznacza powrót do starego dylematu, czy ważniejsze jest zaspokojenie potrzeb użytkowników – a z tym radzą sobie dobrze, czy ważniejsza jest konkurencja rynkowa i rola państwa w jej stymulowaniu.

Danie użytkownikom prawa oznacza jednak regulacje. A do ich przestrzegania potrzebny jest policjant; ktoś, kto będzie sprawdzał, czy jest przestrzegane. Kto miałyby mieć takie prawo? Specjalny unijny urząd ds. algorytmów?

Na razie nie widzę w ramach Unii Europejskiej kompetencji, aby sprostać tym wyzwaniom. Facebook, ale i szerzej Big Techy są z jednej strony zbyt wielkie, by upaść, a z drugiej zbyt szybkie. Rozwijają się technologicznie w takim tempie, że – uogólniając – żadna regulacja za nimi nie nadąży. To życzeniowe myślenie, że jak oni się „otworzą” i pokażą nam kuchnię swoich algorytmów, to będziemy mogli narzucić im jakieś rozwiązania. Tak się nie stanie, bo oni się zmienią, znajdą sposób, aby to obejść.

Poza tym w systemie gospodarczym, w którym żyjemy, postęp jest nadrzędnym totemem i żaden polityk w UE nie powie: wyhamujmy to wszystko. Dlatego straty uboczne wciąż będą rosły. Szansą są tylko oddolne ruchy oraz rosnący poziom świadomości niejednoznaczności postępu oraz bardziej refleksyjny użytkownik, który nie będzie się godził na to, co teraz przyjmuje bez zastanowienia. Bardziej w to wierzę niż w deklarowaną omnipotencję i kompetencje UE. 

Fot. shutterstock.com/Autor: Wachiwit
Fot. Wachiwit / Shutterstock.com

Ale nawet jeśli będzie to ruch oddolny, to aby użytkownicy mieli większe prawa do swoich danych, potrzebne będą przepisy?

Nie to jest obecnie najważniejsze, choć operacyjnie może się tak wydawać. Problem w tym, że nadal żyjemy w świecie oświeceniowych przekonań, wedle których świat da się opisać w matematycznej rekonstrukcji, a jeśli się to jeszcze nie udaje, to – jak pan wspomniał – należy stworzyć lepszy algorytm. Na tym polega długi cień Gottfrieda Leibnitza wierzącego, że binarny kod leży u podstaw rozwoju świata. Tymczasem programowanie to, generalnie, zapominanie o tym wszystkim, czego nie uwzględniliśmy w systemie, czyli o znakomitej większości bogactwa ludzkiej egzystencji. Brakuje nam zatem najpierw krytycznej refleksji w stosunku do algokracji, zarządzania algorytmicznego i dataizmu. Gdy ta refleksja przyjdzie, może będzie szansa na prawne rozwiązania wobec Facebooka czy jego następców.

To może sztuczna inteligencja moderująca treści? Niektórzy twierdzą, że tak może brzmieć odpowiedź na materiały, jakie polecają nam algorytmy.

Nie jest na to gotowa. Póki co jest na etapie znanego z biologii pantofelka, ewentualnie wirusa pokarmowego; tak ma się dziś do potencjału ludzkiego umysłu.

Sztuczna inteligencja to zresztą kolejne słowo-wytrych. Modny, nadużywany termin, który kształtuje zbiorową wyobraźnię i łatwo sprzedaje się marketingowo. I kolejne kapitalne narzędzie, które może być wykorzystane do tego, aby uwolnić się z odpowiedzialności, no bo przecież to „algorytm zdecydował”, „osądził”. Wystarczy przejść się do banku. Jeśli nie stać nas na kredyt, to usłyszymy, że sztuczna inteligencja przeanalizowała naszą sytuację i odrzuciła nasz wniosek. To wygodne dla instytucji finansowych i, co ciekawe, przyjmujemy ten wyrok z pełnym zrozumieniem, bo wierzymy, że jest obiektywny, choć nie mamy bladego pojęcia, jak to wszystko działa.

W książce „Władza algorytmów” pisał pan, że masowe zastosowanie sztucznej inteligencji może dodatkowo zwiększyć dystans między bogatymi a biedniejszymi.

Wiele wskazuje na to, że będzie pogłębiać efekt świętego Mateusza, czyli bogatsi będą jeszcze bogatsi, a biedniejsi będą jeszcze biedniejsi. To kolejny mit, że internet nagradza wszystkich po równo. Owszem, biedniejsi są bardziej widoczni, ale nadal pozostaną biedni – władza algorytmów to bowiem także nietransparentność założeń, a w praktyce zarządzanie widoczności i wielowymiarowe wykluczenia. Zresztą w świecie zdominowanym przez marketing nie może być inaczej. Ponadto nie ma zatem sprawiedliwych algorytmów, ponieważ są odwzorowaniem naszych niedoskonałości.

Fundujemy sobie więc kolejny mit, że w końcu zbudujemy sprawiedliwy świat za sprawą sztucznej inteligencji, która te niedoskonałości zredukuje. Niestety tak się nie stanie w dającej się przewidzieć przyszłości, choć nie brakuje przykładów znakomitej poprawy na przykład efektywności gospodarowania. Niestety lepsza efektywność stosunkowo rzadko oznacza większy dobrostan społeczny, a dość często – wzrost nierówności w dystrybucji korzyści. 

Fot. shutterstock.com/Autor: rawpixel
Fot. rawpixel / Shutterstock.com

Niektórzy wierzą, że Facebook sam się naprawi. W myśl wolnorynkowej teorii, że będzie musiał, aby przetrwać. 

Takie tendencje i pewne ruchy widać. Wierzę w te dobre intencje. Ufam, że to są dobrzy ludzie, ale niedoskonali. Przynajmniej chcę w to wierzyć.

Dobrymi chęciami wybrukowane jest piekło. Przecież Facebook w 2018 roku obiecał zmienić algorytm na lepsze. Tak, żeby promował treści od znajomych. Ostatecznie jednak zwiększył tylko podziały społeczne.

Obiecywał wielokrotnie, choć sądzę, że wprowadzając kolejne zmiany, Facebook traktowany jako misyjna organizacja mógł po prostu nie znać i nie przewidywać do końca ich skutków. Mimo to jestem przekonany, że dobre intencje są tam dominujące. Ale trzeba też pamiętać o otoczeniu. Mówimy o świecie, w którym panuje hiperkonkurencja, w której trzeba godzić się na mnóstwo kompromisów na styku technologia i humanistyka, a te rodzą wspomniane straty uboczne. Te straty to jednak skutki uboczne, a nie owoc celowych działań. 

Sygnalistka Frances Haugen przekonuje, że szefostwo Facebooka świadomie stawia zysk ponad dobro swoich użytkowników.

Ja w Marku Zuckerbergu widzę raczej misjonarza-biznesmena, ale z ideą i wizją, a nie zło wcielone. Dlatego jestem daleko od biczowania go, jak robią to inni. Natomiast faktycznie widać, że przez lata przeszedł długą drogę: od pewnej wizji naprawy świata do twardego stąpania po rynku. Ale nie sądzę, aby jego jedyną misją było zarabianie pieniędzy. A trzeba też pamiętać o jego otoczeniu, czyli, jak mawiają Amerykanie, money obsessed world. To świat notowanych na giełdach, goniących za zyskiem korporacji. Kolejny raz niepotrzebnie więc wierzymy w mit, że Facebook to firma budująca świat demokracji, choć może kiedyś, w czasach tzw. Arabskiej Wiosny, sama w to uwierzyła.

A czy ofiarą mitu nie padł też sam Mark Zuckerberg? To dziecko kalifornijskiej ideologii techsolucjonizmu, która zakłada, że organizacje cyfrowe czy programiści zajmują się z powodzeniem rozwiązywaniem problemów społecznych. Jeśli jakiś algorytm go nie rozwiązuje, to trzeba go napisać na nowo. 

Tak, ale on nie jest pierwszy ani ostatni. To wspólnotowe doświadczenie wielu dzieci kalifornijskiej ideologii i wiary, że cyfrowe uniwersum będzie lepsze niż to, co mamy w realu.

Fot. shutterstock.com/Autor: Iv-olga
Fot. Iv-olga / Shutterstock.com

Tylko że to facebookowe stworzyło nam wiele problemów. A Facebook zamiast je rozwiązywać, to chce zbudować metaverse. Wielu odczytuje to jako ucieczkę do przodu. 

Widzę to inaczej. Nie jako ucieczkę, lecz element strategii, może szybciej ogłoszonej, czyli kolejny etap rozwoju, gdy na rynku platform robi się coraz ciaśniej, a młodzi użytkownicy odchodzą do konkurencji w postaci TikToka. To nie jest tak, że gdy Frances Haugen zaczęła coś głosić – nie mówi zresztą niewiele więcej niż od dawna wiadomo – to „rzucono pomysł” dla odwrócenia uwagi. Nad takimi projektami pracuje się latami. Widzę zatem w Meta(verse) dobrze przyjęty przez rynek finansowy krok wyznaczający kierunek na przyszłość i mający przenieść biznes do nowej, jeszcze bardziej obiecującej rzeczywistości gospodarczej, który przy okazji oczywiście nieco rozwiązuje problemy wizerunkowe.

Bo dla Meta metaverse to przede wszystkim obietnica sukcesu finansowego osiąganego dzięki aktywności wszystkich firm – na przykład wielkie marki modowe już tam są. Zresztą Meta w tych projektach nie jest odosobniony. Natomiast straty uboczne pozostaną, bo wejdziemy tam z całą naszą doskonałością i niedoskonałością. Dlatego warto zadać sobie pytanie, czy ten cały bagaż nierozwiązanych problemów, które mamy z internetem, przeniesiemy do nowego świata metaversum? Może to czas na zupełnie nowy, cyfrowy świat. Nie zbudujemy go jednak w zgodzie z logiką kapitalizmu nadzoru, jakim widzi go Shoshanna Zuboff, i monetyzacji każdego aspektu ludzkiego życia.

Ilustracja tytułowa: ElmsArt/shutterstock.com