„Dla cyfrowych platform jesteśmy biomasą mieloną na profile marketingowe”. Na jak dużo jeszcze im pozwolimy?

Dokument „Społeczny dylemat” teoretycznie nie mówi nic nowego o świecie cyfrowych platform. Od faktu, że użytkownicy są wyceniani i sprzedawani niczym przedmioty, po algorytmy nakręcające dezinformację. Jednak to w jaki sposób opowiada o dylemacie platform społecznościowych sprawia, że powinien być pokazywany w każdej szkole.

„Dla cyfrowych platform jesteśmy biomasą mieloną na profile marketingowe”

„Nie ma wielkich rzeczy, które nie rzucają klątwy na ludzi” – ten cytat z Sofoklesa otwiera dokument, który pierwszy raz pokazano w styczniu na Festiwalu Filmowym w Sundance. Od tamtej pory film został zaktualizowany o wydarzenia dotyczące koronawirusa. Nie tyle dotyczące samej choroby, tylko tego, jak niespotykana była skala dezinformacji, która wybuchła przy okazji. To, jak w czasie pandemii dodatkowo odczuliśmy potęgę mediów społecznościowych, jest doskonałym uzupełnieniem cytatu Sofoklesa. 

Film, który, o ironio, pokazuje Netflix (czyli jakby nie było kolejna globalna cyfrowa platforma), jest jednym wielkim oskarżeniem branży technologicznej. Jego reżyser próbuje zidentyfikować źródło problemów z mediami społecznościowymi i przeanalizować, do czego w przyszłości mogą one doprowadzić. Ale cóż, podobnie jak w przypadku niektórych statusów relacji na Facebooku – to skomplikowane.

Wielką siłą tego dokumentu są jego bohaterowie: weterani z Doliny Krzemowej, wybitni inżynierowie opracowujący kolejne rozwiązania dla BigTechów, badacze o światowej sławie od lat zajmujący się wpływem technologii na procesy społeczne, polityczne i gospodarcze. Łączy ich jedno: podkreślają początkowe dobre intencje mediów społecznościowych i to, jak tymi dobrymi intencjami zostało wybrukowane dzisiejsze piekło. Być może najbardziej symbolicznym przykładem jest przycisk „lubię to”, o którym opowiada Justin Rosenstein, były inżynier Google i Facebooka. Przycisk pierwotnie został zaprojektowany jako narzędzie do szerzenia pozytywnych emocji, a skończył jako behawioralne urządzenie śledzące i raportujące o naszych zainteresowaniach. 

Siłą napędową dokumentu jest Tristan Harris, były etyk projektowania w Google i współzałożyciel Center for Humane Technology. To właśnie on zauważył ​​tytułowy „dylemat”: utopii i dystopii oferowanych jednocześnie przez media społecznościowe. To one wydobywają ze społeczeństwa najlepsze i najgorsze, ułatwiają nam tak wiele spraw. Ale jakim kosztem?

Największe wrażenie może zrobić właśnie koszt – ukazywany na przykładzie fabularyzowanych fragmentów opowiadających o, wydawać by się mogło, zwykłym życiu amerykańskiej rodziny. Owszem, pewną sztucznością rażą fragmenty mówiące w przerysowany sposób o kolejnych mechanizmach cyfrowych uruchamianych w stosunku do tych konkretnych ludzi. Mechanizmach, które niosą za sobą dramatyczne skutki, jak uzależnienie od ekranów, depresja i bycie zmanipulowanym przez dezinformację tak bardzo, że wpada się w polityczny krąg ekstremistów. Ale ten fabularny zabieg – zresztą bardzo zbliżony do rodzinnej historii ze świetnego serialu BBC Rok za rokiem” – pozwala unaocznić sobie teorię, o której mówią kolejni bohaterowie dokumentu. 

Choćby gorzkie słowa Harrisa:

– Jeśli produkt jest bezpłatny, to ty jesteś produktem. 

Owszem teoretycznie większość ludzi już zdaje sobie sprawę, że platformy społecznościowe oferujące swoje usługi za darmo zarabiają, sprzedając dane użytkowników. Ale dokument mówi jasno: to nie są żadne wirtualne dane, handluje się naszymi życiami. A kiedy słyszymy, za jakie kwoty sprzedawane są ułamki naszej uwagi i kto je kupuje (np. reklama broni), to opisane zjawisko przestaje być tylko teoretycznym problemem.

Shoshana Zuboff, legendarna autorka terminu kapitalizm nadzoru”, w dokumencie przekonuje: rynki handlu „ludzką przyszłością” są niczym rynki handlu boczkiem wieprzowym. O ile zakazaliśmy sprzedaży niewolników i ludzkich organów, to z kupczeniem naszym życiem, czasem i uwagą nie mamy problemu.

Większość tez z dokumentu Orlowskiego nie będzie zaskakująca dla każdego, kto interesuje się tematyką nowych technologii. Ale i tak wysłuchanie kolejnych etapów procesu globalnego uzależniania od platform cyfrowych warte jest ponad 80 minut. A na pewno warto dokument pokazać bliskim, którzy mogą być mniej świadomi tych zjawisk – szczególnie dzieciom, nastolatkom, osobom starszym. 

Dokument jest dostępny tylko na Netflixie. Osoby, które nie mają wykupionej subskrypcji, mogą skorzystać z bezpłatnego okresu próbnego (wciąż istnieje taka możliwość, mając zaproszenie od kogoś znajomego). Niezależnie od tego, czy posiada się subskrypcję, czy też nie, warto jednak uważać i starać się nazbyt nie ulec algorytmowi tej platformy. 

Społeczny dylemat” (The Social Dilemma”), 2020 r., reż. Jeff Orlowski, prod. Larissa Rhodes, Netflix.

– Gramy w nierównej grze, której reguły ustala ktoś ponad nami. Popularność, klikalność są tym, co dyktuje widoczność – gorzko mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon. I dodaje, że w tej grze cyfrowe korporacje prowadzą na nas ciągły eksperyment psychologiczny, sprawdzając, jak reagujemy na konkretne obrazy, wizerunki, emotikony.

fot. Luka Łukasiak

Facebook, Twitter, LinkedIn, pewnie też korzystasz z Gmaila. Jak reszta z nas czerpiesz korzyści z wygody, jaką dają te platformy, ale równolegle krytykujesz ostro wielkich graczy stojących za nimi. 

Katarzyna Szymielewicz*: Rzeczywiście mam kilka kont w mediach społecznościowych. Choć w przypadku Facebooka jestem tylko biernym użytkownikiem – utrzymuję konto, ale aktywnie nie korzystam. Pocztę na Gmailu też sobie zostawiłam, ale tylko do zakupów internetowych, jako filtr na komercyjny spam i adres do zarządzania zgodami marketingowymi. Wychodzę z założenia, że jak już wchodzę do jaskini lwa i odsłaniam się na stronach e-commercowych, to skrypty śledzące Google i tak mam w pakiecie. 

Mamy te narzędzia, używamy ich. To one ułatwiają nam życie i, co więcej, są tak skonstruowane, że przywiązują nas do siebie. Z drugiej strony coraz więcej ludzi uświadamia sobie, że ponosimy konkretne koszty wygody. To jest ten prawdziwy socialmediowy dylemat?

Nie porzucamy ich, ponieważ działa na nas potężna siła przyciągania. To tam są inni ludzie i te wszystkie informacje, których potrzebujemy. Dobrze już opisane i zbadane efekty sieciowe skutecznie utrudniają nam pójścia gdzie indziej. Dziennikarka Kashmir Hill podjęła na sześć tygodni próbę wymiksowania się z Amazona, Facebooka, Google, Microsoftu i Apple i, jak sama opisuje, to było dla niej wręcz piekło. Musiała włożyć w ten eksperyment dużo czasu, wyrzeczeń i pieniędzy. Dlatego w Panoptykonie nigdy nie stawiamy sprawy w ten sposób: albo korzystasz z komercyjnej sieci i tracisz kontrolę nad swoimi danymi, albo z niej wychodzisz. To nie jest nawet realny dylemat, tylko zwyczajna opresja. I platformy, które współtworzą komercyjny internet, doskonale sobie z tego zdają sprawę. Wiedzą, że ich grawitacja jest bardzo silna. Wykorzystują swoją skalę i przewagę w postaci wiedzy, jaką zgromadziły przez parę dekad śledzenia ludzi, do projektowania rozwiązań, które odpowiadają na nasze potrzeby, zanim sami je dostrzeżemy. Dzięki precyzyjnemu targetowaniu – nie tylko treści reklamowych, ale wszystkiego, co serwują – są w stanie te potrzeby skutecznie kształtować. Zwykły zjadacz internetu naprawdę nie ma w tym starciu szans. 

Rzeczywiście nasze życie jest mocno zaplątane w te platformy. Spójrzmy na nasz wywiad. Mnie, jako jego autorce, będzie zależało na tym, żeby był czytany. Aby tak się stało, będzie trzeba go dobrze ustawić pod SEO, czyli automaty Google i dodatkowo promować w mediach społecznościowych. Bez tych zabiegów nie trafi do odbiorców. 

Gramy w nierównej grze, której reguły ustalają najsilniejsi ekonomicznie aktorzy. Zasada działania mediów społecznościowych i wyszukiwarek jest ustawiona pod interes reklamodawców, bo to oni płacą za nasze, tylko pozornie darmowe, cyfrowe usługi. Dlatego to popularność i klikalność treści jest premiowana. Nie jakość, nie wiarygodność. Nawet gdybym chciała ustawić dla siebie inne parametry, np. ręcznie wybrać źródła, które uważam za najbardziej wiarygodne, nie jestem w stanie tego zaprogramować. Nie mam narzędzi, żeby zmusić takie platformy, jak Facebook i Google, żeby serwowały mi treści, które sama uważam za ciekawe i wartościowe. W efekcie wszyscy toniemy w clickbaitowych, sensacyjnych treściach i fake newsach. 

Tylko, że wszyscy zgadzamy się tak grać.

Po prostu nie mamy innego pola do gry. Co nie znaczy, że musimy się poddać. Ja widzę przynajmniej trzy ścieżki. Rzeczywiście, możemy pogodzić się z tym, że platformy internetowe – kuratorzy treści, którzy pomagają nam nie zgubić się w galaktyce internetu – mają swoje interesy i są to interesy komercyjne, zbieżne z interesami reklamodawców. Możemy zaakceptować ich komercyjną logikę i korzystać z bardzo wąskiego wyboru, jaki nam zostawiają. Ale to tylko jedna droga. Druga droga prowadzi na przeciwny biegun i zakłada odrzucenie platform. Zamiast liczyć na algorytm, który usłużnie i błyskawicznie poda nam kontent serwowany prosto do gardła, jak karma dla kaczek, możemy podjąć wysiłek i wrócić do samodzielnego wyszukiwania wartościowych treści. Przejąć odpowiedzialność za własną informacyjną dietę. To trudne, ale nadal możliwe. I jest jeszcze trzecia droga – ta, którą wybraliśmy w Fundacji Panoptykon, decydując się polityczną aktywność i walkę o lepsze regulacje. Ta droga zakłada, że zmiana reguł gry jest możliwa, że jako obywatele możemy skutecznie naciskać na regulatorów, polityków i świat biznesu. Na tej drodze mamy już pewne sukcesy. Unia Europejska narzuciła amerykańskim firmom swoje reguły ochrony danych osobowych, czyli RODO. Google przestawił wiele domyślnych ustawień na takie, które chronią prywatność. Facebook zaczął się publicznie spowiadać z targetowania reklam politycznych. Ale to dopiero początek. Potrzebujemy realnej, społecznej kontroli nad tym, jak nasze dane są wykorzystywane. Pełnej przejrzystości targetowania, pełnego dostępu do gromadzonych o nas danych i takich narzędzi do zarządzania swoimi danymi, które działają niezależnie od komercyjnych platform. 

Mówisz o procesach kontrolnych. Jednak zanim do nich przejdziemy – kiedy jako użytkownicy w ogóle zauważyliśmy, że jest co kontrolować? Cyfrowe korporacje przecież nie od razu stały się synonimem wszystkiego, co złe w nowych technologiach. Co takiego się stało i kiedy, że znalazły się pod pręgierzem?

Kiedy robiłam rachunek sumienia na dziesięciolecie Fundacji Panoptykon, czyli w ubiegłym roku, uczciwie sięgnęłam do naszych tekstów i tekstów ludzi, których czytaliśmy na początku tej dekady. Zaskoczyło mnie, jak wcześnie ta krytyka się pojawiła. Poza newsowym mainstreamem ona się tli właściwie odkąd platformy internetowe zaistniały na masową skalę. Gdy tylko zaczęły przyciągać użytkowników, zupełnie nieświadomych pułapki, w jaką wpadają, ludzie rozumiejący internet, rozumiejący stawkę, jaką od początku była kontrola nad informacją w sieci, alarmowali, że ich model biznesowy jest niebezpieczny. Sięgając po przyjazny i błyskawiczny interfejs, taki jak okno wyszukiwarki czy strumień aktualności na platformie społecznościowej, jednocześnie zgadzamy się na obecność pośrednika między nami i całą tą internetową galaktyką. Taki pośrednik ma ogromną władzę – to on wybiera dla nas informacje, kształtuje dla nas obraz świata, jest naszym kuratorem i cenzorem. W komercyjnym internecie nie mamy kontroli nad tym filtrem, bo to nie jest usługa, za którą płacimy. To jest usługa, którą platformy internetowe świadczą swoim prawdziwym klientom – reklamodawcom. W tym trójkącie naiwny użytkownik jest najsłabszym ogniwem. Zwierzyną łowną, obiektem manipulacji. Niestety, musieliśmy poczekać jakieś pięć lat, żeby to myślenie przedarło się do mainstreamu. 

W moim odczuciu przełomowa była pod tym względem ACTA i masowe protesty, jakie wybuchły w obronie praw internautów. Wcześniej za jedyne zło w świecie internetu uważaliśmy cyberprzestępców, którzy czyhali na nasze pieniądze. Nagle okazało się, że są jeszcze inne czarne charaktery: wielkie korporacje i politycy gotowi odbierać naszą wolność w sieci. 

Dokładnie wtedy zobaczyliśmy grę interesów potężnych firm z Hollywood i rządów, które chciały albo musiały iść im na rękę. Same cyfrowe korporacje na tym etapie jeszcze miały pozytywny wizerunek – firm, które stoją po stronie zwykłych użytkowników. Ale wkrótce wybuchła afera Edwarda Snowdena i wtedy przekonaliśmy się, że kiedy trzeba, te fajne cyfrowe platformy też współpracują z rządami. Snowden ujawnił koło zamachowe, które napędza elektroniczny nadzór: dane zbierane przez prywatne korporacje karmią programy inwigilacji NSA i innych służb, a bardzo liberalna regulacja promowana przez Stany Zjednoczone pozwala tym firmom śledzić nas bezkarnie i dyskretnie, na masową skalę.

Po drodze dodatkowo austriacki aktywista Max Schrems zaczął nagłaśniać kwestie tego, jak wiele danych na nasz temat zbierają i przetwarzają media społecznościowe.

Tak, batalie sądowe Schremsa pokazały nam, że Facebook – nie bójmy się tego słowa – ściemnia w sprawie tego, jak wykorzystuje nasze dane. Na przykład wcale nie usuwa ich ze swoich serwerów, kiedy tego żądamy. Od połowy drugiej dekady XXI wieku miejsce techoptymizmu zaczął zajmować techrealizm. A po aferze Cambridge Analytica, która pokazała skalę zagrożenia dezinformacją i nowe – bardzo skuteczne – narzędzia politycznych manipulacji, przerodził się on wręcz w techsceptycyzm. Od mniej więcej pięciu lat mamy coraz więcej materiału dowodowego, który świadczy przeciwko wielkim platformom. Potrafimy już nazwać i udokumentować ich negatywny wpływ na nasze życie: od śladu węglowego, który zostawiają za sobą serwery, po szkody na zdrowiu publicznym. Coraz więcej mówi się o tym, jak media społecznościowe wzmagają depresję wśród nastolatków, cyfrowych uzależnieniach i zaburzeniach w rozwoju dzieci, które zostały wystawione na rekomendacje YouTube. Komisja Europejska, która właśnie zakończyła społeczne konsultacje prawa ograniczającego władzę wielkich platform, już nie pyta o to, czy mamy problemy z ich funkcjonowaniem, ale o to, jak te problemy skutecznie rozwiązać. 

No właśnie, jak?

Mimo że platformy internetowe są naprawdę potężne, nikt w Brukseli nie chce ich zniszczyć. Jest konsensus co do tego, że potrzebujemy pośredników, którzy pomagają nam nawigować w sieci. Chcemy ich jednak okiełznać, poddać społecznej kontroli i ograniczyć możliwości manipulacji, jakie daje bezprecedensowa wiedza o ludziach. Z jednej strony nie możemy obarczać Facebooka odpowiedzialnością za to, co na platformie publikują jego użytkownicy. Media społecznościowe tym właśnie różnią się od tradycyjnych mediów. Z drugiej strony Facebook powinien ponosić pełną odpowiedzialność za to, jak działa stworzony przez niego filtr, bo właśnie w ten sposób kształtuje pokazywaną nam rzeczywistość. To, w jakiej kolejności treści są nam serwowane, w jakim momencie do nas trafiają, czy działają na nasze emocje i jakie emocje mają za zadanie wywołać, nie jest przypadkowe. Na tym polega władza facebookowych algorytmów, którą powinniśmy móc kontrolować. Sęk w tym, że dziś te mechanizmy pozostają przed nami ukryte w czarnych skrzynkach. Są otoczone nimbem tajemnicy, co najmniej jakby to były czary, a nie twarda statystyka.

Mówisz niemalże dokładnie tymi samymi słowami, jak jeden z bohaterów dokumentu Netflixa, który podkreśla, że funkcjonowanie algorytmów jest dla nas takie samo magiczne, jak sztuczki cyrkowe. Nie rozumiemy, co się zadziało – widzimy jedynie efekt.

Zaryzykowałabym stwierdzenie, że efekt działania algorytmów użytkownicy traktują jak powietrze. Nie są w stanie go krytycznie ocenić. W codziennym doświadczeniu po prostu nie zdajemy sobie sprawy z tego, że postrzegamy świat przez specjalnie dla nas skonstruowany filtr. Skupiamy się na zawartości, na treści, która wzbudza nasze emocje i prowokuje do reakcji. Naprawdę trudno oczekiwać od użytkownika, że za każdym razem zada sobie pytanie: dlaczego to widzę? Na tym wyparciu, czy też zwyczajnym ograniczeniu naszej percepcji, korzystają cyfrowe korporacje, dla których jesteśmy wdzięcznym, podatnym obiektem badań. Przez cały czas bierzemy udział w eksperymencie psychologicznym. Świetnie opłacani specjaliści od projektowania interfejsów i analitycy danych sprawdzają, jak reagujemy na konkretne obrazy, kolory, emotikony. Ta subtelność i niewidoczność mechanizmów władzy, którymi posługują się platformy internetowe, przesądza o ich skuteczności i zdecydowanie utrudnia społeczną kontrolę. 

To jak regulować te platformy, gdy ich mechanizmy są niewidoczne, my jesteśmy uzależnieni od cyfrowych usług, a do tego same firmy działają zazwyczaj w amerykańskim porządku prawnym? 

W Panoptykonie mamy na to pomysł, na który składają się aż trzy filary. Bo to, niestety, musi być kompleksowa i przemyślana strategia. Punktowo załatwić się tego nie da. Pierwszy filar to radykalna przejrzystość. Jako królik doświadczalny dla cyfrowych platform mamy prawo poznać mechanizmy ich działania. Powinniśmy mieć pełen dostęp do informacji, które o nas zbierają – przede wszystkich do tych, których sami platformie nie dostarczyliśmy, ale które zostały nam przypisane przez algorytm. Oraz wgląd w logikę algorytmów, które rozgrywają nasze emocje i stymulują naszą uwagę.

Chciałabyś wiedzieć, że np. Katarzyna Szymielewicz jest dla Facebooka jako odbiorca danej reklamy warta, powiedzmy, 70 groszy?

Wątpię w możliwość ujawnienia tak szczegółowych estymacji cenowych. Przede wszystkim dlatego, że cena naszej uwagi dynamicznie się zmienia i jest dyktowana przez mechanizmy giełdowe. Za to chciałabym, by jawna była logika optymalizacji, czyli tak naprawdę cel, pod który dana platforma ustawia swoje algorytmy. Czy chodzi jej o to, żebym scrollowała bez końca, czy o to, żebym się bardziej angażowała? Jakie emocje chce u mnie wywołać? Co chce mi „sprzedać” w imieniu swoich płacących klientów? Domagając się takich informacji, mamy oczywiście świadomość, że nie będzie to łatwe do pokazania. Ale mam wiarę w specjalistów od UX i marketingu. Jeśli tylko będą chcieli, znajdą sposób na przejrzystość, tak jak wcześniej wynaleźli wiele sposobów na ukrywanie przed użytkownikami tego, co ważne. Inspirują nas doświadczenia z branży farmaceutycznej. Zasadę działania leków też nie jest tak prosto wyjaśnić, a mimo to mamy pewne patenty. Są regulacje na poziomie reklamy, są kolorowe opakowania i spokojniejsze ulotki dla pacjenta; wreszcie jest szczegółowa dokumentacja dla farmaceutów i regulatorów.

A nie skończy się to sztucznym rozwiązaniem, pojawieniem się długich wykładni w regulaminach platform, których i tak nikt nie będzie czytał? 

Możemy wspólnie powalczyć o to, by tak się nie skończyło. To zadanie i dla regulatorów, i dla takich organizacji, jak Panoptykon, i dla samych konsumentów. Powinniśmy wspólnie dopilnować, by te nowe obowiązki informacyjne nie przerodziły się we własną karykaturę. Na pewno jest to możliwe: skoro Facebook dał radę zbudować bardzo przyjazny interfejs z setkami funkcji i ustawień, dlaczego nie miałby sobie poradzić z podobnym interfejsem do zarządzania danymi i objaśniania zasad, według których pracują algorytmy? 

Ale szanuję to, że nie każdy użytkownik będzie chciał z takiej wiedzy skorzystać. Ma prawo nie chcieć. Dlatego drugi filar naszego pomysłu na regulację platform to ochrona biernego użytkownika. Zdaję sobie sprawę z tego, że większość ludzi nie kliknie w ikonki objaśniające logikę działania algorytmów. I również ci ludzie mają prawo czuć się na platformie bezpiecznie. Kluczem są domyślne ustawienia. Do tej pory komercyjne platformy w swoich domyślnych ustawieniach nie dbały o nasz cyfrowy dobrostan”, a maksymalizację swojego zysku. To się powoli zmienia. Na przykład Instagram wprowadził znacznik „koniec nowych treści”, który zniechęca do dalszego scrollowania, pozwala użytkownikowi odetchnąć. Google, podobno, nie rejestruje już dokładnej lokalizacji swoich użytkowników, dopóki się nie zgodzą. Ale potrzebujemy więcej takich ochronnych mechanizmów. Przede wszystkim platformy nie powinny, bez naszej wyraźnej zgody, serwować reklamy, która została dopasowana do naszego zachowania w sieci. Takie targetowanie wykorzystuje nasze słabości i dane wrażliwe, dlatego jest naprawdę niebezpieczne. 

W naszej propozycji jest wreszcie trzeci filar, pomyślany dla zaawansowanych użytkowników i dla firm, które będą chciały świadczyć usługi nadbudowane na infrastrukturze platform internetowych. To narzędzia do samodzielnego zarządzania danymi i algorytmami. W miejsce starych „ustawień prywatności”, które określa dla nas Facebook czy inna platforma, możemy sobie wyobrazić w pełni programowalny interfejs, który autentycznie realizuje nasze potrzeby. I uczy się w oparciu o nasz feedback.

Ale przecież my to już teoretycznie robimy, klikając „lubię to”. Wysyłamy algorytmom sygnał, co nas interesuje.

Tylko teoretycznie. Oczywiście taka platforma, jak Facebook te informacje zbiera i wykorzystuje, choćby po to, żeby uzupełniać nasze profile marketingowe. Ale nadal o tym, co ostatecznie zobaczymy na ekranie, nie decyduje nasza preferencja, tylko interes reklamodawcy. Najwyżej w strumieniu aktualności lądują treści, które mogą nas skłonić do większego zaangażowania albo są po prostu reklamowo atrakcyjne.

W dokumencie Netflixa Shoshana Zuboff mówi tak: Mamy nowy rynek. Na tym rynku handluje się wyłącznie kontraktami terminowymi na ludzi”.

To świetna metafora. W reformie, którą proponujemy, chodzi właśnie o to, by odebrać cyfrowym gigantom kontrolki do sterowania naszym zachowaniem i przejąć władzę we własne ręce. Oczywiście, jeśli nie chcę, nie muszę tymi kontrolkami zarządzać sama. Mogę to zadanie powierzyć np. sztucznej inteligencji, która będzie działać w moim interesie. Taki programowalny interfejs mógłby być obsługiwany przez wyspecjalizowane firmy albo organizacje społeczne, działające w imieniu użytkowników i przez nich utrzymywane. W tym scenariuszu mogłabym wybrać innego kuratora dla swojego strumienia aktualności, który odsieje dla mnie niewiarygodne newsy albo zadba o mój cyfrowy dobrostan i ograniczy stymulację po wyznaczonej przeze mnie godzinie. Jedną barierą dla takich rozwiązań jest brak interoperacyjności po stronie wielkich platform. Jej narzucenie bardzo poważnie rozważa Komisja Europejska, a my ten postulat mocno wspieramy. 

Ja wyciągam z tych planów jeden podstawowy wniosek: takie usługi musiałoby być płatne. Jednak skoro taki lepszy internet byłby płatny, to zapewne dostęp do niego miałaby tylko część użytkowników, ta bardziej świadoma i zamożna. A reszta wciąż byłaby walutą.

Myślę, że doszliśmy do momentu, w którym już wiemy: tzw. darmowa usługa wcale nam się nie opłaca. Zapłaciliśmy wysoką cenę: staliśmy się cyfrową biomasą mieloną na profile marketingowe; na momenty uwagi, za które ktoś płaci. Jeśli chcemy z tej drogi zawrócić i jednak zostać klientem w partnerskiej relacji z jakimś internetowym medium, musi się pojawić inna gratyfikacja finansowa. Przy czym to nie musi być bezpośredni transfer z kieszeni samego użytkownika. Sfinansowanie takich nowych usług i nowych mediów może być też zadaniem dla państw albo dla filantropów, których na scenie technologicznej nie brakuje. Już zobaczyliśmy, jak wielki wpływ na społeczeństwo, rynek i stan naszej demokracji mają cyfrowe platformy. To chyba jest wystarczający argument, by zacząć mobilizować środki publiczne na alternatywne modele zarządzania treścią. Tak jak zrobiliśmy choćby z publiczną służbą zdrowia. 

* Katarzyna Szymielewicz prawniczka specjalizująca się w problematyce praw człowieka i nowych technologii. Współzałożycielka i prezeska Fundacji Panoptykon – organizacji broniącej praw człowieka w kontekście współczesnych form nadzoru nad społeczeństwem. Wiceprzewodnicząca europejskiej sieci European Digital Rights.