1. SPIDER'S WEB
  2. plus
  3. SW+

Szymielewicz: „Czas zabawy w kotka i myszkę z platformami cyfrowymi się skończył"

Szymielewicz: Czas zabawy w kotka i myszkę z platformami cyfrowymi się skończył. Czekają je regulacje

– Tak jak etykieta na produkcie w supermarkecie informuje nas o tym, że kupujemy niezdrowe jedzenie, tak usługi internetowe powinny nas ostrzegać: uwaga, za tym interfejsem schowany jest algorytm, który ma taki a taki cel - o tym, jak konkretnie uzdrowić Big Techy, mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.

Algorytmy bez kontroli, moderacja treści, dezinformacja, monopolizacja kolejnych rynków, targetowanie nie zawsze przyjaznymi i bezpiecznymi reklamami... To, jak działają platformy cyfrowe, jest pod coraz poważniejszą krytyką. W wyniku „Facebook Files” czyli dokumentów ujawnionych przez sygnalistkę Frances Haugen, pod największym pręgierzem jest właśnie Facebook. Mamy dowody, że koncern Marka Zuckerberga miał większą (niż chciałby to przyznać) świadomość generowanych problemów i zagrożeń. Ale mierzymy się nie tylko z problemami Facebooka. Przecież i inni wielcy świata technologii jak Google, Amazon, AirBnB, Uber czy nawet Netflix też nie tylko budzą konsternację tempem swojego wzrotu ale przedewszystkim tym jak silną, czasem wręcz monopolistyczną pozycję zdobyli na kolejnych rynkach i do czego jej używają.

Dlatego w SW+ zaczęliśmy cykl wywiadów o tym, jak uzdrowić świat cyfrowych platform, by był faktycznie bezpieczny dla ich użytkowników. Zaczęliśmy go rozmową z Niną Jankowicz, ekspertką ds. dezinformacji, autorką książki „How to Lose the Information War” o tym, że Facebook musi zacząć inwestować także w rynki nieanglojęzyczne. Dr Dominik Batorski, ekspert ds. analizy danych, tłumaczył, że nie możemy całą odpowiedzialnością za polaryzację polityczną obarczać tylko algorytów, ale zarazem podkreślał konieczność prawdziwej kontroli nad ich programowaniem.

Katarzyna Szymielewicz, prezeska Fundacji Panoptykon, twierdzi zaś, że metodą na regulację i uzdrowienie Big Techów jest ich rozwarstwienie. Tak by były możliwe inne modele biznesowe niż tylko te obecnie nam znane. Bo w tych obecnie obowiązujących produktem stali się... ludzie. - Mam nadzieję, że tym razem czeka nas realna reforma. Dużo będzie zależało od sprawności regulatora, choć Polska zapewne będzie maruderem na tle Europy. Nie mamy budżetów oraz specjalistów, którzy mogliby zasilić takiego regulatora – ostrzega Szymielewicz.

Nie może być tak, że będziemy musieli walczyć o swoje prawa w urzędzie

Podstawowe pytanie, jakie dzisiaj wszyscy powtarzają w odniesieniu do platform cyfrowych, brzmi: co możemy zrobić? Jesteśmy już na takim etapie, gdy wiemy, że konieczne są regulacje i że żadne samoregulacje nie wchodzą w grę. Co w takim razie powinniśmy robić, zarówno w Unii Europejskiej, jak i w Polsce? Na co najbardziej stawiać?

Katarzyna Szymielewicz fot. Luka Łukasiak

Katarzyna Szymielewicz: Myślę, że powinniśmy wsłuchać się w to, co próbuje powiedzieć Frances Haugen w swoich zeznaniach i wyciągnąć z nich wnioski. Problemem jest model biznesowy Facebooka. I nie tylko jego, bo większość dominujących platform internetowych działa w oparciu o ten sam model: traktuje swoich użytkowników jak surowiec, który się monetyzuje, podczas gdy realnym klientem jest reklamodawca.

W takim ekosystemie, którego cele wyznacza zysk reklamodawcy, człowiek zawsze będzie eksploatowany, bo zasadą jest jego ciągłe angażowanie. Taka ciągła stymulacja jest dla nas ludzi, męcząca, a bywa wręcz niebezpieczna. 

Dopóki nie zakwestionujemy tego modelu biznesowego, będziemy wciąż lądować w tej samej sytuacji, którą dobrze ilustrują „Facebook Files”. Czyli będziemy doświadczać poważnych szkód społecznych i konkretnych krzywd na poziomie indywidualnym. Będziemy narzekać na polaryzację, dezinformację czy radykalizację społeczeństwa, będziemy się leczyć z cyfrowych uzależnień, depresji, anoreksji i innych chorób cywilizacyjnych. Jak to zrobić? Haugen mówi coś bardzo ważnego: „Facebook will not fix itself”, Facebook sam się nie naprawi. Ona wierzy, że takie wyleczenie można przeprowadzić w kilku krokach. Pierwszym jest przejrzystość. Później zaś regulacja zakazująca pewnych działań. I wreszcie do gry musi wejść sam regulator, który tego pilnuje i wymusza zgodność z prawem. 

W Europie możemy jednak skorzystać z lekcji, jaką było RODO i inne regulacje, które próbowały dokładnie to osiągnąć. Czyli wymusić przejrzystość i odpowiedzialność firm przetwarzających dane o ludziach. I coś tam drgnęło – zmieniły się ustawienia prywatności, zwiększyła się przejrzystość, ale model działania Facebooka i innych Big Techów pozostał ten sam. Te platformy nadal żywią się naszymi danymi. Po latach batalii o skuteczne wdrażanie RODO wciąż jesteśmy daleko od tego miejsca, gdzie ludzie są chronieni, ich prawa respektowane, a dane nie są nadużywane w celach komercyjnych.

Mam wrażenie, że RODO nas rozczarowało. Spodziewaliśmy się realnych, odczuwalnych efektów, a widzimy je przede wszystkim na poziomie biurokratycznym. Obywatel niekoniecznie ma większe poczucie kontroli nad swoimi danymi.

Ja mam poczucie, że więcej wiem. Firmy wysyłają znacznie więcej komunikatów, na które mogę zareagować. A co najważniejsze: zmieniły się ustawienia domyślne – choćby ustawienia reklamowe w branży wydawców prasy. Nie muszę już wchodzić na stronę i „odklikiwać” długiej listy zgód, które miały zalegalizować śledzenie mnie przez setki partnerów biznesowych. Jeśli ich nie zaznaczę, tzw. strony trzecie nie mają prawa zbierać moich danych i pokazywać mi targetowanych reklam. Na Facebooku i w Google również domyślne ustawienia się zmieniły na lepsze. A więc RODO działa tam, gdzie mogło zadziałać. Niestety, ta regulacja ma tylko częściowe zastosowanie do najbardziej dynamicznej, rozwojowej sfery, w której Big Techy brylują – uczenia maszynowego, statystycznej analizy danych, przewidywania zachowań i profilowania kategorii ludzi, a nie poszczególnych użytkowników.

Decydenci w Brukseli dostrzegli ten problem i potrzebę kolejnej regulacji, ale ufundowanej na innych założeniach. Teraz jest czas na zmiany strukturalne w świecie wielkich platform. Tak długo, jak ich model biznesowy się nie zmieni i te firmy będą miały całkowitą kontrolę nad serwerami, na których są nasze dane, i na których pracują profilujące nas algorytmy, nie wyjdziemy z potrzasku, który unaoczniła afera „Facebook Files”. Musimy znaleźć jakiś klin, który albo wymusi zmianę modelu biznesowego wielkich platform, albo odbierze im część władzy nad algorytmami i danymi, dopuszczając nowych graczy o innych motywacjach. 

Nawet najsilniejszy regulator nie może przecież usiąść obok CEO w gabinecie, w którym zapadają decyzje biznesowe wielkich platform – a te są podejmowane i weryfikowane bardzo często. Podobnie jak ustawienia i cele algorytmów. Wewnątrz firm technologicznych ktoś bez przerwy kalibruje tę algorytmiczną maszynę. Bierzemy udział w nieprzerwanym eksperymencie, który ma jeden cel: zwiększyć nasze zaangażowanie i prawdopodobieństwo, że zareagujemy na sponsorowane treści. Algorytmy są optymalizowane pod interes reklamodawcy. W skali miesiąca takich mikrodecyzji, które przekładają się na doświadczenie i bezpieczeństwo użytkowników, są pewnie tysiące. 

To nie jest sytuacja, w którą może skutecznie wejść regulator i powiedzieć: „zaraz, zaraz, akurat tego wam nie wolno zrobić, bo taki eksperyment już narusza prawo!”. To nie będzie skuteczne. 

To co będzie skuteczne?

W mojej ocenie powinno dojść do strukturalnego rozwarstwienia wielkich platform. Platformy mają warstwy – tak jak cały internet. Uświadomienie sobie tego jest kluczowe dla zrozumienia, o czym rozmawiamy. Dla wielu ludzi Facebook stał się internetem, co pokazała choćby techniczna awaria sprzed kilku tygodni. Ludzie dzwonili do operatorów komórkowych i pytali, gdzie się podział ich zasięg, bo trudno było im sobie wyobrazić, że padła na chwilę ich „domyślna” platforma do komunikacji. 

Tak więc internet ma warstwy – jest warstwa złożona z kabli, hardware’u, serwerów, na niej działa warstwa danych, które wszyscy wkładamy do sieci, czyli hosting, i wreszcie warstwa oprogramowania, takiego jak Facebook czy Google, która jest dostępna nam, użytkownikom. Na tych samych kablach, tych samych danych dostarczanych przez tę samą sieć użytkowników można położyć nowe oprogramowanie, które nie będzie robiło pewnych rzeczy – bo będzie działało w naszym interesie, a nie w interesie reklamodawców.

Myślenie o tym, że takie rozwarstwienie jest potrzebne, widać w pracach nad pakietem Digital Service Act i Digital Market Act, czyli unijną reformą wielkich platform internetowych. Punktem wyjścia dla tej rewolucji było uświadomienie politykom, że kilka firm na świecie kontroluje infrastrukturę do komunikacji między ludźmi, publikowania i odbierania informacji, czyli tak naprawdę debatę publiczną. A to nie jest bezpieczne ani zdrowe. 

Fot. OsArt/Shutterstock.com

Przywołałam RODO, ponieważ rozbudziło ono ogromne nadzieje. DSA i DMA też dzisiaj takie nadzieje rozbudzają, ale zastanawiam się, czy znów nie skończy się na bardzo trudnych regulacjach, które realnie w niewielkim stopniu wpłyną na poprawę samoświadomości i lepsze zrozumienie tego, co się dzieje?

Jeśli powstanie kolejna regulacja, taka jak RODO, która będzie stawiała w centrum użytkownika i będzie oczekiwała od niego, że sam zainteresuje się swoimi prawami i z nich skorzysta, to nie ruszymy z miejsca. Z założenia pakiet DSA i DMA miał być inny. A jak wyjdzie w praktyce, przekonamy się mniej więcej za rok, kiedy ostatecznie wyłoni się jego kształt. Póki co trwają prace w Parlamencie Europejskim, a na stole są również radykalne propozycje, takie jak zakazanie reklamy opartej o zachowanie użytkowników.

Byłaby to rewolucyjna zmiana, bo ludzie mieliby do dyspozycji te sami usługi i wciąż widzieliby reklamy, ale inne – kontekstowe lub oparte o ich faktyczne zainteresowania, które zadeklarowali. Sami mogliby zdecydować, czy w danym momencie są gotowi oglądać reklamy dotyczące zdrowia, wyglądu albo ich sytuacji rodzinnej. Dzisiaj jest odwrotnie – algorytmy analizują wszelkie dostępne dane na temat naszego zachowania, żeby ustalić, co nas aktualnie kręci albo niepokoi i zaatakować taki słaby punkt. To się musi zmienić, jeśli nie chcemy już być zwierzyną łowną w sieci. 

Tak jak mówi Haugen: pierwszy krok to zmiana ustawień domyślnych na takie, które chronią ludzi i eliminują najgorsze praktyki. Dopiero w drugim kroku mają sens ustawienia dla zaawansowanych. Dla tych, którzy mają czas i ochotę na kalibrowanie swojego doświadczenia w sieci. Trzeci krok to otwarcie rynku, czyli rozwarstwienie platform, aby z ich infrastruktury mogli skorzystać inni gracze, wykorzystujący inne modele biznesowe. Tak długo, jak garść firm będzie kontrolować całość tego, czym w rozumieniu przeciętnego człowieka jest internet, będziemy mieć problem. Nie jesteśmy przecież w stanie sprawdzić, co tam się dzieje i zagwarantować, że miliony użytkowników nie są wykorzystywane i manipulowane przez algorytmy.

Jednym z pytań, które zadano Haugen w Parlamencie Europejskim, było związane z tym, kto z zewnątrz powinien mieć dostęp do wiedzy o algorytmach tych wielkich platform. Póki co takie przyzwolenie jest dla naukowców. Ale Haugen odpowiadała, że jej zdaniem to za mało i informację o tym, jak algorytmy są „karmione” i konstruowane, powinni mieć także praktycy – tacy jak ona i organizacje pozarządowe. To wystarczy?

Jeśli chodzi o przejrzystość – tak. Przejrzystość działania technologii jest warunkiem, który pozwala robić pewne rzeczy profesjonalistom. A jednocześnie ma mniejsze znaczenie dla zwykłych „zjadaczy” internetu, bo mówimy tu o naprawdę zaawansowanej wiedzy. Nie wiem, czy w ogóle jest sens zarzucać ludzi informacjami o tym, jak działa konkretny algorytm albo jakie są szczegółowe cele przetwarzania danych. Co innego firma powinna ujawniać swoim użytkownikom, a co innego regulatorowi, profesjonalnym audytorom czy właśnie organizacjom pozarządowym. 

Człowiek dotknięty działaniem algorytmu powinien być o tym poinformowanym na ogólnym poziomie, z naciskiem na to, co może w tej sytuacji zrobić. Tak jak etykieta na produkcie w supermarkecie informuje nas o tym, że kupujemy niezdrowe jedzenie, tak usługi internetowe powinny nas ostrzegać: uwaga, za tym interfejsem schowany jest algorytm, który ma taki a taki cel. Na przykład: utrzymać twoją, użytkowniku, uwagę jak najdłużej. Użytkownik ma prawo wiedzieć, jaki jest cel biznesowy firmy, z której usług korzysta. A jeśli mu się to nie podoba, „wypisać” się z tej logiki za pomocą odpowiednich ustawień.

Niedawno przeprowadziliśmy eksperyment, w którym sprawdzaliśmy, jak trudno użytkownikowi Facebooka jest wydostać się z pętli rekomendacyjnej, która żeruje na jego słabościach. Algorytm wykorzystuje to, że osoba korzystająca z portalu emocjonalnie reaguje na treść, która jest dla niej traumatyzująca. W tym konkretnym przypadku były to treści dotyczące śmiertelnie chorych dzieci i osób dorosłych chorujących na raka, ale mogę sobie łatwo wyobrazić inny scenariusz. Np. dla młodej, czującej się niepewnie dziewczyny mogą to być również dobrze zdjęcia pięknych kobiet. Potrzebujemy odpowiednich narzędzi dla użytkownika, żeby móc chronić swoje słabe strony i wyrażać autentyczne preferencje w relacji z rekomendującym treści algorytmem.

Profesjonaliści czy organizacje społeczne potrzebują więcej wiedzy o tym, jak działają algorytmy rekomendujące treści. Ale znowu, nie ma potrzeby, by wiedzieli wszystko, by portale społecznościowe miały ujawniać silniki swoich algorytmicznych maszyn. To by naruszało ich własność intelektualną i stwarzało ryzyko rozgrywania algorytmów przez cynicznych aktorów. Musimy się spotkać w pół drogi – dla nas takim punktem spotkania jest ocena algorytmów z uwagi na ich wpływ na prawa człowieka. Nie oczekuję, że Facebook pokaże mi swój kod i maszynę algorytmiczną, ale oczekuję, że przeprowadzi rzetelną ocenę narzędzi, które testuje na ludziach, i że ta ocena będzie publiczna. 

Z kolei regulator, który ma za zadanie kontrolować sposób przeprowadzenia oceny algorytmów, działanie silnika i dane, jakie ów algorytm wykorzystuje, musi mieć dostęp do wszystkiego, łącznie z kodem. A jeżeli ujawnia się konkretny problem, na przykład w wyniku wycieku takiego jak „Facebook Files”, to organizacje społeczne, takie jak Fundacja Panoptykon, powinny mieć prawo skargi do regulatora w imieniu poszkodowanych i domagania się dodatkowych informacji.

Regulator – gdzie? W każdym państwie, jeden dla całej Unii Europejskiej?

Myślę, że czas rozstać się z myśleniem o osobnych regulatorach do RODO, algorytmów, konkurencji, bezpieczeństwa produktów itd. Nadchodzi czas integracji tych kompetencji. Musimy przemyśleć ekosystem regulacyjny, który powinien działać warstwowo. Na poziomie krajowym, np. Polski, może nadal działać trzech regulatorów: do spraw kontroli treści, do spraw ochrony danych – póki co osobowych, ale można poszerzyć te kompetencje na algorytmy i big data – i do spraw konkurencji oraz ochrony konsumentów. Ważne, żeby ta trójka ściśle współdziałała w ramach jakiegoś mechanizmu koordynacyjnego.

fot. TY Lim /Shutterstock.com

Wyobraźmy sobie jednak, że w Polsce obowiązek kontrolowania algorytmów trafia do UODO…

To nie byłby najgorszy scenariusz, choć na pewno wymagający zmian w samym Urzędzie. Podniesienia kompetencji i zwiększenia zasobów. Każdy, kto próbował skorzystać z RODO, wie, jak długo trwa załatwianie spraw w tym Urzędzie – w Panoptykonie właśnie zbliżamy się do rozstrzygnięcia sprawy, którą wnieśliśmy przeciwko IAB w styczniu 2018 roku. Po trzech latach jesteśmy blisko rozstrzygnięcia. Tyle że przez te trzy lata zmieniło się wszystko: IAB zmieniło swoje standardy na inne niż te, które skarżyliśmy, Facebook się przebrandowił na Meta i za chwilę prawdopodobnie też będzie czymś innym, mamy w drodze DSA i DMA, czyli kolejną dużą reformę, która może doprowadzić do zakazania śledzącej reklamy. Jesteśmy więc w zupełnie innej rzeczywistości społeczno-prawno-ekonomicznej. Gdyby w sprawach dotyczących algorytmów krajowe organy ochrony danych miały działać w podobnym tempie, to może rzeczywiście lepiej, aby te kompetencje dostał ktoś inny.

Zastanawiam się, czy nie dojdzie do zniechęcenia ludzi. Miały być regulacje, mieliśmy być lepiej traktowani, a skończyło się, oczywiście upraszczając, na urzędzie, który musi się od początku uczyć, czym są algorytmy.

Dlatego wracam do tego, że nowa regulacja nie może działać tak jak RODO. Nie może być tak, że użytkownicy będą musieli walczyć o swoje prawa w urzędzie. Gdyby założenia reformy platform internetowych zostały ustawione w ten sposób, poniesiemy porażkę, bo w relacji z tymi firmami ludzie startują z pozycji skrajnej asymetrii władzy. W tym układzie człowiek jest tylko pionkiem, cyfrową biomasą przerabianą na komercyjny profil i nie ma realnej możliwości zawalczyć o swoje prawa. Możemy mieć nadzieję, że oto któryś z użytkowników sieci powstanie i okaże się Dawidem, który coś z tym Goliatem wygra w jakimś urzędzie. To jest naprawdę mało realne, bo przerzuca zbyt duży ciężar na słabą jednostkę. 

Dlatego w dyskusjach nad DSA i DMA rozmawiamy o lepszych, chroniących ludzi, ustawieniach domyślnych i o rozwarstwieniu, czyli strukturalnej przebudowie platform, oraz o twardych zakazach, które zupełnie inaczej rozkładają odpowiedzialność. Nie jest rolą człowieka korzystającego z Facebooka, by kontrolował swoje dane czy algorytmy – on może co najwyżej sprawdzić swoje ustawienia, i zadbać o to, żeby wyświetlały mu się takie reklamy, jakie chce widzieć. 

Kontrolowanie tego, co faktycznie robią platformy, jest rolą regulatora. To on, z własnej inicjatywy, a najlepiej w dialogu z organizacjami społecznymi, takimi jak Panoptykon, powinien sprawdzać, jakie dane o człowieku i jakie algorytmy wykorzystuje Facebook. Tworzymy inny ekosystem, w którym człowiek może pozostać bierny, nie musi troszczyć się o te sprawy, bo robi to dla niego ktoś inny. Wierzę, że taka regulacja jest możliwa, bo znajdujemy się w momencie przełomu, gdy myślenie o roli i odpowiedzialności wielkich platform internetowych autentycznie się zmienia. Regulatorzy po obu stronach Atlantyku już powiedzieli „dość”. Czas zabawy w kotka i myszkę się skończył. A afera „Facebook Files” jedynie tę decyzję przypieczętowała. 

Więc mam nadzieję, że tym razem czeka nas realna reforma, choć bardzo dużo będzie zależało od sprawności regulatora. I na tym problemie, na jakiś czas, najpewniej utkniemy, bo rzeczywistość społeczna i polityczna nie pozostawia złudzeń. Polska zapewne będzie maruderem na tle Europy, ponieważ nie mamy budżetów oraz specjalistów, którzy mogliby zasilić takiego regulatora. Ale są w Europie kraje, w których to działa lepiej. Mamy możliwość stworzenia sprawnego regulatora unijnego, który nie zastąpi tych krajowych, ale będzie ich „spinać”: motywować, koordynować i nadzorować.

A co w dotychczasowych pracach nad DSA i DMA najbardziej panią martwi?

Martwi mnie niedostateczny radykalizm, jeśli chodzi o wspomniane rozwarstwienie platform i możliwość wpięcia w ich infrastrukturę alternatywnych modeli biznesowych. Uważam, że jest absolutnie kluczowe. Bez rozdzielenia warstwy treści, jakie miliardy ludzi publikują na platformach, od warstwy algorytmów i interfejsów, które decydują o tym, co zobaczy konkretny użytkownik, będziemy wciąż krążyć wokół tych samych problemów. Przyklejać plastry, nie lecząc choroby. Narzekać na Facebooka czy inne platformy: „znowu wykorzystujecie swoich użytkowników, znowu łamiecie prawo” i nakładać kary. Ale na dłuższą metę to tylko konserwuje ich toksyczny model biznesowy.

Czyli póki co jest po prostu zbyt łagodnie…

Tak, póki największe firmy kontrolują wszystkie warstwy naszej komunikacyjnej infrastruktury – urządzenia, dane, algorytmy i sieci społecznościowe – mają władzę, która wymyka się regulatorom. W zapewnieniach komisarzy europejskich, szczególnie Bretona i Vestager, dostrzegam mocne retoryczne uderzenie w ten stan rzeczy. Ale konkretne rozwiązania, jakie Komisja zaproponowała w DSA i DMA, nadal są zbyt łagodne. 

Choćby w kwestii reklamy behawioralnej. Owszem, regulacja idzie w kierunku większej przejrzystości i kontroli, ale wciąż brakuje zakazu najgorszych praktyk, które prowadzą do manipulacji i zwyczajnie szkodzą ludziom. Myślę np. o treściach sponsorowanych, które żerują na naszych słabościach i wciągają nas w spiralę konsumowania treści eskalujących niepokój, stres i problemy psychiczne. To trzeba przerwać twardym zakazem. Uważam, że ochrona ludzi przed reklamą targetowaną behawioralnie i odebranie globalnym firmom technologicznym monopolu na kształtowanie naszego doświadczenia na portalach społecznościowych to dwa najważniejsze zadania, jakie stoją przed Unią Europejską w temacie regulacji platform

Fot. goranga/Shutterstock.com

 

Natomiast trzeci problem – szalenie ważny politycznie, a zarazem niezwykle trudny do uregulowania – to właśnie szkodliwy i sporny kontent. Funkcjonujemy w ramach globalnych platform społecznościowych, które na cały świat mają ten sam regulamin, a tymczasem nawet w ramach jednej małej Polski nie jesteśmy w stanie dogadać się w sprawie tego, co powinno być dopuszczalne. Każda próba debaty o tym, co narusza uczucia religijne albo prawa mniejszości, kończy się awanturą.

Wymyślenie jak ten konflikt, który tli się w każdym społeczeństwie, przetłumaczyć na spójne standardy moderacji treści w ramach jednej platformy internetowej, to według mnie kwadratura koła. Niestety, politycy pracujący nad DSA będą próbowali to zrobić, bo jest duże ciśnienie społeczne, żeby „ktoś wreszcie posprzątał ten cały internet”. Według mnie również tego problemu nie rozwiążemy bez rozwarstwienia wielkich platform. Jeżeli w miejscu zamkniętych platform stworzymy otwarty ekosystem, który dopuści działanie alternatywnych algorytmów, to będzie oznaczało również pluralizm w zasadach moderacji treści. W ramach jednej platformy, takiej jak Facebook, będą mogły funkcjonować różne rzeczywistości, społeczne i biznesowe.

Przykładowo, jeżeli reprezentuję pogląd, że w internecie w ogóle nie powinno być radykalnych treści albo chcę chronić swoje dziecko przed takimi treściami, to mogę taki internet wybrać. Ale tylko dla siebie. Nic mi do tego, jakich wyborów dokonają inni. Już dziś żyjemy w różnych internetach, jako użytkownicy podejmujemy różne decyzje, dopuszczamy różne zasady moderowania treści i paradygmaty, w których mają funkcjonować media społecznościowe. Fragmentacja sieci to fakt, z którym ciężko polemizować. Choć można i warto mu przeciwdziałać, na przykład uświadamiając ludziom, że zamknięcie się w zbyt szczelnej bańce może im samym bardzo zaszkodzić. Warto wiedzieć, co robią i myślą inni, choćby po to, żeby być przygotowanym na konfrontację. Myślę, że zdolność do podróżowania między różnymi sieciowymi rzeczywistościami powinna stać się podstawą edukacji medialnej. Człowiek świadomy, ciekawy świata i wyedukowany właśnie to będzie robił. Ale nie dlatego, że zmusił go do tego algorytm platformy społecznościowej. Będzie to robił, bo zobaczy w tym korzyść albo modny trend. 

Takie założenie stoi de facto u podstaw myślenia o metawersum, czyli internecie 3.0. Tyle że my jeszcze koncepcyjnie i regulacyjnie nie ogarnęliśmy internetu 2.0, a już Facebook, Microsoft, a pewnie niedługo także kilku innych graczy zaczyna biznesowo zagarniać media społecznościowe przyszłości. I znowu będziemy narzekać, że nie ma ich regulacji, za to są kolejne problemy…

Siłą rzeczy zawsze regulacja idzie za technologią, nie na odwrót. Choć jeśli weźmiemy tak dziś krytykowane RODO, to będziemy musieli przyznać, że same zasady ochrony danych sprzed 30 lat nie zestarzały się. Są tak samo aktualne i adekwatne. Problemy stwarza ich interpretacja i egzekucja. Moglibyśmy DSA i DMA traktować właśnie jako taki zbiór kluczowych zasad: jak musi być skonstruowana platforma internetowa, żeby była bezpieczna, jak przebudować ten ekosystem, żeby nie ulegał ciągle monopolizacji, w której jeden gracz kontroluje wszystko i zarabia na tym więcej niż inni.

Należy budować systemowe bezpieczniki, żeby te problemy się nie replikowały. Jeśli zrobimy to dobrze, jest pewna szansa, że ta regulacja posłuży nam 20 lat. Nawet jeśli pojawi się metaverse. Jeśli jednak nie wymyślimy dobrze zasad, a skupimy się wyłącznie na zakazach i nakazach – np. dotyczących tego, że dzieci nie mogą być targetowane – to za chwilę ktoś je obejdzie. Przed nami stoi więc wyzwanie stworzenia sensownych zasad, które będą trwalsze niż sama regulacja.