Jak uzdrowić platformy cyfrowe? „Niech Facebook zacznie choć egzekwować swój własny regulamin”

– Widzimy zjawisko przemieszczania się metod dezinformacji ze Wschodu na Zachód. Przykład to tzw. „pranie informacji”. Wpuszcza się do głównego nurtu wiadomości coś fałszywego, zmieszanego z prawdą i podaje to influencerom. Oni udostępniając to dalej, uwiarygodniają przekaz swoją rozpoznawalnością. Czyli piorą dezinformację – mówi SW+ Nina Jankowicz, ekspertka ds. dezinformacji, była doradczyni ukraińskiego MSZ.

Dezinformacja na Facebooku. Jak uzdrowić social media?

Narasta globalna krytyka platform cyfrowych – także tego, że kiedy rosły oraz zarabiały, zapomniały o bezpieczeństwie i dobrostanie swoich użytkowników. Pod największym pręgierzem jest Facebook. Po tym, jak jego była menadżerka Frances Haugen wyniosła wewnętrzne dokumenty, a następnie przedstawiła je redakcji „The Wall Street Journal” i rządowej Komisji Papierów Wartościowych i Giełd, mamy dowody, że koncern Marka Zuckerberga miał większą (niż chciałby to przyznać) świadomość problemów i zagrożeń, jakie sam generuje.

Wśród tych zagrożeń znalazł się problem polaryzacji politycznej podbijanej przez algorytm tego właśnie serwisu społecznościowego. Co więcej, to Polska i polskie społeczeństwo miało paść ofiarą tego mechanizmu, który od 2018 roku w ocenie amerykańskich publicystów mógł wręcz doprowadzić do „społecznej wojny domowej”.

O tym, że cyfrowe platformy w swoim niekontrolowanym rozroście mają coraz większy wpływ na społeczeństwa, politykę i gospodarkę, wiemy już od dawna. Teraz jednak czas zastanowić się nad tym, jak możemy ten stan naprawić oraz jak uzdrowić nasze życie cyfrowe. Wywiadem z Niną Jankowicz, ekspertką ds. dezinformacji, autorką książki „How to Lose the Information War”, a także byłą doradczynią ukraińskiego Ministerstwa Spraw Zagranicznych w zakresie dezinformacji, zaczynamy cykl wywiadów o tym, jak zabrać się za tę trudną kurację i jak ją przeprowadzić, aby - choć gorzkie - to lekarstwo przyniosło poprawę zdrowia.

Facebook sam się nie naprawi

Sylwia Czubkowska: Dokumenty udostępnione przez Haugen ujawniły wiele szczegółów dotyczących funkcjonowania Facebooka. W tym dosyć smutny fakt, że 87 proc. wszystkich środków przeznaczonych przez ten serwis na walkę z dezinformacją dotyczyło tylko Stanów Zjednoczonych. A więc jedynie 13 proc. funduszy jest rozdysponowanych od Sri Lanki po Europę Wschodnią, gdzie, jak obserwujemy, dezinformacja w social mediach ma się świetnie.

Nina Jankowicz fot. Pete Kiehart

Nina Jankowicz: Wielka szkoda, że Facebook nie inwestuje tam, gdzie jego użytkownicy mają trudności. To jest prawdziwy problem, że ta firma skupia się tylko na rynku anglojęzycznym, a właściwie głównie amerykańskim, choć przecież 90 proc. jej użytkowników jest spoza Stanów. Mimo to woli zajmować się USA, bo są tam ulokowani i tam czują, że są najmocniej kontrolowani. 

A przecież faktycznie ciężko jest zrozumieć różnice międzykulturowe, także te wynikające z kwestii językowych, powodujących, że różnie rozumiemy kwestie polityczne w różnych częściach świata.

Dlatego od dawna wypominałam Facebookowi ten brak atencji, szczególnie w Centralnej i Wschodniej Europie. Przecież takie kraje jak Polska czy Ukraina są bardzo narażone, są wręcz celami dezinformacji i to nie tylko tej wewnętrznej, ale także zewnętrznej. Oczywiście z powodu bliskiego sąsiedztwa Rosji i jej prób wpływania na naszą wewnętrzną politykę.

Jak widzimy, Facebook wciąż nie wykonuje wystarczająco dogłębnych działań w tym zakresie. Choć ma świadomość, że rynki z Europy Wschodniej bardzo szybko rosną. Ukraina była do niedawna trzecim najszybciej rosnącym rynkiem po Indiach i Filipinach. Mimo to nie obserwujemy, aby równie szybko rosły nakłady, wręcz inwestycje w to, by o użytkowników z tych państw zadbać od strony zwalczania dezinformacji.

Wspomniałaś, że jednym z czynników utrudniających walkę z dezinformacją jest brak znajomości lokalnej kultury. Trudno to jednak zrozumieć w 2020, 2021 roku, gdy jest możliwość dostępu do takiej wiedzy i zatrudnienia lokalnych ekspertów.

Też mi jest to ciężko pojąć, szczególnie że w takich krajach jak Polska, gdzie społeczeństwo jest zaawansowane technologicznie, nie byłoby trudno zatrudnić wykształconych ludzi do pracy nad tym problemem. Nie obserwujemy jednak takiej inwestycji. Jest tak zapewne dlatego, że gdyby Facebook zaczął to robić w jednym miejscu, to musiałby też w kolejnych krajach, a to byłoby to i kosztowne i czasochłonne…

No tak biedna, mała firma, mogłoby ją to przeciążyć…

O tak, wielomiliardowa spółeczka, nie byłoby jej stać. Jeżeli Facebook decyduje się otwierać się na kolejny rynek, to powinien mieć ekspertyzy na temat tego regionu. Mieć zatrudnionych ludzi, którzy naprawdę wiedzą, co tam się dzieje, mówią w lokalnym języku i rozumieją lokalne problemy.

Niestety wciąż są kraje, gdzie FB nie ma nawet przetłumaczonego swojego regulaminu na lokalne języki. Tak jest choćby na niektórych afrykańskich rynkach. W tym regionie często używa się Facebooka jako substytutu internetu. W pakietach usług telekomunikacyjnych jest nawet zagwarantowany dostęp do niego jako usługi „Facebook Zero”, czyli takiej lżejszej wersji, która nie powoduje pobierania opłat za transfer danych. To powoduje, że są społeczeństwa naprawdę czerpiące większość informacji i kontaktujące się tylko na Facebooku. W efekcie nawet nie bardzo wiedzą, na co się zgadzają, wchodząc w ekosystem Facebooka, bo nie mają możliwości poznać treści regulaminów.

Właściwie wszyscy nie wiemy. Nie wiemy, jak faktycznie działają algorytmy rządzące tym medium społecznościowym. Teraz po „Facebook Files” okazuje się, że zmiana algorytmu w 2018 roku mogła w Polsce doprowadzić do silniejszej polaryzacji politycznej, nazywanej wręcz „wojną społeczną”. Owszem, te coraz większe podziały polityczne – i to nie tylko w internecie – widzimy na co dzień, ale czy faktycznie aż tak duży wpływ na nie mógł mieć algorytm Facebooka?

Bardzo ciężko jest ocenić, co miało kluczowy wpływ na politykę. Ale zdecydowanie częstsze pokazywanie polaryzujących i pełnych emocji materiałów - a takie wywołujące złość preferuje algorytm - oddziałuje na ludzi. Taki efekt mają także rekomendacje algorytmów. A te działają tak, że jeśli lubisz treści związane z alternatywnymi metodami leczenia, to jest większa szansa, że będziesz widział też grupy antyszczepionkowe. Podobnie jest z grupami z teoriami spiskowymi o COVID-19, bycie w nich może szybko prowadzić do poleceń grup białych rasistów, QAnon, skrajnie nacjonalistycznych. Więc nie tylko same podsuwane przez algorytm treści mogą zwiększać polaryzację, ale właśnie karmione wiedzą o wcześniejszych zachowaniach użytkowników rekomendacje kolejnych coraz bardziej skrajnych grup i stron.

Jeden z atakujacych Kapitol, który wdarł sie do gabinetu spikerki Nancy Pelosi’s. fot. Alex Gakos / Shutterstock.com

Co ciekawe, także w 2018 roku Facebook mocno zaczął podkreślać, jak ważne dla niego i jak dobre dla użytkowników są Facebook Groups, czyli czasem zamknięte, czasem otwarte środowiska skupiające się wokół hobby, zainteresowań, poglądów. Serwis widział w nich metodę na zaktywizowanie użytkowników i przekonywał, że grupy zapewniają faktyczne realizowanie zainteresowań, bliski kontakt z podobnymi do siebie ludźmi. Miały być też takim bezpieczniejszym miejscem, gdzie to administratorzy, czyli sami użytkownicy mieli walczyć z trollami i szkodliwymi treściami. Szybko jednak w Polsce zaczęliśmy obserwować obok grup hobbystycznych także rozrastające się mikrospołeczności skupione wokół kontrowersyjnych treści i co ważne, tak jak mówisz, migrujące do coraz poważniejszych tematów. Najpierw walczyły z promieniowaniem elektromagnetycznym, potem z 5G, następnie ostrzegały, że pandemia to spisek, aż wreszcie zaczęły walczyć ze szczepionkami. Czy ktoś w Facebooku mógł 2-3 lata temu przewidzieć podobny scenariusz, czy mogły się wtedy zapalić lampki alarmowe?

Badałam takie grupy w 2018 i 2019 roku, kiedy prowadziłam śledztwo w sprawie wyborów uzupełniających w Stanach Zjednoczonych z 2018 roku. Okazało się, że było w nich dużo fejkowych kont, ewidentnie stworzonych, by rozsiewać nieprawdziwe informacje o kandydatach. Na grupach łączących przyjaciół czy sąsiadów łatwiej było docierać do ludzi i przekazywać dalej szkodliwe treści. Także na Ukrainie w 2019 w czasie wyborów prezydenckich obserwowaliśmy używanie bardzo silnie grup do dezinformacji. No i oczywiście teraz w czasie pandemii grupy zaczęły być jeszcze bardziej kluczowe dokładnie w tym schemacie, o którym mówisz.

Myślę, że były w Facebooku prowadzone prace sprawdzające, jak działa mechanizm rekomendacji do kolejnych grup. Czytałam ich publikacje na temat tego, jak pewne podmioty, konta rozprowadzają dezinformację i jak działają w tym kontekście grupy. I w tych publikacjach była refleksja, że administratorzy grup nie są w stanie nadążyć z moderacją kontentu, a sam serwis z kontrolą tego, co się w tych społecznościach dzieje. Ale niestety nie wyciągnięto z tych analiz wniosków. Wygląda na to, że była to kolejna decyzja stawiająca zysk ponad dobro ludzi, bo nie wprowadzono żadnych konkretnych zmian związanych z moderacją w grupach. Dopiero kryzys związany z COVID-19 i to, jak te grupy zaczęły wymykać się spod kontroli, wywołały konkretną reakcję Facebooka. Ale znowu głównie w Stanach Zjednoczonych.

Niestety nie obserwowaliśmy podobnych działań w innych państwach. I to mimo że w strukturach Facebooka są ludzie wiedzący, jak to ważne. Widocznie jednak jest coś w kadrze kierowniczej, co powstrzymuje tę firmę od zdecydowanych działań.

Jakie widzisz podobieństwa lub różnice między dezinformacją pojawiającą się w Stanach Zjednoczonych, a tą w Europie Wschodniej, na Ukrainie i w Polsce?

Oczywiście w każdym państwie dyskurs jest trochę inny, z powodu innych wydarzeń politycznych czy lokalnych problemów. W Polsce dezinformacja obecnie mocno dotyczy kwestii imigrantów już nie tylko z Ukrainy, ale ostatnio również z Bliskiego Wschodu. W Czechach ta dyskusja też do niedawna była skoncentrowana na migracjach. Za to na Ukrainie miesza się wiele tematów: o rządzie, są teorie spiskowe związane z Majdanem, sporo tematów powiązanych z Rosją.

Protesty przeciwko Facebookowi w 2018 r., fot. Frederic Legrand – COMEO / Shutterstock.com

Więc jest to bardzo zależne od lokalnego środowiska. Tak samo tutaj, żyjąc w okolicach Waszyngtonu, ludzie na grupach piszą np. o hałasie helikopterów nad Pentagonem, o 5G i dorabiają sobie różne teorie. Gdyby Facebook chciał okiełznać swoje technologie, byłoby to świetne dla lokalnych grup, które mogłyby się organizować i faktycznie zajmować ważnymi sprawami. Ale niestety, zbyt długo z tym zwlekali i teraz widzimy, jak szkodliwe treści zaczęły się wybijać i często przejmować całe zainteresowanie.

Czy mechanizmy wykorzystywane w procesach dezinformacji, w rozprzestrzenianiu fake newsów są podobne na całym świecie? 

Widzimy niepokojące zjawisko przemieszczania się metod ze Wschodu na Zachód. Ze Wschodu Europy na Zachód, do Stanów Zjednoczonych. Ukraina jest ogromnym poligonem testowania dezinformacji, szczególnie pochodzącej z Rosji. Więc sporo z tego, co widzieliśmy na Ukrainie kilka lat temu, dziś obserwujemy już powszechnie. W tym choćby mechanizm, który nazywam „praniem informacji”. To wypuszczanie do głównego nurtu dyskusji wiadomości fałszywych, pochodzących z niezweryfikowanych źródeł, zmieszanych z prawdą i podawanie ich influencerom, którzy zaczynają o nich mówić, podawać dalej. Swoją rozpoznawalnością uwiarygodniają przekaz. Czyli jakby piorą dezinformację, odcinają jej dziwne, niepokojące korzenie.

Ci influencerzy niekoniecznie muszą być politykami czy publicystami. To faktycznie mogą być internetowe sławy…

Właśnie. I to czyni ten mechanizm trudnym do zwalczenia. Jeśli takim czasem nieświadomym roznosicielem jest np. jakiś guru jogi na Instagramie, który ma dużo ufających mu followersów, bo do tej pory był ekspertem w swojej dziedzinie, to kiedy zaczyna wnosić do publicznej sfery kolejne informacje, wiele osób nawet nie zastanowi się, jakie jest ich źródło. Zaufa im, jako że stoi za nimi ten konkretny człowiek. Widzieliśmy dużo takich działań podczas wyborów na Ukrainie, a potem w Stanach Zjednoczonych.

Kolejnym zjawiskiem, które właśnie toruje sobie drogę na Zachód, jest używanie komunikatorów – szczególnie WhatsApp i Telegrama do rozsiewania treści dezinformacyjnych i szkodliwych. We Wschodniej Europie jest to już powszechne. Jakiś czas temu weszło do Europy Centralnej i zapewne rozleje się dalej. Szczególnie że na Zachodzie zaczyna się mocna rozprawa z takimi platformami, jak Facebook czy Twitter, a wielu użytkowników coraz mniej aktywnie z nich korzysta. Część jest oburzona niewystarczającym ich zaangażowaniem w poprawę zasad działania, ale część – szczególnie ta bardziej skrajna – dlatego, że szuka alternatywnych miejsc z jeszcze mniejszą kontrolą i monitoringiem. Komunikatory wydają się być idealne pod tym względem, bo informacje, a więc i dezinformacje są w nich prywatne i zaszyfrowane. W Stanach już obserwujemy sporą migrację bardziej skrajnych grup prawicowych właśnie na Telegram.

To zjawisko mamy też teraz w Polsce. Do niedawna WhatsApp czy szczególnie Telegram były mocno niszowe. Ten drugi w ostatnich kilku miesiącach jednak zdobywa sporą popularność pod wpływem tzw. Dworczyk Leaks, czyli wycieku rządowych maili publikowanych właśnie przez kanały na Telegramie. Ale nie ma co ukrywać: to zjawisko zaskoczyło polskich ekspertów, którzy wcześniej nie zajmowali się takim rodzajem działań dezinformacyjnych.

Bo na tym polega problem z dezinformacją: ona szybko ewoluuje i jej nowe formy są zaskakujące. Trudno im zapobiegać.

Kluczowe jednak jest to, co z tym wszystkim można zrobić? Jak naprawić media społecznościowe? Jak uzdrowić tego chorego Facebooka?

Ten problem urósł nam do naprawdę dużych rozmiarów i potrzebuje więcej niż jednego rozwiązania. Warto sobie to pogrupować na kilka kategorii zadań. Co mogą zrobić platformy, co może zrobić rząd i co mogą zrobić ludzie.

Platformy powinny lepiej egzekwować swoje własne regulaminy. Mają zasady, dużo z nich dotyczy tego, o czym rozmawiamy: dezinformacji, targetowania ludzi, szkodliwych treści. Tyle że wciąż niewystarczająco kategorycznie wymagają stosowania się do tych norm. A przecież w przypadku mowy nienawiści, to może mieć konsekwencje dla ludzkiego życia i zdrowia psychicznego. Musimy więc wymagać od platform, by zaczęły faktycznie egzekwować własne zasady. Chciałabym widzieć pełnoprawny i odpowiedzialny za te kwestie oddział Facebooka w każdym kraju, gdzie serwis jest obecny. Przede wszystkim powinno dojść do poprawy tej sytuacji w krajach nieanglojęzycznych, z wieloma językami i ze skomplikowaną etniczną strukturą. To są miejsca, gdzie sprawy łatwo mogą wymknąć się spod kontroli, jak zadziało się choćby w Etiopii, gdzie, jak wiemy z „Facebook Files”, firma wiedziała, że grupy zbrojne wykorzystują platformę do podżegania do przemocy wobec mniejszości etnicznych.

Nie ma się jednak co oszukiwać: nie ma co liczyć na samoregulację platform. Muszą więc być przygotowane i wdrożone lepsze państwowe narzędzia regulacyjne. Dobrym kierunkiem jest Digital Service Act, nad którym pracuje Unia Europejska. Niestety, to może być za mało bez podobnego ustawodawstwa w Stanach Zjednoczonych. Bo to Stany odgrywają kluczową rolę, także ze względu na fakt, że tam większość platform ma swoje siedziby. 

Mark Zuckerberg, konferencja Viva 2018 r., fot. Frederic Legrand – COMEO / Shutterstck.com

Ważne też będzie skontrolowanie, czy działania związane z blokowaniem treści i funkcjonowaniem algorytmów nie będą nadmiarowe. Powinniśmy mieć szansę, by dotrzeć do tego, jak są podejmowane decyzje także ze strony regulatorów. Dlatego tak istotne jest, by osoby trzecie i eksperci stworzyli prawdziwą sieć mogącą sprawdzać, co się dzieje i czy Facebook oraz inne platformy ponoszą konsekwencje w przypadku braku wywiązywania się ze zobowiązań.

I wreszcie jest kwestia indywidualnej odpowiedzialności. Wszyscy mamy swój udział w problemie, jakim jest dezinformacja. Wciąż jest bardzo mała świadomość wśród ludzi, jak działają media społecznościowe. Brakuje szerokiej wiedzy o tym, jak działa ten system, który pobiera nasze dane, by dzięki nim karmić nas angażującymi i przekonującymi do dalszego przekazywania informacji o sobie treściami. Tylko edukowanie o tych mechanizmach spowoduje, że ludzie będą używać platform społecznościowych z większym zrozumieniem. Zastanowią się, czy kliknąć link z Instagrama, czy zaufać rekomendacji z Facebooka, czy zaretwittować dalej jakąś wiadomość, czy jednak najpierw sprawdzić wiarygodność źródła.

Chciałabym, by rządy finansowały programy edukacyjne, które zaczęłyby upowszechniać takie kompetencje. I to zaczynając od pierwszych klas szkoły po pracę z osobami starszymi, bo to one są często bardzo aktywne polityczne, a niekoniecznie rozumieją wszystkie sieciowe mechanizmy.

Może takie programy powinny być współfinansowane przez platformy cyfrowe?

Wielka Brytania już myśli o takim rozwiązaniu. Jednym z pomysłów, jaki rozpatrują, jest właśnie nałożenie podatku na media społecznościowe, który współfinansowałby edukację medialną. Takie działania zresztą powinny być też w interesie samych platform cyfrowych, ale szczerze mówiąc, wątpię, że zobaczymy szybko ich oddolne działania w takim kierunku.

Póki co raczej obserwujemy dwa główne rządowe kierunki działań. Stany Zjednoczone skupiają się na kwestii monopolu platform cyfrowych, a Unia we wspomnianym DSA na regulacji praw konsumentów. Jak rozumiem, jedno bez drugiego ma niewielką szansę na odczuwalną poprawę naszego bezpieczeństwa w tym cyfrowym otoczeniu?

Oczywiście w Stanach też ważnym tematem są prawa konsumentów, ale faktycznie najwięcej działań, szczególnie w Kongresie, dotyczy kwestii antymonopolowych. Tyle że jak to mówimy, jest to taki low hanging fruit – nisko wiszący, łatwy do zerwania owoc. Może to być najłatwiejsze do osiągnięcia i co więcej, politycznie będzie efektowne. Tylko niekoniecznie przyniesie efekty, jakich oczekujemy.

Rozmontowywanie takiego giganta jak Facebook może brzmieć pociągająco. Argumenty o odcięciu danych z Instagrama czy WhatsApp, które przecież należą do Facebooka, są na pewno ważne. Tylko czy problemy, jakie mamy z Facebookiem, znikną, jeżeli zostanie on podzielony na dwie lub trzy firmy? Na pewno jednak samo takie poszukiwanie metod na rozwiązanie kryzysu to jest dobry sygnał.

Jednak z drugiej strony administracja amerykańska wysyła do Unii Europejskiej sygnały, że część prac nad regulacjami platform nie jest dobrze widziana w Waszyngtonie. Takie opinie pojawiły się choćby podczas powołania transatlantyckiej Rady Handlu i Techniki w Pittsburgu w październiku. Choć rada ta ma połączyć siły UE i Stanów w kwestiach rozwoju technologicznego, to amerykańscy urzędnicy krytykowali prace nad siostrzanym do wspomnianego DSA projektem Digital Markets Act, czyli ustawą o rynku cyfrowym. Według nich uderza ona tylko w amerykańskie Big Techy i będzie osłabiała te firmy w konkurencji z Chinami. Może faktycznie sprawy zaczynają obierać nazbyt surowy charakter?

Widzimy tu, jak bardzo skomplikowane – i to na wielu poziomach – stają się kwestie związane z Big Techami. To byłoby ogromne rozczarowanie, gdyby w obliczu, wciąż oczywiście bardzo ważnych, kwestii geopolitycznych sprawy związane z regulacjami platform nie zostały dokończone. Zresztą to nie pierwszy taki przypadek. Podobną sytuację mieliśmy w ubiegłym roku z porozumieniem handlowym między Stanami Zjednoczonymi, Meksykiem i Kanadą, czyli tzw. Nową NAFTA. Choć umowa dotyczyła wolnego handlu między tymi państwami, to znalazła się w niej klauzula mówiąca, że Kanada i Meksyk nie mogą planować i wdrażać rozwiązań ograniczających prawa platform cyfrowych w stosunku do publikowanych na nich treści. To odwołanie do słynnej sekcji 230, która w Stanach daje nietykalność platformom internetowym w odniesieniu do treści publikowanych przez tzw. strony trzecie, czyli po prostu użytkowników. Oba te państwa w imię wolności handlu zgodziły się na tę klauzulę.

Niewątpliwie więc kwestie na styku polityki i prawa są zawiłe, a jedne mają wpływ na drugie. Tyle że skoro Stany Zjednoczone chcą być światowym autorytetem w kwestii praw człowieka i demokracji, to powinny mieć ten długofalowy cel na oku i nie zapominać, o co idzie gra. A idzie ona o globalne bezpieczeństwo i stabilność polityczną miliardów ludzi na świecie.

Zdjęcie tytułowe: Sergei Elagin/Shutterstock.com