Batorski: Algorytmy winne wojnie społecznej w Polsce? Ona zaczęłaby się i bez Facebooka

– PO i PiS mają dwa razy mniej fanów na Facebooku niż Konfederacja. PiS miało w ostatnim miesiącu 160 tys. interakcji użytkowników. PO trochę ponad 200 tys. A Konfederacja 1 mln 120 tys. W tym także takie skrajne, antyszczepionkowe, szerowane nawet po 20 tys. razy – mówi dr Dominik Batorski, analityk social mediów. I rozprawia się z łatwą tezą o tym, że za popularnością skrajnych politycznych treści leżą tylko podbijające je algorytmy.

Batorski: Algorytmy winne wojnie społecznej w Polsce? Ona zaczęłaby się i bez Facebooka

Globalna krytyka platform cyfrowych jest coraz poważniejsza. Wyraźnie widzimy już zagrożenia i problemy, jakie wygenerowały. Pod największym pręgierzem jest FacebookPo tym, jak jego była menadżerka Frances Haugen wyniosła wewnętrzne dokumenty firmy, mamy dowody, że koncern Marka Zuckerberga miał większą (niż chciałby to przyznać) świadomość generowanych problemów i zagrożeń. Rozmową z Niną Jankowicz, ekspertką ds. dezinformacji, autorką książki „How to Lose the Information War” zaczęliśmy cykl wywiadów o tym, jak uzdrowić świat cyfrowych platform.

Wśród nagłośnionych zagrożeń znalazł się m.in. problem polaryzacji politycznej podbijanej przez algorytm tego właśnie serwisu społecznościowego. Co więcej, to Polska i polskie społeczeństwo miało od 2018 roku padać ofiarą mechanizmu, który w ocenie amerykańskich publicystów mógł wręcz doprowadzić do „społecznej wojny domowej”. O to, czy o pogorszenie sytuacji politycznej w Polsce możemy faktycznie oskarżyć zrobotyzowane mechanizmy, pytamy dr Dominika Batorskiego, socjologa internetu, specjalistę od data analytics, adiunkta w ICM na Uniwersytecie Warszawskim oraz współzałożyciela firmy Sotrender, tworzącej narzędzia analityczne mediów społecznościowych.

Politykom wygodnie jest zwalać winę na algorytmy

Algorytmy Facebooka są odpowiedzialne za „społeczną wojnę” w Polsce, czyli za to, jak silną polityczną i społeczną polaryzację mamy. Takie wnioski wybrzmiewają z dokumentów udostępnionych przez sygnalistkę Frances Haugen. Polaryzację – i to bardzo silną – rzeczywiście widzimy. Tylko na ile faktycznie możemy obarczać Facebooka oraz inne media społecznościowe o to, co się dzieje w Polsce?

Dominik Batorski

Dominik Batorski: Łatwo przyszło nam zwalenie całej odpowiedzialności na algorytmy. Jednak twarde dane pokazują nie aż tak jednoznaczny obraz. Musimy się trochę cofnąć w czasie, by zrozumieć, skąd wzięły się informacje w „Facebook Files”. W 2019 roku przedstawiciele Facebooka jeździli po Europie, by „zabezpieczyć” wybory do Parlamentu Europejskiego. To już było po wybuchu skandalu Cambridge Analytica. Kwestia wpływu targetowania na wybory była bardzo gorąca i Facebook chciał zapobiec podobnej sytuacji w Europie.

Wtedy polscy politycy rzeczywiście powiedzieli Facebookowi, że po zmianie algorytmu w 2018 roku zauważyli zjawisko uprzywilejowanego traktowania treści wywołujących większe emocje. Od tego czasu firma Zuckerberga wiedziała o zjawisku podbijania treści negatywnych i takie nastroje generujących. A przynajmniej możemy założyć, że wiedziała o takich wyobrażeniach polskich polityków. Teraz zaś dzięki wyciekom dokumentów wiemy, że mimo tej świadomości nic nie zrobiła.

A nasi biedni politycy byli tacy nieświadomi, że algorytmy nadal działają, jak działają i dalej funkcjonowali w najlepsze w mediach społecznościowych. Oczywiście sami wcale nie generując polaryzacji i nie podbijając nastrojów. Nic a nic. Wszystko w najlepszych intencjach.

Bardzo im wygodnie teraz tak się przedstawiać. Z „Facebook Files” wynika, że politycy jednej z polskich partii mówili firmie, że przed zmianą algorytmu ich partia publikowała pół na pół treści pozytywne i negatywne. Po zmianie zasad algorytmu zauważyli, że treści negatywne zaczęły być bardziej promowane. Więc zaczęli publikować już 80 proc. negatywnych i 20 proc. pozytywnych. Czyli jeżeli już, to była decyzja samej partii i jej działaczy.

Po drugie, nie do końca widzimy to w danych. W Sotrender monitorujemy treści polityczne na Facebooku i rzeczywiście była w ostatnich latach jedna taka istotna zmiana w politycznym postowaniu. Pojawiła się ona w aktywności Platformy Obywatelskiej po tym, jak w 2015 roku wybory wygrało Prawo i Sprawiedliwość. PO zaczęła wtedy publikować znacznie bardziej negatywne treści. Aż 50 do 60 proc. publikacji miało taki właśnie charakter. Wcześniej tych negatywnych treści było tak do 10 proc., a większość wpisów miała neutralny wydźwięk.

Czyli ma rację PiS, mówiąc o opozycji totalnej?

Aż tak bardzo bym nie przesadzał. PiS też bardzo długo postował treści w większości negatywne. W przypadku tej partii zmieniło się to właśnie w 2018 roku. Tyle że w odwrotnym kierunku niż moglibyśmy zakładać. Od 2018 roku w przypadku PiS treści pozytywnych zaczęło być wyraźnie więcej. Pod koniec 2017 roku Mateusz Morawiecki został premierem i być może z tym związana była zmiana modelu komunikacji, który skupił się na tym, by raczej chwalić się dokonaniami rządu.

Czyli za decyzjami polityków stały bardziej doraźne decyzje związane z wewnętrzną sytuacją polityczną niż wyszukiwanie słabości algorytmu? 

W większości przypadków tak. Choć na tym tle wyróżnia się Konfederacja. Teraz mamy bardzo trendujące na Facebooku wideo. I właśnie w tej usłudze bardzo mocno politycznie działa Konfederacja, która korzysta z mechanizmów społecznościowych. Obecnie puszczają kilka postów dziennie wzmocnionych właśnie nagraniami. Efekt jest bardzo wyraźny. PO i PiS mają dwa raz mniej fanów na Facebooku niż Konfederacja. PiS miało w ostatnim miesiącu 160 tys. akcji użytkowników względem swoich treści, PO trochę ponad 200 tys., a Konfederacja 1 mln 120 tys. W tym także takie skrajne, antyszczepionkowe, szerowane nawet po 20 tys. razy.

Screen Facebook

Konfederacja potrafi w internety. Potrafi wyczuć emocje użytkowników, ale także, jak rozumiem, zna to środowisko i jego narzędzia.

Trochę tak jest, że podmioty mające słabszy dostęp do mediów tradycyjnych są aktywniejsze w internecie. Facebook jako alternatywna sfera publiczna jest dla nich świetnym miejscem do działania i robią to skutecznie od lat.

Z danych Sotrendera wynika, że to między 2015 a 2018 rokiem dwie największe partie mocno ścierały się na Facebooku, a nie po 2018 roku, gdy został zmieniony algorytm?

Tak. I ewidentnie widać w tym decyzje komunikacyjne samych partii. Więc przypisywanie Facebookowi całej odpowiedzialności za polaryzację jest zdecydowanie zbyt daleko idące. Co nie znaczy, że nie ma on żadnego wpływu. Faktycznie widzimy, że od marca 2018 roku posty PO o negatywnym zabarwieniu zaczynają być znacznie częściej udostępniane. Z danych przez nas zebranych wynika, że posty pozytywne czy neutralne były udostępniane średnio tak po niewielkie kilkaset razy. Natomiast te negatywne miały powyżej 1 tys. udostępnień. To jest znaczna różnica. Ale pojawia się pytanie, na ile taki efekt to działania algorytmu, a na ile jest to po prostu psychologiczny fakt, że użytkownicy chętniej udostępniają treści wywołujące negatywne emocje.

To chyba jest skorelowane? Maszynowe uczenie w algorytmie wyłapuje, że ludzi bardziej pewne treści emocjonalnie nakręcają, więc automat zaczyna je promować… 

Musimy sobie wytłumaczyć, po co Facebookowi taki algorytm. Cały mechanizm algorytmów w mediach społecznościowych bierze się z tego, że Facebook mógłby każdemu swojemu użytkownikowi pokazać multum treści. To, co piszą i publikują nasi znajomi, strony, które obserwujemy, grupy w których jesteśmy, łącznie publikują dziennie tysiące treści, a serwis może wyświetlić tylko niewielką część z nich. Musi więc w jakiś sposób selekcjonować, które treści pojawią się w pierwszej kolejności, a które później; które są ważniejsze, a które mniej. 

Jednym z czynników uwzględnianych przez algorytm, który dokonuje tej selekcji, jest rzeczywiście wspomniane zaangażowanie odbiorców. Czyli automat pokazuje użytkownikom te treści, które mają większą szansę wzbudzić reakcję, zaangażować, pobudzić emocje. Tyle że nie zaobserwowaliśmy różnicy takich reakcji w 2018 roku w treściach o pozytywnym i negatywnym charakterze. Lajków, serduszek, angry face'ów było w stosunku do nich mniej więcej tyle samo. Nie mamy jednak dokładnych danych, jakie konkretnie były zasięgi tych postów. Owszem, jak mówiłem, są one częściej udostępniane, ale czy te konkretne posty były częściej wyświetlane użytkownikom z danego fanpage'a? 

W moim odczuciu nie było takiej silnej zależności. W tym kontekście warto przypomnieć badania, które sam Facebook zrobił nad algorytmem udostępniającym treści, żeby stwierdzić, jakie czynniki przekładają się na to, że ludzie widzą treści sprzeczne z ich poglądami. To było jedno z podstawowych badań nad bańkami informacyjnymi, które wykazało, że ludzie faktycznie mają przede wszystkim relacje z osobami podobnymi do siebie. Użytkownicy o poglądach liberalnych mieli więcej znajomych liberałów, a znacznie mniej o poglądach konserwatywnych i vice versa. Ten efekt był głównym czynnikiem przyczyniającym się do tego, że użytkownicy widzieli mniej treści, które są sprzeczne z ich poglądami. Wpływ algorytmów Facebooka miał tylko niewielki dodatkowy efekt dla zmniejszenia widoczności treści przeciwstawnych.

Wydaje mi się więc, że i my dzisiaj, i ci politycy, którzy rozmawiali z Facebookiem w 2019 roku, mamy tendencję, by przypisywać Facebookowi i jego algorytmom większą odpowiedzialność niż faktycznie ma. Przenosimy odpowiedzialność z naszych własnych zachowań na działania algorytmów.

To brzmi tak, jakby Facebook stał się chłopcem do bicia, któremu obrywa się trochę na wyrost.

Bo tak trochę jest. Ja w ogóle uważam, że o wiele bardziej szkodliwy jest algorytm YouTube. Mało dziś o nim mówimy, a jestem absolutnie przekonany, że jego negatywny wpływ to dużo poważniejszy temat. Szczególnie, jeżeli chodzi o szkodliwość społeczną czy wpływ na nastolatki.

Tym bardziej, że dziś aktywnych nastolatków na Facebooku jest coraz mniej, a na YouTube wręcz przeciwnie. 

Rzeczywiście poważnym problemem Facebooka jest malejąca aktywność młodych ludzi. Stąd po części choćby ten mocny skręt Facebooka w stronę metaversum. 

Ale wracając jeszcze do roli algorytmu Facebooka, to rozumiem, że jest on póki co jedynym pomysłem na jakieś uporządkowanie tego nawału treści. Tylko problemem jest brak wiedzy i kontroli nad tym mechanizmem.

Fot. BlurryMe / Shutterstock.com

Póki co trochę trudno powiedzieć, jakby to inaczej miało funkcjonować, żeby zachować charakter spersonalizowanego newsfeedu, czyli tego, że każdy użytkownik ma jakby Facebooka dopasowanego do samego siebie. Ważnym pytaniem jest, czy Facebook powinien decydować, jakie treści wyświetlać? A czy jeżeli już to robi, to aby te decyzje były neutralne.

O tym, że ten proces nie jest neutralny, wiemy od 2018 roku, gdy odczuwalna stała się zmiana algorytmu. Nagle mocno przycięte zostały zasięgi kont firmowych i fanpage'ów.

W dużej mierze to obcięcie zasięgów dotknęło strony medialne, które wcześniej algorytm Facebooka traktował wyjątkowo łaskawie. Bo już wcześniej zasięgi stron biznesowych mocno spadały. Powód był czysto finansowy. W 2018 roku na Facebooku było ponad 100 mln fanpage'ów, ale łącznie firma ta miała tylko ok. 7 mln reklamodawców. Zdecydowana większość z tych podmiotów, które zakładały strony na Facebooku, nie płaciła. A skoro przeciętny użytkownik może potencjalnie zobaczyć 3 tys. treści dziennie, a sam Facebook jest mu w stanie wyświetlić w granicach 200, to trzeba było dokonać selekcji. I padło na fanpage, które nie opłacały reklam. 

Dodatkowo w 2018 roku wybuchła afera Cambridge Analytica. Pod wpływem ogromnej krytyki Facebook doszedł do wniosku, że tak mu się mocno obrywa, bo zaczyna być traktowany jakby był firmą medialną, a te ponoszą odpowiedzialność za publikowane treści. Takie ujęcie zaczęło Facebooka uwierać i zmiana algorytmu miała też jego rolę wydawcy ograniczyć.

Mówisz, że algorytm YouTube jest gorszy pod kątem wpływania na odbiorców. Ale to też nie jest wielka nowość, wiemy o tym od lat. 

Dokładnie. Po wyborach w Stanach w 2016 roku pojawiły się duże analizy wskazujące, jak z niespecjalnie groźnych treści na YouTube łatwo jest trafić na treści skrajne. Jak algorytm prowadzi z treści neutralnych na te wspierające Trumpa, a znacznie rzadziej na te dotyczące Hillary Clinton, bo nie były aż tak skrajne. I jak wszystko to prowadzi użytkownika w spiralę coraz bardziej skrajnych propozycji. W „Measure What Matters” Johna Doerra, legendarnego inwestora VC, jest cały rozdział poświęcony YouTube'owi i temu, jak ta platforma zmieniła to, co optymalizuje, a jej podstawową wartością stał się czas spędzany przez użytkownika w serwisie. A więc skoro jest tak cenny, to trzeba go maksymalizować. Więc kiedy szukamy jakiegoś filmiku np. o makijażu, to nie można nam wyświetlić krótkiego 2-minutowego nagrania, tylko lepiej polecić 20-minutowe. Cały mechanizm YouTube ma na celu wciągnąć nas na jak najdłużej.

O tym zjawisku zaczęło się mówić wręcz jako o skoku do „króliczej nory”. Było ono mocno nagłaśniane po wybuchu pandemii, gdy jego efektem było rozprzestrzenianie treści podważających wiedzę naukową. W efekcie pod wpływem opinii publicznej Google zaczął czyścić zasoby YouTube z najbardziej potencjalnie groźnych materiałów. Dziś na tapecie oprócz algorytmu Facebooka jest także ten Instagrama. Tym razem ze względu na zarzuty związane z wywoływaniem negatywnych psychologicznie skutków wśród nastolatków. Wzdychasz?

Wzdycham. Bo sporo rozmawiałem z ludźmi z centrali Facebooka o badaniach dotyczących Instagrama, które tak ostro teraz cytujemy i okazuje się, że z nimi nie jest taka prosta sprawa. Tak naprawdę do opinii publicznej trafiły bardzo wybiórcze informacje. Po pierwsze, były to badania deklaratywne, w których badane nastolatki pytano o to, czy Instagram wpływa na kilkanaście różnych aspektów ich życia. I tylko w jednym temacie deklaracje nastoletnich dziewczynek w ich własnym mniemaniu wskazywały na rzeczywiście negatywny wpływ. Tym tematem są zaburzenia odżywiania.

To oczywiście powinno być istotnym sygnałem alarmowym i powinno prowadzić do kolejnych badań i wyciągania przez Facebooka wniosków. Błędem jest, że Facebook takich badań nie publikuje. Ale jednoznaczne i ostre wyciąganie wniosków przez media, że algorytm Instagrama prowadzi do zaburzeń, jest daleko idące. Być może za daleko. Zbyt skrajne krytykowanie i podkręcanie argumentów jest w gruncie rzeczy przeciwskuteczne, jeżeli chodzi o prowadzenie kontroli nad platformami. Owszem, alarmuje opinię publiczną, ale niekoniecznie prowadzi do realnych zmian. 

Z całej naszej rozmowy przebija się ważny wniosek: nawet jeśli platformy wiedzą o jakichś potencjalnie szkodliwych efektach tego, jak działają i funkcjonują ich algorytmy, to nie dzielą się tymi informacjami.

fot. TY Lim /Shutterstock.com

Facebook opublikował wcześniej trochę danych, choćby wspomniane badanie z 2015 roku dotyczące baniek czy artykuł z 2012 roku o wpływie Facebooka na wybory dwa lata wcześniej. To drugie to był de facto eksperyment zrobiony na 61 mln Amerykanów. Konkretnie dotyczył tego, jak selektywne wyświetlanie informacji wyborczych może prowadzić do zwiększania frekwencji wyborczej.

Wtedy jeszcze Facebook publikował, bo nie był pod tak silną krytyką opinii publicznej. W 2010 roku faktycznie był uważany za świetny instrument do zwiększenia aktywności politycznej. 

Tak, tamto badanie pokazywało pozytywny wpływ; że odpowiedni komunikat może przyczyniać się do większej partycypacji. Tyle że potem eksperci spojrzeli na te badania i zauważyli, że przecież takie działania mogą wcale nie być neutralne i mogą przyczyniać się do selektywnego targetowania. I w efekcie zwiększania tej partycypacji tylko w konkretnych grupach, a to może działać na korzyść pewnych opcji politycznych. Ba, możemy używać Facebooka do selektywnej demobilizacji. Takie właśnie działanie moim zdaniem było jednym z elementów sukcesu kampanii Trumpa w 2016 roku. Więc kiedy eksperci, naukowcy zaczęli grzebać i odkrywać głębsze dna takich analiz, to Facebook zauważył, że publikowane przez niego badania mogą być wykorzystywane przeciwko niemu i skończył z transparentnością.

Mamy więc problemy potencjalnej szkodliwości i przede wszystkim braku transparentności algorytmów. Ale co faktycznie możemy z tym zrobić? Jak zadziałać, by i same platformy współpracowały, by nie nakręcać w nich poczucia oblężonej twierdzy? Narzekamy na platformy, że nie publikują swoich badań, raportów w tym temacie, ale wiemy też, że czego by dziś nie ujawniły, to spotkają się ze zmasowaną krytyką.

Po pierwsze, nie możemy już liczyć na samoregulację platform. Było dużo przestrzeni na takie działania i to się po prostu nie zadziało i nie sprawdziło. Potrzebne są zewnętrzne regulacje i większy zewnętrzny nadzór nad algorytmami. A do tego niezbędny będzie lepszy dostęp do danych. Ten póki co jest głównie dla jednostek naukowych w Stanach i Europie Zachodniej. To o wiele za mało. Za to dużo dzieje się od strony regulacyjnej w Europie. Unijne Digital Service Act i Digital Market Act to poważny krok w stronę regulacji tematu, choć na pewno nie jest to krok ostatni. 

Gdy mówimy o zewnętrznej kontroli dostępu do informacji, to kto powinien kontrolować? Przecież nie sami odbiorcy. Doskonale wiemy, że ludzie nie są w stanie się przez te zawiłości przegryźć.

Jest kilka poziomów wyjaśnialności działania sztucznej inteligencji czy algorytmów. Pierwszy poziom to jest to, co powinien wiedzieć i móc sprawdzić użytkownik. I tu już się trochę dzieje. Przykładowo możemy na Facebooku sprawdzić, dlaczego widzimy daną reklamę. To jest niezła idea, tyle że w tej opcji i tak wielu danych nie ma. Wiadomo, jakich informacji użył reklamodawca, ale nie ma pełnego wyłożenia mechanizmu. Kolejny poziom to możliwość wglądu, na bazie jakich danych są podejmowane decyzje platformy. Na Facebooku faktycznie możemy sprawdzić, jakie według platformy mamy zainteresowania i jak w oparciu o nie jesteśmy profilowani.

O ile przegrzebiemy się przez ustawienia serwisu, w których jest ta opcja ukryta…

Faktycznie nie jest to łatwe. Kilka lat temu mówiło się, że tylko 3 proc. użytkowników zagląda w te rejony. Ale trzeba przyznać, że Facebook daje opcję skasowania tych informacji. Teoretycznie możemy wręcz wszystko usunąć i to ma wpływ na to, jakie reklamy widzimy. Doświadczenia Facebooka są jednak takie, że jak już użytkownicy tam trafiają, to z zasady poprawiają to, co jest o nich nieprawdziwe. A to jest znakomity mechanizm, by trenować algorytmy i uczyć je jak najbardziej skutecznego dla platformy zbierania danych. Sami więc uczymy algorytm tego, jak nas lepiej targetować.

Niestety potem są już poziomy niedostępne dla zwykłego człowieka. Takie systemowe, gdzie wychodzimy z zainteresowania pojedynczym człowiekiem, a wchodzimy w próbę zrozumienia całego mechanizmu. W tej chwili badanie tego typu rzeczy jest bardzo trudne i robione głównie eksperymentalnie. Takie badania robią koledzy z Northeastern University w zespole Piotra Sapieżyńskiego. To jest cała seria badań reklam na Facebooku.

fot. Snopek/Shutterstock.com

Pokazują one, że mimo faktu, iż są kategorie reklam z nałożonymi ograniczeniami targetowania, np. ogłoszenia o pracę czy nieruchomości, to nie mogą być dyskryminujące. Facebook nie pozwala w nich używać kategorii płeć. Ale i tak użycie specjalnie dobranych i scrosowanych innych kategorii powoduje, że można ustawić reklamę tak, by mieszkania w pewnej okolicy pokazywały się np. tylko białym.

Ale do takich analiz to już naprawdę trzeba mieć i wiedzę, i odpowiednie instrumenty…

I budżety choćby na to, by do eksperymentu opłacać wykupywane reklamy. Jeszcze bardziej uderzający przykład to targetowanie reklam politycznych, które zbadano w eksperymencie tych samych autorów. Pokazał on, że gdy targetujemy reklamy, Facebook uwzględnia treść tych reklam i dobiera sam, komu je pokazuje. Te liberalne pokazuje bardziej liberalnym wyborcom, konserwatywne – konserwatywnym. Co więcej, płatne dotarcie do grupy osób o przeciwnych poglądach kosztuje znacznie więcej niż do tych już zgadzających się z treścią reklamy. Jest to pokłosie tego, że algorytm reklamowy promuje zaangażowanie, więc ocenia, na ile dana treść może trafić do danej grupy docelowej. Tyle że przy okazji powoduje faktycznie pogłębienie polaryzacji i zamykania ludzi w bańkach filtrujących. Dotarcie do ludzi o innych poglądach jest coraz trudniejsze. Dziś wiedzę o takich mechanizmach mamy dzięki niezależnym badaniom, a nie dzięki temu, że Facebook te dane sam dostarcza.

Może więc na każdym rynku językowym, wręcz w każdym państwie, powinny być specjalne dedykowane grupy ekspertów wykonujących tego typu eksperymenty i sprawdzających tym samym, czy zobowiązania dotyczące np. neutralności algorytmów są zachowywane?

I tu dotykamy bardzo ważnego wątku. Czyli tego, jak Facebook skupia się na rynku anglojęzycznym, a inne traktuje po macoszemu. Ale zanim do tego przejdziemy, to uważam, że generalna otwartość na zewnętrzne inicjatywy kontrolne jest wręcz niezbędna. Możemy to wręcz porównać do rynku farmaceutycznego. Zanim dopuścimy jakiś lek do użytku, to musi on przejść przez procedurę badawczą. Być może powinno być podobnie z algorytmami. Te kluczowe, dotykające ważnych sfer też powinny podlegać takiemu dopuszczeniu do użycia. Jestem sobie w stanie wyobrazić taki mechanizm w praktyce.

Urząd Miar i Wag Algorytmów? Miałoby to szansę faktycznie, praktycznie zadziałać?

Pewnie dziś jest to trudne do wyobrażenia, ale wiele sfer naszego życia było stopniowo regulowanych. Choćby ruch drogowy. Na początku bywa to trudne, przypomnijmy choćby prawo czerwonej flagi. W Wielkiej Brytanii w XIX wieku przez kilka lat był zakaz poruszania się omnibusów bez osoby biegnącej 60 jardów przed pojazdem z tą właśnie czerwoną flagą i ostrzegającej innych użytkowników dróg. Ten pomysł, jak wiemy, był przejściowy. Wypracowaliśmy dzisiejsze prawo drogowe. Ale to obecne prawo działa, bo osoby je wdrażające i pilnujące same są uczestnikami ruchu drogowego, więc mogą obserwować jego efekty, zbierać dane, a nie muszą liczyć na informacje tylko od producentów samochodów. Dlatego tak ważny i przy platformach jest dostęp do danych, na jakich one pracują.

Szczególnie, że – i tu możemy wrócić do kwestii międzynarodowych – dzięki kolejnym sygnalistom wiemy, że Facebook skupia się głównie na Stanach Zjednoczonych. Zdecydowana większość jego budżetów idzie na rynki anglojęzyczne. Widać to choćby po fact checking’u na tym portalu. W USA, gdy chce się wkleić link do treści uznanej za fałszywą, to trzeba przejść długą ścieżkę kolejnych potwierdzeń, że wie się o tych zastrzeżeniach i ma się świadomość, że to treść wprowadzająca w błąd. Co więcej, nawet po jej opublikowaniu jest ona oflagowana przez serwis. A u nas? Nic takiego nie wprowadzono.

Podobnie było ze wspomnianym na samym początku naszej rozmowy „zabezpieczeniem” wyborów do Parlamentu Europejskiego w 2019 roku. Z jednej strony super, że firma się zaangażowała w taki temat, z drugiej jednak zostało to zrobione w taki bardzo amerykocentryczny sposób. Bardzo mocno skupiono się na wątkach problematycznych w USA, czyli wpływie Rosji czy innych państw i używania reklam politycznych do targetowania wyborców. Tyle że w Europie mamy inną sytuację, przede wszystkim pod kątem finansowania partii, które nie dysponują aż tak wielkimi budżetami. Owszem, są problemy pod kątem przejrzystości reklam i targetowania w mediach społecznościowych, ale jednak u nas zasadnicze wykorzystanie Facebooka to są tysiące stron często z gigantycznymi zasięgami, specjalnie zakładanych do popychania i podbijania treści politycznych i to treści o wątpliwej jakości. 

Ten wątek był też w doniesieniach Sophie Zhang, innej sygnalistki z Facebooka. Zhang znalazła podejrzane, zaangażowane politycznie sieci kont między innymi w Polsce. Na szczęście nasz kraj znajduje się w Europie i jest dość duży, by przyciągnąć uwagę mediów – siatka fałszywych stron została rozwiązana. Mniej szczęścia miał Meksyk – ponad rok zajęło usunięcie ponad 5 tys. stron działających na korzyść polityków. Facebook nigdy nie zajął się sieciami odkrytymi w Mongolii, Boliwii czy Iraku.

Przygotowałem listę kilku tysięcy stron w Polsce, które tak właśnie działały i Facebook część z tego rzeczywiście zdjął. Nie mówimy tu nawet o zablokowaniu Obozu Narodowo-Radykalnego i Narodowego Odrodzenia Polski, które w 2018 roku zostały zbanowane przez Facebooka, tylko takich fanpage'ach, jak choćby „Szacunek dla licealistki, która nie przyjęła kwiatów od Tuska”. Ten profil istniał od 2014 roku, postował po kilka mocno prawicowych i skrajnych postów dziennie i miał ponad 50 tys. fanów. Ale to były takie doraźne działania ze strony Facebooka. Systemowo przyjął rozwiązanie dotyczące przejrzystości reklam politycznych. Ważne w Stanach Zjednoczonych, w Polsce mniej.

Ten fanpage wciąż istnieje, choć ma już tylko 7 tys. obserwujących, ostatnie wpisy z 2016 r. i są to typowe żebrolajki bez politycznych treści.

To wywołał nam Facebook tę wojnę społeczną w Polsce?

Myślę, że ona by się zaczęła i bez Facebooka. Spójrzmy, jak silnie spolaryzowane mamy tradycyjne media. Owszem, może się Facebook do tego dokładać, utrwalać podziały, ale trudno obarczać go istotną odpowiedzialnością za to, jak jest wykorzystywany przez użytkowników. A jest notorycznie nadużywany także politycznie.

Zdjęcie tytułowe: ValentinaKru/Schutterstock.com