Social media / News

Facebook miał szansę nie dzielić, nie polaryzować. Nie skorzystał

Facebook od dawna dobrze wie, że jego algorytmy wpływają na polaryzację stanowisk i zwiększenie podziałów społecznych. Sam zlecił raport, z którego płyną takie wnioski. 

Jak informuje The Wall Street Journal, w 2018 r. zarządowi Facebooka przedstawiono prezentację, z której wynika, że jeśli algorytmy firmy nie będą kontrolowane, użytkownicy platformy będę dostawać coraz więcej i więcej polaryzujących treści. One bowiem zapewniają zaangażowanie użytkownika i zwiększają czas, który spędza on w serwisie. Ten zaś przekłada się na konkretne pieniądze płynące na bankowe konta i do kieszeni szytych na miarę marynarek szefów największego medium społecznościowego.

Społeczne konsekwencje zostawienia algorytmów samym sobie my, użytkownicy, znamy aż nazbyt dobrze - dalsza polaryzacja, zaostrzenie konfliktów, promowanie dyskusji, podczas których krzyczy się, zamiast rozmawiać. Tu nie chodzi tylko o to, że stracimy kilku znajomych z liceum, z którymi i tak nie rozmawialiśmy od trzech lat. Konsekwencje algorytmu, którego nikt nie bada, mogą być znacznie poważniejsze. W raporcie z 2016 r. szefowie Facebooka mogli przeczytać, że aż 64 proc. osób, które dołączyły do grupy ekstremistycznej na Facebooku, zrobiły to, bo platforma sama im to zasugerowała.

Zmianne pojęcie dobra debaty publicznej.

Przedstawiciele Facebooka mówiąc o wykorzystywanych na platformie algorytmach sugerujących treści, często wspominają takie wartości jak tworzenie społeczności, powszechny dostęp do informacji, dbanie o użytkowników, którzy chcą widzieć angażujące treści. Wszystkie te piękne przemowy brzmią jednak cyniczniej, gdy ma się świadomość, że Facebook doskonale zdaje sobie sprawę z tego, jaki wpływ jego algorytmy mają i miały na jakość debaty publicznej. Sam zlecił w końcu raport, który miał za zadanie sprawę zbadać.

Facebook w oświadczeniu dla WSJ zapewnia, że wbrew sugestiom dziennikarzy, bierze sobie własne raporty do serca. Firma twierdzi, że wiele nauczyła się od 2016 r. i od tego czasu działa tak, by ograniczyć rozprzestrzenianie szkodliwych i polaryzujących treści.

Część osób wskazuje jednak na to, że choć starania takie rzeczywiście miały miejsce, wygasły na wiosnę 2018 r., gdy w Facebooka uderzył skandal Cambridge Analytica. Ogrom krytyki, który spadł na społecznościową platformę, miał sprawić, że ta przeszła do defensywy i wycofała się z wprowadzenia zmian, które zapowiadał w swoim noworocznym poście Mark Zuckerberg - poście, w którym przepraszał za dotychczasowe błędy i obiecywał, że od teraz ważne dla Facebooka będzie przede wszystkim budowanie dobrych relacji między użytkownikami.

Jednak po skandalu misja tworzenia mniej polaryzującej platformy zeszła na dalszy plan. Facebook zmienił taktykę. Z obawy przed zarzutami o uleganie wpływom jednej strony sporu politycznego lub faworyzowanie lewicy, Facebook wycofał się z części swoich planów i zaczął wyznawać politykę mniejszego ingerowania w treści promowane na platformie. Pokłosiem tej zmiany jest choćby kontrowersyjny przepis o możliwości zamieszczania nieprawdy w reklamach politycznych.

Nie przegap nowych tekstów. Obserwuj Spider's Web w Google News.

nie mobile
przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst