Hipokryzja Facebooka nie ma granic. Jego standardami społeczności można wybrukować piekło
Podobno piekło wybrukowane jest dobrymi chęciami. O wiele lepszym materiałem budowlanym mogą być standardy społeczności Facebooka, a dokładniej to, jak instrumentalnie traktuje je serwis.
Każdy, kto kiedykolwiek zgłosił obelżywy, obraźliwy czy rasistowski post na Facebooku dowiedział się, że istnieją tzw. standardy społeczności. Serwis opisuje te zasady używając wszelkich wyrażeń-wytrychów stosowanych w piarze. "Pragniemy Twojego bezpieczeństwa" - przeczytamy. Dowiemy się, jak ważne dla Facebooka jest "poszanowanie innych osób", "ochrona własności intelektualnej". Gdy już dostaniemy odpowiedź na zgłoszenie, w której przeczytamy, że nie doszło do naruszenia standardów społeczności, nasz obraz będzie pełny. W dużym uproszczeniu pokaże, jak teoria ma się do praktyki.
Mam oczywiście na myśli przypadki ewidentnego naruszenia zasad, a być może prawa.
Choćby wezwania do rękoczynów wyrażone wprost i bez podtekstów. Doskonale zdaję sobie sprawę, że jest też druga strona medalu i wiem, że narzędzie zgłaszania postów bywa narzędziem walki z nieakceptowanymi przez niektórych użytkowników poglądami. Mam również świadomość, że moderatorzy Facebooka muszą znaleźć złoty środek, a z doświadczenia wiem, że nie jest to łatwe.
Istnieją kategorie spraw, które powinny być traktowane wyjątkowo odpowiedzialnie. Należy do nich dziecięca pornografia. Dziennikarze BBC przekonali się o o tym, jak Facebook traktuje tego typu kwestie. Gdy przedstawiciele serwisu społecznościowego otrzymali dowody na to, że można w nim znaleźć zdjęcia przedstawiające seksualne wykorzystanie dzieci (co istotne: wraz z przykładowymi fotografiami pochodzącymi z Facebooka), donieśli na dziennikarzy organom ścigania.
Skuteczność moderacji Facebooka obnażają też liczby. Na 100 zdjęć zgłoszonych przez dziennikarzy usunięto tylko 18. BBC przesłało też dowody na to, że istnieją grupy w serwisie, na których można wymieniać się tego typu treściami. Damian Collins, szef Komisji Kultury, Mediów i Sportu w brytyjskim parlamencie, po zapoznaniu się ze sprawą stwierdził, że ma poważne wątpliwości, co do skuteczności systemów moderacyjnych Facebooka.
Jak tłumaczy się Facebook? "Rozpowszechnianie zdjęć wykorzystywanych dzieci to naruszenie prawa w każdym przypadku. Zgłosiliśmy [organom ścigania] również zdjęcia udostępniane na naszej platformie. Ta sprawa jest teraz w rękach władz" - stwierdził Simon Milner. Rzecz jasna dodał standardowe stwierdzenie o tym, że sprawa jest traktowana poważnie, a serwis pracuje nad ulepszeniem swoich mechanizmów.
Facebook wielokrotnie był obiektem kpin.
Największy serwis społecznościowy świata od lat ma problem z klasyfikacją treści łamiących jego własne standardy. Banowane były na przykład kobiety, które udostępniły zdjęcia zrobione podczas karmienia piersią. Z powodu nagości usuwano fotografie klasycznych dzieł sztuki. Kwestia sutków widocznych na fotografiach osiągnęła karykaturalne, może nawet groteskowe formy. Serwis tłumaczy takie działania poszanowaniem innych. "Ograniczamy wyświetlanie materiałów przedstawiających nagość, ponieważ niektórzy członkowie naszej globalnej społeczności mogą być szczególnie wrażliwi na takie treści ze względu na swoje pochodzenie lub wiek." - czytamy na stronie poświęconej standardom społeczności.
Gdy spojrzymy uważnie na problem, łatwo zobaczymy, że Facebook traktuje swoje zasady instrumentalnie. Skoro bowiem zdjęcie kobiety karmiącej piersią narusza standardy, a zdjęcia przedstawiające wykorzystywanie dzieci już niekoniecznie (przypomnijmy, że BBC twierdzi, że na 100 zgłoszonych zdjęć tego typu usunięto tylko 18), to jasno wynika z tego, że system jest nieefektywny, wadliwy lub nadmiernie zautomatyzowany.
Sprawa jest wyjątkowo bulwersująca właśnie dlatego, że pracownicy Facebooka wielokrotnie pokazywali, że potrafią być skrajnie nadwrażliwi. Z drugiej strony zabrakło im wrażliwości w sprawie, wydaje się, oczywistej.