Facebook przyznaje, że algorytmy nie radzą sobie z mową nienawiści i pokazuje ciekawe statystyki
Kilka tygodni temu Facebook po raz pierwszy opublikował wewnętrzne wytyczne dotyczące standardów społeczności, którymi kierują się moderatorzy. Teraz serwis ujawnił kilka interesujących statystyk dotyczących usuwanych treści.
Odkąd Facebook zdecydował się ujawnić wewnętrzne wytyczne poświęcone moderacji, życie stało się prostsze. Znajdziemy w nich bowiem m.in. listę zakazanych zwrotów.
Wybaczcie ironię, ale ta szeczegółowość przypomina nieco wydaną w XIX w. przez biskupa Le Mans, Jeana-Baptiste Bouviera, broszurę Tajemnica konfesjonału, która poświęcona była głównie tematyce szóstego przykazania biblijnego dekalogu, czyli: Nie cudzołóż. Rozprawa sprzed stuleci stworzona była w duchu - mądre słowo - kazuistycznej teologii, biorącej każdy przypadek grzechu nawet nie pod lupę, ale pod mikroskop.
Zaktualizowane standardy społeczności Facebooka rodzą podobne skojarzenia. Problem tylko w tym, że język jest dynamiczny, zatem zamiast listy stworzonej przez Facebooka, wkrótce może powstać cały słownik. Cieszmy się, że minęły czasy, gdy wiedzę przechowywały opasłe tomiszcza, bo moderatorzy największego serwisu społecznościowego świata, w nieodległej przeszłości zyskaliby aspekt budowania tężyzny fizycznej podczas wyszukiwania grzeszków użytkowników.
W jaki sposób Facebook walczy z treściami naruszającymi standardy społeczności?
Pierwszą linią frontu jest ochrona przed fałszywymi kontami. Od stycznia do marca 2018 r. serwis zlikwidował 583 mln fałszywych kont. Większość z nich usunięto w ciągu kilku minut od rejestracji - chwali się Guy Rosen z Facebooka. W tym samym kwartale skasowano 837 mln treści spamowych. Serwis twierdzi, że blisko 100 proc. z nich usunięto zanim ktoś je zgłosił. Bardzo ciekawe są szacunki mówiące, że w opisywanym okresie fałszywe konta stanowiły od 3 do 4 proc. wszystkich aktywnych kont.
Serwis dobrze radzi sobie również z nagością. W rzeczonym czasie skasowano 21 mln tego typu treści. 96 proc. wychwyciły algorytmy, zanim zauważył i zgłosił je człowiek. "Ogólnie rzecz biorąc, szacujemy, że na każde 10 tys. treści wyświetlanych na Facebooku, 7 do 9 odsłon stanowiły treści naruszające standardy dotyczące nagości i pornografii" - czytamy.
Nieco gorzej algorytmy radzą sobie z obrazami zawierającymi przemoc. Usunięto lub oznaczono 3,5 mln zdjęć, 86 proc. zidentyfikowały algorytmy.
Facebook przyznaje otwarcie, że technologia nie radzi sobie z tzw. mową nienawiści. W tym przypadku konieczny jest nadal udział ludzi. Tylko 38 proc. z 2,5 mln treści zawierających mowę nienawiści wychwyciły algorytmy. Pewnie dlatego wspomniany wyżej słownik będzie się powiększał.