REKLAMA

Facebook przyznaje, że algorytmy nie radzą sobie z mową nienawiści i pokazuje ciekawe statystyki

Kilka tygodni temu Facebook po raz pierwszy opublikował wewnętrzne wytyczne dotyczące standardów społeczności, którymi kierują się moderatorzy. Teraz serwis ujawnił kilka interesujących statystyk dotyczących usuwanych treści.

Facebook i Instagram nie działają. Trwa duża awaria w Europie i Stanach Zjednoczonych
REKLAMA
REKLAMA

Odkąd Facebook zdecydował się ujawnić wewnętrzne wytyczne poświęcone moderacji, życie stało się prostsze. Znajdziemy w nich bowiem m.in. listę zakazanych zwrotów.

Wybaczcie ironię, ale ta szeczegółowość przypomina nieco wydaną w XIX w. przez biskupa Le Mans, Jeana-Baptiste Bouviera, broszurę Tajemnica konfesjonału, która poświęcona była głównie tematyce szóstego przykazania biblijnego dekalogu, czyli: Nie cudzołóż. Rozprawa sprzed stuleci stworzona była w duchu - mądre słowo - kazuistycznej teologii, biorącej każdy przypadek grzechu nawet nie pod lupę, ale pod mikroskop.

Zaktualizowane standardy społeczności Facebooka rodzą podobne skojarzenia. Problem tylko w tym, że język jest dynamiczny, zatem zamiast listy stworzonej przez Facebooka, wkrótce może powstać cały słownik. Cieszmy się, że minęły czasy, gdy wiedzę przechowywały opasłe tomiszcza, bo moderatorzy największego serwisu społecznościowego świata, w nieodległej przeszłości zyskaliby aspekt budowania tężyzny fizycznej podczas wyszukiwania grzeszków użytkowników.

W jaki sposób Facebook walczy z treściami naruszającymi standardy społeczności?

Pierwszą linią frontu jest ochrona przed fałszywymi kontami. Od stycznia do marca 2018 r. serwis zlikwidował 583 mln fałszywych kont. Większość z nich usunięto w ciągu kilku minut od rejestracji - chwali się Guy Rosen z Facebooka. W tym samym kwartale skasowano 837 mln treści spamowych. Serwis twierdzi, że blisko 100 proc. z nich usunięto zanim ktoś je zgłosił. Bardzo ciekawe są szacunki mówiące, że w opisywanym okresie fałszywe konta stanowiły od 3 do 4 proc. wszystkich aktywnych kont.

Serwis dobrze radzi sobie również z nagością. W rzeczonym czasie skasowano 21 mln tego typu treści. 96 proc. wychwyciły algorytmy, zanim zauważył i zgłosił je człowiek. "Ogólnie rzecz biorąc, szacujemy, że na każde 10 tys. treści wyświetlanych na Facebooku, 7 do 9 odsłon stanowiły treści naruszające standardy dotyczące nagości i pornografii" - czytamy.

REKLAMA

Nieco gorzej algorytmy radzą sobie z obrazami zawierającymi przemoc. Usunięto lub oznaczono 3,5 mln zdjęć, 86 proc. zidentyfikowały algorytmy.

Facebook przyznaje otwarcie, że technologia nie radzi sobie z tzw. mową nienawiści. W tym przypadku konieczny jest nadal udział ludzi. Tylko 38 proc. z 2,5 mln treści zawierających mowę nienawiści wychwyciły algorytmy. Pewnie dlatego wspomniany wyżej słownik będzie się powiększał.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA