Social media / News

W tym roku Facebook usunie tyle fałszywych kont, ile jest ludzi na świecie. Serio

Facebook opublikował raport, w którym pokazuje, jak pilnuje przestrzegania Standardów Społeczności. Po raz pierwszy znajdują się w nim także dane z Instagrama. 

Raport obejmuje trzeci kwartał 2019 r., czyli miesiące od lipca do września. W tym czasie firma skasowała aż 1,7 mld fałszywych kont, a możemy mieć pewność, że takich kont jest znacznie więcej.

Nie da się określić dokładnej liczby fałszywych kont na Facebooku

Facebook podkreśla, że większość fałszywych kont w ogóle nie zostaje założona, bo jest blokowana już na etapie rejestracji, reszta zwykle żyje tylko kilka minut zanim ściągną je algorytmy. Firma może tu jednak mówić tylko o kontach, które udaje się jej wykryć, reszta pozostaje poza radarem i nie jest uchwycona w tych statystykach. Zakładane przez profesjonalnych trolli, a nie boty, profile są znacznie trudne do zidentyfikowania i zneutralizowania. A to, że istnieją, wiemy z pewnością, nie znamy tylko ich liczby i skali zjawiska. Łudzenie się, że jest ona mała jest… no właśnie łudzeniem się.

W sumie w ciągu całego tego roku z samego Facebooka usunięto aż 5,4 mld kont, a to przecież tylko jedno medium społecznościowe, ważne, ale nie jedyne. Co gorsza, te dane dotyczą tylko pierwszych 9 miesięcy roku. Pod koniec roku ta liczba będzie pewnie oscylować okół 7 mld. Dla przypomnienia - wszystkich ludzi na świecie jest około 7,6 mld.

Facebook wreszcie uwzględnił część danych z Instagrama w raporcie

Czekaliśmy od dawna na ten ruch. W danych obejmujących także młodszą z platform firmy znalazły się treści przedstawiające wykorzystywane seksualnie lub nagie dzieci, ich wykrywalność, jak chwali się Facebook znacznie wzrosła w ostatnich miesiącach po drobnej poprawie w sposobie ich wykrywania. W pierwszym kwartale tego roku algorytm wykrył na samym tylko Facebooku 6,9 mln takich treści, w trzecim zaś aż 11,6 mln. W wypadku Instagrama te liczby były odpowiednio mniejsze – 512 tys. i 754 tys.

Po raz pierwszy Facebook uwzględnił także w raporcie dane dotyczące treści zachęcających do samookaleczania się i samobójstwa. W drugim kwartale tego roku usunięto ich 2 mln, z czego 96 proc., zostało zidentyfikowanych przez algorytmy. W trzecim kwartale zwiększyła się w tym względzie rola algorytmu (ponad 97 proc.), co poskutkowało także większą liczbą usuniętych treści (2,5 mln). Znacznie mniejszą rolę pełni w tym wypadku algorytm Instagrama, który zidentyfikował w ostatnim kwartale tylko 79 proc. z 845 tys. usuniętych treści z tej kategorii. Resztę musieli zgłosić ludzie.

Algorytmy wzięły się za mowę nienawiści

W ciągu ostatnich dwóch lat Facebook wprowadził zmiany w sposobie moderacji mowy nienawiści i także do jej wykrywania zaprzągł algorytmy. Do 2019 r. wykryte przez komputer treści były jednak przesyłane do ludzkiego moderatora, który mógł zgodzić się z decyzją maszyny lub ją zanegować. Od drugiego kwartału tego roku w niektórych wypadkach wyłączono z tej procedury człowieka. I tak w ostatnim kwartale Facebook usunął najwięcej w swojej karierze treści podpadających pod tę kategorię. Firma wyrzuciła z serwisu ponad 7 mln postów, obrazków lub komentarzy. W pierwszym kwartale tego roku, który do tej pory był rekordowy, było ich zaledwie 4,4 mln.

nie mobile
przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst