Moderowanie Facebooka jest jak nurkowanie w szambie. Moderatorzy dostaną odszkodowania
Facebook zapłaci po 1000 dol. moderatorom i wypłaci dodatkowe odszkodowanie, jeżeli u pracownika zostanie zdiagnozowany zespół stresu pourazowego.
Facebook cyklicznie chwali się, że jego sztuczna inteligencja coraz lepiej radzi sobie moderacją treści. W I kwartale tego roku podjęto w ten sposób działania działania wobec 9,6 mln treści - to wzrost prawie o połowę w stosunku do ostatniego kwartału 2019 r. (5,7 mln treści). Firma podaje, że zwiększyła możliwości wykrywania mowy nienawiści w języku angielskim, ale też rozszerzyła technologię o nowe języki.
Sztuczna inteligencja jeszcze długo nie zastąpi człowieka w moderacji komentarzy.
W 2018 r. Facebook po raz pierwszy opublikował swoje szczegółowe wytyczne dotyczące moderacji treści w serwisie. Podano wówczas, że serwis radzi sobie dobrze z wykrywaniem choćby nagości. 2 lata temu algorytmy wychwytywały 96 proc. tego typu naruszeń standardów społeczności Facebooka, zanim zobaczył je człowiek. Algorytmy firmy potrafiły też zidentyfikować w ten sposób 86 proc. zdjęć zawierających przemoc.
Niemal z rozbrajającą szczerością Facebook przyznał wówczas, że jego oprogramowanie ma spory problem z identyfikowaniem przypadków mowy nienawiści. Poradziło sobie tylko z 38 proc. z 2,5 mln treści zawierających mowę nienawiści.
Powody takiego stanu rzeczy są dość oczywiste. O ile algorytm szybko nauczy się identyfikacji nagości czy przemocy na zdjęciu, będzie miał problem z oceną intencji piszącego posty i komentarze. Dość powiedzieć, że można stworzyć nienawistny przekaz bez używania prostych słów kluczy zawierających np. wulgaryzmy czy otwarte groźby. Działa to też w drugą stronę - treść mająca pozornie opresyjny charakter może taka nie być.
Wniosek? Człowiek nadal jest potrzebny do rozstrzygania, co jest dobre, a co złe.
Praca przy moderacji komentarzy na Facebooku może być niebezpieczna.
W wyniku ugody zawartej w Stanach Zjednoczonych, Facebook zgodził się wypłacić 52 mln dol moderatorom. 11,2 tys. pracowników zajmujących się obecnie i w przeszłości moderacją treści ma otrzymać co najmniej 1000 dol. Kwota ta wzrośnie, gdy przedstawią diagnozę zespołu stresu pourazowego lub podobnych schorzeń. Co ciekawe - jak podają amerykańskie media - do dodatkowego odszkodowania może być uprawniona nawet połowa moderatorów.
Zgodnie z ugodą zawartą za oceanem, Facebook zadeklarował również poprawę narzędzi, które używane są do oceny treści w celu zmniejszenia ich wpływu na pracowników. Dźwięk w filmach ma być domyślnie wyciszony podczas moderacji, a wyświetlane wideo będzie czarno-białe.
Facebook oglądany przez nas to wersja lajt tego, co widzą moderatorzy.
Korzystanie z Facebooka jest co do zasady bezpieczne. Patrząc na moją bańkę w największym serwisie społecznościowym świata, nie napotykam często na ekstremalne treści. Zdarza mi się czytać idiotyczne wypowiedzi, głupie oceny, ale zazwyczaj nie wykraczają poza ramy dobrze rozumianej wolności słowa. Wystarczy jednak wychynąć na chwilę z cieplutkiej bańki, by zobaczyć zupełnie inny świat. Lektura komentarzy pod postami dużych mediów potrafi przyprawić o ból głowy. Roi się tam od wyzwisk, oczerniania, ośmieszania itp.
Gdy natknę się na tego typu treść, zazwyczaj ją zgłaszam. I choć często narzekam na moderację Facebooka, potrafię sobie wyobrazić, jak trudną pracą jest ocenianie przez wiele godzin dziennie zgodności komentarza czy wpisu z facebookowymi standardami społeczności.
Weźmy prosty przykład z ostatnich dni. Wzrasta liczba zachorowań na COVID-19 na Śląsku. Coraz częściej mówi się, że Śląsk staje się polską Lombardią. Wraz ze wzrostem zakażeń, rośnie też hejt. Media społecznościowe (prawdopodobnie w tym przypadku przoduje Twitter) i komentarze pod tekstami dotyczącymi sytuacji na Śląsku, stały się polem, na którym obrzuca się Ślązaków najgorszymi inwektywami. Te najłagodniejsze komentarze zawierają nawoływania do odłączenia Ślaska od Polski i oddania go Niemcom. Najbardziej radykalne zawierają wyzwiska pod adresem Ślązaków i górników. Zamiast solidarności z ludźmi ciężko dotkniętymi przez epidemię, mamy do czynienia z falą irracjonalnego hejtu.
Wyobraźmy sobie teraz moderatora. Tego żywego, czującego, a nie algorytm.
Przez wiele godzin dziennie musi on obcować z treściami, które - łagodnie rzecz ujmując - nie należą do budujących. Musi być też instancją, którą określi, czy wypowiedzi, zdjęcia lub wideo są zgodne z zasadami obowiązującymi na Facebooku.
Przykłady słownej agresji, choć mało strawne, nie są jeszcze ekstremum. W 2018 r. moderatorka Selena Scola pozwała Facebooka za to, że nie zapewnił on ochrony pracownikom zajmującym się klasyfikacją treści. Tłumaczyła wówczas, że w czasie pracy musi oglądać wideo dokumentujące gwałty, samobójstwa, dekapitacje czy morderstwa. Scola zajmowała się moderacją przez 9 miesięcy. Zdiagnozowano u niej zespół stresu pourazowego podobny do tego, którego doświadczają żołnierze na froncie, ofiary gwałtów, przemocy czy innych traumatycznych przeżyć.
Oczywiście wysoki poziom trudności moderacji treści pojawiających się na Facebooku nie usprawiedliwia w żaden sposób zaniechań i wpadek samego Facebooka. A te potrafią być spektakularne. W ubiegłym roku opisywaliśmy przypadek profilu, na którym publikowane są pornograficzne treści. Zgłosił się do nas czytelnik, który zgłaszał profil i poszczególne posty moderacji, ale zderzał się ze ścianą. W odpowiedzi otrzymywał informację, że nie naruszają one zasad. Próba zgłoszenia treści przez nas zakończyła się tym samym. Dopiero interwencja w polskim oddziale Facebooka spowodowała skasowanie profilu. Przedstawiciele polskiego Facebooka tłumaczyli sytuację błędem.
Metaforycznym obrazkiem dla pracy moderatora jest mem krążący od dawna w sieci. Widzimy na nim człowieka w kombinezonie nurkującego w szambie. Choć sam obrazek ma charakter raczej satyryczny, wyjątkowo trafnie pokazuje na czym polega moderacja. Ta w istocie jest zderzeniem z ciemną stroną ludzkiej natury.
Nie przegap nowych tekstów. Obserwuj Spider's Web w Google News.