Władza w ręce użytkowników. Naukowcy mają niezły pomysł na to, jak naprawić Facebooka
Facebook musi przestać zachowywać się jak zazdrosny partner. Naukowcy zalecają firmie większe otwarcie się na innych i, o zgrozo, pozwolenie użytkownikom na decydowanie samym o sobie.
Jak trwoga, to do naukowców. Facebook płonący ze wstydu w ogniu krytyki dopuszcza do siebie coraz większą liczbę badaczy, którzy mają sprawić, że poprawi się wizerunek i działanie największego portalu społecznościowego świata. Ich diagnozy bywają ciekawe, szczególnie te, które wywracają do góry nogami działanie platformy.
Jeśli coś może pomóc Facebookowi odzyskać twarz, to tylko cud. Albo naukowcy.
Badacze z University of Oxford i Stanford University zastanawiali się, jak sprawić, żeby platforma, która ma ponad 2,2 mld użytkowników, poradziła sobie z tym, co publikują jej goście. Konsekwencje działań i polityk Facebooka wykraczają poza stan konta jednej firmy i jej właścicieli. To globalne forum, na którym dyskutuje się na tematy wrażliwe społecznie, prowadzi politykę, niszczy i tworzy. Ta ważkość tematu powoduje, że do akcji coraz śmielej wkraczają także politycy. Już teraz nie można po prostu powiedzieć, że Facebook czuje ich gorący oddechu na karku. Oni dyszą mu w twarz.
Dlatego firma Zuckerberga uniosła nieco kołderkę i pozwoliła naukowcom pod nią zajrzeć. Dała wgląd w to, w jaki sposób ustala swoje zasady i jak je wprowadza w życie, próbując z różnym skutkiem nie wkurzyć przy okazji całego świata. Tak powstał raport, o zaskakująco czytelnym, jak na wyprodukowany przez akademików tekst, tytule Głasnost! 9 sposobów na to, żeby Facebook stał się lepszą platformą promującą wolność słowa i demokrację.
Moderacja czasami przypomina miejscami maszynę losującą, a użytkownicy mają za mało do powiedzenia.
Naukowcy zrobili listę zaleceń, którą można podsumować w zawołaniu: więcej informacji dla wszystkich – dla pracowników Facebooka, dla badaczy, dla dziennikarzy i w końcu dla użytkowników.
Bardziej precyzyjnie to ujmując, Facebook powinien:
- Napisać lepszą definicję mowy nienawiści. Ta, która jest obecnie, jest szeroka, opisowa i niewystarczająca. Duża część odwołań od blokad i usunięć dotyczy właśnie tego paragrafu. Dla wielu osób jest on po prostu niezrozumiały.
- Zatrudnić większą liczbę ekspertów, którzy znają język i kontekst kulturowy tego, co sprawdzają. Sztuczna inteligencja nie radzi sobie jeszcze z kontekstami kulturowymi i nie może być jedyną odpowiedzią na rosnącą liczbę użytkowników.
- Wyjaśnić, jak te wszystkie reguły są ustalane i egzekwowane. W teorii znamy te zasady, możemy je przeczytać i nawet myśleć, że je rozumiemy, ale potem do gry wchodzi rzeczywistość i wszystko bierze w łeb. Akademicy mają bardzo ciekawą propozycję dla Facebooka – publikowania na przykładach, jak dokładnie przebiegał cały proces podejmowania szczególnie trudnych decyzji. Nie wszystko da się ująć w ramy szczegółowych przepisów (których im bardziej są szczegółowe, tym bardziej nikt nie czyta). Dobra, z życia wzięta historia, mogłaby być nie tylko ciekawa, ale też dać lepszy wgląd w to, co dzieje się po drugiej stronie. Wiele bym dała, żeby prześledzić proces prowadzący do usunięcia reklamy wyśmienitego GRIS.
- Ulepszyć proces odwoływania się. Na każdym froncie. Moderator często dostaje zbyt mało kontekstu, żeby podjąć dobrą decyzję. Publika zaś nie wie niemal nic o statystykach odwołań.
- Dać użytkownikom kontrolę nad ich własną tablicą. Obecnie mamy minimalny wpływ na składniki papki, jaką Facebook nam serwuje i naukowcy proponują to zmienić. Niech użytkownik może wyrazić swoje preferencje świadomie i sam zdecydować o tym, co chce tam widzieć.
- Podawać kontekst podejrzanych informacji i zwiększyć współpracę z organizacjami sprawdzającymi ich wiarygodność. To już się dzieje, ale na zdecydowanie zbyt małą skalę.
- Robić więcej zewnętrznych audytów, których wyniki byłyby dostępne dla szerokiej publiki. Akademicy mają szereg pomysłów na temat tego, jakie zagadnienia mogłoby się znaleźć w centrum zainteresowania audytorów — prywatność użytkowników, brak dyskryminacji w algorytmach, moderacja.
- Stworzyć zewnętrzną radę ekspercką zajmującą się zasadami publikowania treści. Facebook jest zbyt mocno zamknięty we własnym sosie, żeby dostrzec część czyhających problemów.
- Stworzyć możliwość zewnętrznego odwołania się od decyzji Facebooka. Mark Zuckerberg przebąkiwał coś o takiej radzie w listopadzie zeszłego roku. Nadal czekamy na szczegóły.
Akademicy nie ograniczyli się tylko do spisania zaleceń dla Facebooka. Przyznali też, że politycy muszą się mieszać w jego sprawy, bo sytuacja, w której znajdujemy się obecnie, jest niepokojąco bliska monopolowi. Badacze pochwalają wymuszania przez polityków zwiększania ochrony danych na Facebooku i wskazują jasno, że w tym obszarze ich działalność jest jak najbardziej mile widziana. A Facebook? On zachęca do badania siebie, stara się. Musi. Świat patrzy mu na ręce coraz pilniej i coraz mniej przychylnym wzrokiem.