Neutralne algorytmy to pobożne życzenie. Szef bezpieczeństwa Facebooka pouczał dziennikarzy na Twitterze
Neutralne algorytmy kontra nieobiektywny człowiek - dyskusja o fake newsach weszła w kolejną fazę. Głos tym razem zabrał Alex Stamos, odpowiedzialny za bezpieczeństwo na Facebooku.
Kontekst tej historii jest dość dobrze znany. Po wyborach prezydenckich w Stanach Zjednoczonych rozgorzała dyskusja na temat wpływu fałszywych informacji na wyniki. Mark Zuckerberg początkowo uznał taki tok myślenia za szaleństwo. W ostatnich tygodniach kaja się i przeprasza, twierdząc, że nie powinien bagatelizować problemu. Za słowami zaczęły iść czyny. Podczas kampanii we Francji, Facebook dał sygnał, że problem jest ważny. Po niemieckich wyborach do Bundestagu informował o zablokowaniu dziesiątków tysięcy fałszywych kont i współpracy z Federalnym Urzędem ds. Bezpieczeństwa Informacji.
Do tego sosu dodać musimy pikantną przyprawę w postaci wątku rosyjskich reklam. Facebook przekazał Kongresowi dokumentacją związaną z tą kwestią. W skrócie wiemy o 470 kontach powiązanych z Rosją, z których od czerwca 2015 r. do maja 2017 r. opublikowano reklamy o wartości 100 tys. dol. Reklamy zostały wyświetlone przez 10 mln użytkowników w Stanach Zjednoczonych.
Facebook będzie "ręcznie" przeglądać reklamy.
Szefostwo Facebooka zdecydowało, że niektóre typy reklam będą poddane "ludzkiemu przeglądowi". Niektórzy reklamodawcy otrzymali informacje, że w związku z tym mogą nastąpić opóźnienia publikacji. Sprawdzane mają być reklamy związane z polityką, religią, kwestiami etnicznymi.
"Ludzki przegląd" wzbudził oczywiście niezbyt pozytywne skojarzenia. Przez Twittera przetoczyła się ostra dyskusja, w której uczestniczył Alex Stamos, Chief Security Officer Facebooka i zarazem szef grupy, która prowadziła śledztwo w sprawie rosyjskich reklam. Wszystko zaczęło się od stwierdzenia jednego z dziennikarzy, że serwis powinien naprawić źle działające algorytmy, zamiast wprowadzać kontrolę reklam przez człowieka.
Zdaniem Stamosa istnieje przepaść między teorią i praktyką. Mało tego, podkreślił on, że nie istnieją neutralne algorytmy. Wysoko postawiony przedstawiciel Facebooka ironizował nawet, że kwestia jest prosta, jeżeli nie ma się problemu z wcieleniem się w Ministerstwo Prawdy. To oczywiście nawiązanie do powieści "Rok 1984" Orwella.
Stamos doradził dziennikarzom, by porozmawiali z ludźmi, którzy "faktycznie musieli rozwiązać problemy i żyć z ich konsekwencjami". Podkreślił, że chodzi o "miliony/miliardy/dziesiątki miliardów" treści wymagających posortowania.
Swoistym podsumowaniem dyskusji jest tweet, w którym CSO Facebooka poucza dziennikarzy, że są w błędzie, jeżeli myślą, że problem fake newsów nie został rozwiązany, bo ludzie w firmie są nerdami. Chodzi jednak o negatywne znacznie słowa "nerd", czyli osoby bez umiejętności społecznych, wyalienowane z rzeczywistości.
Tweety szefa bezpieczeństwa Facebooka były emocjonalne. Dowodzą one na pewno złożoności problemu i tego, że Facebook znajduje się między młotem a kowadłem. Bez względu na reakcję, serwis będzie krytykowany. Za opieszałość - jeżeli nie będzie reagował na zarzuty bycia platformą do rozpowszechniania fake newsów. Mark Zuckerberg późno zrozumiał, że porozumiewawcza machnięcie ręką to błąd. Z drugiej strony wszelkie działania skutkujące kasowaniem kont mogą zostać odebrane jako cenzura. Podobnie może być odczytana współpraca z władzami tego, czy innego kraju.