Social media / Artykuł

Neutralne algorytmy to pobożne życzenie. Szef bezpieczeństwa Facebooka pouczał dziennikarzy na Twitterze

Neutralne algorytmy kontra nieobiektywny człowiek – dyskusja o fake newsach weszła w kolejną fazę. Głos tym razem zabrał Alex Stamos, odpowiedzialny za bezpieczeństwo na Facebooku.

Kontekst tej historii jest dość dobrze znany. Po wyborach prezydenckich w Stanach Zjednoczonych rozgorzała dyskusja na temat wpływu fałszywych informacji na wyniki. Mark Zuckerberg początkowo uznał taki tok myślenia za szaleństwo. W ostatnich tygodniach kaja się i przeprasza, twierdząc, że nie powinien bagatelizować problemu. Za słowami zaczęły iść czyny. Podczas kampanii we Francji, Facebook dał sygnał, że problem jest ważny. Po niemieckich wyborach do Bundestagu informował o zablokowaniu dziesiątków tysięcy fałszywych kont i współpracy z Federalnym Urzędem ds. Bezpieczeństwa Informacji.

Do tego sosu dodać musimy pikantną przyprawę w postaci wątku rosyjskich reklam. Facebook przekazał Kongresowi dokumentacją związaną z tą kwestią. W skrócie wiemy o 470 kontach powiązanych z Rosją, z których od czerwca 2015 r. do maja 2017 r. opublikowano reklamy o wartości 100 tys. dol. Reklamy zostały wyświetlone przez 10 mln użytkowników w Stanach Zjednoczonych.

Facebook będzie „ręcznie” przeglądać reklamy.

Szefostwo Facebooka zdecydowało, że niektóre typy reklam będą poddane „ludzkiemu przeglądowi”. Niektórzy reklamodawcy otrzymali informacje, że w związku z tym mogą nastąpić opóźnienia publikacji. Sprawdzane mają być reklamy związane z polityką, religią, kwestiami etnicznymi.

„Ludzki przegląd” wzbudził oczywiście niezbyt pozytywne skojarzenia. Przez Twittera przetoczyła się ostra dyskusja, w której uczestniczył Alex Stamos, Chief Security Officer Facebooka i zarazem szef grupy, która prowadziła śledztwo w sprawie rosyjskich reklam. Wszystko zaczęło się od stwierdzenia jednego z dziennikarzy, że serwis powinien naprawić źle działające algorytmy, zamiast wprowadzać kontrolę reklam przez człowieka.

Zdaniem Stamosa istnieje przepaść między teorią i praktyką. Mało tego, podkreślił on, że nie istnieją neutralne algorytmy. Wysoko postawiony przedstawiciel Facebooka ironizował nawet, że kwestia jest prosta, jeżeli nie ma się problemu z wcieleniem się w Ministerstwo Prawdy. To oczywiście nawiązanie do powieści „Rok 1984” Orwella.

Stamos doradził dziennikarzom, by porozmawiali z ludźmi, którzy „faktycznie musieli rozwiązać problemy i żyć z ich konsekwencjami”. Podkreślił, że chodzi o „miliony/miliardy/dziesiątki miliardów” treści wymagających posortowania.

Swoistym podsumowaniem dyskusji jest tweet, w którym CSO Facebooka poucza dziennikarzy, że są w błędzie, jeżeli myślą, że problem fake newsów nie został rozwiązany, bo ludzie w firmie są nerdami. Chodzi jednak o negatywne znacznie słowa „nerd”, czyli osoby bez umiejętności społecznych, wyalienowane z rzeczywistości.

https://twitter.com/alexstamos/status/916698696124788736

Tweety szefa bezpieczeństwa Facebooka były emocjonalne. Dowodzą one na pewno złożoności problemu i tego, że Facebook znajduje się między młotem a kowadłem. Bez względu na reakcję, serwis będzie krytykowany. Za opieszałość – jeżeli nie będzie reagował na zarzuty bycia platformą do rozpowszechniania fake newsów. Mark Zuckerberg późno zrozumiał, że porozumiewawcza machnięcie ręką to błąd. Z drugiej strony wszelkie działania skutkujące kasowaniem kont mogą zostać odebrane jako cenzura. Podobnie może być odczytana współpraca z władzami tego, czy innego kraju.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst