Social media  / Artykuł

Facebook wytoczył przeciw terrorystom ciężkie działo. To sztuczna inteligencja

Gdy wczytamy się w niektóre komunikaty centrum prasowego Facebooka, możemy pomyśleć, że największy serwis społecznościowy świata jest miejscem bardzo niebezpiecznym.

Fake newsy, postprawda, wyłudzenia danych poprzez łańcuszki, stalking, a nawet terroryzm - to wszystko może napotkać na Facebooku jego użytkownik.

Być może niejeden czytelnik uśmiechnie się pod nosem, stwierdzając przy tym, że autor tekstu opowiada bzdury. Bo co może grozić przeglądającemu Facebooka w jego ciepłym łóżku czy przy biurku?

Rzeczywistość wyprzedza nasze wyobrażenia. Dziś nie tylko zaglądamy do Sieci, ale jesteśmy jej częścią. W praktyce światy, realny i wirtualny się przenikają. To dlatego Facebook może być niebezpieczny.

Facebook zdaje sobie sprawę, że serwisy społecznościowe mogą służyć terrorystom.

Po co terrorystom serwisy takie, jak Facebook czy Twitter. Przede wszystkim do uprawiania propagandy i werbunku nowych członków. W 2014 r.unijni urzędnicy podawali liczbę 3 tys. Europejczyków, którzy zdecydowali się dołączyć do Państwa Islamskiego w Syrii i Iraku. Pod koniec października brytyjski Independent informował, że na Wyspy wróciło ponad 400 dżihadystów, którzy mogą stanowić poważne zagrożenie dla bezpieczeństwa.

Facebook przyznaje otwarcie, że nie jest w stanie w pojedynkę walczyć z treściami tworzonymi przez terrorystów. Dlatego od dwóch lat przedstawiciele serwisu spotykają się ze swoimi odpowiednikami w innych firmach technologicznych, by szukać rozwiązać i wdrażać mechanizmy mające na celu ochronę użytkowników.

Taka aktywność musi być wielofalowa. Po pierwsze, potrzebne są rozwiązania uniemożliwiające wykorzystywanie serwisów internetowych do propagowania niebezpiecznych treści. Po drugie, konieczny jest skuteczny mechanizm filtrowania ich i usuwania, gdy już na Facebooku czy Twitterze zaistnieją.

Facebook używa sztucznej inteligencji do walki z terroryzmem.

Z punktu widzenia public relations taka deklaracja oczywiście wygląda bardzo dobrze. Przedstawiciele przedsiębiorstwa pokazują światu, a przede wszystkim własnym użytkownikom, że w walce o ich bezpieczeństwo stosują najnowocześniejsze metody. Na szczęście Facebook podkreśla również, że sama sztuczna inteligencja nie jest jedyną odpowiedzią na wyzwania.

Facebook chwali się, że usuwa 99 proc. treści powiązanych z ISIS czy Al-Kaidą zanim zostaną zgłoszone. Część z nich zostaje usunięta przed pojawieniem się w serwisie. Firma wykorzystuje uczenie maszynowe i systemy dopasowania zdjęć i filmów. Podkreśla, że 83 proc. treści tego typu znika z serwisu w ciągu godziny od ich pojawienia się.

Na szczęście firma nie ogranicza się do wykorzystania sztucznej inteligencji.

Wykorzystanie sztucznej inteligencji przeciwko terroryzmowi przynosi coraz więcej korzyści, ale ostatecznie musi zostać wzmocnione ręcznym przeglądem przeprowadzonym przez wyszkolonych ekspertów - czytamy w oświadczeniu.

We współpracy z Twitterem, Google'em i Microsoftem powstało zatem Globalne Forum Internetowe do Walki z Terroryzmem. W projekcie uczestniczy 50 firm technologicznych z różnych stron świata. Współpraca polega między innymi na dzieleniu się bazą danych z "cyfrowymi odciskami palców" twórców treści o charakterze terrorystycznym. Podejmowana jest też współpraca z organizacjami pozarządowymi i ośrodkami naukowymi, które pomagają identyfikować organizacje terrorystyczne w Internecie. Ważną rolę w tym procesie odgrywa wyszukiwanie treści tworzonych przez terrorystów tak, by posłużyły jako materiał porównawczy i pomogły w dostosowaniu algorytmów.

Walka z terroryzmem w sieci nie jest łatwa. Ekstremiści zdają sobie sprawę z siły mediów społecznościowych. Wykorzystują nie tylko Facebooka i Twittera, ale również YouTube'a do szerzenia propagandy. Mogą to robić z dowolnego miejsca na świecie i o dowolnej porze.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst