Nie bany i "wypad trollu", a kulturalne upomnienia. Znaleziono skuteczny sposób na hejt
Badania naukowców z New York University wykazały, że ostrzeżenia przed opublikowaniem treści na Twitterze są w stanie zredukować mowę nienawiści. Tylko czy wyniki eksperymentu mają realną szansę wpłynąć na rzeczywistość?
Kiedy w marcu 2006 r. Jack Dorsey, Noah Glass, Biz Stone i Evan Williams założyli Twttr - dzisiaj znanego jako Twitter - nie spodziewali się, że 15 lat później ich dzieło stanie się jedną z największych platform networkingowych, miejscem poznawania nowych ludzi oraz tworzenia się memów, a także źródłem informacji mającym wpływ na społeczeństwo porównywalny do prasy. Jednakże wraz z szerokim wachlarzem zastosowań i możliwości udostępniania treści przychodzi problem dezinformacji i mowy nienawiści, w czym Twitter, ze względu na specyfikę portalu, wiedzie niechlubny prym.
Oczywiście Twitter nie pozostaje bierny i stale usprawnia metody oraz narzędzia stosowane w walce z hejtem, dążąc do stworzenia globalnej, przyjaznej przestrzeni do rozmowy. Badacze z uniwersytetu nowojorskiego wyszli naprzeciw tradycyjnym metodom - ograniczeniom w publikowaniu treści i banom - za pomocą badania, w którym specjalnie założone konta wysyłały grzeczne ostrzeżenia i upomnienia o możliwych konsekwencjach do osób, które na swoim koncie miały wypowiedzi zawierające słowa i frazy uznane przez badaczy za wulgarne i niestosowne, potencjalnie prowadzące do naruszenia zasad Twittera. Jak się okazało, metoda była ta równie prosta, co skuteczna.
Dwa zdania przestrogi i 20 proc. mniej hejtu na Twitterze
Wyniki eksperymentu zostały opublikowane 22 listopada 2021 roku na łamach periodyka "Perspectives on Politics" uniwersytetu w Cambridge. Podczas badania przeanalizowanych zostało ponad 4300 użytkowników Twittera i 600 tys. tweetów. W jego trakcie naukowcy odkryli, że wysyłanie ostrzeżeń o potencjalnych konsekwencjach i możliwym zawieszeniu konta zmniejszało współczynnik publikowania nienawistnych treści o 10 proc. w ciągu tygodnia.
Badanie odbyło się pod koniec lipca 2020 roku, gdy Twitter zmagał się z falą nienawistnych tweetów wycelowanych w azjatyckie i afroamerykańskie społeczności ze względu na trwającą pandemię COVID-19 i protesty ruchu Black Lives Matter. Przy tworzeniu bazy kont użytych w eksperymencie, nowojorscy naukowcy skupili się na kontach obserwujących użytkowników Twittera, którzy zostali zbanowani za mowę nienawiści. 21 lipca naukowcy pobrali treści ponad 600 tys. tweetów zawierających przynajmniej jeden zwrot zawarty w słowniku języka nienawiści stworzonym na potrzeby poprzedniego badania, z których wyodrębnili 4327 unikalnych kont - nazywanych w badaniu "kandydatami do zawieszenia" - mających w swojej historii interakcje ze zbanowanymi kontami oraz publikacje treści o charakterze nienawistnym, złośliwym lub wulgarnym. Z badania zostały wykluczone konta utworzone po 1 stycznia 2020, gdyż - jak tłumaczyli naukowcy - nowsze konta mają większe prawdopodobieństwo zostania zbanowanymi.
"Kandydaci do zawieszenia" zostali podzieleni na sześć grup. Pięć grup różniło się między sobą stopniem uprzejmości wysyłanych komunikatów - z których najuprzejmiejszy dawał użytkownikowi pewne uczucie legitymizacji jego działań, a najostrzejszy jasno informował o potencjalnym zablokowaniu konta. Szósta grupa - grupa kontrolna - nie otrzymywała żadnych wiadomości. Do wysyłania wiadomości używano sześciu kont o nazwach użytkownika takich jak @basic_person_12, @hate_suspension czy @warner_on_hate. Każda z wiadomości zawierała takie samo zdanie początkowe “Użytkownik [@nazwakonta] został zbanowany i podejrzewam, że stało się to ze względu na mowę nienawiści”, a następnie zdanie było dostosowane do poziomu uprzejmości.
W trakcie badań zauważono, że w przypadku dosadnych ostrzeżeń, takich jak "Jeżeli będziesz kontynuować używanie mowy nienawiści, możesz stracić swoje posty, znajomych i obserwatorów, a także bezpowrotnie stracić konto", współczynnik mowy nienawiści w publikowanych treściach zmalał o 10 proc. Użytkownicy będący przydzieleni do grupy najbardziej uprzejmej, otrzymującej komunikaty takie jak "Rozumiem, że masz pełne prawo do wyrażania siebie, ale proszę, pamiętaj, że stosowanie mowy nienawiści może doprowadzić do zawieszenia twojego konta" odnotowali poprawę języka na poziomie 15 do 20 proc.
"Debaty na temat skuteczności zawieszania i blokowania kont w mediach społecznościowych są obszerne, ale jednocześnie niewiele wiemy o możliwych skutkach prewencyjnego ostrzeżenia użytkownika o potencjalnym zawieszeniu konta lub całkowitego zablokowania w celu ograniczenia mowy nienawiści […] Mimo że wpływ ostrzeżeń jest tymczasowy, badanie otwiera potencjalną ścieżkę rozwoju dla platform dążących do ograniczenia używania języka nienawiści przez użytkowników" – wyjaśnia Mustafa Mikdat Yildirim, doktorant uniwersytetu nowojorskiego i główny autor artykułu, który pojawił się w czasopiśmie Perspectives on Politics.
Granica wolności słowa
Biorąc pod uwagę wyniki eksperymentu amerykańskich uczonych, zaimplementowanie na platformie systemu, który w razie wykrycia niestosownych lub wulgarnych treści pokazałby odpowiednio sformułowane powiadomienie, mogłoby być efektywną metodą zapobiegania szerzeniu mowy nienawiści. Oczywiście nie wyeliminowałoby to zjawiska całkowicie, gdyż niezależnie czy pomysł egzekwowano by za pomocą okna pop-up, czy krótkiego tekstu wyświetlanego nad lub pod polem edycji posta, zakłada on, że użytkownik ma wybór i nie ogranicza jego wolności słowa.
Wolność słowa to jedna z najczęściej poruszanych kwestii przy rozważaniu możliwych metod ograniczenia mowy nienawiści. Nabrała ona nowego sensu w styczniu 2021 roku, kiedy to ustępujący prezydent Stanów Zjednoczonych Donald Trump został zbanowany na Twitterze za publikowanie tweetów, w których nazywał wybory prezydenckie z roku 2020 sfałszowanymi oraz popierał szturm na kapitol. Trump, który w czasie tych wydarzeń jeszcze formalnie pełnił obowiązki prezydenta Stanów Zjednoczonych, został uciszony przez Twittera za pomocą bana. Uciszony, gdyż ówcześnie to Twitter stanowił dla polityka główny kanał komunikacji.
Nie był to pierwszy wyskok byłego już prezydenta USA, ale pierwszy, kiedy administracja Twittera przestała przymykać oko ze względu na uprzywilejowaną pozycję autora. Już w maju 2020 roku Donald Trump miał ograniczone zasięgi na Twitterze ze względu na publikację tweeta, który - zdaniem opinii publicznej - nawoływał do agresji.
Obie te historie są dość dobrym przykładem na to, że trudno jest skutecznie walczyć z mową nienawiści bez ocierania się o granicę wolności słowa.
Jednak sam Donald Trump dał przykład na to, że nawet najwyższy wymiar kary w internecie - blokada konta - można obejść.
Możesz zablokować konto na Twitterze, ale nie użytkownika
Kiedy konto Donalda Trumpa na Twitterze (@realDonaldTrump) zostało zbanowane, próbował on publikować treści za pomocą oficjalnego konta prezydenta Stanów Zjednoczonych (@potus) co uwidacznia główny problem walki z mową nienawiści. Jest to wojna prewencyjna, gdyż można zbanować konto, ale użytkownik jednocześnie może stworzyć kolejne. Słowo "może" jest tu kluczowe, gdyż nie zawsze się na to decyduje, czy to ze względu na ludzkie poczucie straty, czy niechęć do ponownego budowania tak ważnych w social mediach zasięgów. Lecz kiedy zdecyduje się zaangażować w publikowanie w danym serwisie ponownie, to tak naprawdę nic nie stoi temu na przeszkodzie, gdyż nie ma efektywnych systemów przeciwdziałających temu. Do tego samo istnienie VPNów i fałszywych tożsamości skłania największe serwisy do szukania innej drogi niż ograniczenia, zawieszenia i bany.
Uprzejmość orężem walki z nienawiścią? Łatwiej powiedzieć, trudniej zrobić
Wydawać by się mogło, że przedmiot badań mógłby być podwaliną do stworzenia prostego, lecz efektywnego systemu zapobiegawczego. I to nie tylko dla Twittera, gdyż mowa nienawiści to problem nie tylko tej jednej platformy, ale de facto każdego miejsca w internecie, w którym dochodzi do aktu komunikacji.
Jednakże, jak twierdzą autorzy wcześniej opisanego eksperymentu, wstrzymują się oni od "jednoznacznego rekomendowania Twitterowi wprowadzenia testowanego przez nich systemu bez dalszych badań w tym kierunku", argumentując to dwoma stwierdzeniami.
Przede wszystkim zaimplementowanie tej funkcji bezpośrednio w edytor tweetów jest jednoznaczne z wiadomością płynącą bezpośrednio od administracji serwisu. A to - w przeciwieństwie do kilku pomniejszych kont założonych na potrzeby badania - mogłoby się spotkać z negatywną reakcją oraz krytyką ze strony tak użytkowników serwisu jak i społeczeństwa.
Po drugie, w opozycji do zespołu badawczego, Twitter nie może tak po prostu pokazać komunikatu "możesz stracić konto" lub "twoje konto zostanie zawieszone jeżeli...". Implementacja tego systemu powinna być przemyślana nie tylko ze względu na intencjonalność oraz wtórne oddziaływanie ostrzeżeń i upomnień na użytkownika, ale też ze względu na uogólniony charakter funkcji. A każdy ogólny system kar i prewencji posiada tę wadę, że mógłby dotknąć osoby, które nie stosują mowy nienawiści w celu ataku na inną osobę - na przykład przytaczające je jako cytat.
Pomimo że efekty eksperymentu były krótkotrwałe, zmieniając podejście badanych grup na około miesiąc, badanie nowojorskich uczonych może wyznaczyć nową ścieżkę w kierunku dyskusji i rozwoju metod przeciwdziałania mowie nienawiści. Hipotetyczna implementacja podobnego systemu na pewno nie zlikwidowałaby problemu całkowicie, ale pozostawiłaby pole do refleksji. Tekstowe pole do refleksji, w którym każdy miałby wybór, co chciałby opublikować, powiedzieć światu i miałby świadomość możliwych tego konsekwencji.