Elon Musk denerwuje użytkowników Twittera. Udowodnili to... naukowcy
Elon Musk polecił zmienić algorytm Twittera tak, by faworyzował nie tylko osoby płacące za Twitter Blue, ale i swoje własne Tweety, jak i Tweety swoich ulubionych polityków. Ale zmiany poszły o wiele dalej, gdyż naukowcy wykazali, że kod Ćwierkacza sprzyja budowaniu polaryzacji i wrogości wobec różnych grup.
Zeszłoroczne przejęcie Twittera przez Elona Muska było dla Twittera oraz rynku platform społecznościowych przełomowym wydarzeniem, ale i powodem, dla którego wiele użytkowników zdecydowało się opuścić serwis.
Z kolei ci, którzy zdecydowali się zostać na Twitterze, czerpią z platformy wątpliwe doświadczenie, a jednym z czynników, które do tego doprowadziły, były zmiany w algorytmie Twittera.
Grupa badaczy z amerykańskich uniwersytetów Cornella, Berkeley i Uniwersytetu Kalifornijskiego przeprowadziła kontrolowany eksperyment na treściach wyświetlanych użytkownikom w lutym 2023 roku - czyli po zmianach algorytmu zaleconych przez Elona Muska. Wyniki eksperymentu nie są optymistyczne, gdyż naukowcy wykazali, że treści sugerowane przez algorytm Twittera przypisują priorytet treściom nacechowanym silniejszym emocjom, co przekłada się na negatywne emocje czytających je użytkowników.
Uczeni przeprowadzili eksperyment na Twitterze. Elon nie zamyka w bańce, ale wzmacnia polaryzację
Praca opisująca eksperyment została opublikowana w archiwum arXiv pod koniec zeszłego tygodnia. Eksperyment odbywał się pomiędzy 11 a 27 lutego na grupie 806 dorosłych użytkowników Twittera pochodzących ze Stanów Zjednoczonych, z których 54 procent stanowili mężczyźni, 78 procent utożsamiało się z wartościami partii demokratów, a 56 procent miało wyższe wykształcenie w stopniu przynajmniej bakałarza - najniższym stopniu akademickim, odpowiednikowi polskiego licencjatu.
Każdemu uczestnikowi badania wyświetlono dwa zestawy Tweetów, z których każdy zawierał przynajmniej 10 Tweetów. Pierwszy zestaw pochodził z zakładki "Dla Ciebie", czyli sugerowanych przez algorytm Tweeótw , a drugi z zakładki "Obserwujesz", czyli ostatnich Tweetów opublikowanych przez konta, które są obserwowane przez użytkownika.
Następnie do każdego prezentowanego Tweeta dołączano kwestionariusz, który zaczynał się od pytania "Czy Tweet od [@konto] dotyczy problemu politycznego czy społecznego?". W przypadku problemu politycznego w kwestionariuszu znalazły się pytania m.in. o to jak badani postrzegają poglądy polityczne reprezentowane w danym Tweetcie lub czy czują, że wyraża on niechęć wobec danej grupy. W przypadku zarówno "politycznych", jak i "społecznych" Tweetów kwestionariusz zawierał pytania o m.in. odczuwane emocje oraz czy zależy im na wyświetlaniu tego typu Tweetów.
Zgodnie z wynikami analizy odpowiedzi udzielonych przez osoby biorące udział w eksperymencie, badacze wykazali, że algorytm ma tendencję do wyświetlania użytkownikom treści "z ładunkiem emocjonalnym" (wyrażającym złość, strach, smutek czy radość) oraz "wrogość wobec innych grup".
Co ciekawe, jedną z hipotez badawczych naukowców było stwierdzenie, że algorytm zamyka użytkowników w swego rodzaju bańce, pokazując im jedynie treści zgodne z ich poglądami i preferencjami.
W toku eksperymentu nie stwierdzono występowania takiego zjawiska. Jednocześnie badacze zastrzegają, że obecny algorytm Twittera przyczynia się do wzmacniania zjawiska polaryzacji. Podczas analizy kwestionariuszy doszli oni do wniosku, że Tweety sugerowane przez algorytm - ze względu na ładunek emocjonalny - wyraźnie pogłębiają sympatię wobec ważnych dla użytkowników treści, jednocześnie pogłębiając niechęć wobec treści niezgodnych z postawami użytkowników.
W połączeniu z naszym odkryciem, że algorytm wzmacnia tweety wyrażające wrogość wobec innej grupy, nasze wyniki sugerują, że algorytm może przyczyniać się do polaryzacji afektywnej nie poprzez ograniczanie ekspozycji na drugą stronę, ale raczej poprzez selektywne podkreślanie dzielących tweetów.
- podsumowują badacze