Microsoft uważa, że ludzie sami potrafią odróżnić prawdę od fake newsa. Nie, nie potrafią
To jednocześnie bardzo dobra i bardzo zła wiadomość. Microsoft uznał, że nie chce być arbitrem prawdy i nie będzie oznaczał fake newsów. Zamiast tego, internauci mają sami zdecydować, co jest prawdą, a co kłamstwem, a Microsoft nie ma zamiaru niczego cenzurować. Piękna postawa i… fatalna wymówka.
Brad Smith, szef działu prawnego Microsoftu, a jednocześnie niejako „kompas moralny” korporacji, właśnie opublikował wpis dotyczący tego, jak Gigant z Redmond zamierza w najbliższej przyszłości walczyć z cyberterroryzmem, propagandą i dezinformacją w sieci. Jednocześnie udzielił wywiadu serwisowi Bloomberg, w którym wyjaśnił, iż od tej pory Microsoft nie zamierza oznaczać fake newsów. Zaraz, co?
Microsoft obiera odmienny kierunek w walce z dezinformacją.
Nie jest tak, że Microsoft zupełnie porzuca walkę z kłamstwem w sieci. W obliczu nadciągającej drugiej fali rosyjskiej agresji potrzebujemy silnych narzędzi do kontrataku, gdy putnowska machina propagandowa zacznie rozsiewać fejki na prawo i lewo. Microsoft w tym celu ma zamiar walczyć ze zorganizowanymi atakami cyberterrorystycznymi i propagandowymi.
Sęk w tym, że na poziomie udostępniania newsów na swoich platformach – a przynajmniej tak wynika ze słów Brada Smitha – Microsoft nie planuje już oznaczać informacji, które mogą być potencjalnym fake newsem. Szef działu prawnego powiedział Bloombergowi, że „nie sądzi, by ludzie chcieli, aby rządy mówiły im, co jest prawdą i nie sądzi, by byli zainteresowani tym, żeby robiły to firmy technologiczne.”
Innymi słowy, Microsoft obiera stanowisko, iż rolą korporacji IT nie jest mówienie ludziom, co jest prawdą, a co nie. Z jednej strony jest to postawa chwalebna, a też sam Microsoft dzięki temu uniknie ciągłych oskarżeń o cenzurę, z którymi borykają się wszystkie inne moderowane platformy sieciowe.
Z drugiej jednak strony… skąd pomysł, że ludzie są w stanie oddzielić prawdę od kłamstwa?
Dezinformacja w sieci hula w najlepsze. Ludzie potrzebują arbitrów prawdy bardziej niż kiedykolwiek.
O ile można uznać postawę Microsoftu za chwalebną, tak w praktyce obawiam się, że „niechęć do cenzury” będzie tylko wymówką, by przerzucić odpowiedzialność za ewentualną łatwowierność na odbiorcę. Bo trzeba podkreślić, że założenie, iż „ludzie sami potrafią odróżnić prawdę od kłamstwa” jest fundamentalnie błędne.
Historycznie rzecz ujmując, społeczeństwa zawsze miały jakichś „arbitrów prawdy”. Oczywiście nie było to zjawisko pozytywne; od zarania cywilizacji ludzie u władzy sterowali przepływem informacji w taki sposób, by kreować swoją wersję prawdy. Robiły to narody, robiły to religie, do dziś robi to TVP robią to reżimy (nie tylko) totalitarne. Dążę do tego, że nigdy w historii ludzkości przeciętny konsument informacji nie był pozostawiany sam sobie, lecz ktoś inny mówił mu, co jest prawdą (nawet jeśli nie zawsze tak było w istocie).
W dobie internetu rolę „arbitrów prawdy” do pewnego stopnia przejęły media społecznościowe i platformy informacyjne. I nic dziwnego; gdyby nie moderacja i weryfikacja prawdziwości informacji, internet w jeszcze większym stopniu byłby zalany jawnie nieprawdziwymi informacjami, których przecież nikt nie zadałby sobie trudu zweryfikować.
I chyba tu jest przysłowiowy pies pogrzebany – idea Microsoftu, jakoby ludzie mieli sami odróżniać prawdę od kłamstwa, byłaby słuszna, gdyby ludzie potrafili przynajmniej odróżniać prawdziwe informacje od fałszywych, albo chociażby jakkolwiek te informacje weryfikowali. Tymczasem tak nie jest.
Już w 2017 r. badanie przeprowadzone w Wielkiej Brytanii dowiodło, że zaledwie 4 proc. społeczeństwa potrafi rozpoznać, które informacje są fałszywe. I wbrew temu, co mówi dziś Brad Smith, w tym samym badaniu aż 55 proc. społeczeństwa wyraziło opinię, iż rząd niedostatecznie przykłada się do walki z fake newsami. Innymi słowy – ludzie jednak trochę chcą, żeby Rządy im mówiły, co jest prawdą.
Współczesny krajobraz medialny również nie zachęca do weryfikacji faktów. Na Twitterze podajemy informacje dalej, nawet ich nie czytając. A to bardzo często przyczynia się do rozprzestrzeniania fejków. Na Facebooku nawet pod absolutnie najgłupszą, w najbardziej oczywisty sposób fałszywą czy sarkastyczną informacją znajdzie się ktoś, kto potraktuje ją śmiertelnie poważnie.
Na Instagramie pseudo-coach może mówić, co mu ślina na język przyniesie i nikt z jego widzów nie zada sobie trudu weryfikacji tych słów, bo przecież influencerzy to współcześni bogowie, cieszący się zaufaniem społeczeństwa. Na TikToku (i w innych klonujących go miejscach) jesteśmy bombardowani informacjami z taką szybkością, że nikomu nawet przez myśl nie przejdzie zastanowić się nad obejrzaną treścią, bo w mózgu już zastąpił ją kolejny zastrzyk dopaminy. Nie lepiej jest w mediach – telewizja publiczna w roli „ekspertów” zaprasza ludzi, którzy nie mają bladego pojęcia o temacie, na który się wypowiadają. Media internetowe w imię zasięgów posuwają się do ordynarnego naginania faktów, byle tylko wzbudzić kontrowersje.
W tym krajobrazie, gdy wszyscy walczą o nasze gałki oczne, nie ma miejsca na czystą grę – ludzie są bombardowani taką ilością informacji, że choćby chcieli, nie są w stanie wszystkiego weryfikować. Dlatego właśnie ciężar takiej weryfikacji powinien zostać przerzucony na gigantów, którzy nam potem te informacje agregują i serwują, czy to pod postacią Google Discover czy Wiadomości Microsoft. Nie chodzi tu wcale o cenzurę, lecz o to, by dać jakikolwiek filtr prawdziwości; odsiać, albo przynajmniej zasygnalizować odbiorcy, że treść, którą widzi, może być nieprawdą. Jeśli jeden z największych gigantów tech uznaje, że nie jest to jego odpowiedzialność, robi się problem. Bo wkrótce inni mogą uznać tak samo.
Oświadczenie Microsoftu jest o tyle niepokojące, iż zdaniem ekspertów w najbliższych miesiącach czeka nas bezprecedensowa wojna w cyberprzestrzeni, której główną oś stanowić będzie rozsiewanie rosyjskiej propagandy we wszystkich krajach Zachodu.
Microsoft zapowiedział, że będzie walczył z trollami Putina, m.in. usuwając strony propagandowe ze swoich platform i dzieląc się informacjami ze światowymi rządami, aby wypracować wspólny język w walce z cyberterroryzmem i dezinformacją.
Tyle że to odrobinę za mało, a putinowskie trolle już udowodniły, że potrafią sterować opinią publiczną jak zdalnie sterowanym samochodzikiem. Wystarczy wspomnieć, jaką panikę wywołały rozsiewane przez farmy trolli pogłoski, iż zabraknie paliwa. Pod stacjami benzynowymi ustawiały się sznury aut i wówczas trolling stawał się samospełniającą przepowiednią: paliwa zabrakło, bo kierowcy masowo rzucili się do dystrybutorów. I o ile w większości przypadków media solidarnie walczyły z fake newsami, tak nie brakowało serwisów, które podawały fałszywe informacje dalej, tym samym szerząc panikę. W takich okolicznościach potrzebujemy jak najwięcej sygnalizacji o potencjalnych „fałszywkach”, a nie jak najmniej.
Cenzura w internecie rodzi dylemat nie do rozwiązania.
Co wolisz: pełną dowolność informacyjną, w której odbiorca sam decyduje, co jest prawdą, czy jednak – z braku lepszego słowa – „cenzurę” korporacji technologicznych, które przefiltrują potencjalnie nieprawdziwe informacje, nawet jeśli czasami będzie się to wiązało z usunięciem treści światopoglądowych, które wyznajesz i popierasz?
Obydwa rozwiązania są z gruntu złe i choć walka z fake newsami trwa od lat, to nic nie wskazuje na to, by komukolwiek udało się osiągnąć balans między zdrową dozą wolności słowa i zdrową dozą moderacji. A taki balans jest nam dziś potrzebny bardziej niż kiedykolwiek, bo w miarę rozwoju obecnej sytuacji na świecie (putinowskie trolle, zbliżające się wybory w Polsce i w USA) kompletne odcięcie się od moderacji treści oznacza jedno – ekspozycję odbiorców na wszelką możliwą manipulację.