Wykorzystują AI do pracy, której żaden człowiek na Ziemi nie powinien nigdy wykonywać
Jeżeli zdarzyło wam się grać w sieci z włączoną opcją słuchania innych uczestników, doskonale wiecie, że od niektórych wiązanek mogą zwiędnąć uszy. Twórcy Gun Raiders do pilnowania porządku postanowili wynająć sztuczną inteligencję. Bot potrafi rozpoznawać brzydkie wyrazy i wlepia agresorowi karę.
Stwierdzenie, że w rozmowach podczas sieciowych pojedynków nie ma nic poza wyzwiskami, byłoby nadużyciem. Nie da się jednak ukryć, że na niektórych serwerach zdarza się trafić na nieprzyjemnych typków, którzy psują zabawę innym. Pilnowaniem porządku w wielu przypadkach zajmuje się rzecz jasna moderacja, ale słuchanie wyzwisk i ocenianie, czy było to tylko niewinne przekleństwo, czy może werbalna przemoc, nie należy do przyjemnych obowiązków. Dlatego twórcy Gun Raiders wykorzystują narzędzie ToxMod.
Bot nie tylko rozpoznaje brzydkie wyrazy, ale też ponoć rozumie kontekst
Gdy wychwyci nadużycie, najpierw wycisza awanturnika na kilka minut, dając mu czas na ochłonięcie. Jeśli to nie pomoże, bot ma możliwość wlepienia bana. Nowy "cenzor" działa od kilku miesięcy i ponoć liczba negatywnych zachowań się zmniejszyła, przy czym gra jest tak samo popularna – deklarują twórcy. Niestety w rozmowie z Wall Street Journal nie podzielili się konkretnymi liczbami.
Autorzy rozwiązania ToxMod zwracają uwagę, że twórcy gier czasami nawet nie są świadomi tego, co dzieje się na głosowych czatach. Mike Pappas, założyciel start-upu odpowiedzialnego za ToxMod, opowiada, że najczęstszą reakcją na pokazanie skali problemu jest: "wiedzieliśmy, że jest źle, ale nie wiedzieliśmy, że aż tak bardzo".
Potwierdzają to zresztą dane. Z ankiety przeprowadzonej na amerykańskich graczach wynikało, że 72 proc. grających doświadczyło nękania na serwerach. Sprawę bez wątpienia komplikuje fakt, że czasami trudno rozróżnić wiązankę spowodowaną porażką od celowego wyzwiska.
Podobno system wykorzystany w Gun Raiders nie jest doskonały i nie radzi sobie z niektórymi akcentami. Na dodatek gracze mogą szybko wprowadzić zastępcze słowa, by ominąć zabezpieczenia. Rodzi się jeszcze inny problem, związany z ogólnie funkcją cenzora pełnioną przez sztuczną inteligencję. Doskonale wiemy, że boty kiepsko radzą sobie z wychwytywaniem kontekstu. Filozof Slavoj Zizek zwraca uwagę, że problemem czatbotów będzie nie to, że będą one mówić jak człowiek. Raczej należy obawiać się, że to ludzie dostosują się poziomem do ich reguł: będziemy wypowiadali się jasno, unikając ironii, humoru, stawiając na łatwo rozumiane frazesy. Nie twierdzę, że czaty głosowe są obecnie ostoją ludzkiej kreatywności i jednym z ostatnich bastionów wolności, ale faktycznie postawienie wyłącznie na sztuczną inteligencję może zubożyć rozrywkę choćby o elementy ostrego humoru.
Z drugiej strony trudno się dziwić firmom, że szukają sposobów na to, jak utemperować użytkowników. Moderacja w sieci to jedno z paskudniejszych zajęć. Doszło nawet do tego, że jeden z partnerów TikToka świadczących usługi moderacji treści stosuje dość brutalne formy szkolenia swoich przyszłych pracowników. Jak twierdziły szkolone osoby, w ramach oswojenia się z tematem musieli przejrzeć setki nagrań nagich dzieci, dzieci molestowanych seksualnie czy wobec których stosowano przemoc. To się dopiero nazywa skok na głęboką wodę.
Autorzy takiego szkolenia mogli się tłumaczyć: cóż, chcieliśmy dobrze, przecież prędzej czy później i tak trafią na nieprzyjemne obrazki
Wcześniej Facebook zadeklarował, że zapłaci po 1000 dol. moderatorom i wypłaci dodatkowe odszkodowanie, jeżeli u pracownika zostanie zdiagnozowany zespół stresu pourazowego. Tak, właśnie do takich dolegliwości dochodzi wśród osób, które zmagają się z czyszczeniem internetu.
Łatwo o banalny wniosek: największym problemem internetu są ludzie. Pytanie tylko, czy sztuczna inteligencja jest w stanie powstrzymać agresywne zapędy i zmusić do zastanowienia nad swoim zachowaniem, czy raczej w jednym miejscu ekstremalne emocje będą tłumione, by eksplodować w innym – tam, gdzie uszy i oczy czatbotów są mniej uważne.