1. SPIDER'S WEB
  2. rozrywka
  3. YouTube

Biali biją czarnych, więc algorytm YouTube’a wpadł w szał. Oberwał kanał o szachach

Youtube dlaczego skasowali kanał
13518 interakcji
dołącz do dyskusji

Algorytm serwisu YouTube nie ma łatwego zadania w przypadku szachowego żargonu. Sztuczna inteligencja została zaprogramowana tak, aby w treściach zamieszczanych filmików, ich opisach i komentarzach wyszukiwać m.in. rasistowskie zwroty i określenia. Najwyraźniej zalicza się do nich „biały bije czarnego”, o czym przekonał się chorwacki szachista Antonio Radic.

Dziękujemy, że wpadłeś/-aś do nas poczytać o filmach i serialach. Pamiętaj, że możesz znaleźć nas, wpisując adres rozrywka.blog.

Chorwacki szachista Antonio Radic z powodzeniem prowadził swój kanał na YouTube poświęcony grze. W czerwcu minionego roku z liczącego milion subskrypcji profilu Agadmatora zaczęły znikać filmiki. Jego założyciel dowiedział się o tym od swoich fanów. Powodem miało być łamanie regulaminu serwisu poprzez szkodliwą i obraźliwą zawartość. Wszyscy zaczęli zachodzić w głowę, dlaczego tak się stało. Co jest tego powodem? Teraz postanowili to sprawdzić naukowcy Carnegie Mellon University. I sprawa okazuje się bardziej absurdalna niż można by przypuszczać.

Jak podaje portal Independent, Radic podejrzewał, że jego filmiki były usuwane przez używanie typowych szachowych zwrotów pokroju „biały bije czarnego”. Co prawda od dawna toczy się dyskusja na temat rasistowskich konotacji języka używanego przez szachistów, ale nie jest to jeszcze część poważnej społecznej dyskusji. Być może w przyszłości podzieli on los słowa „murzyn” i zostanie uznany za obraźliwy. Tak się jeszcze nie stało, a algorytm YouTube'a zachowuje się, jakby to było już za nami.

YouTube uznaje filmiki szachowe za rasistowskie

Algorytm YouTube działa na prostych zasadach. Analizuje wideo, jego opis i komentarze w poszukiwaniu określeń zakazanych, po czym próbuje nadać im odpowiedni kontekst. Niestety nadmiar podobnych terminów doprowadza go do błędnych wniosków. Udowodnił to Ashique KhudaBukhsh z CMU.

Jeśli sztuczna inteligencja ma wykryć rasistowski język, tego typu wypadki mogą się zdarzyć — stwierdził naukowiec.

Swoją teorię KhudaBukhsh przetestował korzystając z najnowszej wersji algorytmu. Za jego pomocą sprawdził 680 tys. komentarzy spod pięciu popularnych szachowych kanałów. Następnie ręcznie przejrzał 1000 wpisów, które zostały zakwalifikowane przez sztuczną inteligencję jako „szerzące nienawiść”. 82 proc. z nich zostało sklasyfikowanych błędnie, poprzez użycie słów „czarny”, „biały”, „zagrożenie”, „atak”, czyli zwrotów powszechnie używanych w żargonie szachowym.