Tech  / Artykuł

To zdarzyło się naprawdę - bot Microsoftu zafascynował się Hitlerem i został rasistą

287 interakcji
dołącz do dyskusji

Miała rozmawiać z ludźmi i uczyć się nowych rzeczy. 19-letnia Tay jest tzw. millenialsem i... botem, który był dostępny na Twitterze i każdy mógł z nim porozmawiać. Niestety, ale eksperyment został wstrzymany szybciej niż planowano. Powód? Tay uczyła się od swoich rozmówców i bardzo szybko została rasistką oraz zafascynowała się Adolfem Hitlerem i Donaldem Trumpem. Co poszło nie tak?

Twórcą bota o imieniu Tay jest Microsoft, czyli gigant, który ze sztuczną inteligencją i botami ma już pewne doświadczenie. Wystarczy przypomnieć chociażby Cortanę, wbudowaną w urządzenia z systemem Windows, oraz szereg innych usług działających w oparciu o AI np. na rynku Azjatyckim.

Dlaczego zatem Tai musiała zostać wyłączona raptem po kilkunastu godzinach? Dlaczego bot został rasistą i zafascynował się Hitlerem? Jaki wkład w tym mieli internauci? Na te i inne tematy miałem okazję porozmawiać na antenie TVN24 BiŚ.

Zapis wideo tego materiału jest dostępny poniżej. Zapraszam do oglądania.

Sprawdź:

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst