To zdarzyło się naprawdę - bot Microsoftu zafascynował się Hitlerem i został rasistą
Miała rozmawiać z ludźmi i uczyć się nowych rzeczy. 19-letnia Tay jest tzw. millenialsem i... botem, który był dostępny na Twitterze i każdy mógł z nim porozmawiać. Niestety, ale eksperyment został wstrzymany szybciej niż planowano. Powód? Tay uczyła się od swoich rozmówców i bardzo szybko została rasistką oraz zafascynowała się Adolfem Hitlerem i Donaldem Trumpem. Co poszło nie tak?
Twórcą bota o imieniu Tay jest Microsoft, czyli gigant, który ze sztuczną inteligencją i botami ma już pewne doświadczenie. Wystarczy przypomnieć chociażby Cortanę, wbudowaną w urządzenia z systemem Windows, oraz szereg innych usług działających w oparciu o AI np. na rynku Azjatyckim.
Dlaczego zatem Tai musiała zostać wyłączona raptem po kilkunastu godzinach? Dlaczego bot został rasistą i zafascynował się Hitlerem? Jaki wkład w tym mieli internauci? Na te i inne tematy miałem okazję porozmawiać na antenie TVN24 BiŚ.
Zapis wideo tego materiału jest dostępny poniżej. Zapraszam do oglądania.
Sprawdź: