REKLAMA

Tak się kończą zabawy ze sztuczną inteligencją. Bot Microsoftu wrócił i oszalał

Nie wyszedł, oj, nie wyszedł Microsoftowi eksperyment ze sztuczną inteligencją pomiędzy ludźmi. Bot amerykańskiego giganta nie tylko najpierw stał się rasist(k)ą, przez co musiał(a) zniknąć z Sieci, ale też na kilka chwil ożył(a) i... kompletnie oszalał(a).  

Tak się kończą zabawy ze sztuczną inteligencją. Bot Microsoftu wrócił i oszalał
REKLAMA
REKLAMA

Wirtualny byt 19-letniej Tay trafił do części cyfrowego świata zasiedlonej obecnie prawie wyłącznie przez ludzi - czyli na Twittera, gdzie miał się uczyć, poznawać, rozmawiać, analizować i stawać się z dnia na dzień jeszcze sprawniejszy i jeszcze bardziej ludzki.

Szybko jednak okazało się, że sztuczna inteligencja nie ma najmniejszych szans z ludzką inteligencją złośliwością i pomysłowością. Niewinna Tay stała się w mgnieniu oka rasistką, fanką Adolfa Hitlera i, mówiąc w skrócie, nieszczególnie nadawała się na wizytówkę Microsoftu w żadnej dziedzinie. Po kilkunastu godzinach Amerykanie musieli więc zareagować i zareagowali w jedyny możliwy sposób - wyłączyli bota. Odpięli wtyczkę i Tay zniknęła z cyfrowego, sieciowego świata.

Nie na długo. Dziś rano Tay nagle ożyła. I oszalała.

Być może mało kto zauważyłby fakt, że bot Microsoftu wymknął się z spod kontroli, gdyby nie fakt, że Tay zaczęła wysyłać nowe wiadomości w taki sposób, że widzieli je wszyscy. Seria kilkudziesięciu, kilkuset, a może nawet kilku tysięcy tweetów opublikowanych w ciągu kilkunastu minut po elektronicznym zmartwychwstaniu zaczynała się bowiem przeważnie od nicku bota na Twitterze (@tayandyou). To z kolei oznaczało, że "wpadały" one na timeline wszystkich śledzących Tay.

Nie wyglądało to zbyt ciekawie:

tay microsoft class="wp-image-488058"

Przytłaczająca większość tego botowego spamu przybierała zresztą identyczną formę i treść. "You are too fast, please take a rest..." - albo w postaci czystego tekstu w tweecie, albo w postaci... grafiki z takim właśnie napisem. Wyglądało na to, że w wielu przypadkach Tay zupełnie się zapętliła - czasem odpowiadała tym samym różnym grupom osób, ale czasem zaczynała dokładnie tak samo odpowiadać na... swoje własne odpowiedzi. W rezultacie nowe wpisy pojawiały się w odstępie sekund, a - że zaczynały się od nicku Tay - widzieli je wszyscy obserwujący.

I nie, wcale nie jest dziwne, że bot ożył w środku amerykańskiej nocy - pomiędzy godziną 1 a 2.

Pomiędzy dziesiątkami identyczny wpisów pojawiały się jednak wpisy bardziej "autorskie", takie jak np. ten:

Zrzut ekranu 2016-03-30 o 10.05.28 class="wp-image-488061"

Lub ten:

Zrzut ekranu 2016-03-30 o 10.06.29 class="wp-image-488062"

Ale i tak ginęły one w zalewie zapętlonych, identycznych wypowiedzi, na które natychmiast zaczęli masowo narzekać użytkownicy Twittera. Bo i mieli na co - timeline wyglądał u nich mniej więcej tak:

Zrzut ekranu 2016-03-30 o 09.10.54 class="wp-image-488065"

Najwyraźniej jednak w Microsofcie (a może w Twitterze?) ktoś jeszcze siedział po nocy i zdążył zareagować. Nie na tyle szybko, żeby udało się zamieść wszystko pod dywan, ale cóż, coś trzeba było zrobić. Użytkownikom odwiedzającym kanał Tay na Twitterze wyświetlana była przez chwilę taka informacja:

Zrzut ekranu 2016-03-30 o 09.32.44 class="wp-image-488071"

Ponowne próby wejścia na profil bota Microsoftu pokazywały już, że dany profil jest prywatny. Nie można już zobaczyć ani "jej" wpisów i prawdopodobnie nie będzie to możliwe już nigdy.

REKLAMA

Chyba, że Tay znowu wymknie się Amerykanom spod kontroli i zacznie rzucać tweetami na prawo i lewo. Wtedy tylko pozostanie nam się cieszyć, że takie "ożywające" boty są jak na razie tylko zabawką do eksperymentów w mediach społecznościowych.

A przynajmniej pozostanie nam w to wierzyć...

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA