REKLAMA

Po co nam sztuczna inteligencja Microsoftu? Ten przykład zapiera dech w piersiach

Przemowa otwierająca Build 2016 nie należała do najbardziej porywających. Została jednak spointowana przykładem, który jasno i wyraźnie pokazuje moc, jaką twórcom zapewnią Azure i Bing. Przykładem, który został przyjęty owacją na stojąco.

SI dla programisty od Microsoftu czyni cuda. Dosłownie.
REKLAMA
REKLAMA

Sztuczna inteligencja, obok uniwersalnych aplikacji, to temat główny tegorocznej konferencji Build. Jednak co ona właściwie oznacza? Sprytnego internetowego bota, zręcznie udającego żywą istotę i porozumiewającego się naturalną mową? A może coś rodem z filmów science-fiction, co w pewnym momencie zechce przejąć kontrolę nad światem? Między innymi: tak, choć oczywiście do apokalipsy nam daleko. Sztuczna inteligencja to jednak również (a może przede wszystkim) zdolność do nauki i interpretacji. A to postanowił wykorzystać Saqib Shaikh, jeden z inżynierów Microsoftu. Istotna uwaga: to niewidoma osoba, która straciła wzrok w wieku siedmiu lat.

Shaikh stworzył aplikację współpracującą z jego wysokorozdzielczą kamerą w okularach. Ta wykorzystuje API Microsoftu do sztucznej inteligencji (w znaczniej mierze te związane z Bingiem), by potrafiła… opowiadać mu to, co się przed nim znajduje. Na przykład: „wydaje mi się, że ktoś podskakuje, wykonując sztuczkę na deskorolce”. Aplikacja „rozumie” co widzi i potrafi trafnie to określać, decydując o istotności danej cechy obiektu. A więc na przykład o tym, że opis osoby warto zacząć od płci czy jej nastroju, a kartę dań recytować wyłącznie po nazwach potraw, zamiast „od deski do deski”.

To dopiero początek i przykład tej fascynującej technologii. W którą stronę ta podąży? To będzie zależeć już wyłącznie od deweloperów.

REKLAMA

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA