Po co nam sztuczna inteligencja Microsoftu? Ten przykład zapiera dech w piersiach
Przemowa otwierająca Build 2016 nie należała do najbardziej porywających. Została jednak spointowana przykładem, który jasno i wyraźnie pokazuje moc, jaką twórcom zapewnią Azure i Bing. Przykładem, który został przyjęty owacją na stojąco.
Sztuczna inteligencja, obok uniwersalnych aplikacji, to temat główny tegorocznej konferencji Build. Jednak co ona właściwie oznacza? Sprytnego internetowego bota, zręcznie udającego żywą istotę i porozumiewającego się naturalną mową? A może coś rodem z filmów science-fiction, co w pewnym momencie zechce przejąć kontrolę nad światem? Między innymi: tak, choć oczywiście do apokalipsy nam daleko. Sztuczna inteligencja to jednak również (a może przede wszystkim) zdolność do nauki i interpretacji. A to postanowił wykorzystać Saqib Shaikh, jeden z inżynierów Microsoftu. Istotna uwaga: to niewidoma osoba, która straciła wzrok w wieku siedmiu lat.
Shaikh stworzył aplikację współpracującą z jego wysokorozdzielczą kamerą w okularach. Ta wykorzystuje API Microsoftu do sztucznej inteligencji (w znaczniej mierze te związane z Bingiem), by potrafiła… opowiadać mu to, co się przed nim znajduje. Na przykład: „wydaje mi się, że ktoś podskakuje, wykonując sztuczkę na deskorolce”. Aplikacja „rozumie” co widzi i potrafi trafnie to określać, decydując o istotności danej cechy obiektu. A więc na przykład o tym, że opis osoby warto zacząć od płci czy jej nastroju, a kartę dań recytować wyłącznie po nazwach potraw, zamiast „od deski do deski”.
To dopiero początek i przykład tej fascynującej technologii. W którą stronę ta podąży? To będzie zależeć już wyłącznie od deweloperów.