Póki nie mamy hologramów, rzeczywistość rozszerzona od Sony wydaje mi się najbliższa realizacji
Sony T to projekt koncepcyjny, który łączy projektor z rozpoznawaniem gestów na rzucanym obrazie. Dzięki temu obiektami ze świata realnego można wchodzić w interakcje z obrazem generowanym komputerowo.
Sony T składa się z projektora, mikrofonu i kamery.
Projektor najlepiej radzi sobie z wyświetlaniem ekranu o przekątnej 40 cali
Obraz z kamery jest następnie analizowany przez oprogramowanie Sony. Na co już teraz je stać? Sprawdźmy:
Śledzenie wielu punktów dotyku
Wykrywanie nachylenia i kąta położenia palców
Wykrywanie fizycznych obiektów
Zobaczcie jak podczas prezentacji na stół trafił kubek. Oprogramowanie wykryło, że w danym scenariuszu będzie to drzewo.
W innym przykładzie zabranie górnej części bryły przeniosło widok z dachu na piętro niżej.
Śledzenie ruchu całej ręki
W załączonym przykładzie zostało to wykorzystane do zmiany kąta oświetlenia.
Dla kogo będzie Sony T?
Na pewno będzie skierowane do profesjonalistów (o ile Japończycy zdecydują się na wypuszczenie tego urządzenia na rynek). Świetnie sprawdzi się u architektów, którzy prezentują klientom ich przyszłe mieszkania, czy w sklepach, gdzie sprzedawane produkty będzie można przedstawić w bardziej atrakcyjnej formie.
Sam testowałem Sony T w grze, gdzie śledziłem uciekającego Spider-Mana. Musiałem po kolei zabierać piętra budynków, aby odsłaniać pokoje, w których się chował. O ile oprogramowanie świetnie radziło sobie z odczytywaniem ruchu większych elementów, to przyjemność z zabawy psuło dość duże opóźnienie w śledzeniu palców i dłoni.
Już od kilku miesięcy na rynku znajduje się podobny produkt Sony wykorzystujący projektor i śledzenie palców. O dostępności czy cenie Sony T na razie niestety niczego nie wiadomo.