Nowość w Mapach Google. Firma testuje nawigację w rozszerzonej rzeczywistości
Rzeczywistość rozszerzona jako technika ma bez wątpienia świetlaną przyszłość. Odnoszę jednak wrażenie, że wielu gigantów informatyki nadal nie ma na nią pomysłu. Nie rozumiem użyteczności modułu AR w Mapach Google na telefon.
W ubiegłym roku podczas konferencji I/O 2019 Google zapowiedział, że wprowadzi funkcję rzeczywistości rozszerzonej do jednej z najlepszych swoich aplikacji, a więc do Map Google. Niedługo minie rok od tego ogłoszenia, a po anonsowanej nowości ani śladu. Nie wiemy, dlaczego musiało upłynąć tak dużo czasu od zapowiedzi, ale za sprawą Wall Street Journal dowiadujemy się, że funkcja ta jest już testowana. Nowość ta na razie jest udostępniana wyłącznie niewielkiej grupie amerykańskich użytkowników Map Google.
Jak działa?
Rzeczywistość rozszerzona w Mapach Google ponoć od technicznej strony sprawuje się nieźle.
Jak wynika z reportażu, funkcja ta jest bardzo prosta w użyciu. Wystarczy wcisnąć ikonkę widoku rzeczywistości rozszerzonej, by ją uruchomić. Aplikacja następnie prosi użytkownika o rozejrzenie się obiektywem dookoła, by móc precyzyjniej ustalić nasze położenie. Następnie zaczyna działać w sposób nieco przypominający ten, jaki przed laty lansowało Here w swojej aplikacji City Lens.
Dopóki trzymamy telefon w typowej pozycji w dłoni, widzimy na nim standardowy interfejs Map Google. Gdy jednak podniesiemy go tak, by mniej więcej ułożony był prostopadle do podłoża, ujrzymy obraz z obiektywu naszego telefonu, na którym pojawiać się będą informacje z trybu nawigacji. A więc przykładową strzałeczkę skręć w prawo zobaczymy dokładnie na tej uliczce, w którą musimy skręcić.
Podobno działa to dobrze. Osobiście nie jestem pewien po co.
Na razie musimy uznać pozytywne wrażenia redakcji WSJ za jedyny wyznacznik jakości technicznej tego rozwiązania, a ta wyraźnie nie ma zastrzeżeń co do precyzji wskazówek i ogólnego działania aplikacji. Nie można też nie być pod wrażeniem tego, jak Google skutecznie wykorzystuje zbierane przez siebie dane – zdjęcia sferyczne ze Street View plus nasza geolokalizacja plus przetwarzanie obrazu przez SI – by zapewnić nam ten… bajer.
Bo z całym szacunkiem, ale nie widzę innego zastosowania dla tej funkcji, niż możliwość uświadomienia sobie, jak wielki postęp cały czas dokonuje się w informatyce. Marsz z telefonem w ręku na linii wzroku nie należy do najbezpieczniejszych – o czym akurat aplikacja ostrzega – ale też i do najwygodniejszych. Wszak ręka w tej pozycji szybko drętwieje. To może funkcja ta rozwiązuje jakiś problem użytkowy? Nie jestem pewien jaki: widok mapy jasno sugerujący, że na najbliższym skrzyżowaniu musimy skręcić w prawo, jest czytelny, sugestywny i nie pozostawia użytkownikowi wątpliwości.
Pokaz siły czy testy pod nowy rodzaj urządzeń?
Takie nowości mają bez wątpienia znacznie prestiżowe. Przecież właśnie zaczynam siódmy akapit tekstu na Spider’s Web o imponującej technicznie nowości w Mapach Google, a na pewno do tematu wrócimy, gdy funkcja ta pojawi się w Polsce. Ekspozycja marki w mediach gwarantowana. I, trzeba przyznać, jest co podziwiać. Choć niespecjalnie potem będziemy z tego korzystać.
Może jednak stoi za tym coś więcej niż tylko reklama. Google Glass może i były zbyt niedoskonałe, by móc odnieść komercyjny sukces. Jednak sama idea urządzenia, które na postrzeganą rzeczywistość nakłada tę rozszerzoną przed naszymi oczami, jest co najmniej sensowna. Być może Google chce wykorzystać setki milionów użytkowników Androida, by dopracować moduł AR w Mapach Google pod ten rodzaj urządzeń?
Tego oczywiście nie wiemy, możemy wyłącznie spekulować.