REKLAMA

Project Soli od Google powraca, a wraz z nim gesty do obsługi urządzeń bez ich dotykania

Pamiętam mój pierwszy seans Raportu Mniejszości, w którym John Anderton sterował futurystycznym ekranem zawieszonym w powietrzu wykonując ruchy dłoni w specjalnych rękawiczkach. Bardzo podobała mi się taka wizja, ale traktowałem ją w kategoriach science-fiction.

Project Soli powraca, a wraz z nim gesty do obsługi urządzeń bez ich dotykania
REKLAMA
REKLAMA

Tymczasem Google pracuje nad bardzo podobnym projektem, tyle że lepszym, ponieważ do działania nie będzie wymagał żadnych rękawic.

Project Soli powraca po kilku latach ciszy. To może być rewolucja na miarę ekranów dotykowych.

Przyznam, że muszę posypać głowę popiołem. W grudniu pisałem o porzuconych projektach Google’a, a konkretnie działu Google Advanced Technology and Projects (ATAP). Na koncie ATAP jest kilka zapomnianych projektów sprzętowych, które miały być rewolucją, a zostały wygaszone. Pamiętacie modułowe smartfony z Project ARA albo mapowanie otoczenia z Project Tango? No właśnie.

Project Soli to kolejny pomysł działu ATAP, który sprawiał wrażenie porzuconego, choć Google nigdy go oficjalnie nie zamknął. W 2015 r. zobaczyliśmy wizualizację tej technologii, a rok później zestaw deweloperski w wersji alfa. Od tej pory Google nie chwalił się projektem, ale - jak się okazuje - zbyt wcześnie postawiłem na nim krzyżyk.

Właśnie pojawiła się duża i ważna aktualizacja Project Soli. Google dostał zgodę amerykańskiej Federalnej Komisji Łączności (FCC) na dalszy rozwój programu. Komisja uznała, że radary potrzebne do działania projektu nie stanowią zagrożenia dla ludzi, a ponadto mogą przysłużyć się interesowi publicznemu.

Czym właściwie jest Project Soli?

Project Soli to nowatorski pomysł na obsługę interfejsów. Zamiast dotykać ekranu czy przycisków, gesty wykonujemy w powietrzu. W ten sposób można np. przewijać elementy interfejsu i zatwierdzać wybór. Innymi słowy, można kontrolować urządzenia na odległość, bez dotykana ich.

Nowa technologia ma duże szanse zaistnieć jako alternatywa dla osób niepełnosprawnych, które mają trudności z poruszaniem się, a także dla osób, które nie mogą obsługiwać interfejsów głosowych. Plany są jednak znacznie bardziej ambitne, bo Project Soli może też przyjąć się jako interfejs smartfonów, tabletów, czy komputerów. Mam wrażenie, że to rozwiązanie sprawdziłoby się szczególnie dobrze w programach do projektowania, zarówno tych 2D, jak i 3D.

A jak działa Project Soli?

Całość opiera się na sensorach emitujących fale elektromagnetyczne i radarach, których anteny przetwarzają odbity sygnał (energię, opóźnienie i zmianę częstotliwości) na informacje o ruchu, rozmiarze, kształcie, położeniu, materiale, pojemności i dystansie. Mamy więc komplet danych służących do opisania gestów dłoni.

Radary działają w paśmie ekstremalnie wysokich częstotliwości wynoszących ok. 60 GHz. Dla porównania, najpowszechniej wykorzystywane pasma transmisji Wi-Fi to 2,4 oraz 5 GHz. Pasmo 60 GHz od lat jest zapowiadane jako następny poziom łączności, ale nie trafiło do szerokiego użytku konsumenckiego. Pasmo jest wykorzystywane w medycynie i wojsku, natomiast pod strzechy może je wnieść Qualcomm pracujący nad siecią Wi-Fi 60 GHz oraz Google za sprawą Project Soli.

google project soli class="wp-image-864652"

Federalnej Komisji Łączności (FCC) wydała właśnie zgodę na stosowanie radarów Project Soli w paśmie 57–64 GHz, a sensory będą mogły mieć większą moc niż dotychczas, choć nie tak dużą, o jaką zabiegał Google.

REKLAMA

Projekt zapowiada się rewolucyjnie, ale to samo mówiliśmy o innych pomysłach Google Advanced Technology and Projects (ATAP).

Wiele z nich zapowiadało się innowacyjnie, a ostatecznie zostało zakończonych, tak jak wspomniane projekty ARA i Tango. Jeżeli Soli nie trafi do powszechnego użycia, to mam nadzieję, że uda się zaimplementować to rozwiązanie dla osób niepełnosprawnych ruchowo. Być może za kilka lat dzięki pomysłom Google’a jakość życia takich osób ulegnie znacznej poprawie.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA