REKLAMA

Research@Intel pokazał, że Intel doskonale wie, w czym leży przyszłość wszelkich urządzeń

Wszystko, co robisz przez cały dzień na wideo. Pytasz “gdzie są moje czarne buty?”, a program odpowiada “pod łóżkiem”, wyświetlając ekran z momentu, w którym wsunąłeś je pod łóżko.

Research@Intel pokazał, że Intel doskonale wie, w czym leży przyszłość wszelkich urządzeń
REKLAMA

Dane, dane, dane! Intelligent everything, Internet of things, ulepszanie życia...

REKLAMA

Tak zaczyna się jedna z informacji prasowych podsumowujących Research@Intel, na którym miałam okazję być w San Francisco. Tak się zaczyna, i w zasadzie doskonale przestawia świat, który chce stworzyć Intel na podstawie ton danych dostarczanych przez ludzi każdego dnia. W Labolatoriach Intela pracuje na całym świecie ponad 10 tysięcy osób, z których spora część tłumaczy te dane i próbuje nauczyć maszyny i stworzyć algorytmy odpowiadające na potrzeby. Nieco przerażająca to wizja świata, od której jednak ewidentnie nie da się ucieć. Bo przecież nie tylko Intel chce przodować w “Internet od things”, wszyscy chcą znaleźć klucz do tłumaczenia danych na ludzki sposób.

Intel nie pokazał nam gotowego rozwiązania, nie pokazał tego domu, o którym mowa, a raczej części układanki. Układankę trzeba poskładać na razie samemu, ale obraz wyłaniający się z niej jest fascynujący i nieco przerażający.

intel1

Każda - dosłownie każda - rzecz ma dostarczać dane. Jeśli jest to nietypowa rzecz, bez wyświetlacza, to przecież nic nie stoi na przeszkodzie, by zamontować w niech układy, które i tak wysyłają informacje tam, gdzie trzeba. Na przykład termometr, czytnik linii papilarnych i inne chipy w kubku do kawy. Kubek następnie wysyła do chmury dane o tym, kto i jak go używa, a chmura wykorzysta te dane w kawiarni, informując na ekranie smartfona czy nawet na wyświetlanym na ścianie jednym z wielu ekranów, że właśnie pita kawa osiągnie optymalną, naszą ulubioną temperaturę za 2 minuty. Każde urządzenie, każdy przedmiot użytkowy, ba, każdy czujnik, nie tylko ten w posiadanych przedmiotach, ale też zewnętrzny, jak w projektorze na sali wykładowej czy w sklepowej kasie i na przystanku autobusowym, docelowo ma łączyć się z innymi urządzeniami i dostarczać dane.

Problem tkwi w analizie. Jak wykorzystać takie ilości informacji? Czy wszystkie są naprawdę istotne? A może stworzyć algorytmy decydujące co ważne, co nieważne, przebierające tę kopalnię i analizujące już przebrane dane? Pracownicy labolatorium Intela też pracują już nad tym i zauważają, że to nie musi być “Internet of things”, a “Intranet of things”, konkretna, wewnętrzna sieć połączonych urządzeń.

Do 2020 roku na świecie ma być 50 miliardów inteligentnych urządzeń. Według Intela sprawi to, że umiejętne sortowanie ważnych informacji będzie kluczowe, a przysporzy też kilka innych problemów - jak sprawić, by podłączone do sieci, komunikujące się ze sobą przedmioty były energooszczędne? A co chyba najistotniejsze, jak sprawić, że dostęp do urządzeń realnie ułatwiających życie będzie miał dosłownie każdy?

Bo przecież co mi po smartfonie i kilku podłączonych w domu przedmiotach, jeśli nie będzie mnie stać na instalacje końcowych urządzeń w domu czy samochód, który wykorzystuje wiedzę o mnie?

intel 2

Nad rozwiązaniem tych problemów pracuje Intel jednocześnie rozwijając ideę Internet of things, a w wykonaniu Intela Intelligent everywhere. Mnie jednak zaskoczyło kilka, może mniejszych i wstępnych, ale istotnych rzeczy.

Większość pomysłów na Internet of things dziś opiera się na własnych, posiadanych przez użytkownikach urządzeniach.

Smartfon wyświetli powiadomienie, okulary pokażą informacje ujęte w kontekście i tak dalej. A może jednak to wcale nie jest takie wygodne, może można rozwiązać to inaczej? Zafascynowała mnie wizja ekranów - tych, o których już pisałam, tych które miałyby wyświetlać interaktywne powierzchnie i być dostępne wszędzie z racji wielkości i przystępności cenowej - które automatycznie rozpoznają użytkownika. Wszystko oczywiście dzięki rozpoznawaniu - a nawet nie rozpoznawaniu, a analizowaniu obrazu w 3D, z oceną odległości różnych elementów, takich kamer i technologii, których nie oszuka się pokazaniem zdjęcia 2D - oraz możliwe, że czytnikom biometrycznym, siatkówki czy innych właściwych tylko danej osobie elementom.

Przedstawiono mi to mniej więcej tak: pracujesz w biurze, w którym za każdym razem, gdy chcesz użyć komputera i internetu, musisz mieć ze sobą laptopa i smartfona. Wyobraź sobie, że nie nosisz przy sobie żadnego urządzenia, wchodzisz do biura współpracownika by pokazać mu nowe projekty. Ekrany połączone z chmurą orientują się, że to ty, a z kontekstu, z kalendarza i z innych przesłanek wnioskują, w jakim celu odwiedziłaś kolegę. Mówisz więc lub gestem wskazujesz, co ma zrobić urządzenie. Na stole wyświetlają się gotowe już projekty, które możesz dyskutować, gestem przesunięcia do współpracownika przekazujesz mu je. Wychodząc z pomieszczenia ekrany automatycznie wylogowują cię. Wszystko dzieje się bez specjalnego udziału, bez wymyślnych poleceń, bez przeszukiwania dysku i tak dalej. Urządzenia służą ci nieważne, gdzie jesteś, wyświetlają twoje treści i w naturalny sposób pozwalają na ich prezentację i przekazanie.

Z drugiej strony przeraził mnie nieco chyba dosyć mały projekt który zobaczyłam na prezentacji ciekawostek z Intel Labs. Dzień użytkownika jest nagrywany i analizowany w czasie rzeczywistym. Inteligentne algorytmy wiedzą, kim jesteś, rozpoznają kontekst, przedmioty, ludzi, rozmowyprzypisują wszystkiemu inteligentne tagi i pozwalają na zadawanie pytań i wydawanie poleceń. Na przykład w stylu “podsumuj rozmowę z Tomem” czy wspomniane “gdzie zostawiłam klucze”.

Przecież nasze życie to też dane. Po co ograniczać się do zbierania ich z czujników i tego, co udostępniamy, skoro można zanalizować praktycznie każdą czynność? Mnie ta wizja przeraża, a demonstracja - bardzo “domowa” i wstępna - nagranego z perspektywy pierwszej osoby filmu z całego dnia, po którym zadawane są pytania, spowodowała, że poczułam się bardzo niekomfortowo. To zbieranie każdych danych, a w najbardziej intymny, naruszający prywatność i intymność, sposób.

Zresztą pytania o prywatność padały z każdej strony przy okazji każdej prezentacji i demonstracji.

Jak bezpieczne będą nasze dane?

Czy nie zostaną udostępnione agencjom rządowym a nawet czy po prostu nie będą mogły być atakiem hakerów? I tak naprawdę ciężko na to odpowiedzieć. Przedstawicieie Intela i Intel Labs mówili oczywiście, że to użytkownik wybiera, czy w ogóle chce cokolwiek udostępniać, że do urządzeń zamiast danych wysyłane są polecenia, że chmura w zasadzie nawet nie przechowuje danych, a wyniki analiz, ale wątpliwości wciąż pozostają.

REKLAMA

Tak naprawdę wszystkie projekty oparte o Big Data, analizę danych i informacji i zbliżające nas, śmiertelników, do inteligentnego wszystkiego, są dla Intela nie tylko ciekawym projektem, ale bardzo istotną, kluczową wręcz sprawą. Odniosłam wrażenie, że Intel doskonale zdaje sobie sprawę z tego, że hardware przestaje się liczyć. Mimo chwalenia się Haswellem i nowymi urządzeniami, mimo ogromnych sprzętowych skoków, to już ma coraz mniejsze znaczenie i w perspektywie kolejnego dziesięciolecia rozwoju osobistych urządzeń, tych w kieszeni i tych do noszenia na ubraniu, przewaga sprzętowa przestanie mieć znaczenie. Dlatego właśnie Intel do Haswella dołącza - jak i konkurenci, dokładnie o tym samym mówił mi Qualcomm na CES-ie - całe oprogramowanie pozwalające lepiej wykorzystać moc obliczeniową do codziennych zadań, takich jak wideoczat czy interakcja z komputerem przez Augumented Reality.

Dlatego też Intel inwestuje w Intelligent everywhere, w analizę i “tłumaczenie na ludzki” ogromu danych. Bo to właśnie, a nie same sprzęty, w kolejnych latach da podwaliny do zyskania przewagi. W momencie, gdy nie będą już liczyły się same urządzenia, gdy nawet nie będziemy ich zauważać, a ważne stanie się tylko to, co za ich pomocą można zrobić i jak bardzo wkomponują się w codzienność.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA