Kiedyś karty graficzne „przyspieszyły” gry. Teraz przemysł wrzuci piąty bieg, dzięki maszynom do AI
Ze specjalistą od technologii AI rozmawiamy o czwartej rewolucji przemysłowej, jaka dokonuje się na naszych oczach. Sztuczna inteligencja odegra w niej kluczową rolę.
Dariusz Dobkowski przez lata pracował w amerykańskich korporacjach, zajmując się rozwojem biznesu w segmentach pamięci masowych i centrów danych. Od dwóch lat przewodzi zaś sprzedaży zaawansowanych rozwiązań z oferty Huawei, gdzie rozwija m.in. dział AI. Buduje ekosystem partnerów, developerów i partnerskich uczelni. Właśnie dlatego jest idealną osobą, z którą można porozmawiać o stanie sztucznej inteligencji w Polsce i na świecie.
Karol Kopańko, Spider’s Web: Gdzie obecnie jest AI?
Dariusz Dobkowski, Dyrektor sprzedaży w Huawei: Na to pytanie należy odpowiedzieć dodając nieco kontekstu.
Prawo Moore’a przestaje być aktualne. Nie da się podwajać mocy obliczeniowej procesorów ogólnego przeznaczenia w krótkiej jednostce czasu. Ogranicza nas fizyka. Dawniej, kiedy producenci wypuszczali nową generację procesorów, dokonywaliśmy skoku technologicznego. Obecnie tak już nie jest. Następuje więc przełączenie na wąsko specjalizowane układy.
A AI potrzebuje ogromnych zasobów mocy obliczeniowej.
Dokładnie. Historycznie taka moc dostępna była jedynie w centrach danych, ale związane to było z bardzo dużymi kosztami. Później okazało się, że karty graficzne również świetnie radzą sobie w tych zastosowaniach, ale popyt na rynku gier i kryptowalut wywindował ceny GPU. Dlatego obecnie pojawiają się wyspecjalizowane układy, których zadaniem jest przyspieszenie obliczeń na sieciach neuronowych.
Czyli mamy do czynienia z podobna ewolucją, jaką rynek komputerów przeszedł blisko ćwierć wieku temu, kiedy pojawiły się akceleratory 3D, przyspieszające generowanie grafiki 3D.
Tak, można użyć takiego porównania. I podobnie, jak w przypadku gier – tak i tu trzeba napisać odpowiednie oprogramowanie, aby móc skorzystać ze sprzętu.
Czyli Huawei tworzy chipy, które specjalizują się w AI, aby programiści mogli później trenować na nich swoje sieci neuronowe.
Dokładnie, obecnie zależy nam na stworzeniu ekosystemu, który będzie rozwijał AI. W ciągu najbliższych pięciu lat zainwestujemy 100 mln euro w Europie, aby to osiągnąć. Cele są jasno zdefiniowane. Chcemy pozyskać 500 nowych partnerów i 100 tys. developerów, którzy będą tworzyli rozwiązania AI na naszej platformie. Do tego chcemy współpracować z setką wyższych uczelni w całej Europie. Już teraz mamy pierwsze partnerstwa w tym zakresie w Polsce – m.in. z Politechniką Warszawską.
To ambitny plan. Dlaczego te trzy elementy środowiska – uczelnie, partnerzy i developerzy powinni patrzeć właśnie w kierunku Huawei’a?
Huawei nie oferuje rozwiązań end-to-end, więc budowa ekosystemu jest dla nas elementem strategii. Wnosimy do niego nie tylko nasz hardware, ale również środki na rozwój myśli technologicznej czy działania marketingowe. Chcemy tworzyć wspólne rozwiązania i laboratoria, dawać dostęp do naszych ośrodków kompetencyjnych i wsłuchiwać się w potrzeby środowiska.
Załóżmy, że reprezentuję małą firmę, która produkuje kamery – bo przecież AI świetnie radzi sobie w rozpoznawaniu obiektów. Jak mogę skorzystać na współpracy z Huawei?
Świetny przykład. Standardowa kamera częściowo wspomagana przez AI radzi sobie z rozpoznawaniem około 30 obiektów w kadrze. Wyobraźmy sobie, że chcemy sprawdzić, czy wszyscy klienci odwiedzjący dany sklep noszą zalecane maseczki na twarzy. Nasze chipy mogą podnieść wydajność nawet siedmiokrotnie, więc będziemy w stanie sprawdzić pod tym kątem nawet do 200 osób. To za sprawą naszego malutkiego rozwiązania – Atlas 200. Jest wielkości karty kredytowej, więc dedykujemy je niewielkim urządzeniom, które muszą długo pracować na baterii – kamerom, dronom czy robotom.
Dlaczego montować chip bezpośrednio w dronie, skoro można przesłać sygnał z jego kamery do centrum danych?
Postępującym trendem w AI jest przetwarzanie na krawędzi, w odróżnieniu od przetwarzania na centralnym serwerze. Zamiast tego rozproszone jednostki same przetwarzają informacje i mogą podejmować decyzje.
Weźmy tu przykład drona monitorującego lasy w odległych rejonach. Przesyłanie dużych ilości materiału wideo jest nieefektywne i drogie. Zamiast tego dron może samodzielnie analizować materiał i przesyłać jedynie najtrudniejsze, dwuznaczne stop-klatki. Taki dron mógłby wykrywać pożary i jedynie potwierdzać zgłoszenia z centralnym serwerem. Właśnie takie rozwiązanie niedawno wdrożyliśmy na bardzo dużych obszarach leśnych.
Rozumiem, że pomoże to wygenerować oszczędności w zakresie komunikacji bezprzewodowej i znacznie przyspieszy cały proces, bo obliczenia generowane są bezpośrednio w urządzeniu?
Dokładnie tak – w tego typu zastosowaniach kluczowy jest stosunek wydajność do poboru mocy, aby dane urządzenie mogło realizować stawiane przed nim zadania i jednocześnie pracować odpowiednio długo.
A co z trenowaniem modelu? Domyślam się, że ono zachodzi jednak w centrach danych.
Zdecydowanie. Tu mamy Atlasy 800, w których z kolei liczy się czysta wydajność. To właśnie na nich zachodzi proces głębokiego uczenia, czyli ten najbardziej skomplikowany etap treningu, kiedy model uczy się wnioskowania podobnego do ludzkiego umysłu.
Dla porównania, Atlas 200 może przetwarzać jednocześnie 16 strumieni wideo w wysokiej rozdzielczości, podczas gdy Atlas 800 obsłużyć ma 512 kanałów. Jego moc obliczeniową można również zwiększać za pomocą instalowanych w nim kart Atlas 300. I – aby wspomnieć o wszystkich elementach rodziny Atlas, jest jeszcze model 500, to AI-in-the-box, a więc niezależna jednostka, która idealnie może się sprawdzić w firmach czy sklepach, bez potrzeby instalowania dedykowanego serwera.
Z kolei developerzy rozpoczynający z nami współpracę mogą skorzystać z Atlasów 200 Developer Kit. To zestaw startowy, który pozwala zapoznać się ze sprzętem i bibliotekami.
Jak wygląda więc adopcja tej technologii w Polsce?
W Polsce mamy obecnie ok. 300 firm, które przygotowują rozwiązania na bazie AI, ale co ciekawe, 75 proc. ich przychodów pochodzi z zagranicy. Polscy klienci wciąż „obwąchują się” z AI i sprawdzają, jakie korzyści może im przynieść. Niestety, ograniczają nas kwestie ekonomiczne, więc tym bardziej potrzebna jest edukacja, że inwestycja w AI przynosi oszczędności w długim terminie.
Jakie to mogą być inwestycje?
Nie należy pytać co AI może zrobić, ale raczej co chcemy, aby zrobiło. Pomału zbliżamy się do momentu, w którym będzie można już powiedzieć, że wystarczy wskazać problem, a będzie go można odpowiednio oprogramować.
Jednym z najbardziej niezwykłych zastosowań sztucznej inteligencji od Huawei, z jakim się spotkałem, była analiza widma zorzy polarnej, na podstawie którego algorytm skomponował utwór muzyczny. Później wykonała go nawet orkiestra filharmoników.
A jeśli chodzi o bardziej praktyczne kwestie.
Zaczyna się oczywiście od powtarzalnych czynności. Sam widziałem linię produkcyjną smartfonów o wydajności kilkudziesięciu tysięcy egzemplarzy na dobę, gdzie pracowało zaledwie kilku ludzi. Resztę procesu obsługiwały przystosowane do tego maszyny.
AI wykorzystuje już biznes logistyczny (monitoring paczek) czy finansowy (analiza ryzyka czy KYC). Wiele zastosowań widzimy również w medycynie, gdzie możemy pomagać lekarzom w wykrywaniu czy też analizie postępów choroby.
Czyli mówimy raczej o pomocy lekarzom, a nie ich zastąpieniu. Przynajmniej na razie.
Przypominam sobie wyniki badań porównawczych, które pokazywały, że wyspecjalizowane algorytmy mają już skuteczność w diagnozowaniu chorób kości występujących u dzieci na poziomie zbliżonym do uznanych specjalistów z tego zakresu. Tu AI zrobi dużą karierę. Myślę, że każdy może sobie przypomnieć sytuację, w której musiał bardzo długo czekać na analizę zdjęcia rentgenowskiego, bo specjalista nie był akurat dostępny. Teraz zdjęcie może w pierwszej chwili przebadać algorytm, a człowiek dopiero później potwierdzić.
A jeśli już jesteśmy w temacie medycznym, to w Chinach AI steruje już pojazdami, które w czasie epidemii COVID rozwoziły po osiedlach płyn do dezynfekcji rąk i pozwalały na jego nabycie w sposób bezkontaktowy.
Jednym z przykładów naszych projektów, który bardzo mnie poruszył, jest projekt StorySign. Jest to aplikacja pomagająca głuchym od urodzenia dzieciom w nauce czytania. Dziecko może czytać teksty przez ekran telefonu, na którym oprócz czytanego tekstu pojawia się sympatyczny awatar, pokazujący dane słowo w języku migowym. To jeden z projektów, który zmienia życie innych na lepsze i łatwiejsze.
Możemy też wspomnieć o wdrożeniu wykorzystującym analizę obrazów z dronów, aby badać stan linii wysokiego napięcia. Wcześniej trzeba było posyłać człowieka, aby z narażeniem życia chodził po słupach, wysoko nad ziemią, a teraz można to zrealizować znacznie szybciej i precyzyjniej za pomocą małego urządzenia wspieranego technologią AI.
Jednak cały czas mówimy o zastosowaniach AI w charakterze ciekawostki. Co jest w tym kontekście największym wyzwaniem stojącym na przeszkodzie w szerszej adopcji?
Zaczyna się od pieniędzy, bo trzeba zainwestować w trenowanie modelu, a tu koszt może iść w tysiące dolarów. Wydaje się jednak, że firmom potrzeba większej wyobraźni biznesowej, aby mogły dojrzeć nieefektywności, w które idealnie może wpasować się AI.
Wydaje się, że AI to przyszłość, a ten, kto pierwszy wsiądzie do pociągu z napisem rewolucja, ten najbardziej na niej skorzysta.
Zdecydowanie. To rzeczywiście czwarta rewolucja przemysłowa, która dzieje się na naszych oczach. Jeszcze dwa lata temu tylko 4 proc. firm przyznawało, że wykorzystuje komercyjnie AI. To niewiele. Inaczej jest, jeśli spojrzymy w przyszłość. Do 2025 roku aż 80 proc. chce mieć AI u siebie. Jeśli rzeczywiście się tak stanie, to czeka nas prawdziwy boom na usługi AI.
Huawei jest zaś gotowe na wsparcie wszystkich aktorów ekosystemu AI. Mamy globalny zasięg, więc ciekawe rozwiązanie z Polski możemy rozpropagować na całym świecie.