Od CUDA po akceleratory do ChatGPT. Nvidia to już potęga niczym Apple, Amazon i Microsoft
Nvidia jest pierwszą firmą w historii branży układów scalonych, której wartość przekroczyła bilion dolarów. W ujęciu kapitalizacji rynkowej zostawia daleko w tyle AMD, Intela, Qualcomma i resztę. Nie byłoby to możliwe, gdyby nie wizjonerska polityka wprowadzona dekady temu.
Nvidia właśnie zapisała się w finansowej historii branży informatycznej. Jest pierwszą firmą od układów scalonych, której wartość rynkowa przekroczyła bilion dolarów. Jest również czwartą firmą okołotechnologiczną w historii, której udało się odnieść tak duży (wedle miary kapitalizacji rynkowej) sukces. Poprzednio tak wysoką wyceną mogły się pochwalić tylko Apple, Microsoft, Alphabet (właściciel Google’a) i Amazon.
To reakcja giełdy na sukces układu H100, który cieszy się ogromnym wzięciem od wiodących dostawców infrastruktury chmurowej i usług online. Chipy te skupują Amazon, Meta i Microsoft (na swoje potrzeby i potrzeby swojego partnera w formie OpenAI). Są szczególnie sprawne energetycznie w akcelerowaniu przeliczeń typowych dla generatywnej sztucznej inteligencji, takiej jak ChatGPT czy Dall-E.
H100 nie wziął się jednak znikąd. I tak po prawdzie nie jest jakoś szczególnie rewolucyjny. Nvidia bowiem, jak żadna inna firma, inwestowała w sztuczną inteligencję ogromne środki, od wielu lat. W efekcie firma konsumentom kojarząca się głównie z marką kart graficznych GeForce może traktować rynek konsumencki niemalże hobbystycznie. Właściwą potęgę buduje na rynku gigantów IT. I już może z nimi rozmawiać jak równy z równym.
Sztuczna inteligencja to przyszłość? Ta obserwacja to truizm. Nvidia już o tym wiedziała 20 lat temu.
Technicznie rzecz biorąc, pierwszy mariaż Nvidii z SI nastąpił w 1999 r., kiedy na rynku pojawił się procesor GeForce 256 zdolny do przyspieszania obliczeń związanych z uczeniem maszynowym. Jednak na poważnie Nvidia zaczęła inwestować w sztuczną inteligencję i tak wcześnie, bo już w 2006 roku, kiedy wprowadziła architekturę CUDA, która umożliwiła wykorzystanie możliwości przetwarzania równoległego jednostek GPU do nauki i badań.
Co to właściwie jest CUDA? Najprościej ją zdefiniować jako platformę obliczeniową równoległą i interfejs programistyczny (API), które pozwalają oprogramowaniu wykorzystywać układy GPU do przetwarzania ogólnego celu (GPGPU). CUDA jest warstwą oprogramowania, która daje bezpośredni dostęp do wirtualnego zestawu instrukcji i równoległych elementów obliczeniowych GPU. Jest zaprojektowana tak, aby współpracować z językami programowania takimi jak C, C++ i Fortran.
Ta dostępność ułatwia specjalistom od programowania równoległego korzystanie z zasobów GPU, w przeciwieństwie do wcześniejszych interfejsów API, takich jak Direct3D i OpenGL, które wymagały zaawansowanych umiejętności w programowaniu graficznym.
Istotnym przełomem było zapewnienie przez Nvidię mocy obliczeniowej dla przełomowej sieci neuronowej AlexNet. To sieć neuronowa splotowa (CNN), zaprojektowana przez Alexa Krizhevsky'ego we współpracy z Ilyą Sutskeverem i Geoffreyem Hintonem. AlexNet rywalizowała w konkursie ImageNet Large Scale Visual Recognition Challenge 30 września 2012 roku. Sieć osiągnęła poziom błędu top-5 na poziomie 15,3 proc., co było o ponad 10,8 punktu procentowego niższe niż wynik drugiego miejsca.
Głównym wnioskiem z oryginalnej pracy była konstatacja, że zaawansowanie modelu było niezbędne dla jego wysokiej wydajności - co również było kosztowne obliczeniowo, ale możliwe dzięki wykorzystaniu jednostek przetwarzania graficznego (GPU) podczas procesu uczenia.
AlexNet składa się z ośmiu warstw; pierwsze pięć to warstwy splotowe, niektóre z nich poprzedzone warstwami max-pooling, a ostatnie trzy to warstwy w pełni połączone. Sieć, z wyjątkiem ostatniej warstwy, jest podzielona na dwie kopie, każda uruchamiana na jednym GPU.
Sztuczna inteligencja nie tylko w laboratoriach i centrach danych. To również urządzenia konsumenckie i Internet rzeczy.
Podczas gdy konkurencja dopiero zaczyna rozważać szersze inwestycje w nowy rodzaj układów scalonych, Nvidia już pracuje nad ich miniaturyzacją. Za szczególnie ważny prawdopodobnie należy uznać układ Tegra K1, zbudowany z myślą o Tesli i innych partnerach motoryzacyjnych.
Procesor Tegra K1 jest jednym z pierwszych procesorów firmy Nvidia zaprojektowanych specjalnie do zastosowań związanych ze sztuczną inteligencją w urządzeniach mobilnych i wbudowanych. K1 wykorzystuje tę samą architekturę GPU, co karty graficzne i systemy Nvidia z serii GeForce, Quadro i Tesla, co zapewnia mu wysoką wydajność i kompatybilność z standardami graficznymi i obliczeniowymi, takimi jak OpenGL 4.4, DirectX 11.2, CUDA 6.5 i OpenCL 1.2. Dzięki temu procesor Tegra K1 może obsługiwać zaawansowane algorytmy sztucznej inteligencji, takie jak głębokie sieci neuronowe, uczenie ze wzmocnieniem, rozpoznawanie obrazów i mowy czy analiza danych. K1 dysponuje 192 rdzeniami CUDA.
W 2016 r. Nvidia wprowadziła na rynek serię procesorów Pascal, które są zoptymalizowane do obsługi głębokich sieci neuronowych i innych modeli sztucznej inteligencji. Rok później na rynku pojawiła się seria procesorów Volta, które są jeszcze bardziej wydajne i energooszczędne do zastosowań związanych z sztuczną inteligencją. W 2019 r. Nvidia przejmuje firmę Mellanox Technologies, która jest producentem wysokowydajnych sieci komputerowych dla centrów danych i superkomputerów.
Z procesorów Nvidii w efekcie korzystają wszyscy. Na rynku konsumenckim gracze korzystają chociażby z przełomowego algorytmu DLSS do rekonstrukcji obrazu, dzięki czemu mogą się cieszyć ostrzejszą grafiką w grach bez wydawania fortuny na kartę graficzną. Na rynku biznesowym chipy Nvidii uznawane są za pod wieloma względami wykraczające poza to, co oferuje konkurencja. Choć to niezupełnie tak, że Intel i AMD kompletnie przespały inteligentną rewolucję.
Intel i AMD w branży sztucznej inteligencji. Działają coraz prężniej, ale z dużym opóźnieniem.
Intel nabył kilka firm specjalizujących się w SI, takich jak Nervana Systems, Movidius, Mobileye i Habana Labs, aby wzmocnić swoje portfolio technologii i rozwiązań dla SI. Intel oferuje również platformy sprzętowe i programowe dla SI, takie jak procesory Xeon, układy FPGA, układy NNP i biblioteki optymalizacyjne. Intel współpracuje również z partnerami z sektora publicznego i prywatnego w celu promowania innowacji i edukacji w zakresie SI.
AMD opracował serię procesorów Epyc i kart graficznych Radeon Instinct, które są zoptymalizowane pod kątem zastosowań w SI i uczeniu głębokim. AMD współpracuje również z firmami takimi jak Google, Microsoft, IBM i Amazon w celu dostarczania rozwiązań chmurowych dla SI. AMD angażuje się również w badania i rozwój SI poprzez współpracę z instytucjami akademickimi i organizacjami branżowymi.
Nvidia przez dekady kojarzyła się z grami wideo. Jak jest w 2023 r.?
Nvidia nie podaje dokładnego podziału swoich przychodów na rynek konsumencki i biznesowy, ale można je oszacować na podstawie segmentów operacyjnych, które firma ujawnia w swoich sprawozdaniach finansowych. Nvidia wyróżnia cztery segmenty operacyjne: gry, profesjonalna wizualizacja, centra danych i samochody.
Można przyjąć, że segment gier jest głównie skierowany do rynku konsumenckiego, ponieważ obejmuje sprzedaż kart graficznych GeForce i układów Tegra do konsol do gier. Segment profesjonalnej wizualizacji jest głównie skierowany do rynku biznesowego, ponieważ obejmuje sprzedaż kart graficznych Quadro i układów RTX do stacji roboczych i aplikacji profesjonalnych. Segment centrów danych jest również głównie skierowany do rynku biznesowego, ponieważ obejmuje sprzedaż układów GPU i NPU (czyli chipów nowej generacji - już nie GPU, a projektowanych wyłącznie z myślą o SI) do serwerów i usług chmurowych. Segment samochodów jest skierowany zarówno do rynku konsumenckiego, jak i biznesowego, ponieważ obejmuje sprzedaż układów Tegra i Drive do systemów informacyjno-rozrywkowych i autonomicznej jazdy.
Na podstawie tych założeń można oszacować udział przychodów z rynku konsumenckiego i biznesowego w całkowitych przychodach Nvidii. Według ostatniego raportu finansowego za rok 2022, przychody Nvidii według segmentów operacyjnych przedstawiały się następująco:
- Gry: 12,9 mld dol.
- Profesjonalna wizualizacja: 1,3 mld dol.
- Centra danych: 9,7 mld dol.
- Samochody: 0,8 mld dol.
- Wszystkie pozostałe segmenty: 8,7 mld dol.
Całkowite przychody Nvidii wyniosły 33,4 miliarda dolarów. Zakładając, że segment samochodów ma połowiczny udział w rynku konsumenckim i biznesowym, można obliczyć następujące proporcje:
- Przychody z rynku konsumenckiego: (12,9 + 0,4) / 33,4 = 0,4 = 40 proc.
- Przychody z rynku biznesowego: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 = 60 proc.
Oznacza to, że około 40 proc. przychodów Nvidii pochodzi z rynku konsumenckiego, a około 60 proc. z rynku biznesowego.
Co przyniesie przyszłość? Nvidia ma już plan na sztuczną inteligencję. Znacznie szerszy niż ktokolwiek z bezpośredniej konkurencji.
Tylko w ostatnim miesiącu Nvidia zapowiedziała liczne nowe inwestycje w sztuczną inteligencję. Jedną z nich jest mechanizm GET3D, który jest w stanie generować złożone i wiernie odwzorowujące rzeczywistość trójwymiarowe modele przeróżnych obiektów, a także postaci. GET3D potrafi generować około 20 obiektów na sekundę przy użyciu pojedynczego układu graficznego.
Israel-1 to superkomputer do zastosowań związanych ze sztuczną inteligencją, który Nvidia buduje we współpracy z izraelskim ministerstwem nauki i technologii oraz firmą Mellanox. Maszyna ma mieć moc obliczeniową ponad 7 petaflopsów i wykorzystywać ponad 1000 procesorów graficznych Nvidia A100 Tensor Core GPU. Israel-1 ma służyć do badań i rozwoju w dziedzinach takich jak medycyna, biologia, chemia, fizyka czy cyberbezpieczeństwo.
Nvidia ACE to nowa technologia, która ma rewolucjonizować branżę gier poprzez umożliwienie interakcji z postaciami niezależnymi w sposób naturalny i realistyczny. Postacie te będą w stanie prowadzić otwarty dialog z graczem, reagować na jego emocje i gesty, a nawet wyrażać własne uczucia i opinie. Nvidia ACE wykorzystuje zaawansowane modele językowe i generatory obrazów oparte na sztucznej inteligencji.
Jeden bilion dolarów. Zdaje się, że niedługo będzie jeszcze więcej.