Już wiem kto wygra wyścig o dominację w SI. Nie będzie to ani OpenAI, ani Meta, ani nawet Google
Nic dziwnego, że prasa co rusz porusza tematy związane z ChatGPT czy Midjourney. Generatywna sztuczna inteligencja - choć dostępna dla zwykłych użytkowników już od wielu miesięcy - dalej wydaje się niemal magiczna. Prawdziwymi beneficjentami bieżącej rewolucji nie będą jednak jej inicjatorzy.
Wszyscy, ale to wszyscy najwięksi giganci IT pracują dziś intensywnie nad generatywną sztuczną inteligencją (zastrzeżenie: jeden Apple się tym nie chwali, ale prawdopodobnie również prowadzi szerokie badania) i nic dziwnego. Ignorowanie tej informatycznej rewolucji to jak zignorowanie eksplozji popularności smartfonu. Czy wcześniej Internetu. Czy jeszcze wcześniej myszki i graficznego interfejsu użytkownika. OpenAI zaskoczyło wszystkich poza swoim głównym udziałowcem w formie Microsoftu - i owi wszyscy teraz pospiesznie nadrabiają zaległości.
Inwestują przy tym w rozwój SI gigantyczne środki, bo de facto nie mają innego wyjścia. Kto nie ujarzmi tej rewolucji, przegra w tym wyścigu. Przy czym niekoniecznie całkowicie wypadnie z gry. Na przykład Microsoft nie przepadł po tym, jak popełnił grzech zignorowania rynku smartfonów - firma ma się świetnie. Ale też ten sam Microsoft nie jest już w stanie zainteresować sobą zwykłego konsumenta. Gdyby nie Xbox i obecny na przeznaczonych do pracy komputerach Windows, firma Microsoft miałaby znikomy kontakt z użytkownikiem indywidualnym. Co gorsza jakoś nie jest w stanie go odzyskać. Nie miałaby takiego problemu, gdyby płynnie przeszła z ery PC do ery urządzeń mobilnych.
Ten wyścig jest jednak wysoce nietypowy. Samo w nim uczestniczenie wymaga ogromnych środków i nie chodzi tylko o finanse. Bez będących już teraz w zaawansowanej formie modeli SI, bez wieloletniego doświadczenia w tworzenia tego rodzaju algorytmów prawdopodobnie nie ma już co startować - i lepiej szukać strategicznego partnera. Dużo większym problemem jest jednak infrastruktura. Do generatywnej SI oferowanej jako usługę masowemu klientowi potrzeba czegoś w rodzaju superkomputera. A ten potrzebuje stosownych układów scalonych, które przetwarzają jak największą ilość informacji przy jak najniższym zużyciu energii.
Trudno oczywiście odkrywczym nazwać spostrzeżenie, że nie ma informatycznej rewolucji bez infrastruktury. iPhone nie istniałby bez operatora sieci komórkowej, ten nie istniałby bez dostawcy energii, i tak dalej. W tym przypadku jednak mowa wyłącznie o infrastrukturze IT, a więc branży bezpośrednio z SI związanej. To nie tylko oznacza niebezpieczną kumulację potęg i bezprecedensową kumulację kapitału - to również budowanie nowych niezwykle silnych podmiotów gospodarczych. Nowych potężnych korporacji, o których jeszcze nie tak dawno mówiło się rzadko lub wcale.
Ciekawy przypadek Microsoftu i OpenAI. Dlaczego Nadella po prostu nie kupi firmy Altmana?
Niedawno na jaw wyszła ciekawa aferka. Co dziwi prawdopodobnie nikogo, sojusz Microsoftu z OpenAI jest bardzo szorstki. Obie firmy w zasadzie nie mogą bez siebie istnieć. OpenAI nie istniałoby bez wsparcia finansowego i technicznego ze strony Microsoftu, a przynajmniej nie w tak silnej formie. Microsoft z kolei nie mógłby stać na czele generatywnej rewolucji bez OpenAI, bo jego modele nie są tak zaawansowane. Obie firmy są strategicznymi partnerami, ale też zarazem zaciętymi konkurentami.
Bo przecież każdy użytkownik logujący się do ChatGPT to użytkownik, którego traci Bing Czat (i odwrotnie). Każdy, kto korzysta z Microsoft 365 Copilot nie korzysta z modeli GPT od OpenAI przygotowanych dla konkurujących z Office’em aplikacji. Produkty i usługi, jakie oferują Microsoft i OpenAI, bezpośrednio ze sobą rywalizują. Mimo że obie firmy bez wzajemnej pomocy nie byłyby w bieżącej rewolucji tak istotne. Co nadal trzyma je przy sobie? Dwie sprawy.
Po pierwsze, oczywiście pieniądze. Microsoft zainwestował ogromne środki w OpenAI, zadeklarował wpłacenie jeszcze większych kwot, zapewnia też OpenAI konieczną infrastrukturę chmurową. Ale czy nie prościej byłoby Microsoftowi tak po prostu kupić OpenAI? Byłaby to zapewne olbrzymia inwestycja, być może stanowiąca większe wyzwanie niż Activision Blizzard - ale też ważniejsza i w zasięgu Microsoftu.
Odpowiedź na pytanie czemu Microsoft nie kupił OpenAI znajduje się w dwóch miejscach. Po pierwsze, w samych udziałach: Microsoft ma 49 proc. akcji OpenAI. Czyli dokładnie tyle, by nie mógł być uznany za właściciela pakietu kontrolnego. Dlaczego Microsoft bardzo tego nie chce, przecież to brzmi jak czysta korzyść? Na to pytanie odpowiedź znajduje się we wspomnianym drugim miejscu. A więc na salach sądowych w związku z przejęciem Activision Blizzard, na których Microsoft musi udowadniać, że wspomniane przejęcie nie wprowadzi monopolu i nie zlikwiduje konkurencyjności.
Microsoft nie chce być właścicielem OpenAI, bo jest na to za duży i podlega rynkowym regulacjom. Przejęcie tak istotnej dla danego segmentu firmy mogłoby zostać zaskarżone przez konkurencję, a ostatnie czego Microsoft potrzebuje, to kolejne postępowanie antymonopolowe. Pamiętliwy czytelnik przypomni sobie jednak deklaracje wpłaty kolejnych miliardów dolarów na konta OpenAI. A skoro Microsoft ma już 49 proc. firmy i nie chce przejąć kontroli, to... jak to tak? Jak wyprać 10 mld dolarów?
Druga rzecz, która trzyma OpenAI przy Microsofcie, to chmura Azure. Analitycy zgodnie oceniają, że Azure to jedna z raptem dwóch chmur (drugą jest AWS), która oferuje odpowiednią skalę do wprowadzania usług B2B bazujących na Dużych Modelach Językowych. 10 mld dol. mocy obliczeniowej dla OpenAI brzmi lepiej niż jakakolwiek możliwa inwestycja gotówkowa. Tak na dobrą sprawę to OpenAI pieniądze potrzebuje głównie na chmurę i działania z nią związane.
Inne firmy, które będą chciały oferować własne modele językowe, również będą musiały zapewnić im odpowiednią chmurę. A bez wątpienia będą próbować, zwłaszcza że Meta obrała bardzo interesującą strategię stawiania na open-source i wspólny rozwój SI. Meta co prawda nie ma usług chmurowych w ofercie, ale podmioty rozwijające model LLaMA i inne open-source’owe modele to przecież przyszli klienci Microsoft Azure i Amazon Web Services. Być może też Google Cloud. Nieważne kto wygra i kto będzie liderem - bo i tak w wyniku tego wyścigu najwięcej gotówki wpłynie do kieszeni dostawców pary największych chmur świata. Taki jest plan, bo póki co, mimo absurdalnej popularności ChatGPT i mu podobnych, średnio to wychodzi.
Chmura płaci podatki w energii. Kim są poborcy?
Microsoft i (prawdopodobnie) Amazon dopiero zbudują potęgę kapitałową swoimi zdolnymi do obsługi Dużych Modelów Językowych chmurami. Póki co budują tylko potęgę, bo większość wpływów oddają dostawcom układów scalonych. Microsoft nigdy tego oficjalnie nie potwierdził, ale według symulacji analityków, koszt obsługi zapytania do Bing Czata lub ChatGPT znacznie przewyższa możliwy wpływ (obejrzenie kreacji reklamowej, wykupienie licencji) za udzieloną odpowiedź. Innymi słowy, Microsoft prawdopodobnie do tej całej rewolucji dopłaca, nie zarabiając na niej ani centa - wierząc, że jego partnerzy sprzętowi w nieodległej przyszłości rozwiążą energetyczny problem.
To drudzy, po dostawcach chmur, kapitałowo najwięksi beneficjenci generatywnej rewolucji. Dosłownie przed chwilą do grona największych firm informatycznych świata (Alphabet, Apple, Amazon, Microsoft - a więc firmy z wyceną powyżej biliona dolarów) dołączyła Nvidia. Tak, ta sama Nvidia, która pewnie nadal niektórym kojarzy się tylko z kartami graficznymi mającymi sprawić, że gry zręcznościowe działają płynniej na PC. Nie, nie postrzegany za wszechpotężnego Intel, a Nvidia. Ta sama Nvidia, która jest jednym z wiodących dostawców układów scalonych do przetwarzania modeli SI. Na dziś najważniejszym chipem Nvidii raczej nie jest GeForce RTX 4000 - a Nvidia H100, czyli akcelerator ML.
Nvidia nie jest tu oczywiście samotna. W najbliższym czasie na łamach Spider’s Web pojawi się relacja z premiery akceleratora AMD Instinct MI300X (a także mniej istotnych w kontekście tego tekstu chipów Epyc nowej generacji). Cztery takie akceleratory wystarczą do samodzielnego przetwarzania modelu GPT3.5. Jeden bez problemu poradzi sobie z zaprezentowanym właśnie przez Amazon Dużym Modelem Językowym Falcon-40B z 40 mld parametrów. AMD nie będzie musiało martwić się o rynek zbytu - już podczas premiery tych chipów na scenie pojawili się przedstawiciele Microsoftu, z logo Azure w tle.
Potencjalnie wywrotowe przetasowanie sił na rynku IT. Kto będzie nowym BlackBerry, Xeroxem i Commodore?
Zauważenie, że producenci układów scalonych mogą być w branży informatycznej całkiem istotni nie brzmi oczywiście zbyt odkrywczo. Podobnie jak wnikliwą nie wydaje się obserwacja, że ten cloud computing to chyba nawet jakaś przyszłość jest. Warto jednak zwrócić uwagę na zmianę skali. Do niedawna zwyczajowy lider rynku układów scalonych - Intel - musiał obawiać się głównie licencjobiorców technologii ARM. Dziś to Nvidia znajduje się w panteonie bogów IT, a Intel zaczyna się nerwowo oglądać za AMD.
Podobnie nietypowo wygląda sytuacja na rynku cloud computingu. Rosnące zagrożenie duopolu ze strony Microsoftu i Amazonu nie jest akurat niespodzianką, ale fakt, że z owym zagrożeniem walczyć będzie firma Zuckerberga przez inwestycje w społeczność open source (z niemałymi sukcesami!) był zapewne nie do wywróżenia przez nikogo. A to tylko przykłady, które można jeszcze długo mnożyć.
Jedno wydaje się jednak pewne. Rewolucja SI, niezależnie od obranego kierunku w jakim się potoczy, już dziś buduje zupełnie nowe potęgi, często do tej pory z rzeczoną SI nie mając nic wcześniej wspólnego. ChatGPT? Midjourney? Tak, jasne. Ale też przede wszystkim Microsoft Azure, Amazon Web Services, Nvidia H100 i AMD Instinct. Coraz więcej i więcej podmiotów znajduje sposób na budowanie kapitału przy okazji popularności ChatGPT, choć nie mają własnego Dużego Modelu Językowego. Kto temu nie podoła, prawdopodobnie niebawem zostanie zapomniany. Tak jak mało kto już pamięta o Xeroksie, BlackBerry czy Commodore. Informatycznych potęgach nie do ruszenia.