Koniec dominacji Nvidii? OpenAI z rewolucyjnym pomysłem
Już w 2026 roku ma ruszyć masowa produkcja pierwszych układów scalonych zaprojektowanych przez OpenAI. Nie będziesz mógł ich kupić - choć mają być w teorii dużo szybsze i sprawniejsze niż najlepsze układy Nvidii.
![Koniec dominacji Nvidii? OpenAI z rewolucyjnym pomysłem](/_next/image?url=https%3A%2F%2Focs-pl.oktawave.com%2Fv1%2FAUTH_2887234e-384a-4873-8bc5-405211db13a2%2Fspidersweb%2F2024%2F05%2Fopenai-sutskever-pachocki.jpg&w=1200&q=75)
OpenAI, jedna z czołowych firm w dziedzinie sztucznej inteligencji, intensywnie pracuje nad swoim pierwszym autorskim układem scalonym przeznaczonym do trenowania modeli AI. Według najnowszych doniesień pozyskanych przez redakcję Reuters projekt chipu znajduje się w zaawansowanym etapie przygotowań, tuż przed rozpoczęciem produkcji półprzewodnikowej. To znaczący krok dla firmy, który może znacząco zmniejszyć koszt sposobu, w jaki trenowane są duże modele językowe i sieci neuronowe.
Nowy układ ma być produkowany przez Taiwan Semiconductor Manufacturing Company (TSMC) przy użyciu technologii węzła 3 nm. Technologia ta pozwala na upakowanie większej liczby tranzystorów na mniejszej powierzchni, co przekłada się na wyższą wydajność i niższe zużycie energii. Jest to kluczowe w kontekście rosnących potrzeb obliczeniowych modeli AI, które stają się coraz bardziej złożone i wymagające.
Czytaj też:
Chip OpenAI prawdopodobnie będzie oparty na architekturze macierzy systolicznej oraz zostanie wyposażony w pamięć o wysokiej przepustowości, podobnie jak najnowsze akceleratory AI firmy Nvidia. Architektura macierzy systolicznej jest znana z efektywności w przetwarzaniu równoległym i doskonale sprawdza się w obsłudze intensywnych obliczeń niezbędnych do trenowania dużych modeli sztucznej inteligencji. Dzięki temu nowy układ może znacząco skrócić czas potrzebny na trenowanie modeli oraz zwiększyć ich efektywność energetyczną.
OpenAI rzuci wyzwanie jednej z największych firm świata już w przyszłym roku. Co na to Nvidia?
Według założonego harmonogramu układ ma wejść do masowej produkcji w 2026 r. OpenAI aktywnie rozbudowuje swój zespół sprzętowy, zatrudniając między innymi Richarda Ho, byłego lidera inżynierii chipów w Lightmatter oraz szefa zespołu odpowiedzialnego za Google TPU. Jego doświadczenie w projektowaniu zaawansowanych układów AI może okazać się bezcenne dla sukcesu tego przedsięwzięcia. Obecnie zespół OpenAI ds. własnych układów scalonych liczy około 40 specjalistów i współpracuje z firmą Broadcom, która odegrała również istotną rolę w rozwoju układów Google TPU.
Jednym z głównych powodów, dla których OpenAI decyduje się na własne układy scalone, jest chęć redukcji zależności od procesorów graficznych firmy Nvidia. Własny sprzęt pozwoli firmie na większą kontrolę nad procesem tworzenia i trenowania modeli AI, a także może przyczynić się do obniżenia kosztów operacyjnych. Ponadto w obliczu globalnego niedoboru chipów i rosnącej konkurencji na rynku AI posiadanie własnych układów scalonych staje się strategiczną przewagą.
Decyzja o inwestycji w autorskie układy scalone odzwierciedla szerszy trend w branży technologicznej, gdzie firmy dążą do optymalizacji sprzętu pod kątem specyficznych zastosowań. W obliczu prognoz, że rynek sprzętu AI osiągnie wartość ponad 100 mld dol. w ciągu najbliższych kilku lat, OpenAI stawia na innowacje i niezależność. Nie jest to zresztą pierwszy taki przypadek. Autorskie układy scalone w swoich centrach danych stosują chociażby Amazon czy Microsoft. Pozostaje się przekonać czy czip od OpenAI faktycznie spełni pokładane nadzieje. I czy Nvidia tak na serio ma się czego obawiać.
*Zdjęcie otwierające: Prathmesh T / Shutterstock