REKLAMA

Zdobyłem szklaną kulę i zajrzałem w przyszłość technologii. No i pomogła mi szycha z AMD

Czy komputery i centra danych doprowadzą do załamania klimatu? Czy architektura x86 ma przyszłość, skoro ARM sprawdza się na tak wielu polach? I czy prywatne serwery w firmach i domach mają jakiś sens, skoro istnieje chmura publiczna? Nie wiem. Ale za to spytałem kogoś, kto wie.

01.07.2022 03.55
przyszłość procesorów AMD Epyc
REKLAMA

Żyjemy w bardzo dziwnych i ciekawych czasach, jeśli chodzi o elektronikę użytkową. Niemal co chwila dokonywany jest jakiś ważny przełom technologiczny. Są to przełomy, o których jeszcze dekadę temu grzmiałyby nagłówki gazet. Dziś niesamowite tempo rozwoju elektroniki tak spowszedniało, że trudno już zaimponować typowemu odbiorcy.

REKLAMA

Zmienia się też sposób, w jaki obsługiwani są użytkownicy urządzeń elektronicznych. Swego czasu najważniejsza była lokalna moc obliczeniowa danego komputera, bo wszystkie gry i programy były na nim przetwarzane lokalnie. Dziś znaczna część oprogramowania i danych jest przetwarzana w chmurze, a urządzenie użytkownika i zainstalowana na nim aplikacja pełnią rolę cienkiego klienta.

Z drugiej jednak strony niesamowite tempo rozwoju elektroniki sprawiły, że jak tylko na świecie wybuchła seria kryzysów - w tym globalna pandemia czy wojna w Ukrainie - podaż nie była w stanie zaspokoić popytu. Na domiar złego uczeni z całego świata głośno krzyczą, że musimy natychmiast wstrzymać emisję gazów cieplarnianych, bo inaczej czeka nas katastrofa. A przecież chipy zużywają mnóstwo energii i emitują sporo ciepła - przecież z nich nie zrezygnujemy. Jak to wszystko pogodzić?

Porozmawiałem na te i inne tematy z Rogerem Bensonem, starszym dyrektorem ds. sprzedaży rozwiązań komercyjnych w regionie EMEA w AMD. Nie bez powodu zainteresował mnie człowiek, któremu bliżej do chipów AMD Epyc (używane w centrach danych i stacjach roboczych) niż Ryzen (układy konsumenckie). Bo to właśnie na rynku enterprise kształtowana jest przyszłość informatyki, to właśnie tam debiutują przełomowe rozwiązania informatyczne - które z czasem docierają do klientów indywidualnych. A biorąc pod uwagę zwiększającą się konsumpcję chmury kosztem przetwarzania lokalnego, to i tak może się okazać, że w praktyce typowy konsument korzysta częściej z układów Epyc i im podobnych - niż z Ryzenów i ich konkurencji. Nawet o tym nie wiedząc.

Z dużej chmury brak deszczu. Ale za to efekt cieplarniany.

 class="wp-image-371948"
Ogromna moc obliczeniowa, ogromna ilość zużywanej energii i emitowanego ciepła. Ot, typowe centrum danych.

Już dziś wedle wstępnych szacunków centra danych na całym świecie emitują do atmosfery więcej gazów cieplarnianych, niż stygmatyzowane za to samoloty. Konsumpcja chmury rośnie nieustannie, co znacząco przyspieszył COVID-19. Nawet po pandemii wiele osób nadal pracuje zdalnie, łącząc się z chmurami publicznymi firmowymi i szkolnymi.

Centra danych na dziś stanowią około trzech procent zużycia elektryczności na całej planecie i odpowiadają za 2 proc. uwalnianych do atmosfery gazów cieplarnianych. Nie było jeszcze badań wykonanych po wybuchu covidowej pandemii, ale niektórzy mówią, że owe centra danych mogą dziś już stanowić nawet 5-7 proc. łącznej emisji.

Z drugiej jednak strony trudno oczekiwać, że korporacje z dnia na dzień zaczną wyłączać swoje chmury i usługi cyfrowe. To zapewne wyszłoby długofalowo wszystkim na dobre, póki co dla większości stanowi jednak koncepcję abstrakcyjną. Przecież żaden CEO nie rozwiąże firmy i nie zrezygnuje z zarabiania kolejnych milionów, że o wielkim uwstecznieniu cywilizacyjnym nawet nie ma co wspominać. Na szczęście korporacje zaczynają inwestować w energooszczędną elektronikę. Bo kogo nie przekonuje los planety, przekonują... niższe rachunki za zużycie energii.

 class="wp-image-2240307"
Roger Benson, starszy dyrektor ds. sprzedaży rozwiązań komercyjnych w regionie EMEA w AMD

- Dostrzegamy, że klienci w swoich agendach IT coraz większą wagę przykładają do efektywności energetycznej, w czym AMD może im pomóc, skoro procesory AMD Epyc napędzają najbardziej efektywne serwery x86, które zapewniają wyjątkową wydajność ograniczając jednocześnie koszty energii. Obsługujemy platformy serwerów jednoprocesorowych, a AMD dostarcza produkty, które pomagają klientom poprawiać efektywność energetyczną ich rozwiązań w obszarze centrów danych. Wyznaczyliśmy sobie cel, aby 30-krotnie zwiększyć efektywność energetyczną procesorów i akceleratorów AMD w dziedzinie trenowania sztucznej inteligencji i systemów HPC między 2020 a 2025 rokiem. - jak chwali się Benson.

ARM remedium na problemy wszelakie? Skoro sprawdza się w laptopach Apple’a i w telefonach, to może czas na zmiany?

Do niedawna na rynku popularne i istotne były dwie wiodące architektury procesorów. ARM stosowano przede wszystkim w urządzeniach ultramobilnych, gdzie sprawność energetyczna jest kluczowa. Z kolei x86 to architektura do rozwiązań wysokowydajnych. Niedawno jednak zaczęto eksperymentować. Oczywiście najgłośniejszym przykładem jest firma Apple, która zaczęła stosować ARM w praktycznie wszystkim, również wydajnych stacjach roboczych. Mniej głośnym, ale ważniejszym przykładem, jest superkomputer Fujitsu Fugaku, którego potęgę stanowią właśnie układy ARM.

 class="wp-image-1194127"
Fugaku. Tu nie ma układów Epyc czy Ryzen, są za to układy o architekturze ARM

Tyle że to niezupełnie tak, że ARM jest zawsze lepszy i zawsze sprawniejszy. Świetnym przykładem na to są komputery ARM z Windowsem. Na dziś sprzedawane są tylko z procesorami Qualcomma, a ten - mimo że jest jednym z liderów rynku - nadal nie jest w stanie zapewnić czegokolwiek choć w połowie tak sprawnego energetycznie czy wydajnego do PC, co układy x86 od AMD i Intela. Tym niemniej może jednak ARM faktycznie jest przyszłością? Zdaniem AMD: tak... i nie.

- Procesory ARM do centrów danych są zaprojektowane do stosowania w bardzo szczególnych zadaniach, podczas gdy x86 jest dominującą architekturą w tej branży. Choć architektura ARM rozwinęła się wraz z kolejnymi premierami, to strategia AMD wobec procesorów AMD Epyc i rynku centrów danych jest jasna. (...) Cieszy nas rozwijająca się dywersyfikacja w branży, ponieważ technologia na bazie CPU, GPU, FPGA, ARM czy ASIC pomaga w tworzeniu heterogenicznego środowiska, którego zadania są zoptymalizowane dla klientów. - twierdzi Benson. To kojąca myśl, bowiem wspomniana przez niego dywersyfikacja sprzyja innowacji. Nie tylko u AMD, ale ogólnie na rynku.

Po co pisać firmware i systemy operacyjne, skoro istnieje wirtualizacja? Czy można zaprojektować procesor specjalnie pod wirtualizację i nie przejmować się optymalizacjami pod całą resztę?

Wirtualizacja to, w niewielkim uproszczeniu, dzielenie zasobów komputera na wiele środowisk. Na jednym sprzęcie (na przykład serwerze firmowym) może więc działać kilka, kilkanaście, kilkaset (w zależności od zasobów) instancji Windowsa czy Linuxa. Te środowiska mogą być następnie strumieniowane do pracowników w biurze i osób pracujących zdalnie.

To niezwykle wydajne i wygodne dla dużej firmy i jej działu IT. Użytkownik może robić na swoim lub służbowym komputerze w miarę dowolne rzeczy, a admin nie musi się obawiać, że ten coś zepsuje. Środowisko pracy, wraz z Pulpitem, służbowymi apkami czy dostępem do firmowych danych, pracownik uruchamia w oknie pulpitu zdalnego, w którym widzi zwirtualizowany komputer firmowy, będący w pełni zabezpieczony i pod stałym nadzorem działu IT. Wirtualizacja też coraz częściej jest stosowana na rynku konsumenckim. Na przykład popularne konsole Xbox mają uruchomione równolegle dwa zwirtualizowane systemy: jeden do interfejsu i aplikacji, drugi do gier. To może w ogóle warto zacząć optymalizować procesory przede wszystkim pod kątem wirtualizacji i konteneryzacji, skoro i tak to najpewniej jest przyszłość computingu?

- Powiedziałbym, że w momencie, gdy przygotowujemy strategię produktową, to rozumiemy, że są różne istotne metodologie wdrożeń. Jest klasyczne podejście z jednym systemem operacyjnym i być może nawet jedną aplikacją, co jest bardzo nieefektywne. Jest też wirtualizacja, gdzie możesz uruchomiać aplikacje ponad wieloma systemami operacyjnymi i w mieszanych środowiskach maszyn wirtualnych. Chcemy się upewnić, że każdy hiperwizor jest zoptymalizowany dla naszych klientów - twierdzi Benson.

windows 10 licencja class="wp-image-884227"
Wirtualizacja, czyli kilka komputerów w komputerze

- Musimy jednak także patrzeć realistycznie i rozumieć, że każdy niezależny dostawca oprogramowania może mieć swoje plany w zakresie tego, ile inwestycji wymaga optymalizacja specjalnie dla infrastruktury AMD. Dobrym przykładem jest Vmware, które odblokowało wydajność, co potwierdza, jak mocna jest nasza architektura, skoro tak wiele zadań domyślnie działa bardzo szybko na platformach serwerowych AMD. Jeśli klient zaczyna większe inwestycje w optymalizację nie tylko mikroarchitektury, to można uzyskać jeszcze wyższą wydajność. - jak dodaje.

Dyrektor uzmysłowił mi też, że myślenie w ten sposób o wirtualizacji jest błędne. Bo tak jak faktycznie znaczenie tej technologii będzie wyłącznie rosnąć, tak nie tylko jej. Informatyka w kontekście układów scalonych będzie miała zacznie więcej do zaoferowania niż tylko coraz lepsze procesy technologiczne. Jako przykład wskazał sztuczną inteligencję i uczenie maszynowe.

- Superkomputer Frontier, który bazuje na akceleratorach MI250X i 3. generacji procesorów AMD Epyc, przesunie granicę dla odkryć naukowych poprzez znaczne zwiększenie możliwości w zakresie SI, analityki i symulacji. Dzięki temu naukowcy będą mogli zwiększać liczbę obliczeń, identyfikować nowe wzorce wśród danych i opracowywać innowacyjne metody analityki danych, które przyspieszą rozwój nauki. - twierdzi. Można się przy tym domyślać, że z czasem te moduły mogą zacząć trafiać do SoC Epyców. Kto wie, może nawet Ryzenów, bowiem algorytmy SI mają coraz większe i większe znaczenie na rynku konsumenckim.

Jak projektować procesor nie projektując systemu operacyjnego? I czy wreszcie ten kryzys podaży się skończy?

Układy konsumenckie, jak AMD Ryzen czy Intel Core, są często projektowane w odpowiedzi na zapotrzebowanie klientów i partnerów. Wszak nie jest tajemnicą, że nowe Ryzeny, Core’y i Snapdragony powstają między innymi przy współpracy z inżynierami odpowiedzialnymi za Windowsa. Jednak skoro znaczenie systemu operacyjnego, tego lokalnego, maleje, to może i czas na zmianę zwyczajów i współpracę bezpośrednio z tymi, co tych procesorów faktycznie będą używać?

- Zapotrzebowanie na wydajne rozwiązania komputerowe szybko się nie skończy. Nasi klienci zawsze szukają sposobów, aby uzyskać lepszą wydajność i większe możliwości dla swoich zastosowań. Nasze procesory Epyc napędzają jedne z najważniejszych aplikacji i usług naszych klientów, więc im więcej będą w stanie uzyskać z takiego procesora, tym większy wpływ to będzie miało na ich biznes. To dlatego współpracujemy z dużym ekosystemem partnerów, aby upewnić się, że oferujemy klientom najlepsze z możliwych wydajność i możliwości dla ich środowisk. – wyjaśnia Benson.

Co prawda jako dyrektor sprzedaży próbuje mnie i czytelników Spider’s Web przekonać przede wszystkim do jego produktów, natomiast z tej odpowiedzi płynie też inna mądrość. A konkretniej, ta potwierdzająca powyższe podejrzenia. Współpraca z klientami - oczywiście na dziś przede wszystkim firmowymi - staje się coraz ważniejsza w projektowaniu chipów przyszłości.

 class="wp-image-2184960"
Komputery typu Chromebook. Z natury polegają całkowicie na aplikacjach hostowanych w centrach danych.

Trudno jednak słuchać o przyszłości, skoro mimo upływu kolejnych miesięcy nadal są problemy z pozyskiwaniem podzespołów. Ich dostępność jest relatywnie niewielka, a ceny w związku z tym rosną. AMD nie ma własnych linii produkcyjnych. Podobnie jak Qualcomm i w przeciwieństwie do Intela polega na azjatyckich partnerach w kwestii produkcji, by samemu skupić się na projektowaniu i rozwoju. Niestety dyrektor Benson nie był w stanie ocenić, kiedy rynek wróci do normalności. Zapewnił tylko, że AMD nad tym pracuje.

Chmura prywatna do lamusa? Największy rynek dla procesorów to chmury publiczne i centra danych?

Biorąc pod uwagę rosnącą atrakcyjność dla użytkowników indywidualnych i firm usług takich, jak Azure, AWS, Google Cloud (i wiele innych) chmura prywatna zdaje się mieć coraz mniej sensu. Staje się coraz droższa w nabyciu i utrzymaniu, coraz trudniej odpowiedzialnie i zgodnie z literą prawa administrować przetwarzanymi na niej danymi - a przecież giganci IT kuszą, w efekcie klienci reagują. Coraz więcej firm nie buduje własnych chmur, uznając te publiczne za efektywniejsze i bardziej opłacalne. Czyżby chmura prywatna odchodziła do lamusa?

Publicznie dostępnych danych na ten temat nie ma. Trudno jednak o lepiej doinformowaną osobę w temacie niż dyrektor działu odpowiedzialnego za sprzedaż chipów do obu rodzajów chmur. Dyrektor Benson prawdopodobnie nie mógł się podzielić ze mną szczegółowymi danymi. Ale i tu zapewnił pewną podpowiedź.

- Myślę, że prywatne chmury pozostaną istotne, choć jednocześnie trend w wykorzystaniu publicznej chmury przyspiesza, co nie oznacza, że to będzie ogólnie najlepsze rozwiązanie. Klienci muszą rozważyć ofertę chmur publicznych z perspektywy ochrony, ceny i wydajności. Są też tutaj dodatkowe koszty wynikające z przenosin, o których trzeba pamiętać. Myślę, że w przyszłości będziemy dalej widzieć wszystkie rodzaje metodologii wdrożeń. IT każdego klienta i jego środowisko komputerowe jest unikalne i zależne od zadań, konsumentów, branży i innych czynników. Wszystkie te środowiska wymagają wysokiej wydajności oraz zaawansowanych funkcji ochronnych. - jak przewiduje.

AMD kontra reszta świata. Zapytałem dyrektora Bensona z AMD co myśli o Intelu, Qualcommie i reszcie ważnej konkurencji.

A konkretniej zadałem dwa pytania. Po pierwsze, co konkurencja robi lepiej, gdzie AMD musi nieco nadrobić. Nie spodziewałem się szczerej i wyczerpującej odpowiedzi, wszak mój rozmówca musiał dbać o wizerunek swojej firmy. Na szczęście miło się zaskoczyłem.

- Zawsze będziemy działać w obliczu konkurencji i - mówiąc szczerze - branża potrzebuje konkurencji. To stymuluje dopracowanie i innowację, na których korzystają klienci. Mimo to, AMD woli patrzeć na rynek przez pryzmat możliwości, aniżeli wyzwań. Mogłeś widzieć, że nasza strategia w ostatnich kilku latach to konsekwentna realizacja planów i dostarczanie znakomitych produktów. W międzyczasie wzmocniliśmy tę strategię wraz z kilkoma przejęciami, spośród których najistotniejszym jest Xilinx. Poszerzamy portfolio różnych rozwiązań krzemowych i możemy teraz zaoferować komplementarne rozwiązania CPU, GPU czy FPGA. Naszą największą szansą jest stworzenie całościowych rozwiązań przy wykorzystaniu wszystkich tych produktów razem wziętych, aby stały się też sukcesem naszych klientów – twierdzi dyrektor.

 class="wp-image-2240334"
Układy FPGA z uwagi na swoją elastyczność i relatywnie niski koszt będą stawać się coraz ważniejsze.

Czyli komplementarność rozwiązań, dywersyfikacja, z dużym naciskiem na FPGA, czyli bezpośrednio programowalne macierze bramek. W porządku, a co robi dobrze?

- Poza stale rosnącym zapotrzebowaniem na większą wydajność widzimy, że rynek potrzebuje rozwiązań, które zapewniają przewagę w ochronie i efektywności energetycznej. W serwerach procesory AMD Epyc zapewniają niewiarygodną wydajność zarówno w jedno- jak i dwuprocesorowych systemach. Wśród funkcji ochronnych to AMD Secure Encrypted Memory pomaga chronić dane nawet, gdy pamięć została fizycznie usunięta z serwera, a AMD Secure Encrypted Virtualization chroni poufność danych lokalnie i w chmurze. W odniesieniu do efektywności, to procesory AMD Epyc napędzają najbardziej energooszczędne serwery x86 zapewniając wyjątkową wydajność i ograniczając koszty energii. – chwali się Benson.

Przechwałki to jedno, na szczęście wygląda na to, że rynek procesorów zmierza w odpowiednim kierunku.

W teorii, biorąc pod uwagę dane rynkowe, niezupełnie dobrze dobrałem rozmówcę. Według Mercury Research, w pierwszym kwartale bieżącego roku AMD miał 11,6 proc. serwerowego rynku, zaś Intel 88,4 proc. To by sugerowało, że to Intel dyktuje warunki na tym rynku, zaś AMD raczej o bytność na tym rynku walczy. Problem w tym, że to zły wniosek i bardzo powierzchowna analiza danych.

REKLAMA

Z kwartału na kwartał udziały Intela na rynku serwerowym maleją, właśnie na rzecz AMD. Firma odnotowuje wewnętrzne rekordy sprzedażowe, a już dziś układy Epyc trafiają do kolejnych instancji największych chmur, w tym do Azure’a czy Amazon Web Services. Dynamika i trendy są po stronie mniejszej firmy i to ona zaczyna być postrzegana jako jedna z głównych sił w kwestii innowacji.

Subiektywnie i prywatnym okiem, z całej tej rozmowy najbardziej ucieszył mnie jej początek. Konsumpcja usług online prędko nie zmaleje, a to rodzi problem natury ekologicznej, który jest mi bliski. Na szczęście szycha z AMD odpowiedzialna za sprzedaż procesorów napędzających niezliczoną ilość usług online wie, jak dotrzeć do klienta i przekonać go do idei sustainability. Wystarczy pokazać rachunki za prąd. A AMD (oraz jego konkurencja) na szczęście zdają się traktować sprawność energetyczną jako jeden z największych priorytetów.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA