Różnice w filozofii, różnice w budowie. AMD i Nvidia mają zupełnie inne wizje rozwoju
Wielu czytelników pyta mnie, czym różnią się od siebie architektury stosowane w nowoczesnych podzespołach, zwłaszcza w kartach graficznych. Na to pytanie nie ma łatwej odpowiedzi, ale mimo to postaram się jej udzielić w zrozumiały dla każdego sposób.
Nvidia chce oszczędzać energię
Nvidia kilka miesięcy temu pokazała światu architekturę Maxwell, która zadebiutowała w kartach GeForce GTX 750. Zrobiło się o niej jednak głośno dopiero teraz, ponieważ zaledwie przed dwoma tygodniami firma zaprezentowała swoje flagowe GeForce’y GTX 970 oraz 980, które są pierwszymi kartami z segmentu premium zbudowanymi w oparciu o nową architekturę. Maxwell jest architekturą niezwykle ważną i niezbędną z prostego powodu - cechuje się niesamowicie dobrą efektywnością energetyczną.
Pomimo że Nvidia pozostała przy dotychczasowym, 28-nanometrowym procesie technologicznym, nowe GeForce’y przy nieco wyższej wydajności pobierają zdecydowanie mniej energii niż ich poprzednicy. Oczywiście duża część użytkowników może stwierdzić, że kupując kartę graficzną za 1500 czy 2500 zł nie oczekują oszczędności energii, a czystej wydajności. To prawda, im wyższa cena sprzętu, tym na znaczeniu zyskuje wydajność, a pobór energii schodzi na drugi plan. W końcu nie kupujemy komputera za kilka tysięcy złotych, żeby płacić jak najmniejsze rachunki za energię.
Jednak nie oznacza to, że architektura ta jest Nvidii niepotrzebna.
Jeśli chodzi o segment kart graficznych, może zdecydowanie przydać się w słabszych i mniejszych układach graficznych. Mniejszy pobór energii umożliwia umieszczanie mocniejszych kart graficznych w coraz mniejszych obudowach komputerów. Zdecydowanie najważniejsze jest to, że chipów takich będzie można używać w laptopach, a nawet w urządzeniach mobilnych. Oczywiście nie mówię tu o modelach klasy GTX 970 oraz 980, ale znajdą się tam zdecydowanie mocniejsze chipy niż dotychczas dostępne.
Zresztą biorąc pod uwagę pikującą sprzedaż laptopów można się domyśleć, że Maxwell nie był robiony z myślą o pecetach. Segementem, w którym architektura ta najbardziej się przyda są urządzenia mobilne. Już teraz, stosując chip oparty na starej architekturze Kepler, Nvidia jest firmą tworzącą zdecydowanie najszybsze mobilne układy graficzne. Inne, mniej wyspecjalizowane w tej materii firmy, korzystają z licencjonowanych lub tworzonych przez siebie układów, które niestety nie mają zbyt dużej wydajności.
Dlatego choć sam wychodzę z założenia, że największa zaleta architektury Nvidii, energooszczędność, nie ma większego przełożenia na atrakcyjność drogich komponentów do komputerów osobistych, to wierzę, że Nvidia zrobi z niej użytek w segmencie smartfonów i tabletów, w którym cały czas próbuje się odnaleźć. O wiele ważniejsze jest to, że jest to pierwsza architektura w pełni zgodna z DirectX 12, ale należy pamiętać, że pochwalić się tym mogą też karty oparte na architekturach Graphics Core Next, Kepler i Fermi. Krótko mówiąc, wszystkie modele obecnie dostępne na rynku.
A co na to AMD?
AMD już od trzech lat konsekwentnie rozwija architekturę Graphics Core Next, która zadebiutowała w 2011 roku. Tworząc tę architekturę AMD już od jakiegoś czasu zajmowało się ideą APU i wiedziało, że docelowo ich karty graficzne mają w wielu zadaniach wyręczać procesory. Tak się zresztą dzieje, co widać chociażby po technologii HSA zapewniającej zarówno procesorowi, chipowi graficznemu, jak i dowolnej innej części układu równy dostęp do pamięci. Wcześniej stosowana przez AMD architektura, VLIW4, doskonale radziła sobie z obliczeniami grafiki, ale spisywała się gorzej niż Graphics Core Next jeśli chodziło o akcelerację obliczeń, którymi zajmował się procesor. Co nie znaczy, że na tym polu wypadało tragicznie. AMD po prostu uznało, że wymaga w takich zastosowaniach większej wydajności.
Dotychczasowa architektura nie miała racji bytu w wizji AMD, dlatego zdecydowano się na zmianę na Graphics Core Next. I faktycznie, GCN w zadaniach typowo “procesorowych” sprawdza się wyjątkowo dobrze, co można odczuć korzystając z programów korzystających z Direct Compute oraz OpenCL. O potencjale architektury Graphics Core Next w tych zastosowaniach świadczy też fakt, że cechuje się ona naprawdę dobrą wydajnością w obliczeniach podwójnej precyzji. To wszystko pozwala nam twierdzić, że w kolejnych APU AMD nacisk na GPU będzie rosnąć coraz bardziej. Po co stosować wolniejszy procesor, skoro w wielu ważnych współcześnie zadaniach i aplikacjach może być on zastąpiony przez układ graficzny?
W 2011 roku, przy debiucie pierwszych produktów z architekturą Graphics Core Next, AMD chwaliło się, że stanie się ona branżowym standardem.
Wówczas traktowałem to jak czcze przechwałki, ale… tak faktycznie się stało. Architektura Graphics Core Next jest stosowana w komputerach dla graczy, pecetach konsumenckich, układach wbudowanych, konsolach do gier, serwerach, stacjach roboczych, w tym w Maku Pro. Jakby tego było mało, w branży huczy na temat tego, że Apple ma się bliżej związać z AMD i w nadchodzących iMakach z ekranem Retina powinny pojawić się karty graficzne Radeon, które też są zbudowane w oparciu o architekturę Graphics Core Next. Tak naprawdę coraz trudniej znaleźć segment rynku IT, w którym potrzebna jest moc GPU i nie stosowano by tam najnowszego dzieła AMD.
Wyjątkowo ważne jest również to, że Graphics Core Next to architektura długowieczna i jedna z najważniejszych inwestycji AMD. Osoby, które korzystają z produktów zbudowanych w oparciu o nią mogą spodziewać się znacznie dłuższego i bardziej solidnego wsparcia. Długie wsparcie dla Graphics Core Next jest pewne chociażby ze względu na stosowanie tej architektury w konsolach. Także na rynku pecetów widać zalety płynące z wykorzystania Graphics Core Next. Gdy AMD stworzyło własne API, Mantle, nie ograniczyło obsługujących je urządzeń do nowych kart graficznych. Mimo że pierwsza wersja Mantle ujrzała światło dzienne zaledwie kilka miesięcy temu, korzystać z niej mogą nawet osoby posiadające karty graficzne Radeon HD 7000 wydane na przełomie 2011 oraz 2012 roku.
Jakby tego było mało, AMD z myślą o Graphics Core Next wprowadza wiele funkcji, które mogą stać się branżowymi standardami.
Wspomniane już Mantle, dźwięk przestrzenny TrueAudio, rendering włosów TressFX, technologia odświeżania obrazu FreeSync - to wszystko są technologie tworzone z myślą o tej architekturze. Co więcej, AMD stara się, by działały one na wszystkich kartach graficznych dostępnych na rynku, zwłaszcza tych opartych na architekturze Graphics Core Next. Firma inwestuje w otwarte technologie, które są przeznaczone dla każdego.
Strategia ta przynosi rezultaty, bo Adaptive-Sync (technologia, z której korzysta FreeSync) stał się częścią standardu DisplayPort, zaś wykorzystaniem Mantle bardzo interesuje się Intel. AMD wita takie sygnały z radością, gdyż firmie tej zależy na popularyzacji stworzonych przez siebie technologii. AMD stara się to robić na różne sposoby. Stąd chociażby trwająca od dwóch lat promocja Nie Spoczywaj na Laurach, w której AMD do zakupionych kart graficznych dodaje bardzo dobre gry, zazwyczaj klasy AAA.
Nvidia też ma swoje rozwiązania takie jak G-Sync czy PhysX, ale są one zamknięte i niedostępne dla innych firm niż Nvidia. Oczywiście trzeba przyznać, że AMD nie udostępnia wszystkich swoich technologii do wszystkich możliwych kart, ale przyczyną tego są zazwyczaj blokady sprzętowe. Przykładem tego może być chociażby TrueAudio, które dział tylko na nielicznych kartach AMD. Ale jest tak tylko dlatego, że nieobsługowane modele nie mają wbudowanego procesora dźwieku. Jest to po prostu najlepszy przykład na to, że architektura stosowana przez AMD jest uniwersalna i może być dalej rozwijana o nowe komponenty.
Nie tylko gry
Wystarczy jednak o grach, warto wspomnieć coś o wsparciu na rynku profesjonalnym. Będzie ono zapewnione, gdyż podzespoły AMD muszą być zgodne z certyfikatami Apple. Dodatkowo architektura AMD doskonale sprawdza się w OpenCL, który jest standardem otwartym. Dlatego można podejrzewać, że przyszłe podzespoły produkowane przez AMD i bazujące na rozwinięciach architektury Graphics Core Next będą pod tym względem co najmniej tak samo dobre jak dotychczas oferowane karty. Coraz większe przywiązanie Apple do kart AMD nie bierze się znikąd. Firma z Cupertino zauważa, że Radeony lepiej sprawdzają się w zastosowaniach profesjonalnych i chce stosować właśnie je.
Która architektura jest lepsza?
Zapewne wiele osób czeka na odpowiedź na to pytanie. Niestety rozczaruję Was, bo ona po prostu nie istnieje. Maxwell Nvidii cechuje się świetną efektywnością energetyczną, dzięki czemu doskonale sprawdzi się w sprzęcie mobilnym. Z kolei AMD Graphics Core Next to bardziej dojrzały projekt stosowany w bardzo dużej liczbie segmentów rynku nowych technologii. Zresztą bezpośrednie porównanie dwóch architektur jest bezcelowe. W końcu to nie one ze sobą konkurują, a produkty zbudowane w oparciu o nie. Co nie zmienia faktu, że mimo to warto je poznać. Chociażby po to, by wiedzieć, czym kierowały się tworzące je firmy i które części rynku są dla nich priorytetowe.