Sprzęt  / Artykuł

Czarny tydzień Nvidii

Ostatnie dni zdecydowanie nie idą po myśli Nvidii. Okazało się, że niektóre karty graficzne tej firmy mają inną specyfikację niż wcześniej podawano. Jakby tego było mało, bardzo możliwe jest, że moduły G-Sync stosowane w monitorach nie spełniają jakiejkolwiek istotnej funkcji, poza… dawaniem zarobku firmie z Santa Clara.

Kilka tygodni temu część użytkowników GeForce'ów GTX 970 zauważyła, że ich podzespoły nie wykorzystują całych 4 GB pamięci zainstalowanych na karcie. Zamiast tego w niektórych grach, do których należą Shadow of Mordor oraz Far Cry 4, możliwe było używanie zaledwie 3,5 GB pamięci RAM. Jakby tego było mało, w wielu innych tytułach po przekroczeniu 3,2-3,5 GB używanej pamięci pojawiały się mikroprzycięcia, które potrafiły zniweczyć całą przyjemność z rozgrywki.

Część użytkowników starała się poznać przyczyny tego problemu za pomocą programu diagnostycznego MSI Kombustor. Po użyciu wbudowanego w niego testu Memory Burner okazało się, że w jego trakcie pojawiają się błędy, a po przekroczeniu 3 GB używanej pamięci test jest przerywany. Początkowo można było myśleć, że jest to problem tylko małej części dostarczonych na rynek kart.

Prawda okazała się jednak zupełnie inna.

Nvidia starała się tłumaczyć, że jest to wina innej konfiguracji multiprocesorów strumieniowych, czyli jednostek obliczeniowych, niż w przypadku GeForce’a GTX 980. Z tego powodu konieczne było podzielenie całej pamięci na dwa segmenty o wielkościach 3,5 GB oraz 0,5 GB, przy czym ten pierwszy cieszy się większym priorytetem działania oraz wydajnością.

GTX 970

Oznaczało to, że programy, które będą chciały korzystać z mniej niż 3,5 GB pamięci, będą widzieć tylko pierwszy segment, zaś jeśli potrzebują więcej pamięci, będą korzystać z całości zasobów, znajdujących się w obu częściach. Tak skomplikowana budowa miała sprawiać problemy dla programów diagnostycznych. Mniejszy priorytet dostępu dla drugiego segmentu pamięci mógł wpływać na wydajność karty, ale tylko minimalnie. Krótko mówiąc, Nvidia była przekonana, że problem ten był czysto teoretyczny.

Jako że sytuacja faktyczna była zupełnie inna, nikt nie uwierzył w zapewnienia Nvidii.

I wtedy pojawiła się niespodzianka. Wiceszef działu inżynierii GPU Nvidii, Jonah Alben, postanowił dokładniej wyjaśnić całą sprawę zainteresowanym stronom. Okazało się wówczas, że GeForce GTX 970 ma mniej jednostek ROP oraz pamięci L2 niż wynika to z informacji początkowo podawanych przez Nvidię. Jeszcze kilka miesięcy temu wszyscy byli przekonani, że karta ta ma 64 jednostki renderingu i 2 MB pamięci podręcznej drugiego poziomu, dokładnie tak jak GeForce GTX 980. Faktycznie jednak ma on zaledwie 56 takich jednostek i 1,75 MB pamięci podręcznej drugiego poziomu. Różnica ta jest całkiem istotna.

GTX 970

Wystarczy spojrzeć na znajdujący się wyżej schemat, by zobaczyć, że ostatni port pamięci podręcznej musi być współdzielony między dwa kontrolery pamięci, z których każdy zajmuje się jedną partycją. By zachować odpowiednią wydajność, Nvidia musiała obniżyć ostatniemu kontrolerowi pamięci priorytet (stanowi on tylko 14% wydajności całej pamięci), by ograniczyć spadki wydajności. Dzięki temu ostatni port pamięci nie otrzymuje dwa razy większej liczby zapytań, a wydajność karty nie jest ograniczana w zdecydowanej większości przypadków.

Gdyby tego nie zrobiono, spadki byłyby widoczne cały czas.

Wówczas Nvidia już kilka miesięcy temu musiałaby się przyznać, że jej karta ma mniej pamięci podręcznej niż na początku twierdzono. Co prawda Jonah Alben tłumaczy całą sytuację klasycznym nieporozumieniem między inżynierami i działem kontaktu z mediami, ale trudno mi uwierzyć, że przez 4 miesiące od premiery kart nikt nie zauważył tego błędu i nie sprostowano go tylko przez nieuwagę.

NVIDIA-GeForce-GTX-980_13

Co więcej, Nvidia zachowała się głupio, nie przyznając się do błędu w specyfikacji, bo według testów przeprowadzonych za pomocą maszyn FCAT (między innymi przez  polski serwis PCLab) okazuje się, że różnica ta ma naprawdę małe znaczenie i większość osób jej nie zauważy. Tym samym Nvidia dałaby wyraźny sygnał, że gracze będą zadowoleni z tej karty, przynajmniej tak długo jak nie będą potrzebować pełnych 4 GB pamięci działającej z maksymalną szybkością.

Nie jest to jednak jedyny problem Nvidii.

Pamiętacie jeszcze technologie G-Sync, która zapewnia synchronizację odświeżania monitora z liczbą klatek generowanych przez kartę graficzną? Rozwiązanie to sprawia, że grafika jest wyjątkowo płynna i nie ma opóźnienia, jak w przypadku standardowej synchronizacji pionowej. Niestety do korzystania z G-Sync był potrzebny specjalny, produkowany przez siebie moduł, podczas gdy konkurencyjne AMD FreeSync potrzebowało wyłącznie odpowiedniego skalera zastosowanego w monitorze. Okazuje się jednak, że karta graficzna musi tylko myśleć, że współpracuje z odpowiednim monitorem, a nie tak naprawdę to robić. Udowodnił to serwis gamenab, który ustalił, że G-Sync równie dobrze działa na monitorach wspierających technologię Adaptive-Sync (czyli de facto AMD FreeSync) zawartą w standardzie DisplayPort 1.2a.

G-Sync

By się o tym przekonać, trzeba delikatnie zmodyfikować sterowniki karty graficznej tak, by były przekonane, że w monitorze znajduje się odpowiedni moduł. Jeśli posiadacie kartę graficzną GeForce GTX 6XX lub nowszą oraz monitor wspierający standard DisplayPort 1.2, możecie pobrać zmodyfikowane sterowniki stąd i samodzielnie sprawdzić ich działanie. Rozwiązanie to jednak jest dopiero opracowywane i może w ogóle nie działać lub funkcjonować niestabilnie. Dlatego większości osób mimo wszystko zalecam zaczekanie na bardziej dopracowaną wersję sterowników.

Choć ciężko mi uwierzyć w takie działania Nvidii, muszę przyznać, że w ogóle mnie one nie dziwią.

Osoby śledzące rynek sprzętu pamiętają przecież, że Nvidia już wcześniej umożliwiała działanie dwóch kart graficznych w trybie SLI tylko na certyfikowanych płytach głównych. Do obejścia tego zabezpieczenia wystarczył nieoficjalny sterownik. Inną wpadką amerykańskiej firmy było uniemożliwienie posiadaczom Radeonów użycie kart graficznych Nvidii jako akceleratorów fizyki, co… ponownie umożliwił zmodyfikowany sterownik. Teraz do grona sztucznie blokowanych technologii najprawdopodobniej dołączy G-Sync. Z tego powodu jeszcze raz warto się zastanowić, jak naprawdę wygląda sprawa z bibliotekami GameWorks, przez które gry znacznie gorzej działały na kartach graficznych AMD.

Gdy dodamy do tego fakt, że Nvidia sfałszowała specyfikację swojego produktu i okłamała swoich użytkowników, można łatwo dojść do wniosku, że nie jest to marka, której można zaufać. Do tej pory dotyczyło to tylko produktów programowych, a teraz zła passa firmy rozciąga się też na jej, bardzo dobre zresztą, karty graficzne. A szkoda, bo Nvidia potrafi tworzyć świetne produkty, których reputację rujnuje wyłącznie za pomocą nieczystych zagrywek, okłamywania swoich własnych klientów oraz sztucznego zamykania swoich rozwiązań. A może zamiast tego lepiej skupić się na faktycznym ulepszaniu swoich produktów?

Sądzę, że będzie to bardziej pożyteczne i mniej kompromitujące zajęcie.

Aktualizacja [05.02.2014 02:00]

Choć informacje na temat kart GeForce GTX 970 okazały się prawdziwe, to plotka o G-Sync działającym bez odpowiedniego monitora nie znalazła potwierdzenia. Okazało się, że redaktor serwisu GameNab po prostu użył wczesnej wersji sterownika pozwalającego na uruchomienie G-Sync na sprzęcie mobilnym. Sam serwis został zamknięty, rzekomo z powodu pogróżek.

przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst


przeczytaj następny tekst