4

News des 4. Juli 2022

Zu den derzeit offerierten RTX40-Spezifikationen gibt es zwei Kritikpunkte: Zum einen passt zwischen GeForce RTX 4080 mit 80 Shader-Clustern bei 420W TDP sowie GeForce RTX 4090 mit 128 Shader-Clustern und "nur" 450W TDP etwas offensichtlich nicht zusammen. Und zum anderen kommt die GeForce RTX 4090 nun mit "nur" 2520 MHz Boost-Takt doch deutlich unterhalb der Versprechung von "mehr als 2.8 GHz" daher. Allerdings lassen sich beide Kritikpunkte gemeinsam mittels eines Kunstgriffs erklären, welchen nVidia augenscheinlich bei der GeForce RTX 4090 ansetzt: Die Karte wird vergleichsweise handzahm getaktet – gegenüber dem, was das Ada-Lovelace-Silizium unter der 5nm-Fertigung von TSMC wirklich zulassen würde. In selbige Kerbe schlägt auch Twitterer AGF (welcher früher schon nVidia-Interna von sich gab), nach welchem die GeForce RTX 4090 durchaus mehr könnte – nur wegen limitierter TDP schlicht nicht darf.

2 points on RTX4090 power curve:
2780MHz boost at 450W and 3020MHz at 550W

Quelle:  AGF @ Twitter am 4. Juli 2022

Das grundsätzliche Design läßt somit wohl tatsächlich Taktraten von 3 GHz zuzulassen – nur fährt nVidia dies bei der GeForce RTX 4090 bewußt nicht aus. Denn zum einen kann man damit das TDP-Level (vergleichsweise) niedrig halten, zum anderen bringt der AD102-Chip den klar größten Hardware-Sprung mit sich (+71% mehr Shader-Cluster gegenüber GA102, die anderen AD10x-Chips liegen hingegen bei um die +20%), muß sich also keineswegs bei der Taktrate verausgaben. Der Leistungssprung, welchen die GeForce RTX 4090 bieten wird, dürfte trotzdem enorm sein – und alles was durch die niedrige Taktrate liegengelassen wird, geht dann eines Tages sowieso zugunsten der GeForce RTX 4090 Ti, ist also mitnichten verloren. Die wahre Taktrate, welche das Ada-Lovelace-Silizium zu leisten imstande ist, wird man dann bei GeForce RTX 4070, 4080 & 4090 Ti sehen.

Als Nachteil wird sich dort allerdings auch eine schlechtere Energie-Effizienz ergeben, weil über die höheren Taktraten der Stromverbrauch unverhältnismäßig stark steigt. Man kann jetzt schon grob kalkulieren, dass eine GeForce RTX 4090 bei 184 GFlops/Watt herauskommen sollte (auf 2520 MHz Boost-Takt und 450W TDP), jener Wert bei GeForce RTX 4070 & 4080 jedoch eher um die 140 GFlops/Watt liegen sollte, einen Boost-Takt von ca. 2.9 GHz annehmend. Selbst die GeForce RTX 4090 Ti dürfte nicht ganz das Effizienz-Niveau der 4090 non-Ti erreichen, weil dann bei der Ti-Lösung wiederum keine Hemmungen bei der Taktraten zu erwarten sind. Die GeForce RTX 4090 wird also wohl das untypische Produkt der GeForce RTX 40 Serie, als vergleichsweise energieeffiziente Lösung (sofern man dies angesichts von 450 TDP sagen kann).

Hardware Taktraten TDP Effizienz Termin
GeForce RTX 4090 Ti AD102, ~140-144 SM @ 384 Bit GDDR6X whrschl. hochgezogen: ~2.8 GHz möglw. 600W ~165 GFlops/W nach Navi 31 (Frühjahr 2023)
GeForce RTX 4090 AD102, 128 SM @ 384 Bit GDDR6X handzahm: 2235/2520 MHz 450W 184 GFlops/W September/Oktober 2022
GeForce RTX 4080 AD103, 80 SM @ 256 Bit GDDR6X whrschl. hochgezogen: 2.8-3.0 GHz 420W ~140 GFlops/W Oktober/November 2022
GeForce RTX 4070 AD104, 56 SM @ 160 Bit GDDR6 whrschl. hochgezogen: 2.8-3.0 GHz 300W ~140 GFlops/W November/Dezember 2022
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen

Doch weil die GeForce RTX 4090 handzahm taktet, die GeForce RTX 4080 dagegen beim Takt wohl in die Vollen geht, ergeben sich somit diese ähnlichen TDP-Werte. Die Grundlage hierfür lieferte letztlich schon die einige Wochen zurückliegende Information über diesselben Referenz-Boards (PG139) für GeForce RTX 4080 & 4090: Dies zwingt förmlich zu einer ähnlichen TDP – denn wenn nicht, würde sich die Auflage eines extra Boards definitiv lohnen. Aber dies soll letztlich nicht sagen, dass die Leaker-Aussagen unbedingt korrekt sein müssen – auch dort sind Fehler möglich, genauso kann man auch auf bewußt falsch gestreute Fährten seitens der Chip-Entwickler hereinfallen. Es soll hiermit nur gesagt werden, dass es durchaus eine (halbwegs) plausible Erklärung für diese Hardware-Daten zu GeForce RTX 4080 & 4090 auf ihrer nahe beieinanderliegenden TDP gibt.

Bei Hartware hat man sich mit dem Thema Undervolting von Grafikkarten im Vergleich einer AMD- gegen eine nVidia-Lösung gewidmet. Bei beiden benutzten Grafikkarten – Radeon RX 6800 XT und GeForce RTX 3080 10GB – ergaben sich jeweils erhebliche Gewinne der Energieeffizienz, sprich bei der Aufrechnung fps pro Watt. Interessant sind daneben aber auch die absoluten Zahlen, sprich dass was man an Stromverbrauch einspart und dafür an maximaler Framerate liegenläßt. Hierbei läßt sich die nVidia-Karte deutlich stärker zügeln als die AMD-Karte, auf faktisch nur die Hälfte des originalen Power-Limits (320W bei der GeForce RTX 3080 10GB). Natürlich geht in diesem Modus dann auch die Performance viel deutlicher nach unten, dies hat ein besonders niedriges Power-Limit immer an sich.

default Setting #1 Setting #2 Setting #3 Setting #4
Radeon RX 6800 XT ~2030 MHz
246W ASIC (~290W Karte)
100% Perf.
~2067 MHz
227W ASIC (~268W Karte)
98% Perf.
~1986 MHz
199W ASIC (~237W Karte)
94% Perf.
~1903 MHz
184W ASIC (~219W Karte)
92% Perf.
~1831 MHz
179W ASIC (~214W Karte)
89% Perf.
GeForce RTX 3080 10GB ~1815 MHz
301W Karte
100% Perf.
~1727 MHz
253W Karte
97% Perf.
~1637 MHz
221W Karte
94% Perf.
~1428 MHz
191W Karte
86% Perf.
~926 MHz
159W Karte
65% Perf.
gemäß der Ausführungen von Hartware, Performance ist ein Schnitt von "Forza Horizon 5", "Shadow of the Tomb Raider" und "Far Cry 6" unter der 4K-Auflösung

nVidia scheint aber dennoch diese Diszplin einen Hauch effizienter hinzubekommen: Im Vergleich von AMD-Setting #4 und nVidia-Setting #2 wird ein ähnlicher Abschlag auf die Verlustleistung erreicht: Bei AMD –76W weniger, bei nVidia –80W weniger. Trotzdem verliert nVidia in dieser Konstellation mit –6% etwas weniger Performance als AMD mit –11%. Beide Ergebnisse sind nichtsdestotrotz gutklassig, denn in beiden Fällen wird ein um ein Viertel geringerer Stromverbrauch nur mit knapp –10% weniger fps bestraft. Und ein Viertel weniger Stromverbrauch sind bei diesen Boliden dann schon wie gesagt 76-80 Watt, sprich eine ganze Verbrauchs-Klasse niedriger (~220 Watt anstatt ~300 Watt). Das Thema "Undervolting" dürfte sicherlich bei zukünftigen Grafikkarten breiter in die Öffentlichkeit rücken – was dann auch für AMD & nVidia mehr Anlaß bieten sollte, die dafür notwendigen Konfigurationsschritte weiter zu vereinfachen bzw. massentauglich zu machen.