7

News des 7. Oktober 2022

VideoCardz zeigen nunmehr auch 3DMark13-Werte zur GeForce RTX 4090 unter den drei bekannten Disziplinen FireStrike Ultra (FSU), TimeSpy Extreme (TSE) und Port Royal (PR, mit RayTracing). Wahrscheinlich aber sogar interessanter als diese Einzel-Ergebnisse sind die Aussagen von Hardware-Testern mit Zugriff auf diese Anfang nächster Woche antretenden nVidia-Grafikkarten, welche mittels mehreren Ergebnissen und damit einer herauskommenden Ergebnis-Bandbreite die grundsätzliche Performance-Konstallation klar bestätigen. Interessanterweise findet sich hierbei sogar der vor Monaten schon vermeldete +86% Vorsprung der GeForce RTX 4090 gegenüber der GeForce RTX 3090 (non-Ti) wieder, heuer werden von den Hardwaretestern an dieser Stelle +82+89% gemessen.

3DMark13 (Graphics/GPU Score) FSU TSE PR Prognose reale Spiele
GeForce RTX 3090GeForce RTX 4090 +100-104% +84-89% +82-86% zu erwarten: ca. +70%
GeForce RTX 3080 10GBGeForce RTX 4080 16GB (OC?) +58% +59% +53% zu erwarten: ca. +40%
Datenquellen: Vergleich zur GeForce RTX 4090 von VideoCardz, Vergleich zur GeForce RTX 4080 16GB siehe gestrige News

Vermutlich sind somit alle seinerzeit durch Twitterer 'Kopite7kimi' gemeldeten 3DMark-Werte korrekt gewesen – nur dass nVidia damals noch an einigen Ada-Grafikkarten gebastelt hat, deren Endfassung teilweise von Vorab-Kreationen abweicht. Dies betrifft primär die beiden Ausführungen der GeForce RTX 4080, denn bei der GeForce RTX 4090 hat sich gegenüber dem Vorab-Benchmark augenscheinlich nichts getan. Normalerweise müssten nunmehr die Treiber etwas besser sein, aber womöglich war diese Karte "früher" auch mit höherem Power-Limit angesetzt, beide Veränderungen könnten sich somit ausgeglichen haben. Wichtig zu diesen 3DMark-Werten wäre allerdings zu erwähnen, dass jene klar oberhalb des Durchschnitts bei der Spiele-Performance herauskommen dürften: nVidia hatte selber unter Overwatch 2 nur +104% für den Vergleich GeForce RTX 3080 10GB zu GeForce RTX 4090 bekanntgegeben, wo unter dem TimeSpy Extreme jedoch +113-119% herauskommen sollen. An dieser Stelle sind also beachtbare Abschläge zwischen theoretischem Benchmark und realen Spielen einzukalkulieren.

Möglicherweise wird "Ada Lovelace" unter realen Spielen selbst unter hohen Auflösungen stärker von der CPU ausgebremst, als dies bei früheren Grafikkarten-Generationen der Fall war. Darauf deuten auch die arg schwachen Resultate der GeForce RTX 4090 unter "Ashes of the Singularity" hin, welche Twitterer Apisak erspäht hat: Hier gab es zwischen GeForce RTX 3090 und 4090 nur einen Performance-Sprung von +25%. Anzunehmenderweise ist dies dann der stärkste Ausreißer nach unten hin und normalerweise muß AotS heutzutage auch in keinem Benchmark-Parcours mehr auftauchen. Der Benchmark-Wert sagt halt einfach nur die Tendenz aus, dass es schwierig wird für die Ada-Lovelace-Karten, eine perfekte Skalierung wie unter dem 3DMark zu erreichen. Inwiefern dies dann auch auf andere Hardware auf selben Performance-Höhen zutrifft (Navi 3X), bleibt deren Erscheinen abzuwarten.

AotS
4K
RTX 4090        100%
RTX 3090 Ti     85%
RTX 3090         80%

Quelle:  Apisak @ Twitter am 7. Oktober 2022

Nebenbei zeigt vorstehende 3DMark-Aufstellung auch noch ein Kern-Element der RTX40-Serie an: Der Performance-Sprung gegenüber dem jeweils wirklichen RTX30-Vorgänger (3070 → 4080-12GB, 3080-10GB → 4080-16GB, 3090 → 4090, 3090Ti → 4090Ti oder "Ada Titan") ist mitnichten über das komplette Portfolio gleich, sondern zerfällt in zwei große Gruppen: GeForce RTX 4090 & 4090 Ti dürften einen hohen Wert von +70% mehr reale Spiele-Performance gegenüber ihrem wirklichen RTX30-Vorgänger erreichen – und alle kleineren Modelle werden sich mit ca. +40% zufriedengeben müssen (eventuelle Refresh-Lösungen mal nicht betrachtet, da kann sich eine andere Situation ergeben). Dies hängt einfach am Hardware-Ansatz, nur der AD102-Chip hat deutlich mehr Shader-Cluster, die anderen Ada-Grafikchips weisen diesbezüglich einen deutlich geringeren Sprung auf. Dies dürfte auch der Grund sein, wieso nVidia die GeForce RTX 4090 als erste ins Rennen schickt: Damit jene die öffentliche Wahrnehmung mit ihrem größten Sprung zwischen Ampere und Ada Lovelace prägen kann.

Ampere Ada Lovelace Rohleistungsgewinn (Vollausbau)
GA102  (84 SM) AD102  (144 SM) +71% SM, +47% Takt = +151%
GA103  (60 SM) AD103  (80 SM) +33% SM, +47% Takt = +96%
GA104  (48 SM) AD104  (60 SM) +25% SM, +47% Takt = +84%
GA106  (30 SM) AD106  (36 SM) +20% SM, +47% Takt = +76%
GA107  (20 SM) AD107  (24 SM) +20% SM, +47% Takt = +76%
benutzte Taktraten für diese Beispielrechnung: 1.7 (Ampere) & 2.5 GHz (Ada)
Hinweis: GA103-Chip im Desktop-Segment nicht maßgeblich benutzt, daher ist der Vergleich zum AD103 rein theoretisch

Bei Igor's Lab will man eine Erklärung für die vorab genannten noch höheren Verlustleistungen der GeForce RTX 4090 von bis zu 600 Watt haben – was dann auch die Grundlage für die jetzt zu sehenden vergleichsweise riesigen Karten darstellen soll. Danach soll "Ada Lovelace" angeblich ursprünglich einmal unter Samsung 8nm geplant gewesen sein. Wieso man an dieser Stelle nicht auf einen neueren Fertigungs-Node von Samsung setzen wollte, bleibt unklar, ist aber im Sinn der Geschichte nicht wirklich relevant. Denn klar ist eines: Das Designende der Grafikchips ist locker ein Jahr vor Marktstart, die finale Wahl des Chipfertigers muß noch beachtbar älter sein – und für Grafikboards braucht man deutlich kürzer als diese Zeitangaben. Diese Erklärung ist also wenig zielführend, denn es wäre selbst nach einem späten Wechsel des Fertigers immer noch genügend Zeit geblieben, um wenigstens die Grafikboards auf kleinere, näher am finalen Status liegende Verlustleistungen zu trimmen.

Beide Punkte müssen somit als weiterhin ungeklärt getrachtet werden: Woher die früheren Watt-Angaben von bis zu 600 Watt bei der GeForce RTX 4090 (sowie bis zu 900 Watt für einen AD102 im Vollausbau)? Und wieso sind die 4090er Boards derzeit immer noch bis zu 600 Watt ausgelegt, obwohl die default-TDP bei 450 Watt liegt? Die beste Erklärung hierzu liegt weiterhin im Punkt, dass sich nVidia bis zuletzt alle Möglichkeiten offenlassen wollte, vielleicht in einer gewissen Entwicklungs-Phase die GeForce RTX 4090 tatsächlich bis auf nahezu 600 Watt hochbrachte. Am Ende hat man sich dann für einen maßvolleren Ansatz entschieden – welcher primär der nachfolgenden GeForce RTX 4090 Ti nützt, da diese somit ein größeres Potential für einen gehörigen Performance-Unterschied zur non-Ti erringt. Die trotzdem bis auf 600 Watt ausgelegten 4090er Boards erklären sich womöglich über ein gezielt geschafftes Übertaktungs-Potential: nVidia will augenscheinlich mit der GeForce RTX 4090 glänzen – zugunsten natürlich auch wieder der kleineren Modelle des Portfolios.