1

Boost-Fix durch den nVidia-Treiber 456.55 kostet die GeForce RTX 3080 minimal an Performance

Bei Hardwareluxx hat man sich die Performance-Auswirkungen des nVidia-Treibers 456.55 auf die GeForce RTX 3080 angesehen. Der Treiber mit einem Fix gegenüber der Problematik der auf den Desktop crashenden Ampere-Karten senkt prinzipiell gesehen Taktraten-Spitzen und damit auch nur Taktraten-Ausreißer nach oben hin, hat also keine Auswirkungen auf den normalerweise anliegenden Takt und nur marginale Auswirkungen auf die durchschnittlichen Taktraten. Trotzdem gibt es einen gewissen Performance-Effekt, welcher mit -0,7% unter der UltraHD-Auflösung über acht Spiele-Benchmarks hinweg zwar klein, aber belegbar ist. Dabei legten zwei Spiele-Titel mit dem neuen Treiber sogar geringfügig zu, unter vier Spielen anderen gab es hingegen Performance-Abschläge bis zu (im Maximalfall) −2,4%. Unter kleineren Auflösungen als UltraHD verwischt der Effekt durch die zunehmende CPU-Limitierung etwas, bleibt aber weiterhin sichtbar.

FullHD WQHD UltraHD
GeForce RTX 3080: 456.38 vs. 456.55 −0,4% −0,6% −0,7%
basierend auf den Ausführungen von Hardwareluxx

Andere, zumeist allerdings nur exemplarisch ausgeführte Benchmarks deuten zudem in die gleiche Richtung: Der neue Treiber verliert durchaus messbar (wenn auch nicht spürbar) an Performance, wahrscheinlich dürfte der Performance-Verlust überall im Rahmen eines größeren Testfeldes bei unterhalb eines Prozentpunktes herauskommen. Dies ist letztlich nichts, was wirklich zählt, nicht einmal das Urteil über die GeForce RTX 3080 wäre davon beeinflußt worden. Somit sind es nun halt wieder +31% zur GeForce RTX 2080 Ti, nachdem dieser Wert inzwischen (über verschiedene neue Benchmarks) schon einige Male zwischen +31% und +32% geschwankt ist. Ob der Performance-Index zu GeForce RTX 3080 & 3090 daraufhin tatsächlich nochmals (leicht) korrigiert werden muß, wird sich dann mit dem kommenden Launch der GeForce RTX 3070 ergeben, dann werden alle diese Karten sowieso erneut (auf neuem Treiber-Stand) vermessen werden.

nVidia wäre allerdings wohl besser beraten gewesen, gleich mit dem Auslieferungstreiber der Ampere-Generation diese Taktraten-Spitzen abzufangen. Jene sind schließlich laut einem weitere Bericht zum neuen nVidia-Treiber seitens Igor's Lab auch für die enormen Last-Spitzen bei den Ampere-Karten verantwortlich: Zeigte der alte Treiber im Mikrosekunden-Bereich Last-Spitzen bei der GeForce RTX 3080 (320W TDP) bis hinauf auf 580-600 Watt, so sind es mit dem neuen Treiber nunmehr "mindestens 70 Watt weniger und auch die Ausprägung und Häufigkeit nehmen stark ab". Der neue nVidia-Treiber ist somit auch von Vorteil bezüglich der Stabilität des Gesamtsystems bzw. der Netzteil-Belastung – etwas, was nVidia wie gesagt besser gleich von Anfang an hätte aufbieten sollen. Schließlich bringen gerade die höchsten Taktraten-Spitzen im Gaming-Alltag meistens nicht wirklich etwas, werden jene gewöhnlich nur an Stellen mit wenig Grafiklast und ergo sowieso schon hohen bis höchsten Frameraten erreicht.

Hierbei offenbart sich eine (praktische) Schwäche dieser automatischen Boost-Systeme neuerer Grafikkarten: Im dümmsten Fall wird etwas beschleunigt, was gar nicht mehr beschleunigen werden muß – und somit nur die Benchmark-Werte (zwecklos) nach oben zieht. Jene Taktraten-Spitzen berechnen schließlich üblicherweise weit oberhalb des Performance-Durchschnitts liegende Frames, ziehen dabei den insgesamten Performance-Durchschnitt nach oben und verleiten die Hersteller nur dazu, mehr Arbeit in jene Taktraten-Spitzen zu stecken – anstatt in einen durchschnittlich höheren Takt. Somit kann ein Grafikchip mit vielen Taktraten-Spitzen letztlich eine beachtbar höhere durchschnittliche Performance erreichen als ein Grafikchip ohne große Taktraten-Spitzen – obwohl beide Grafikchips bei der üblichen Performance in den allermeisten Spiel-Szenen komplett gleich reagieren bzw. dort, wo es drauf ankommt, letztlich gleich schnell sind.

Chip A Chip B
Chip-Einstellung hohe Taktraten-Spitzen erlaubt gedeckelte Spitzen-Taktrate
Performance-Charakteristik 100 Frames:
65 @ normale Last (1000 MHz) = 60 fps
20 @ weniger Last (1100 MHz) = 70 fps
10 @ niedrige Last (1200 MHz) = 87 fps
5 @ sehr niedrige Last (1300 MHz) = 118 fps
100 Frames:
65 @ normale Last (1000 MHz) = 60 fps
20 @ weniger Last (1100 MHz) = 70 fps
10 @ niedrige Last (1100 MHz) = 80 fps
5 @ sehr niedrige Last (1100 MHz) = 100 fps
durchschnittliche fps 67,6 fps 65,5 fps  (-3,1%)
übliche fps 60 fps 60 fps
Seiteneffekte hohe Taktraten-Spitzen samt hoher Last-Spitzen keine beachtbaren
rein theoretisches Modell!

Für die Gamer sind die Taktraten-Spitzen in den meisten Fällen eher zwecklos und sollte somit zu deren Gunsten vermieden werden. Wenn jetzt auch noch Stabilitäts-Probleme und Bedenken ob der langfristigen Auswirkungen auf Netzteile (durch schnelle, krasse Lastwechsel) hinzukommen, dann ist dies einfach eine zu viel knapp auf Kante gebaute Technologie. Die Grafikchip-Entwickler sollten an dieser Stelle besser einen Schritt zurückgehen und ihren Grafikkarten sinnvoll bemessene Maximal-Taktraten mitgeben – welche dann auch nicht mehr für Taktraten-Spitzen durchbrochen werden dürfen. Aber dies ist zugegebenerweise eine nicht so einfach zu realisierende Forderung, denn derzeit ergeben die Taktraten-Spitzen für die Grafikchip-Entwickler zusätzlich an Performance – was man im harten Wettbewerb ungern liegen läßt. Bei PC-Prozessoren haben diese Taktraten-Spitzen dagegen durchaus ihre Relevanz, denn dort gibt es eigentlich keine Aufgaben, wo sinnlose Mehrperformance erzeugt wird.