8

nVidias "GPU Boost" ergibt eine gewisse Benchmark-Verfälschung

Im nachgereichten GeForce GTX 680 Testbericht von HT4U (dieser einen Monat nach Launch erschienene Artikel zeigt deutlich auf, wie gut eine Arbeit sein kann, wenn man sich dafür entsprechend Zeit nimmt) gibt es einen wunderbaren Abschnitt über das GPU-Boost-Feature der Kepler-Grafikchips. Dieser Abschnitt zeigt erst einmal auf, daß GPU-Boost ganz klar als Leistungsaufnahme-Limiter operiert und daß nVidia das "Power Target" bei der GeForce GTX 680 offensichtlich auf 170 Watt festgesetzt hat. Alle Boost-Taktraten und die dafür anliegenden Spannungen orientieren sich immer daran, jene 170 Watt nicht zu überschreiten. Gleichfalls versucht GPU Boost aber auch, durch automatisches Hochtakten jene 170 Watt zu erreichen, die GeForce GTX 680 läuft im Spieleeinsatz also durchgehend mit 170 Watt Verbrauch.

Für Benchmarks bringt GPU Boost allerdings neue Probleme mit sich – und damit ist nicht der Punkt gemeint, daß verschiedene Grafikkarten andere praktische Boost-Eigenschaften je nach Produktionsklasse des jeweils verbauten Grafikchips aufweisen können, was aber natürlich auch der Fall ist. Das eigentliche Benchmark-Problem ergibt sich aus dem Umstand, daß GPU-Boost auf die anliegenden Chiptemperaturen reagiert und daß damit der Taktraten-Boost nach längerem Gaming geringer ausfällt als direkt nach dem Start eines Spiels, wo der Grafikchip noch unbelastet und daher nicht auf Temperatur ist. Gebenchmarkt wird aber üblicherweise direkt nach dem Start eines Spiels – im eigentlichen reicht oftmals allein der (üblicherweise wenig belastende) Ladebildschirm aus, um den Grafikchip wieder herunterzukühlen und damit nachfolgend kurzfristig höhere Boost-Taktraten zu ermöglichen. HT4U haben diesen Punkt in einer einfachen Gegenüberstellung der Boost-Taktraten zum einen in den ersten 10 Sekunden eines Spiels und zum anderen nach ca. 3 Minuten Gaming aufgezeigt:

Boost in den ersten 10 Sekunden Boost nach zirka 3 Minuten
EVGA GeForce GTX 680 Ø 1098,4 MHz (+9,2%) Ø 1073,4 MHz (+6,7%)
Zotac GeForce GTX 680 Ø 1083,1 MHz (+7,7%) Ø 1060,4 MHz (+5,4%)

Wie bei beiden getesteten Herstellerkarten zu sehen, ist die real anliegende Taktrate im echten Spieleinsatz um 2,1 bis 2,3 Prozent höher als zu diesem Zeitpunkt, wo üblicherweise ein Benchmark abläuft. Dies bedeutet natürlich noch nicht direkt eine Verfälschung von Benchmark-Ergebnissen in dieser Höhe: Dies hängt dann maßgeblich davon ab, wie lange und wie fordernd ein Benchmark ist. Bringt ein Benchmark den Grafikchip möglichst umgehend auf Touren und läuft der Benchmark danach noch verhältnismäßig lange, kann der Effekt dann weitaus niedriger ausfallen. HT4U haben dies nachfolgend zu simulieren versucht und einfach die Benchmarks immer erst etwas später gestartet, sich das Spiel also vorher etwas "aufheizen" lassen. In der Summe aller Messungen mit Anti-Aliasing kam dabei eine Differenz von 0,9 Prozentpunkten heraus – viele Benchmarks reagierten dabei gar nicht, bei Reaktion lagen die normalen Differenzen im Rahmen von 1 bis 3 Prozent, mit einem Peak von immerhin 5,8 Prozent (Skyrim 2560x1440 8xAA).

Angesichts dieser geringen Differenz steht natürlich die Frage im Raum, ob man GPU-Boost wirklich als "Benchmark-Verfälschung" ansehen kann. Andererseits handelt es sich so oder so bei diesen 0,9 Prozent um eine Performance, welche im Spieleeinsatz nicht vorhanden ist – sondern eben nur unter Benchmarks und nur bei der GeForce GTX 680. Insofern ist dies egal der Höhe der Differenz immer eine gewisse Verfälschung – so daß man einen Prozentpunkt Performance bei der GeForce GTX 680 und zukünftig weiteren Kepler-basierten Grafikkarten immer herausrechnen sollte. Mittels einer Zunahme des Boost-Faktors beispielsweise bei der GeForce GTX 670 kann der Effekt zukünftig sogar größer ausfallen als eben nur auf einem Prozentpunkt. Mit der Differenz verschiedener GeForce GTX 680 Karten unter GPU Boost (die von HT4U getesteten Karten von EVGA und Zotac weichen wegen des unterschiedlich wirkenden GPU Boosts um 0,7% Endperformance voneinander ab) hat dies im übrigen nichts zu tun – dieser Effekt macht vergleichende Benchmarks zwar schwieriger, zeigt aber weiterhin ein Ergebnis auf, welches der Spielepraxis entspricht.

Allerdings muß angesichts dieser Erkenntnisse auch die Frage aufgestellt werden, ob AMDs PowerTune nicht vielleicht einen ganz ähnlichen Effekt aufweisen könnte. Denn auch PowerTune regelt schließlich den Grafikchip herunter, wenn gewisse Grenzwerte erreicht sind – und daß solche Grenzwerte unter der Dauerbelastung eines Spiels eher ereicht werden als kurz nach dem Ladebildschirm, trifft schließlich universal zu. Der bei nVidia zu beobachtende Effekt kann daher prinzipiell gesehen auch bei AMD auftreten, dies müsste man durch gleichartige Messungen (Benchmark nicht sofort starten, sondern sich das Spiel erst einmal "aufheizen" lassen) belegen oder eben wiederlegen. Ganz generell betrachtet macht es wohl Sinn, sich für zukünftige Grafikkarten-Tests eine Strategie zur optimalen Aufheizung der Grafikkarten vor dem eigenen Benchmark-Beginn zurecht zu legen: Ob mittels späteren Benchmark-Starts oder eines vor dem Benchmark laufenden zusätzlichen Belastungstests. Die Benchmark-Welt wird sich jedenfalls dem Fakt stellen müssen, daß zukünftig gerade kurze Benchmarks direkt nach Idle-Phasen eine gewisse Benchmark-Verfälschung mit sich bringen können und erst ein richtig aufgeheizter Grafikchip seine exakte Performance offenbart.