8

nVidia Kepler mit dynamischer Übertaktungsfunktion

Gemäß dem Heise Newsticker wird nVidia bei den kommenden Kepler-Grafikchips so etwas wie eine Turbo-Technik implementieren, welche die Grafikkarten im laufenden Betrieb dynamisch hochtakten kann. Dabei soll der Takt von zwei Grenzwerten limitiert werden: Erstens einmal einem festen Höchst-Chiptakt, welcher im BIOS der Grafikkarte hinterlegt wird – und zum anderen einer Verlustleistungskalkulation, welche (anhand eines ebenfalls definierten und im Grafikkarten-BIOS abgelegten Wertes) nicht überschritten werden darf. Erstgenannter Punkt erinnert an Intels TurboMode und AMDs TurboCore bei den aktuellen Prozessoren dieser Hersteller, letzteres wiederum an AMDs PowerTune-Feature ab den Radeon HD 6900 Grafikkarten.

Dabei machen sich AMD und nVidia beiderseits den Umstand zunutze, daß Grafikkarten aufgrund ständig schwankender Lasten im Spieleeinsatz auch ständig schwankende Stromverbrauchswerte produzieren – sprich, eine auf einer typischen Boardpower von 150 Watt spezifizierte Grafikkarte in der einen Sekunde mal 120 Watt verbraucht, in der nächste 145 Watt und in der nächsten wieder nur 130 Watt. In Bezug auf die Grafikkarten-Performance lassen sich die Restmengen gegenüber der typischen Boardpower dann durch dynamisches Overclocking ausnutzen, sprich: Wenn jene 150-Watt-Karte in der einen Sekunde eben nur 120 Watt verbraucht, kann man sie in dieser Sekunde auch um (angenommen) 10 Prozent übertakten – dies bringt mehr Performance und sprengt trotz Übertaktung und damit höherem Stromverbrauch nicht die 150-Watt-Grenze.

Würde man dieselbe Grafikkarte dagegen durchgehend mit 10 Prozent mehr Takt betreiben, wäre die Performance zwar noch besser, die Grafikkarte würde aber öfters einmal eben diese 150-Watt-Grenze durchbrechen, was dann wiederum ein aufwendigeres Boarddesign und somit höhere Boardkosten nach sich ziehen würde. So aber nutzt man nur diese Reserven aus, welche im Rahmen des vorhandenen Boarddesigns sowieso noch vorhanden sind – dies bringt zwar nicht gewaltig viel, ist aber faktisch kostenlos (außer der einmaligen Ingenieursleistung für das Austüffteln dieses Features natürlich).

Gewaltig viel sollte man sich von diesem Feature aber nicht versprechen, der Heise Newsticker spricht in diesem Zusammenhang gerade einmal von einer maximalen Übertaktung von 5 bis 7 Prozent bei nVidia – und diese maximale Übertaktung dürfte natürlich nur in einem gewissen Teil der Spielzeit erreicht werden können. Sollte dieser Wert stimmen, kann man von einem insgesamten Performancegewinn von gerade einmal ca. 3 Prozent ausgehen, was nun wirklich nicht viel wäre und vor allem der Befürchtung, Benchmark-Werte wären durch dieses Feature nicht mehr vergleich- oder reproduzierbar, effektiv entgegenstehen dürfte.

Dem Performancegewinn aus dieser dynamischen Übertaktungsfunktion dürfte wohl auch weniger das hauptsächliche Interesse von nVidia an diesem Feature gegolten haben – möglicherweise hat man es nur aus Marketingerwägungen heraus als "Übertaktungsfeature" tituliert. Der Hauptgewinn für nVidia (und auch für AMD bei PowerTune) liegt vielmehr darin, daß man damit eine Lastabregelung nach oben hin bekommt, welche es ermöglicht, die generellen Taktraten etwas höher zu schrauben, ohne deswegen in Probleme bei Lastspitzen zu kommen – eben weil die Lastspitzen durch diese "Übertaktungsfeatures" abgeschnitten werden. Oder anders gesagt: Das ganze ist eher ein "Sicherheitsfeature" – wobei diese Sicherheit von den Grafikchip-Entwicklern natürlich sofort wieder ausgenutzt wird, die sich dadurch ergebenden Taktspielräume auszuschöpfen.

Daneben bestätigt der Heise Newsticker die Namenswahl "GeForce GTX 680" für das Topmodell auf Basis des GK104-Chips und den Launch im späten März – am kommenden 12. März soll es dagegen nur eine Technik-Vorstellung von Kepler geben. Bezüglich der Performance der GeForce GTX 680 brachte man erneut ein sehr uneinheitliches Bild in Erfahrung: Unter Battlefield 3 soll die GeForce GTX 680 wohl um 10 Prozent schneller als die Radeon HD 7970 sein, unter dem 3DMark11 dagegen gegenüber dieser zurückliegen. Der eigentliche Hauptchip der Kepler-Serie in Form des GK110 wurde dagegen erneut erst für den Sommer bestätigt, während zum Mainstream-Chip GK107 erstmals ein halbwegs konkreter Termin genannt wurde: Im April soll es beim GK107 soweit sein.