3

News des 3. Februar 2009

Laut dem ATI-Forum soll ATIs im Frühling antretender RV790 HighEnd-Chip wieder in einer DualChip-Variante namens Radeon HD 4995 X2 daherkommen, hinzu kommt die SingleChip-Version Radeon HD 4970. Eine kleinere SingleChip-Version namens "Radeon HD 4950" wäre zudem laut dem ATI-Forum denkbar, ist aber noch nicht bestätigt. ATIs RV790-Chip gilt als Refresh des RV770-Chips in 40nm – was entweder über zusätzliche Hardware-Einheiten oder/und mehr möglichen Takt für problemlos 40 Prozent mehr Performance stehen sollte. Genaueres zum Innenleben des RV790 ist aber nach wie vor nicht bekannt, zudem takten die bisherigen Vorserien-Samples des RV790-Chip nur auf RV770-nahen Taktfrequenzen, so daß es dato auch aus dieser Sicht noch keine wirklich griffigen Informationen zum RV790 gibt.

Eine absolute Pflichtlektüre zum Thema Stromverbrauch von Grafikkarten haben HT4U verfaßt. Die dort enthaltenen Informationen sind derart umfangreich und tiefgehend, daß an dieser Stelle nur auf das allerwichtigste eingangen werden kann. Und dies ist zweifellos die Grundaussage seitens HT4U, daß insbesondere die Grafikkarten des Performance- und HighEnd-Bereichs (in dem gewählten Testszenario unter der Anwendung von FurMarkt als Last-Benchmark) regelmäßig ihre TDP klar überschreiten. Dies fällt insbesondere auf, weil dies bei den Grafikkarten des LowCost- und Mainstream-Segments nicht so der Fall ist, hier erreicht man selbst unter FurMark allerhöchstens die vorgegebenen TDP-Grenzen, überschreitet sie aber nicht so deutlich wie bei den Grafikkarten des Performance- und HighEnd-Segments.

TDP X-bit Labs: 3DMark03 HT4U: FurMark
Radeon HD 4670 59W 47W 64W
Radeon HD 4870 160W 130W 187W
Radeon HD 4870 X2 286W 264W 373W
GeForce 8800 GT 110W 78W 112W
GeForce GTX 285 183W 161W 214W
GeForce GTX 295 289W 214W 317W

Jetzt kann man sicherlich herzlich diskutieren, ob FurMark das geeignete Tool für solcherart Messungen ist – schließlich handelt es sich um ein Programm, welches bewußt auf die möglichst perfekte Vollauslastung einer Grafikkarte programmiert wurde. Allerdings ist dies eher eine Diskussion darüber, ob die mit FurMark erzeugten Stromverbrauchswerte jetzt wirklich den Punkt treffen und ob nicht der Durchschnittsverbrauch in Spielen doch etwas niedriger liegt. FurMark liegt sicherlich am obersten Ende der Verbrauchsskala und im realen Gameralltag kommt man nicht auf solche Werte. Allerdings zeigen auch Tests seitens HT4U mit anderen Benchmarks aus dem Spiele-Bereich, daß die bisher üblichen Verbrauchsmessungen mittels 3DMark inzwischen auch nicht mehr das wahre sind, daß im realen Gameralltag schon jetzt deutlich mehr verbraucht wird.

Insofern liegt die Wahrheit irgendwo in der Mitte – wenn man nach dem aktuell realen Durchschnitts-Stromverbrauch sucht. Dies ändert jedoch absolut nichts daran, daß die TDP-Werte der Grafikchipentwickler auch von einem eher extremen Tool wie FurMark nicht durchbrochen werden dürfen, jedenfalls nicht in diesem erheblichen Maßstab. Gerade bei den ATI-Grafikkarten liegen die FurMark-Messungen auffällig weit weg von der TDP, ganz extrem natürlich bei der Radeon HD 4870 X2 (satte 30 Prozent). HT4U berichten zudem zusätzlich davon, daß auf einer Radeon HD 4870 die Spannungswandler unter FurMark-Messungen problemlos überhalb die für dieses Bauteil spezifizierten Temperaturen zu bekommen waren – was letztlich bedeutet, daß die Grafikkarte dann außerhalb ihrer Spezifikationen läuft und es reines Glück ist, ob sie dies dauerhaft durchhält oder nicht.

ATI hat darauf schon reagiert und limitiert per Treiber die eigenen Grafikchips der Radeon HD 4000 Serie unter FurMark in ihrer Leistung massiv – eben um hier einem drohenden Hardware-Problem entgegenzuwirken. Dies bedeutet aber letztlich, daß HT4U mit ihrer Analyse vollkommen Recht haben: Die meisten Performance- und HighEnd-Karten sind auf Kante gebaut – je höher in der Leistungsskala angesiedelt, desto stärker. Und man kann sich sicherlich nicht damit herausreden, daß der FurMark eine "unnatürliche" Last erzeugen würde: Dies gilt vielleicht in der Frage nach dem Durchschnittsverbrauch, aber ganz gewiß nicht in der Frage, ob FurMark die TDP-Grenzen sprengen darf. Nach den TDP-Grenzen werden üblicherweise Spannungsversorgung und Kühlkonstruktion erstellt, es darf also faktisch keine Software geben, welche die TDP-Werte erreicht – und dann muß es zusätzlich noch Reserven geben!

Schließlich werden Grafikkarten nicht nur im derzeit kalten Europa betrieben, sondern auch in Regionen der Erde, wo es ganzjährig angenehm warm ist ;). Mit einer wärmeren Umgebungsluft sind aber auch die einzelnen Computerchips nicht mehr so perfekt wie unter Laborbedingungen zu kühlen, damit steigt auch deren Temperatur an. Und wie HT4U auch nachgewiesen haben, bedeutet eine höhere Chiptemperatur auch automatisch einen höheren Stromverbrauch – unter ansonsten identischen Bedingungen. Platt gesprochen bedeutet dies, daß wenn eine Grafikkarte in Nordeuropa ihre TDP gerade so erreicht, sie in Südeuropa dann schon etwas darüber liegt. Genau deswegen muß die TDP Reserven haben – und deswegen kann es auch nicht sein, daß man diese TDP unter Laborbedingungen klar überbieten kann, selbst wenn man dafür FurMark einsetzt.

Hier haben die Grafikchip-Entwickler wie gesagt viel zu stark auf Kante gebaut – und müssen schlicht darauf hoffen, daß zukünftige Spiele mit ihren Strombedarfsanforderungen nicht immer näher an FurMark heranrücken. Doch genau davon kann man fast sicher ausgehen – daß zukünftige Spiele heutige HighEnd-Grafikkarten immer stärker fordern werden und damit auch tendentiell einen höheren Stromverbrauch aus diesen Karten herauslocken werden. Die FurMark-Werte sind demzufolge gar nicht so theoretisch, wie hier und da argumentiert wird, sondern sie zeigen auf, was in zwei Jahren eventuell vollkommene Normalität sein kann. Die jetzt verkauften HighEnd-Modelle mögen dann längst aus jeder Diskussion sein – aber verbaut und in Benutzung sind sie dann trotzdem noch.

Die PC Games Hardware berichtet von einem neuen 3DMark05-Weltrekord, welcher auf einem mit flüssigem Stickstoff gekühlten Core i7 auf 5240 MHz erzielt wurde. Zum Einsatz kam dabei interessanterweise der noch nicht veröffentlichte Core i7-975 XE mit 3.33 GHz Referenztakt, welcher irgendwann im Frühjahr zu erwarten ist. Erstaunlicherweise gibt Intel dieser CPU gegenüber dem bisherigen Spitzenreiter (Core i7-965 XE mit 3.2 GHz) nur 133 MHz Mehrtakt auf den Weg, was nun nicht gerade überzeugend für diese sicherlich wieder 1000 Dollar (oder mehr) kostende CPU ist. Dies ist zudem ein deutlicher Hinweis darauf, daß es Intel in den nächsten Monaten nicht übertreiben wird mit dem taktmäßigen Ausbau der Core-i7-Serie – was natürlich dadurch bedingt ist, daß AMDs Phenom II derzeit einfach noch nicht auf diese Taktraten kommt, mittels welcher man auch den Core i7 angreifen könnte.