2

News des 1./2. April 2010

Eine Begründung, wieso GeForce GTX 470 & 480 im MultiMonitor-Betrieb so derart viel Strom verbrauchen (113 Watt bei der GeForce GTX 480), findet sich bei Legit Reviews: Danach hat nVidia bewußt die Idle-Speichertaktung im MultiMonitor-Betrieb nicht heruntergesetzt, um einem möglichen Bildflackern zwischen Idle- und Laststatus vorzubeugen. Dies ist die gleiche Begründung, welche auch bei der Radeon HD 5870 den Idle-Verbrauch zwischen einem und zwei Monitoren von 20W auf 44W hochschnellen läßt – bei der GeForce GTX 480 wird dies dann nur mit dem hohen absoluten Wert (von über 100 Watt) viel mehr augenscheinlicher als bei den ATI-Lösungen. Das Beispiel der GeForce GTX 480 zeigt aber, daß in dieser Frage sicherlich zukünftig doch noch eine Lösung gefunden werden muß, allein das Absenken des Idle-Verbrauchs mit einem Monitor wird hier nicht wirklich zum Ziel führen.

Zur Frage des allgemein hohen Stromverbrauchs der GeForce GTX 470 & 480 hat nVidia eine Erklärung (PDF) herausgegeben, welche betont, daß der Stromverbrauch der neuen nVidia-Karten relativ gesehen zur Performance zumindest unter DirectX11 sogar besser sein soll als bei der Radeon HD 5870. Unter DirectX10-Spielen soll das Verhältnis Performance/Stromverbrauch ungefähr gleichliegen, unter DirectX9-Spielen gesteht man dann ATI Vorteile zu. Natürlich hat sich nVidia hierbei die jeweils bestmöglichen Beispiele herausgesucht, wenn man diese nachrechnet, passt die Sache auch ungefähr. Aber dies läßt sich eben nicht auf den Durchschnitt aller Benchmarks beziehen, nicht einmal auf den Durchschnitt aller DirectX11-Benchmarks. Denn der Vorteil von nVidia beim Verhältnis Performance/Stromverbrauch unter Metro 2033 existiert nur, weil die GeForce GTX 480 in diesem Spiel um gute 60 Prozent vor der Radeon HD 5870 liegt (Quelle: PCGH) – das ist kaum etwas, was sich für andere Benchmarks verallgemeinern ließe.

Denn daß die GeForce GTX 480 in DirectX11-Titeln einen höheren Abstand zur Radeon HD 5870 hinlegt, ist zwar eine gewisse Tendenz, aber keinesfalls eine eindeutige und überall auftretende Erscheinung. Ganz gut läßt sich dies mit den Werten der ComputerBase belegen, welche ein Performancerating sowohl für alle Benchmarks als auch nur für DirectX11 unterstützende Titel erstellt haben: Unter 1920x1200 liegt die GeForce GTX 480 bei allen Benchmarks um 15 Prozent vor der Radeon HD 5870 – rein bei den DirectX11-Titeln sind es dagegen 19,6 Prozent. Dies ist bemerkbar mehr, aber es ist weit von diesen 60 Prozent entfernt, welche nVidia unter Metro 2033 benötigt, um auf das bessere Verhältnis Performance/Stromverbrauch (laut nVidia) zu kommen. Und rechnet man auf dieser Basis die Daten nach, bleibt es weiterhin beim deutlich schlechteren Verhältnis Performance/Stromverbrauch der GeForce GTX 480 auch unter den DirectX11-Titeln:

Radeon HD 5870 GeForce GTX 470 GeForce GTX 480
Spiele-Stromverbrauch (HT4U) 148W ca. 180W 230W
Performanceindex allgemein (CB) 100% 95% 115%
Performanceindex DirectX11 (CB) 100% 100% 120%
fps/Watt allgemein (bei 40 fps @ 5870) 40 fps, 148W
= 0,27 fps/W
38 fps, 180W
= 0,21 fps/W
46 fps, 230W
= 0,20 fps/W
fps/Watt DirectX11 (bei 40 fps @ 5870) 40 fps, 148W
= 0,27 fps/W
40 fps, 180W
= 0,22 fps/W
48 fps, 230W
= 0,21 fps/W
fps/Watt Metro 2033 (PCGH) 16,5 fps, 148W
= 0,111 fps/W
20,6 fps, 180W
= 0,114 fps/W
26,2 fps, 230W
= 0,114 fps/W

Die beispielshaft ausgerechneten 0,21 fps/W bei der GeForce GTX 480 unter DirectX11 sind immer noch deutlich schlechter als die 0,27 fps/W der Radeon HD 5870 – man sollte sich hier von den absoluten Zahlen nicht täuschen lassen, dies ist eine Differenz von runden 30 Prozent. Und selbst unter nVidias Beispiel mit Metro 2033 kommt letztlich bei unserer Nachrechnung nur dasselbe Verhältnis Performance/Stromverbrauch zwischen ATI und nVidia heraus – und kein (beachtbarer) Vorteil zugunsten der GeForce GTX 470/480 Karten. Aus der Falle des zu hohen Stromverbrauchs kann sich nVidia mit dieser Argumentation also unserer Meinung nach nicht befreien. Zudem liegt das größere Problem je sowieso in den absoluten Stromverbrauchs-Werten, die bei nVidia einfach augenscheinlich zu groß sind: Die Radeon HD 5870 ist eine 150-Watt-Karte, was an der oberen Grenze dessen liegt, was für eine SingleChip-Lösung gangbar ist. Die GeForce GTX 480 ist dagegen eine 230-Watt-Karte, was für eine SingleChip-Lösung unabhängig deren Performance jenseits von gut und böse liegt.

Oder zumindest ist die Performance der GeForce GTX 480 nicht überzeugend weit genug weg von der Radeon HD 5870, um über diesen erheblichen Nachteil beim Stromverbrauch einfach hinwegsehen zu können. Nur wenn man die Angelegenheit unter dem absoluten HighEnd-Gedanken ansieht – Performance über alles – ist dieser Punkt irgendwie ignorierbar. Doch dies dürfte nur auf einen gewissen Teil der potentiellen Käuferschaft zutreffen, bei vielen potentiellen Käufern dürfte dagegen der hohe Stromverbrauch ein deutliches Gegenargument zur GeForce GTX 480 sein. Bei der GeForce GTX 470 ist dies nicht ganz so schlimm: Das Verhältnis Performance/Stromverbrauch ist zwar genauso schlecht wie bei der GeForce GTX 480 und es wird noch nicht einmal eine bessere Performance als bei der Radeon HD 5870 geboten – aber die 180 Watt Spiele-Verbrauch der GeForce GTX 470 sind wenigstens nicht so deutlich entfernt von den 150 Watt Spiele-Verbrauch der Radeon HD 5870 wie die 230 Watt Spiele-Verbrauch der GeForce GTX 480.

Legion Hardware haben sich mit den Grafik-Tweakmöglichkeiten unter Battlefield: Bad Company 2 beschäftigt. Eine Methode scheint dabei der Verzicht auf die bessere DirectX10-Optik zu sein, denn unter DirectX9 stiegen die Frameraten doch um zwischen 20 und 35 Prozent an. Erstaunlicherweise waren dabei die größeren Erfolge nur unter QuadCore-Prozessoren zu erzielen, mit DualCore-Modellen war der Frameratengewinn dieser Maßnahme immer eher unterdurchschnittlich und manchmal sogar gar nicht mehr vorhanden. Der Performanceunterschied zwischen der Medium- und der High-Bildqualität des Spiels ist dagegen eher gering und schwankt zwischen 0 und bestenfalls 20 Prozent. Deutlich mehr gewinnen kann man durch die Low-Bildqualität des Spiels, hier sind 45 Prozent Performancegewinn gegenüber der Medium-Bildqualität möglich. Wer sich aber durchgehende Low-Bildqualität nicht antun will, für den haben Legion Hardware einen Mittelweg herausgefunden: Die Medium-Bildqualität nur mit der Schatten-Qualität auf Low erbringt mit 25 Prozent ebenfalls schon ein gutes Performanceplus, der Nachteil der niedrigeren Schattenqualität fällt laut den angefertigten Screenshots nicht so dramatisch ins Gewicht.

Neben den ganzen bewußten Aprilscherzen (der Planet 3DNow! gleich mit drei Stück) gab es bei TweakPC wahrscheinlich auch einen unbewußten Aprilscherz in Form der Meldung über eine angebliche Radeon HD 5890 mit 1100 MHz Chiptakt, 2 GB Speicher und gleich drei DVI-Anschlüssen. Die Quelle in Form eines entsprechendes Bild bei Twitpic datiert zwar schon vom 31. März – allerdings dürfte das angezeigte Datum dem Twitter-Server zu US-Zeit entsprechen, während der postende User als Chinese (mit rund einem halben Tag Zeitvorsprung) möglicherweise schon im 1. April war. Ob es nun als Aprilscherz geplant war oder einfach nur Fake ist, in jedem Fall spricht wenig für eine solche Karte: Das gezeigte Bild ist selber schon Unsinn, da hier das Layout einer Radeon HD 5970 abgebildet ist – soviel Platz braucht eine SingleChip-Lösung sicherlich nicht, auch nicht bei einem höheren Chiptakt. Zugleich sind die (ausschließlich) drei DVI-Anschlüsse eher ungewöhnlich – wenigstens ein HDMI-Anschluß ist heutzutage eigentlich Standard und oftmals auch unabänderbare Anforderung von OEMs und Großkunden.

Die 1100 MHz Chiptakt erscheinen zudem als eher unerreichbar für eine Serienkarte – gerade da von TSMCs 40nm-Fertigung nun eher das Gegenteil von großen Produktionserfolgen gemeldet wird. Sicherlich benötigt die Radeon HD 5870 ungefähr 1100 MHz Chiptakt (ca. 29 Prozent mehr Rechenleistung), um die GeForce GTX 480 zu erreichen, aber dies dürfte schwerlich aus dem RV870/Cypress-Chip herauszuprügeln sein. Vor allem aber spricht ein ganz praktisches Argument gegen eine solche Radeon HD 5890: Derzeit sind auch bei ATIs HighEnd-Lösungen wieder einmal viel weniger Karten lieferbar als es Bestellungen gibt – somit braucht man, auch da die neuen HighEnd-Lösung von nVidia nicht wirklich überzeugend sind, derzeit keinesfalls neue Angebote in diesem Marktsegment. Eine potentielle Radeon HD 5890 würde zudem auch die ATI-Argumentation der klar besseren Stromaufnahme zusammenbrechen lassen, denn 1100 MHz Chiptakt sind nur unter Spannungszugabe zu erreichen (welche die Stromaufnahme gleich quadratisch erhöht) – eine solche Karte käme somit schnell auf einen Spiele-Verbrauch von 220 bis sogar 250 Watt, je nach Spannungszugabe. Dies ist kaum mit der aktuellen ATI-Strategie zu vereinen, insofern würde eine Radeon HD 5890 zu diesen Bedingungen doch sehr verwundern.