5

News des 4./5. November 2009

Bei TweakPC hat man einfach einmal mittels eines CrossFire-Gespanns aus zwei Radeon HD 5870 Karten die voraussichtliche Performance einer Radeon HD 5970 simuliert. Diese Karte soll nunmehr auf 725/2000 MHz und damit nur den Taktraten einer Radeon HD 5850 antreten – hat aber als Vorteil zur Radeon HD 5850, daß die Hardware-Einheiten nicht beschnitten wurden. Durch den Taktratenunterschied von 17 Prozent beim Chiptakt und 20 Prozent beim Speichertakt kann man natürlich nicht auf die Performance-Werte einer doppelten Radeon HD 5870 kommen – es reicht jedoch trotzdem, um alles deutlich hinter sich zu lassen, was die Konkurrenz so zu bieten hat.

Radeon HD 5870 Radeon HD 4870 X2 Radeon HD 5970 (simuliert) Radeon HD 5870 CrossFire
1680x1050 4xAA 73% 80% 100% 111%
1920x1200 4xAA 72% 78% 100% 112%
2560x1600 4xAA 69% 72% 100% 115%
1680x1050 8xAA 74% 77% 100% 108%
1920x1200 8xAA 71% 76% 100% 110%
2560x1600 8xAA 69% 66% 100% 111%

Gegenüber dem CrossFire-Gespann aus zwei Radeon HD 5870 Karten besteht allerdings noch ein Performanceunterschied von guten 10 Prozent – ATI wird hier also den Preis der Radeon HD 5970 derart anlegen müssen, daß dieser doch ein Stück unter dem Preis zweier Radeon HD 5870 Karten liegt. Dies gilt insbesondere, als daß die Radeon HD 5970 gegenüber einer einzelnen Radeon HD 5870 nicht besonders gut skaliert: Der Leistungsgewinn liegt nur bei runden 40 Prozent, selbst unter Einrechnung des Taktratenunterschieds ist das wenig. Dies liegt aber in erster Linie an der hohen Leistungsfähigkeit dieser Karten, welche unter CrossFire sehr schnell in CPU-Limits laufen: So skaliert auch das Radeon HD 5870 CrossFire-Gespann gewöhnlich nur zwischen 50 und 60 Prozent gegenüber einer einzelnen Radeon HD 5870, was ein klar unterdurchschnittliches CrossFire-Ergebnis darstellt.

Beim Geizhals-Preisvergleich sind erste Listungen zur GeForce GT 240 aufgetaucht, diese Karte soll am 17. November offiziell vorgestellt werden. Aufgeführt wurden dabei ein Angebot zu einer Karte mit 512 MB GDDR5-Speicher und zu zwei Karten mit jeweils 1024 MB GDDR3-Speicher – wobei interessanterweise die beiden letztgenannten mehr kosten sollen als die erstgenannte Kartenversion. Dabei ist die Ausführung mit GDDR5-Speicher sogar unabhängig der Speichermenge immer vorzuziehen, da hierbei der doppelte Speichertakt anliegt und nur damit die Nachteile des nur 128 Bit DDR breiten Speicherinterfaces der GeForce GT 240 ausgeglichen werden. Zudem hat auch nur die Variante mit 512 MB GDDR5-Speicher einen mit 70 Euro angemessenen Preis – etwas mehr als bei der GeForce 9600 GT ist bei einer GeForce GT 240 mit GDDR5-Speicher zu vertreten, bei den GDDR3-Varianten hingegen nicht.

Interessant könnte die GeForce GT 240 für besonders laufruhige Systeme werden, bei welchen zwar eine vernünftige aber keinesfalls hochklassige 3D-Beschleunigung gewünscht wird – die Leistungsklasse der Karte liegt wie gesagt knapp überhalb des Niveaus der GeForce 9600 GT. Gegenüber dieser hat die GeForce GT 240 allerdings den Vorteil der 40nm-Fertigung, was dann in einem Verbrauch klar unterhalb von 75 Watt resultieren sollte – deshalb kommt die GeForce GT 240 auch ohne extra Stromstecker aus. Abzuwarten bliebe natürlich noch, ob nVidia bei dieser Karte auch den Speichertakt im Idle-Modus reduziert, damit auch der Idle-Modus entsprechend stromsparend ist – daß dies ATI bei der Radeon HD 4770 nicht getan hat, ist einer der größten Nachteile dieser ansonsten ebenfalls stromsparenden Mainstream-Karte.

Die EETimes wirft erneut die Vermutung in die Runde, nVidia könnte zukünftig auch x86-CPUs entwickeln, nachdem man weitere Mitarbeiter des ehemaligen x86-Entwicklers Transmeta eingestellt hat. Allerdings läßt dieser Schritt natürlich auch noch andere Auslegungsvarianten zu: Beispielsweise könnten diese x86-Entwickler auch bei dem von nVidia nach wie vor offiziell favoritisiertem Szenario benötigt werden, wo langfristig die CPU als Hauptrechenwerk in den Hintergrund gedrängt und die hauptsächliche Rechenarbeit vom Grafikchip übernommen würde. Auch hierfür ist tieferes x86-Verständnis vonnöten, wenn man eventuell auch frühere x86-Aufgaben auf einem Grafikchip berechnen lassen will. Und gerade Entwickler von Transmeta wären hierfür gut geeignet, da die CPUs von Transmeta alle x86-Befehle in eigene Befehle umgesetzt haben – genau das richtige, wenn man keinen vollständigen x86-Prozessor bauen, sondern nur den x86-Befehlssatz abbilden will.

Andererseits dürfte sich nVidia auch darüber im klaren sein, daß es durchaus nicht zu dem von nVidia favoritisiertem Szenario kommen kann und daß zukünftig eventuell sogar die Rolle der CPUs zunehmen könnte. Zukünftige CPU könnten mit einer Reihe von Spezialkernen für gewisse leistungsfressende Aufgaben aufwarten, zudem könnte die Bedeutung von extra Grafikkarten durch das Aufkommen von RayTracing, Software-Rendering und letztlich Diensten wie OnLive zurückgehen. Möglicherweise deshalb setzt nVidia derzeit so auf GPGPU – auch eingedenk der Tatsache, daß man bisher schon mit den professionellen Karten den Großteil des nVidia-Gewinns erwirtschaftet, erscheint dies als gangbare Ausweichlösung. In einem solchen Szenario würde nVidia allerdings zu einem Nischenanbieter werden – was immer mit einem gewissen Risiko behaftet ist.

Der andere Ausweg wäre in der Tat, selbst zum Systemanbieter aufzusteigen und demzufolge eine eigene Plattform aus CPU, Mainboard-Chipsatz und Grafikchip aufzustellen. Damit wäre man dann auch vor Schwankungen des Markts bezüglich der jeweils präferierten Technologie – CPUs oder Grafikchips als wichtigste Rechenkraft im PC – gefeit. Die ehemaligen Transmeta-Entwickler kann man natürlich auch für diesen Zweck eingestellt haben – ein wirklicher Hinweis auf diese Absicht ist dies aber nicht. Dies würde sich erst dann ergeben, wenn nVidia über den Zukauf eines anderen Unternehmens in den Besitz einer gültigen x86-Lizenz kommen würde – denn ohne diese Lizenz geht letztlich gar nichts, falls man eine eigene x86-CPU auf den Markt bringen will.