28

News des 28. Januar 2009

Gemäß Fudzilla wird die allererste 40nm-Grafikkarte nicht von ATI kommen und nicht für das Mainstream- oder HighEnd-Segment gedacht, sondern eine nVidia-Lösung für das LowCost-Segment sein. Gemeint ist hier der GT218-Grafikchip, welcher für das obere LowCost-Segment gedacht ist und dort in denselben Bereich hineingehen soll, in welchem derzeit die verschiedenen GeForce 9500 Karten sitzen. Prinzipiell gesehen hört sich dies ungewöhnlich an, daß der erste Chip einer neuen Fertigungstechnologie ausgerechnet ein LowCost-Modell sein soll – aber letztlich soll die restliche 40nm-Modellpalette ziemlich direkt im Anschluß nachfolgen und womöglich hat nVidia bei dem einfacher gestrickten LowCost-Chip die Vorbereitung zur Massenfertigung einfach früher fertig bekommen als bei den komplexeren Chips für die Mainstream- und HighEnd-Segmente.

Generell gesehen klärt sich langsam aber sicher die Lage bei der Vielzahl der in der Vergangenheit genannten nVidia-Codenamen der 40nm-Generation: Der GT218 ist für das LowCost-Segment in Ersatz der GeForce 9500 Serie und womöglich (mit Abspeckungen) auch der GeForce 8400 und 9400 Serien, der GT216 ziemlich sicher für das Mainstream-Segment in Ersatz der GeForce 9600 Serie. Beide Grafikchips sind mit einigen Performance-Steigerungen gegenüber ihren jeweiligen Vorgängern zu erwarten, nVidia hat hierbei schließlich noch einiges nachzuholen. Etwas unklar ist die Lage noch beim GT212-Chip, zu welchem bislang alle drei Möglichkeiten genannt wurden: Die erste Möglichkeit wäre ein Hardware-technisch kleinerer Chip gegenüber dem GT200 der GeForce GTX 200 Serie, welcher mit höheren Taktraten knapp dieselbe Performance wie diese Grafikkartenserie bietet.

nVidia hatte so etwas schließlich schon einmal mit dem G92-Chip getan, welcher deutlich kleiner war als der vorhergehende G80-Chip, diesen aber letztlich dennoch ersetzt hat. Der Nachteil dieser Lösung läge allerdings darin, daß nVidia dann mit dem GT200b in 55nm als schnellster Lösung im "echten" HighEnd-Bereich weiter auskommen müsste – ob das gegenüber der neuen HighEnd-Lösung von ATI reicht, bliebe abzuwarten (wobei ja auch zu dieser noch lange nicht klar ist, wieviel diese letztlich an Performance drauflegen wird). Der große Vorteil einer solchen Lösung wäre allerdings, daß man gegenüber den Radeon HD 4850/4870 Karten endlich einmal einen Gegenpart hätte, welcher sowohl von der Performance als auch der Kostenstruktur her passen würde.

Die zweite Möglichkeit ist ein GT212 einfach als GT200 in 40nm, welcher dann wahrscheinlich klar höher getaktet antreten könnte. Hiermit würde man einen ordentlichen Leistungssprung hinlegen, den ATI gar nicht einmal ohne weiteres kontern kann. Allerdings würde dann weiterhin eine passende Lösung im Performance-Bereich als Kontrahent der Radeon HD 4850/4870 fehlen. Hier müsste es dann eigentlich einen extra Grafikchip von nVidia geben – es sei denn, der Mainstream-Grafikchip GT216 wird von nVidia so hoch angesiedelt, daß dieser jene Aufgabe noch mit bewältigen kann – nicht gerade die wahrscheinliche Annahme, aber auch nicht ganz auszuschließen.

Gleiches trifft auch auf die dritte Möglichkeit zu, nach welcher der GT212-Chip eine aufgebohrte GT200-Version ist, mit mehr Ausführungseinheiten und mehr Taktrate. Damit würde nVidia die Performance im HighEnd-Segment deutlichst steigern – zurückbleiben würde allerdings die Frage, an wen eine solche Karte dann verkauft werden soll. Denn die Performance einer solchen Lösung wäre so hoch, daß auch ein entsprechender Preis und damit nur eine äußerst geringe potentielle Käuferschicht obligatorisch erscheinen. Und daß es letztlich nichts bringt, die schnellste Lösung im Markt zu haben, wenn man diese nicht zu attraktiven Preispunkten anbieten kann, dürfte nVidia aus den Erfahrungen der letzten Monate gelernt haben.

Damit muß offenbleiben, wie nVidia das Performance- und HighEnd-Segment seiner 40nm-Generation letztlich gestalten wird, derzeit sind in der Tat noch alle Möglichkeiten offen. Würde es nur danach gehen, was nVidia derzeit in unseren Augen benötigt, dann wäre ein Performance-Grafikchip mit sagen wir 70-90 Prozent der Performance des GT200-Chips auf jeden Fall das, was derzeit den größten Effekt bringen würde. Damit könnte nVidia im wichtigen Preissegment von 130 bis 200 Euro wieder etwas reißen, wo man derzeit nur G9x-Chips anzubieten hat, die ihren Zenit einfach überschritten haben. Ob nVidia wirklich eine neue "echte" HighEnd-Lösung benötigt, hängt dagegen maßgeblich davon ab, was ATI dem RV790-Chip an Mehrperformance mit auf den Weg geben wird.

Wie die ComputerBase berichtet, hat nVidia bei den neuen GeForce GTX 285/295 Karten das "Hybrid-SLI" Feature komplett gestrichen – für diese Karten wäre zwar sowieso niemals die SLI-Zusammenarbeit mit einem integrierten Grafikchip in Frage gekommen, dafür aber auf jeden Fall das untergeordnete Stromsparfeature "HybridPower". Dieses ist nun ebenfalls mit diesen Grafikkarten nicht mehr möglich, obwohl es eigentlich eine sehr gute Variante darstellt, gerade mit HighEnd-Grafikkarten im Windows-Betrieb jede Menge Strom zu sparen. nVidia gab hierzu zur Begründung an, daß Hybrid-SLI durch zusätzliche Chips beziehungsweise Kompatibilitätstests die entsprechende Hardware verteuert habe, was wohl in erster Linie bei den großen OEMs nicht gut angekommen ist.

Auf Grundlage dieser Begründung ist wohl auch nicht davon auszugehen, daß das Feature bei kleineren Grafikkarten weiterleben wird, nVidia dürfte dieses wohl doch gänzlich aus dem Markt nehmen. Sicherlich konnte dieses Feature sowieso nur in Kombination einer nVidia-Grafikkarte mit einem Mainboard-Chipsatz von nVidia angewendet werden, nichtsdestotrotz ist speziell HybridPower eine technologisch wertvolle Weiterentwicklung, welche nun völlig zu Unrecht aus dem Markt geht. Andererseits könnte man nunmehr sagen, daß sich die Hersteller von Mainboard-Chipsätzen langsam aber sicher einmal aufraffen und einen allgemeingültigen Standard zur Abschaltung einer extra Grafikkarte zugunsten einer integrierten Grafiklösung (für den Windows-Betrieb) schaffen könnten. Gerade die Mainboard-Hersteller hecheln doch immer wie verrückt neuen Features hinterher, weil sich ohne neue Feature neue Mainboards schlecht verkaufen lassen – hier wäre eine gute Gelegenheit, Featuritis und Kundennutzen zu verbinden.

Die Elite Bastards haben die Sapphire Radeon HD 4670 GDDR4 im Test, eine Radeon HD 4670 mit ungewöhnlicherweise GDDR4- anstatt GDDR3-Speicher. Vermutlich werden hiermit GDDR4-Restbestände abgesetzt, welche noch in den Lägern vorhanden sind und mangels neuer regulärer GDDR4-Grafikkarten auch kaum noch absetzbar sind. Den Endkunden muß das natürlich nicht stören, wenn die Performance stimmt – und um dies sicherzustellen, hat Sapphire der Karte einen um 100 MHz aka 10 Prozent höheren Speichertakt spendiert. Schließlich ist GDDR4 (und auch GDDR5, da dieselbe technische Basis) auf gleichem Takt immer etwas langsamer als GDDR2/GDDR3, wenngleich es zuletzt wenig Möglichkeiten gab, dies zu vergleichen (der letzte gute Vergleich war die Radeon HD 2600 XT – und das ist schon ein wenig her).

Insofern ist dieser Test auch abseits der Radeon HD 4670 interessant in der Frage, was GDDR4/GDDR5 an Mehrtakt benötigt, um auf dieselbe Leistung wie GDDR2/GDDR3 zu kommen. Gemäß den Messungen der Elite Bastards liegt die GDDR4-Karte bei wie gesagt 10 Prozent mehr Speichertakt unter der Auflösung von 1280x1024 mit 4x Anti-Aliasing um 5,1 Prozent vorn, unter der Auflösung von 1680x1050 mit 4x Anti-Aliasing sind es 6,1 Prozent. Bereinigt um den Mehrtakt der GDDR4-Lösung liegt der Unterschied also bei maximal 5 Prozent, was GDDR4/GDDR5 auf gleichem Takt langsamer ist – eher ist es weniger, vermutlich nur im Rahmen von 2 bis 3 Prozent. Dies ist auf jeden Fall deutlich weniger, als es bei den ersten Versuchen mit GDDR4-Speicher bei der Radeon HD 2600 XT der Fall war – insofern kann man den Nachteil von GDDR4/GDDR5-Speicher bei der Pro/MHz-Leistung inzwischen als vernachlässigbar ansehen.