17

News des 17. Juni 2008

In unserem aktuellen Artikel zu den technischen Feinheiten des GT200-Chips (Was bringt uns der GT200?) gibt es die schöne Aussage, daß der GT200-Chip praktisch der "echte" Refresh zum G80-Chip (GeForce 8800 GTS/GTX/Ultra) sei – und eigentlich nicht der dazwischengeschobene G92-Chip (GeForce 8800 GT/GTS & 9800 GTX/GX2), welcher schließlich auf SingleChip-Niveau nicht mehr Performance brachte, sondern vielmehr eher zur kostengünstigeren Fertigung gedacht erscheint. Gleichfalls soll aber auch zum GT200-Chip noch einmal ein weiterer Refresh-Chip zu erwarten sein, welcher der kostengünstigeren Fertigung oder/und der Taktratensteigerung dienen kann. Und in der Tat erscheint ein solcher Chip notwendig, denn nVidias GT200-Design ist (auch für die Platine) derart aufwendig, daß sich damit eben nur HighEnd-Modelle fertigen lassen.

Sobald diese aber eines Tages altern und damit zwangsläufig im Absatzpreis sinken, müssen ebenfalls die Kosten runter – nicht einfach bei 1,4 Milliarden Transistoren in 65nm (bei einer Chipfläche von 576 mm²) und zudem aufgrund des Strombedarfs sowie des breiten Speicherinterfaces aufwendigen Platinenlayouts. Denkbar wäre hier zum einen eine GT200-Ausführung in 55nm, Auftragsfertiger TSMC beherrscht diesen Fertigungsprozeß inzwischen problemlos und könnte hier wohl auch recht schnell liefern. Nachteiligerweise bringt diese Fertigung aber keine erheblichen Vorteile, so daß nVidia bei dieser wohl nur den damit günstigeren Fertigungspreis mitnehmen dürfte und der Endverbraucher nur einen etwas geringeren Stromhunger auf der Haben-Seite hätte.

Andererseits wäre es denkbar, daß ein Refresh des GT200-Chips auch gleich in 45nm aufgelegt wird, hiermit hätte nVidia dann auch wieder Spielraum bei den Taktfrequenzen. Technisch kann TSMC die 45nm-Fertigung schon beherrschen, der Beginn der Massenfertigung liegt allerdings erst im zweiten Halbjahr 2008 – und es ist nicht klar, ob man anfänglich dann auch schon solche Silizium-Monster wie den GT200 in 45nm fertigen kann. Zudem ist nVidia seit dem Debakel mit dem NV30-Chip (GeForceFX 5800) ein gebranntes Kind, wenn es um den erstmaligen Einsatz neuer Fertigungstechnologien gleich bei einem Prestigeprojekt geht. Auf der anderen Seite könnte man somit das GT200-Design (bzw. einen Refresh davon) noch weit bis ins Jahr 2009 retten und erst danach mit einer wirklich neuen Architektur auf Basis von Direct3D11 antreten.

Bei Legion Hardware hat man sich mit der Grafikkarten-Performance unter der PC-Version von Devil May Cry 4 beschäftigt, die Demo-Version des Spiels enthält einen hierfür nutzbaren Benchmark-Part. Das Spiel nutzt dieselbe Engine wie Lost Planet und bietet dementsprechend auch DirectX9- und Direct3D10-Modi an. Zum Benchmarken benutzten Legion Hardware allerdings nur den DirectX9-Modus, da im Direct3D10-Modus erstaunlicherweise einige häufig benutzte Auflösungen fehlten. Allerdings soll der Unterschied zwischen der Performance zwischen beiden Darstellungsmodi gering sein, sowohl ATI- als auch nVidia-Grafikkarten sollen hier nur wenig an Performance durch Direct3D10 verlieren. Dementsprechend steht zu vermuten, daß es ähnlich wie bei Lost Plant auch keinen besonderen optischen Unterschied gibt, dieser Punkt wurde aber nicht weiter erörtert.

Die dann durchgeführten DirectX9-Tests zeigen deutlich, daß das Spiel ab einer Radeon HD 3850 (respektive GeForce 9600 GT) problemlos in der HighQuality auch zusammen mit 4x Anti-Aliasing nutzbar ist, selbst die genannten Grafikkarten erreichten hier unter der schon hohen Auflösung von 1920x1200 immer noch über 35 fps in jedem einzelnen der vier Benchmark-Demos. Selbst die älteren Mainstream-Lösungen Radeon HD 2600 XT und GeForce 8600 GTS lagen bis zur Auflösung von 1440x900 unter HighQuality mit 4x Anti-Aliasing überall noch überhalb von 25 fps. Das Spiel verlangt also nicht gerade nach besonders viel Hardware-Power, was die Besitzer kleinerer Grafiklösungen aber nur freuen dürfte.

An der Leistungsspitze hat sich dann deutlich nVidia festgesetzt, auch im direkten Vergleich von mit halbwegs dem gleichem Preis antretenden ATI- und nVidia-Karten (Radeon HD 3850 vs. GeForce 9600 GT, Radeon HD 3870 vs. GeForce 8800 GT) liegt regelmäßig nVidia vorn. Die Unterschiede sind aber nicht groß, sondern rangieren regelmäßig nur im einstelligen Prozentbereich. Deutlich auffallend ist zudem, daß die DualChip-Lösungen Radeon HD 3870 X2 und GeForce 9800 GX2 sich überall den vergleichbaren SingleChip-Varianten geschlagen geben müssen. Offensichtlich verfügt das Spiel noch über keinerlei MultiChip-Optimierung – wobei selbst dann verwunderlich ist, daß es geradezu überhaupt keinen Performance-Gewinn durch SLI bzw. CrossFire gibt.

Daneben wären noch die Benchmarks der Radeon HD 2900 XT zu erwähnen, welche Legion Hardware dankenswerterweise mit in ihren Artikel aufgenommen haben. Diese Karte ist nun zwar längst ausgelaufen, dennoch zeigt das originale R600-Design nochmal die Zähne und verwickelt ihren direkten Nachfolger in Form der Radeon HD 3870 in einem packenden Zweikampf. Dabei zeigt sich die neuere Karte als insgesamter Sieger mit allerdings eher hauchdünnem Vorsprung: Die Radeon HD 3870 liegt zwar in den meisten Vergleichen vorn, die Radeon HD 2900 XT kommt aber mit steigender Auflösung dieser immer näher und bietet somit genau dort Performance, wo es darauf ankommt. Hier zeigt der R600-Chip noch einmal seine Schlagkräftigkeit – wobei es ATI natürlich beim nachfolgenden RV670-Chip sowieso um andere Punkte ging und somit die Radeon HD 3870 aufgrund des besseren Preises und der klar geringeren Leistungsaufnahme das deutlich rundere Design darstellt.

In unserem aktuellen Artikel zu den technischen Feinheiten des GT200-Chips (Was bringt uns der GT200?) gibt es die schöne Aussage, daß der GT200-Chip praktisch der "echte" Refresh zum G80-Chip (GeForce 8800 GTS/GTX/Ultra) sei - und eigentlich nicht der dazwischengeschobene G92-Chip (GeForce 8800 GT/GTS & 9800 GTX/GX2), welcher schließlich auf SingleChip-Niveau nicht mehr Performance brachte, sondern vielmehr eher zur kostengünstigeren Fertigung gedacht erscheint. Gleichfalls soll aber auch zum GT200-Chip noch einmal ein weiterer Refresh-Chip zu erwarten sein, welcher der kostengünstigeren Fertigung oder/und der Taktratensteigerung dienen kann. Und in der Tat erscheint ein solcher Chip notwendig, denn nVidias GT200-Design ist (auch für die Platine) derart aufwendig, daß sich damit eben nur HighEnd-Modelle fertigen lassen.

Sobald diese aber eines Tages altern und damit zwangsläufig im Absatzpreis sinken, müssen ebenfalls die Kosten runter - nicht einfach bei 1,4 Milliarden Transistoren in 65nm (bei einer Chipfläche von 576 mm²) und zudem aufgrund des Strombedarfs sowie des breiten Speicherinterfaces aufwendigen Platinenlayouts. Denkbar wäre hier zum einen eine GT200-Ausführung in 55nm, Auftragsfertiger TSMC beherrscht diesen Fertigungsprozeß inzwischen problemlos und könnte hier wohl auch recht schnell liefern. Nachteiligerweise bringt diese Fertigung aber keine erheblichen Vorteile, so daß nVidia bei dieser wohl nur den damit günstigeren Fertigungspreis mitnehmen dürfte und der Endverbraucher nur einen etwas geringeren Stromhunger auf der Haben-Seite hätte.

Andererseits wäre es denkbar, daß ein Refresh des GT200-Chips auch gleich in 45nm aufgelegt wird, hiermit hätte nVidia dann auch wieder Spielraum bei den Taktfrequenzen. Technisch kann TSMC die 45nm-Fertigung schon beherrschen, der Beginn der Massenfertigung liegt allerdings erst im zweiten Halbjahr 2008 - und es ist nicht klar, ob man anfänglich dann auch schon solche Silizium-Monster wie den GT200 in 45nm fertigen kann. Zudem ist nVidia seit dem Debakel mit dem NV30-Chip (GeForceFX 5800) ein gebranntes Kind, wenn es um den erstmaligen Einsatz neuer Fertigungstechnologien gleich bei einem Prestigeprojekt geht. Auf der anderen Seite könnte man somit das GT200-Design (bzw. einen Refresh davon) noch weit bis ins Jahr 2009 retten und erst danach mit einer wirklich neuen Architektur auf Basis von Direct3D11 antreten.

Bei Legion Hardware hat man sich mit der Grafikkarten-Performance unter der PC-Version von Devil May Cry 4 beschäftigt, die Demo-Version des Spiels enthält einen hierfür nutzbaren Benchmark-Part. Das Spiel nutzt dieselbe Engine wie Lost Planet und bietet dementsprechend auch DirectX9- und Direct3D10-Modi an. Zum Benchmarken benutzten Legion Hardware allerdings nur den DirectX9-Modus, da im Direct3D10-Modus erstaunlicherweise einige häufig benutzte Auflösungen fehlten. Allerdings soll der Unterschied zwischen der Performance zwischen beiden Darstellungsmodi gering sein, sowohl ATI- als auch nVidia-Grafikkarten sollen hier nur wenig an Performance durch Direct3D10 verlieren. Dementsprechend steht zu vermuten, daß es ähnlich wie bei Lost Plant auch keinen besonderen optischen Unterschied gibt, dieser Punkt wurde aber nicht weiter erörtert.

Die dann durchgeführten DirectX9-Tests zeigen deutlich, daß das Spiel ab einer Radeon HD 3850 (respektive GeForce 9600 GT) problemlos in der HighQuality auch zusammen mit 4x Anti-Aliasing nutzbar ist, selbst die genannten Grafikkarten erreichten hier unter der schon hohen Auflösung von 1920x1200 immer noch über 35 fps in jedem einzelnen der vier Benchmark-Demos. Selbst die älteren Mainstream-Lösungen Radeon HD 2600 XT und GeForce 8600 GTS lagen bis zur Auflösung von 1440x900 unter HighQuality mit 4x Anti-Aliasing überall noch überhalb von 25 fps. Das Spiel verlangt also nicht gerade nach besonders viel Hardware-Power, was die Besitzer kleinerer Grafiklösungen aber nur freuen dürfte.

An der Leistungsspitze hat sich dann deutlich nVidia festgesetzt, auch im direkten Vergleich von mit halbwegs dem gleichem Preis antretenden ATI- und nVidia-Karten (Radeon HD 3850 vs. GeForce 9600 GT, Radeon HD 3870 vs. GeForce 8800 GT) liegt regelmäßig nVidia vorn. Die Unterschiede sind aber nicht groß, sondern rangieren regelmäßig nur im einstelligen Prozentbereich. Deutlich auffallend ist zudem, daß die DualChip-Lösungen Radeon HD 3870 X2 und GeForce 9800 GX2 sich überall den vergleichbaren SingleChip-Varianten geschlagen geben müssen. Offensichtlich verfügt das Spiel noch über keinerlei MultiChip-Optimierung - wobei selbst dann verwunderlich ist, daß es geradezu überhaupt keinen Performance-Gewinn durch SLI bzw. CrossFire gibt.

Daneben wären noch die Benchmarks der Radeon HD 2900 XT zu erwähnen, welche Legion Hardware dankenswerterweise mit in ihren Artikel aufgenommen haben. Diese Karte ist nun zwar längst ausgelaufen, dennoch zeigt das originale R600-Design nochmal die Zähne und verwickelt ihren direkten Nachfolger in Form der Radeon HD 3870 in einem packenden Zweikampf. Dabei zeigt sich die neuere Karte als insgesamter Sieger mit allerdings eher hauchdünnem Vorsprung: Die Radeon HD 3870 liegt zwar in den meisten Vergleichen vorn, die Radeon HD 2900 XT kommt aber mit steigender Auflösung dieser immer näher und bietet somit genau dort Performance, wo es darauf ankommt. Hier zeigt der R600-Chip noch einmal seine Schlagkräftigkeit - wobei es ATI natürlich beim nachfolgenden RV670-Chip sowieso um andere Punkte ging und somit die Radeon HD 3870 aufgrund des besseren Preises und der klar geringeren Leistungsaufnahme das deutlich rundere Design darstellt.