nVidia stellt die ersten Mainstream Direct3D10-Grafikkarten vor

Dienstag, 17. April 2007
 / von Leonidas
 

Mit dem heutigen Tag kommen nun endlich auch erste Mainstream-Grafikkarten aus der Direct3D10-Generation in den Markt. Wie schon beim HighEnd-Chip G80 ist auch hier wieder nVidia der Vorreiter, wenngleich natürlich auch von ATI demnächst ähnliches zu erwarten ist. Die primäre Aufgabe der neu in den Markt kommenden Karten ist dabei natürlich die Ablösung der "alten" Mainstream-Generation um die Chips G73 (GeForce 7600 Serie) und G71 (GeForce 7900/7950 Serie). Gleichzeitig setzt man damit aber auch den Grundstein für die Durchsetzung von Direct3D10-Grafikkarten im Markt, schließlich sind die bisherigen Verkäufe der HighEnd-Lösungen GeForce 8800 GTS und GTX natürlich bei weitem nicht ausreichend, um von einem beachtbaren Marktanteil an verkauften Direct3D10-Lösungen zu sprechen.

Für den interessierten User dürfte aber in erster Linie interessant sein, daß sich nun Direct3D10-Hardware auch in der Preisspanne von 100 bis 200 Euro erwerben läßt. Hierzu wirft nVidia zwei neue Grafikchips in die Waagschale: Die LowCost-Lösung G86 und die Mainstream-Lösung G84. Über beide wurde in letzter Zeit an dieser Stelle schon viel berichtet und auch wurden schon viele (letztlich passende) Informationen zusammengetragen – beim entscheidenden Punkt der Anzahl der Shader-Einheiten irrte die Vorab-Berichterstattung allerdings: So spendierte nVidia dem G84-Chip nur vier Vec8-ALUs und damit ganze 32 Shader-Einheiten.

Die Funktionsblöcke wurden allerdings dahingehend verändert, das die beim G80-Chip noch doppelt ausgelegten Textureneinheiten, welche jedoch nur eine einfach ausgelegte Addressierungseinheit besitzen, nunmehr zwei Adressierungseinheiten spendiert bekamen und daher als zwei extra Textureneinheiten gewertet werden können. Demzufolge hat der G84-Chip nicht zwei Quad-TMUs, sondern gleich zwei Octo-TMUs, insgesamt also 16 Textureneinheiten. Gegenüber dem G80-Chip ist das natürlich trotzdem eine herbe Abspeckung, dieser besitzt glatt das Vierfache an reiner Rechenleistung, nämlich immerhin 128 Shader-Einheiten (16 Vec8-ALUs).

Beim Speicherinterface wird es wie schon vorab berichtet nicht mehr als ein 128 Bit DDR-Interface mit 8 ROPs geben (nVidia bindet die ROPs ans Speicherinterface) – auch hier hat der G80-Chip deutlich mehr zu bieten: Dessen 384 Bit breites DDR-Interface samt 24 ROPs ergeben das Dreifache des G84-Chips. Insofern erscheint der neue Mainstream-Grafikchip G84 doch arg beschnitten gegenüber der GeForce 8800 Serie zu sein – mit auch der Auswirkung, das sich die GeForce 8600 Serie wohl ziemlich abstrampeln wird müssen, um überhaupt gegenüber den bisherigen Mainstream-Grafikkarten bestehen zu können.

Daneben wurde noch der LowCost-Grafikchip G86 vorgestellt, dessen größte Ausführung GeForce 8500 GT das untere Ende des Mainstream-Marktes darstellen wird. Beim G86-Chip gibt es dann nur noch zwei Vec8-ALUs (16 Shader-Einheiten) mit einer Octo-TMU (8 Textureneinheiten), allerdings blieb das Speicherinterface wenigstens bei 128 Bit DDR. Allerdings sind in Form von GeForce 8300 GS und 8400 GS noch weitere G86-Ausführungen in Planung, welche dann nur noch mit 64 Bit breitem DDR-Interface antreten werden. Diese beiden letztgenannten Karten hat nVidia heute aber noch nicht vorgestellt, erst einmal kommen GeForce 8500 GT, 8600 GT und 8600 GTS in den Markt:

  GeForce 8500 GT GeForce 8600 GT GeForce 8600 GTS
Chip-Basis nVidia G86
210 Millionen Transistoren in 80nm bei TSMC
nVidia G84
289 Millionen Transistoren in 80nm bei TSMC
Technologie-Klasse Direct3D10, Shader 4, unified Shader-Architektur
Shader-Einheiten zwei Vec8-ALUs (insgesamt 16 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten)
Texturen-Einheiten eine Octo-TMU (ingesamt 8 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten)
Raster Operation Units (ROPs) ? 8 8
Speicherinterface 128 Bit DDR 128 Bit DDR 128 Bit DDR
Speicherbestückung 256 MB 256 MB 256 MB
allgemeiner Chiptakt 450 MHz 540 MHz 675 MHz
Shader-Takt 900 MHz 1190 MHz 1450 MHz
Speichertakt 400 MHz 700 MHz 1000 MHz
Bauform PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, alle Varianten sind vollständig HDCP-kompatibel
Leistungsaufnahme unbekannt (Karten haben keinen extra Power-Anschluß) 43 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) 71 Watt realer Verbrauch (Karten haben extra Power-Anschluß)
Listenpreis 89 – 129 Dollar 149 – 159 Dollar 199 – 229 Dollar
Bild Referenzmodell nVidia GeForce 8500 GT (Referenzmodell) nVidia GeForce 8600 GT (Referenzmodell) nVidia GeForce 8600 GTS (Referenzmodell)

Wie gut zu sehen, liegt zwischen den beiden G84-Vertretern damit "nur" ein Taktunterschied von zwischen 20 und 40 Prozent, was sich aber recht gut mit dem Listenpreis-Unterschied von 33 Prozent deckt. Die GeForce 8500 GT hat hingegen nur die Hälfte der Render-Einheiten einer GeForce 8600 GT und dazu auch noch klar niedrigere Taktraten – hier dürfte wohl ein deutlicherer Performanceunterschied zu erwarten sein, als es die 50 Prozent Listenpreis-Unterschied vermuten lassen.

Leider gibt es derzeit kaum Benchmarks zur GeForce 8500 GT, primär haben sich die bisherigen Artikel zu den neuen Mainstream-Grafikkarten von nVidia mit den Modellen GeForce 8600 GT und GTS beschäftigt. Nachfolgend die Liste der derzeit im Netz diesbezüglich zu findenden Artikel:

Dabei kommen GeForce 8600 GT und GTS in den meisten dieser Tests zumindestens bezüglich der reinen Performance erstaunlich mittelmäßig weg. Viele Tests berichten von einer Performance der GeForce 8600 GT nur 20 Prozent überhalb der GeForce 7600 GT, währenddessen die GeForce 8600 GTS oftmals nur auf dem Niveau von Radeon X1950 Pro und GeForce 7900 GS rangiert. Dabei haben GeForce 8600 GT und GTS insbesondere ihre Probleme in Auflösungen oberhalb von 1280x1024 – auf der anderen Seite muß man sich aber auch eingestehen, das Mainstream-Grafikkarten im gewöhnlichen nicht für Auflösungen von 1600x1200 und mehr gebaut werden.

Das eigentliche Problem der GeForce 8600 GT und GTS ist dabei jedoch nicht der Abstand zur vorhergehenden Mainstream-Generation in Form von Radeon X1600/X1650 und GeForce 7600 Serie, diese Karten können die neuen Direct3D10-Beschleuniger sicherlich ausstechen. Das Problem der GeForce 8600 GT und GTS sind vielmehr die aktuell im Preisbereich von 150 bis 200 Euro angebotenen Mainstream-Beschleuniger der DirectX9-Klasse, welche unter der Haube sämtlich aus dem HighEnd-Bereich stammende Grafikchips besitzen. Gegen die technische Überlegenheit dieser Karten könnten GeForce 8600 GT und GTS allerhöchstens mit einem besseren Preis punkten, allerdings sieht die aktuelle Preislage derzeit eher umgedreht aus:

ATIs "alte" Mainstream Grafikkarten nVidias neue Mainstream Serie nVidias "alte" Mainstream Grafikkarten
- - GeForce 7950 GT
256 MB ca. 220 Euro
512 MB ca. 220 Euro
Radeon X1950 XT
256 MB ca. 200 Euro
512 MB ca. 220 Euro
GeForce 8600 GTS
256 MB ca. 200 Euro
-
- - GeForce 7900 GT
256 MB ca. 180 Euro
Radeon X1950 Pro
256 MB ca. 150 Euro
512 MB ca. 180 Euro
- GeForce 7900 GS
256 MB ca. 150 Euro
512 MB ca. 170 Euro
Radeon X1900 GT
256 MB ca. 130 Euro
GeForce 8600 GT
256 MB ca. 130 Euro
-
- - GeForce 7600 GT
256 MB ca. 110 Euro
Radeon X1650 XT
256 MB ca. 80 Euro
512 MB ca. 90 Euro
GeForce 8500 GT
256 MB ca. 90 Euro
GeForce 7600 GS
256 MB ca. 80 Euro
512 MB ca. 100 Euro

Nach der jüngsten Preisentwicklung (die GeForce 8600 GT fiel innerhalb der ersten drei Stunden nach dem Launchtermin um 15 Uhr von 150 auf 130 Euro) scheint sich die GeForce 8600 GT zumindestens nVidia-intern passabel einordnen zu können: Dem Mehrpreis gegenüber der GeForce 7600 GT steht wohl auch eine halbwegs gleiche Mehrperformance gegenüber – auch wenn man sich diese durchaus größer vorstellen könnte. Gegenüber der (allerdings nur noch selten angebotenen) Radeon X1900 GT wird es dagegen schon kritischer, da diese Karte nur geringfügig hinter einer Radeon X1950 Pro zurückliegt und schon die deutlich schneller getaktete GeForce 8600 GTS so ihre Schwierigkeiten hat, sich gegenüber dieser zu behaupten.

Die GeForce 8600 GTS hingegen erscheint zum derzeitigen Preis (welcher innerhalb der ersten Stunden nach dem Launch stabil blieb) nicht konkurrenzfähig – schließlich gibt es dafür schon eine Radeon X1950 XT, welche eigentlich durchgehend erheblich mehr Performance in die Waagschale werfen kann. Da die GeForce 8600 GTS derzeit von der Performance her ungefähr auf dem Niveau von GeForce 7900 GS/GT und Radeon X1950 Pro rangiert, müsste der Preis dieser Karte demzufolge wenigstens in die Nähe von 150 Euro absinken, um die GeForce 8600 GTS attraktiv zu halten.

Ob dies passiert, kann derzeit sicherlich trefflich spekuliert werden – schließlich gab es in der Vergangenheit mehr als ausreichend Hardware-Launches, wo sich die zum Launch angesetzten Startpreise nur wenige Wochen hielten und dann auf ein statthaftes Niveau heruntergingen. Auf der anderen Seite kann man auch genauso gut einwerfen, daß eine neue Hardware, welche schon zum Start weg kein überzeugendes Preis/Leistungsverhältnis bietet, auch mit einigen Preissenkungen niemals ein wirklich gutes Preis/Leistungsverhältnis erreichen wird können.

Insofern erscheint es ganz so, als hätte nVidia mit dem Mainstream-Direct3D-Grafikchip G84 ein gutes Stück zu kurz gegriffen bzw. den Rotstift bei den Abspeckungen zum G80-Chip zu heftig angesetzt. Dies mag womöglich auch damit zusammenhängen, daß zu Zeiten der G84-Entwicklung noch niemand ahnen konnte, das ATI und nVidia derzeit ehemalige HighEnd-Grafikchips mittels Grafikkarten für teilweise klar unter 200 Euro geradezu verschleudern. Dies wird den Markterfolg von GeForce 8600 GT und GTS gerade im OEM-Bereich natürlich kaum verhindern können, schließlich zieht dort primär Direct3D10 als Verkaufsargument. Ob sich die GeForce 8600 GT und GTS Karten allerdings im Retailmarkt gut verkaufen können, wäre vorerst zu bezweifeln – dafür sind die Leistungen der gleichpreisigen DirectX9-Konkurrenz derzeit einfach zu überzeugend.