nVidia

Sonntag, 28. Oktober 2007
 / von Leonidas
 

nVidia wird ebenfalls mit einem Grafikchip für das Performance-Segment den Reigen der Refresh-Generation eröffnen. Der G92-Chip war ursprünglich für den 12. November angesetzt und soll nunmehr gar schon am 29. Oktober debütieren. Dabei hat dieser Grafikchip in der Fachpresse eine wechselvolle Geschichte hinter sich: Erst als Performance-Chip neben dem G90 gedeutet, mittelfristig dann aber als neue HighEnd-Lösung angesehen, wird der G92 nun doch wieder "nur" das Performance-Segment bedienen. Darauf deuten inzwischen die bekannten technischen Daten, der von nVidia gewählte Verkaufsname und auch die preisliche Einordnung eindeutig hin.

So soll die auf dem G92-Chip basierende GeForce 8800 GT über (wahrscheinlich) 64 Shader-Einheiten und (sicher) ein 256 Bit DDR breites Speicherinterface verfügen. Die nur 64 Shader-Einheiten erscheinen zwar dem einen oder anderen etwas zu knapp, durch die 65nm-Fertigung des G92-Chips ist allerdings noch ein gewisser Taktsprung gegenüber den G80-basierenden Grafikkarten möglich: 600/900 MHz werden die Taktraten der GeForce 8800 GT wohl lauten, der Shader-Takt soll sogar 1500 MHz betragen. Daraus ergibt sich auch, daß gleich 96 Shader-Einheiten bei dieser Karte eher unwahrscheinlich sind: Zusammen mit den höheren Taktraten würde man die GeForce 8800 GTS (ebenfalls 96 Shader-Einheiten, 500/1200/800 MHz) spielend überflügeln – dafür ist der G92-Chip aber nicht gedacht.

Denn schon allein an der preislichen Einordnung (199 Dollar Listenpreis für die 256-MB-Edition, 249 Dollar für die 512-MB-Edition) und auch dem Verkaufsnamen ist abzulesen, daß sich der G92-Chip bzw. die GeForce 8800 GT unterhalb oder knapp an der GeForce 8800 GTS einordnen muß, keinesfalls aber darüber. Dies hat allerdings auch nichts mit Schwäche zu tun, nVidia hat den G92-Chip offensichtlich klar für das 200-Euro-Segment ausgelegt, während ATI seinen RV670-Chip eher für das 250-Euro-Segment ausgelegt hat. Die nicht große preisliche Differenz erklärt dann eben auch den jeweiligen Hardware-Unterschied und wieso beide Grafikchips in ihrer jeweils eigenen Liga spielen.

Allerdings scheint nVidia die Erkenntnis, daß es der G92-Chip nicht mit dem RV670-Chip in seiner höchsten Ausbaustufe aufnehmen kann, zu einem eher ungewöhnlichen Schritt getrieben zu haben: Allem Anschein nach will man eine neue Version der GeForce 8800 GTS auf Basis des G80-Chips auflegen – nur diesesmal mit 112 aktivierten Shader-Einheiten und 56 aktivierten TMUs anstatt 96 bzw. 48 wie bei der originalen GeForce 8800 GTS. Da die Taktraten gleichbleiben sollen und das Speicherinterface nicht angetastet wird, ist keine besonders hohe Mehrperformance gegenüber der GeForce 8800 GTS zu erwarten, es werden wohl 10 bis maximal 15 Prozent werden. Offensichtlich ist diese neue Version der GeForce 8800 GTS dafür gedacht, gegen die Radeon HD 2950 XT zu bestehen, da dies der G92-Chip ziemlich offensichtlich nicht mehr leisten kann.

Bezüglich eines neuen HighEnd-Lösung gibt es ähnlich wie bei ATI zwei verschiedene Standpunkte: Zuerst sprach man von einem G90-Chip, später sollte es dann ein DualChip-Grafikkarte auf G92-Basis werden. Die Vor- und Nachteile sind ähnlich wie bei ATI ausgeführt, einige Indizien sprechen im Fall von nVidia allerdings eher dafür, daß es nVidia mit einem echten HighEnd-Chip versuchen wird: Der stärkste Hinweis ist hier wohl die klare Aussage nVidias, daß deren nächster HighEnd-Chip eine Rechenleistung von nahezu 1 Terraflop erreichen wird. Daß diese Aussage seinerzeit dem G92-Chip zugeordnet wurde, hing damit zusammen, daß dieser damals eben als absolute HighEnd-Lösung angesehen wurde.

Heutzutage ist aber klar, daß der G92-Chip diesen Wert niemals erreichen kann (wenn nVidia wie üblich MADD und MUL zusammenrechnet, sollte die GeForce 8800 GT bei 64 unveränderten Shader-Einheiten und 1500 MHz Shader-Takt ca. 288 Gigaflops erreichen) – es muß also noch eine andere Lösung neben dem G92 geben. Auch dürfte der G92-Chip, sofern dieser tatsächlich mit nur 64 Shader-Einheiten und 1500 MHz Shader-Takt erscheint, selbst als DualChip-Grafikkarte (ca. 576 Gigaflops MADD+MUL) bei der Rechenleistung generell zu schwach sein, um es mit einer GeForce 8800 Ultra (614 Gigaflops MADD+MUL) aufzunehmen – die bei DualChip-Lösung üblicherweise etwas niedrigen Taktraten noch gar nicht eingerechnet.

Rechnet man dann noch hinzu, daß eine solche SLI-Lösung natürlich auch niemals 100 Prozent des zweiten Grafikchips in Leistung umsetzen kann, würde selbst ein G92-Chip mit angenommenen 96 Shader-Einheiten nur knapp vor der GeForce 8800 Ultra landen – zu wenig für eine echte neue HighEnd-Lösung. Insofern deutet bei nVidia eigentlich alles eher in Richtung eines kommenden neuen HighEnd-Chips im üblichen SingleChip-Verfahren. Dies schließt die Möglichkeit einer DualChip-Grafikkarte auf Basis des G92-Chips noch nicht einmal aus – eine solche Lösung könnte immer noch als Lückenfüller zwischen G90- und G92-Chip dienen.

Problematischerweise ist zum HighEnd-Chip G90 derzeit absolut noch nicht bekannt, man kann über dessen technische Daten momentan nur spekulieren. Man kann jedoch schätzen, daß nVidia dem Chip wahrscheinlich 192 Shader-Einheiten spendieren dürfte, da diese zusammen mit einem gewissen Taktsprung gegenüber dem G80-Chip für dieses Stück an Mehrperformance sorgen dürften, welche man sich von einer Refresh-Generation erwarten darf. Ob das Speicherinterface verbreitet wird, ist dagegen sehr ungewiß: Zum einen haben sich die 384 Bit des G80-Chips doch als recht ideal herausgestellt, erscheint eine Verbreitung auf 512 Bit nicht zwingend. Und zum anderen soll nVidia Samsung wohl eine große Order an mit 1600 MHz taktenden GDDR4-Speicherchips gegeben haben – welche natürlich gut zu einem 384bittigen Speicherinterface passen, bei einem 512bittigen jedoch schnell Overkill werden würden.

Nichts desto trotz gilt im Fall des G90-Chip der Faktor "Überraschung" – es ist weder sicher, ob dieser Chip erscheint, noch zu welchen technischen Daten, noch zu welchem Termin. nVidia hatte früher seine neue HighEnd-Lösung zwar mal für das vierte Quartal 2007 terminiert, allerdings stammt dieser Aussage auch vom Frühjahr und kann sich in der Zwischenzeit einiges verschoben haben. Weil derzeit noch absolut nichts vom G90-Chip zu hören ist (je näher ein neuer Grafikchip heranrückt, desto schlechter läßt sich so etwas geheimhalten, weil mit der Zeit schließlich Informationen und Samples an die Grafikkarten-Hersteller herausgegeben werden müssen) und als Releasetermin im vierten Quartal schließlich auch der 31. Dezember herhalten kann (notfalls mit einem Paperlaunch), sehen wir derzeit den Markteintritt des G90-Chips erst Anfang des kommenden Jahres.

Noch etwas vorher, nämlich schon im November, wird nVidia dagegen seine neue LowCost-Lösung in den Markt entlassen. Der G98-Chip soll hierbei vor allem mit dem G86-Chip (GeForce 8300/8400/8500) gegenüber ATIs RV610-Chip (Radeon HD 2400 Serie) verlorengegangenes Terrain zurückerobern und wird demzufolge sein Hauptaugenmerk nicht auf mehr Performance, sondern auf eine höhere Wirtschaftlichkeit legen. Ein deutlicher Hinweis für diesen Kurs ist die Tatsache, daß der G98-Chip nur noch über ein 64 Bit DDR Speicherinterface verfügen wird – gegenüber dem 128 Bit DDR Speicherinterface beim Vorgängerchip G86 (wenn auch dieses nur bei der GeForce 8500 GT ausgeführt wurde).

Auch der Listenpreis von 59 Dollar, welche deutlich niedriger ist als der der GeForce 8500 GT zu ihrem Start (89 Dollar für die 256-MB-Ausführung) deuten auf eine von Anfang an deutlich günstigere Lösung hin. Demzufolge sind vom G98-Chip auch keine für Spieler interessanten Grafikkarten zu erwarten, sondern einfach nur billigste OEM-Produkte – wieder im Gegensatz zu G86-Chip, wo die GeForce 8500 GT wenigstens limitiert als Spiele-Beschleuniger brauchbar ist. Gut möglich also, daß nVidia beim G98-Chip schlicht die Technik des G86-Chips mit seinen 16 Shader-Einheiten nimmt, daß Speicherinterface auf 64 Bit DDR kürzt – und voilà, wir haben den G98-Chip :).

Den Einstieg in die für Spieler interessanten Grafikkarten dürfte dann die Mainstream-Grafikkarten bilden. Hier will nVidia allerdings erst im nächsten Frühjahr in Form des G96-Chips für Nachschub sorgen – angesichts dessen, daß die aktuelle Mainstream-Generation in Form der GeForce 8600 Serie auf Basis des G84-Chip ziemlich gut läuft, sicherlich nicht so nachteilig für nVidia. Derzeit ist noch nicht bekannt, über welche technischen Daten der G96-Chip verfügen soll. Doch da der G92-Chip im Performance-Segment schon über ein 256bittiges Speicherinterface verfügen wird, ist zu erwarten, daß nVidia auch beim G96-Chip weiterhin am 128 Bit DDR Speicherinterface festhalten wird. Damit sind dann natürlich keine Performance-Wunder zu erwarten, auch der G96-Chip dürfte wieder für Grafikkarten des Preisbereichs von 100 bis 150 Euro stehen.

Ein Punkt wäre zudem zu allen kommenden nVidia-Chips noch zu erwähnen: Der Support von Direct3D 10.1 und PCI Express 2.0. Bei ATIs Refresh-Generation ist die Sache klar: Alle kommenden Grafikchips werden diese beiden Features ausnahmslos unterstützen. Bei nVidia existieren diesbezüglich allerdings nur Halbinformationen. Bekannt ist nur, daß der G98-Chip bereits PCI Express 2.0 unterstützen wird – demzufolge kann man wohl annehmen, daß alle diesem terminlich nachfolgenden Chips (G90, G96) dies ebenfalls tun werden. Vollkommen mau sieht die Informationslage dagegen im Fall von Direct3D 10.1 aus. Dies läßt gerade im Fall des G92-Chips durchaus den Verdacht zu, daß nVidia in diesem Punkt später als ATI dran ist – denn gerade beim G92-Chip sollte es inzwischen an die Presse gedrungen sein, wenn Direct3D 10.1 mit auf dem Menü steht.

Derzeit machen wir uns aus dieser Situation folgenden Reim: G92 und G98 erscheinen noch ohne Direct3D 10.1, die dann folgenden nVidia-Grafikchips werden dann allerdings Direct3D 10.1 mit an Board haben. Der G96-Chip für das Mainstream-Segment dürfte angesichts seines relativ späten Erscheingstermins im Frühjahr 2008 hierfür ein recht sicherer Kandidat sein, beim G90-Chip könnte gerade die aktuelle Verzögerung dem Umstand geschuldet sein, daß man diesen absoluten HighEnd-Chip gern noch auf Direct3D 10.1 "aufrüsten" will (Hardware-technisch soll es keine großen Unterschied zwischen Direct3D10 und Direct3D 10.1 geben). Aber das war jetzt auch nur gut spekuliert – rein praktisch müssen wir uns diesbezüglich auch überraschen lassen.

In der Summe läßt sich das kommende Produktprogramm von nVidias Refresh-Generation deutlich schwer fassen als das von ATI: Es gibt noch Unsicherheiten über die kommende HighEnd-Lösung (G90 oder DualChip G92), die Erscheinungstermine liegen deutlich weiter auseinander und zudem gibt es nur unzureichende Informationen über den Support von Direct3D 10.1 und PCI Express 2.0. Klar erscheint die Lage nur beim G92-Chip: Hiermit wird nVidia endlich den lange geforderten Grafikchip für das Performance-Segment zwischen den GeForce 8600 und GeForce 8800 Serien liefern.