Rein technisch haben wir mittlerweile fast ein volles Jahr herum, nachdem die allerersten Direct3D10-Beschleuniger in Form der GeForce 8800 GTS/GTX Karten im November 2006 [2] vorgestellt wurden. Und selbst wenn ATI seinen Konter in Form der Radeon HD 2900 XT erst mit einigen Monaten Verspätung in den Markt bringen konnte, sind nach gängigen Rechnungen, wonach aller sechs bis neun Monate eine neue Grafikkarten-Generation in den Markt kommt (was nicht bedeutet, daß es sich dabei um grundlegend neue Architekturen handeln muß), die nächsten Grafikkarten eigentlich schon leicht überfällig.
ATI und nVidia werden diesem Zustand über die nächsten Wochen allerdings abhelfen, welche aus Grafikkarten-Sicht durchaus interessant werden dürften. So kommen derzeit zunächst die R600-Abwandlungen Radeon HD 2900 GT und Pro für das Performance-Segment in den Markt. Im November läutet nVidia dann mit dem G92-Chip für das Performance-Segment die eigentliche Refresh-Generation ein, hier werden der G98-Chip für das LowCost-Segment und der G90-Chip für das HighEnd-Segment in Kürze folgen, nächstes Frühjahr soll dann noch ein G96-Chip für das Mainstream-Segment kommen.
Bei ATI hingegen lauten die Refreshchips RV620 (LowCost), RV635 (Mainstream), RV670 (Performance/HighEnd), zeitmäßig sind diese ebenfalls um das Jahresende einzuordnen. Und letztlich will nun auch noch S3 Graphics wieder einmal mit neuen Grafikchips antreten, geplant sind hierbei für den Jahresanfang die Chips Chrome 430 (LowCost) und Chrome 460 (Mainstream). Wenn das alles klappen sollte, wird es in der Tat ein interessanter Grafikchip-Herbst – in der Praxis dürfte dann aber wohl doch Murphy's Law greifen, womit sich einige der vorgenanten Grafikchips ins nächste Jahr verspäten werden oder zumindestens erst im nächsten Jahr käuflich erhältlich sein werden.
Doch der Reihe nach. Zuerst einmal werden wir die derzeit auf dem Markt befindlichen Direct3D-Grafikchips kurz skizzieren, damit die Ausgangslage klar ist. Danach wenden wir uns dann den einzelnen kommenden neuen Grafikchips zu. Dies kann natürlich nur auf Basis der derzeit vorhandenen Informationen erfolgen – welche, gemischt mit eigenen Überlegungen, jederzeit fehlbar sein können. Es ist also bitte nicht davon auszugehen, daß alles, was dieser Artikel nachfolgend vorhersagt, auch so eintreffen wird. Es handelt sich hier um eine Bestandsaufnahme des aktuell verfügbaren Wissens, um eben dieses in eine gewisse Form zu bringen. Nichts desto trotz werden sich in den News [3] der kommenden Wochen sicherlich noch einige Anmerkungen und Korrekturen zu diesem Artikel ergeben.
Vorab sei noch klargestellt, daß dieser Artikel wie auch unsere zukünftige Berichterstattung generell von der Einteilung des Grafikkarten-Marktes in vier Teilsegmente ausgeht: LowCost (Value), Mainstream, Performance und HighEnd (Enthusiast). Diese Einteilung wurde seitens der Grafikchip-Entwickler schon seit einiger Zeit vorgenommen, bislang allerdings regelmäßig mit nur drei verschiedenen Grafikchips einer Generation zu bedienen versucht. Spätestens mit der kommenden Refresh-Generation wird zumindestens nVidia aber mit jeweils vier Grafikchips pro Generation arbeiten, womit sich die generelle Markt-Unterteilung in vier Teilsegmente nunmehr geradezu aufdrängt.
Preislich lassen sich diese Teilsegmente im übrigen grob folgendermaßen abtrennen: LowCost bis 100 Dollar, Mainstream von 80 bis 200 Dollar, Performance von 150 bis 300 Dollar und HighEnd von 250 Dollar an aufwärts. Wie den genannten Geldbeträgen schon zu entnehmen, sind die Grenzen jedoch eher fließend bzw. sehen verschiedene Mitspieler am Markt die Grenzen jeweils ein wenig anders. Betrachtet man die alten und neuen Grafikchips allerdings nachfolgend etwas genauer, lassen sich diese dann doch jeweils recht eindeutig einem Marktsegment zuordnen.
Doch zuerst zu der Übersicht der aktuell am Markt befindlichen Grafikchips und daraus resultierenden Grafikkarten:
ATI | nVidia | |
---|---|---|
HighEnd (Enthusiast) | R600 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten: • Radeon HD 2900 XT 1GB 742/1000 MHz, 1024 MB GDDR4, ca. 180W, ca. 430 Euro • Radeon HD 2900 XT 742/825 MHz, 512 MB GDDR3, 161W, ca. 330 Euro |
G80 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten: • GeForce 8800 Ultra 612/1512/800 MHz, 768 MB GDDR3, ca. 145W, ca. 550 Euro • GeForce 8800 GTX 575/1350/900 MHz, 640 MB GDDR3, 132W, ca. 450 Euro • GeForce 8800 GTS 640MB nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 640 MB GDDR3, 106W, ca. 310 Euro |
Performance | R600 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten: • Radeon HD 2900 Pro 600/800 MHz, 512 oder 1024 MB GDDR3, ca. 150 bzw. 160W, ca. 220 bzw. 260 Euro • Radeon HD 2900 GT 600/800 MHz, nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface, 256 MB GDDR3, ca. 120W, ca. 175 Euro Dual RV630 |
G80 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten: • GeForce 8800 GTS 320MB nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W, ca. 240 Euro |
Mainstream | RV630 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten: • Radeon HD 2600 XT GDDR4 800/1100 MHz, 256 oder 512 MB GDDR4, 49W, ca. 120 bzw. 170 Euro • Radeon HD 2600 XT GDDR3 800/700 MHz, 256 oder 512 MB GDDR3, ca. 45W, ca. 90 bzw. 105 Euro • Radeon HD 2600 Pro 600/400 MHz, 256 oder 512 MB GDDR2/GDDR3, ca. 35W, ca. 70 bzw. 75 Euro |
G84 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten: • GeForce 8600 GTS 675/1450/1000 MHz, 256 oder 512 MB GDDR3, 47W, ca. 140 bzw. 170 Euro • GeForce 8600 GT 540/1190/700 MHz, 256 oder 512 MB GDDR3, ca. 40W, ca. 90 bzw. 100 Euro |
LowCost (Value) | RV610 40 Shader-Einheiten, 4 TMUs, 64 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten: • Radeon HD 2400 XT 700/800 MHz, 256 MB GDDR3, 19W, ca. 55 Euro • Radeon HD 2400 Pro 525/400 MHz, 128 oder 256 oder 512 MB GDDR2, ca. 15W, ca. 40 bzw. 40 bzw. 65 Euro |
G86 16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten: • GeForce 8500 GT 450/900/400 MHz, 256 oder 512 MB GDDR2/GDDR3, 27W, ca. 65 bzw. 75 Euro • GeForce 8400 GS nur 64 Bit DDR Speicherinterface, 450/900/400 MHz, 256 oder 512 MB GDDR2, ca. 25W, ca. 40 bzw. 60 Euro |
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen. |
Diese Lineups werden in den kommenden Wochen jedoch gehörig durchgeschüttelt werden, in einem halben Jahr dürften die derzeit am Markt befindlichen Grafikkarten wohl komplett durch die kommende Refresh-Generation ersetzt werden. Nachfolgend wollen wir nun betrachten, was die einzelnen Grafikchip-Entwickler an Neuheiten planen.
Bei ATI wird der bereits Direct3D 10.1 und PCI Express 2.0 unterstützende RV670-Chip den Anfang machen. Dieser fürs Performance-Segment gedachte Grafikchip wird wohl am 19. November [5] vorgestellt werden und stellt grob gesehen einen R600-Chip mit 256 Bit DDR Speicherinterface dar. Die 320 Shader-Einheiten und wohl auch die 16 TMUs des R600-Chips sind allerdings vollständig mit an Bord, insofern ist vom RV670-Chip ein gehöriges Stück Performance zu erwarten. Allerdings wird der RV670 gegenüber dem R600 (80nm) nunmehr in 55nm hergestellt, wodurch auch die Die-Size von 420mm² auf nunmehr nur noch 194mm² [6] gesunken ist. Dies dürfte es ATI ermöglichen, die RV670-Varianten auch preislich sehr aggressiv anzubieten.
Als Ausführungen des RV670-Grafikchips werden eine Radeon HD 2950 XT (Codename "Gladiator"), eine Radeon HD 2950 Pro (Codename "Revival") und im nächsten Jahr noch eine Radeon HD 2950 GT in den Markt kommen, Bilder dieser Karten gibt es hier [7] zu sehen. Zur Radeon HD 2950 GT ist noch nicht viel mehr [8] als der Name bekannt, die beiden erstgenannten Grafikkarten trennen jedoch nur die Taktraten: 825/1200 MHz für die XT-Ausführung und 750/900 MHz für die Pro-Ausführung. Dabei wird die XT-Ausführung generell mit 512 MB GDDR4 zu einem Listenpreis von 299 Dollar antreten, die Pro-Ausführung wird es mit 256 MB oder 512 MB GDDR3 zu einem Listenpreis von 249 Dollar geben.
Eine Performance-Einordnung ist zu diesem Zeitpunkt noch sehr schwierig, da der RV670-Chip zwar (durch die höheren Taktraten) eine etwas höhere Rechenleistung gegenüber dem R600-Chip aufzuweisen hat, dafür jedoch nur die Hälfte des Speicherinterfaces mit dafür aber wieder höheren Speichertakten besitzt. Klar ist, daß letztgenanntes nur in höheren Auflösungen und höheren Anti-Aliasing Modi von erheblicher Bedeutung sein wird – wie groß der Abschlag dort aber sein wird, ist derzeit kaum abzuschätzen. Wenn man jedoch den Preispunkt zugrundelegt, so dürfte ATI mit dem RV670-Chip den R600-Chip in der Tat komplett ablösen wollen, d.h. auch inklusive der Radeon HD 2900 XT. Deren Performance dürfte also zumindestens durch die Radeon HD 2950 XT erreicht werden.
Daß es deutlich über die Performance der Radeon HD 2900 XT hinausgeht, ist auf der anderen Seite auch wieder unwahrscheinlich, denn dann könnte ATI auch einen dementsprechenden Preis verlangen – die Radeon HD 2950 XT ist aber preislich noch unter dem aktuellen Straßenpreis der Radeon HD 2900 XT angesiedelt. Für ATI dürfte es beim RV670-Chip sowieso weniger darum gehen, eine schnellere Lösung als den R600-Chip zu bringen, sondern vielmehr eine günstigere Lösung: Wirtschaftlicher herzustellen und mit besserem Preis abgebbar. Und dies dürfte durch die niedrigeren Verlustleistungen (132W TDP für die größte RV670-Ausführung gegenüber 215W TDP bei der Radeon HD 2900 XT 512MB) sowie den Wechsel auf ein SingleSlot-Design erreicht sein.
Nach diesem Frontalangriff auf das bei den bisherigen Direct3D10-Grafikkarten weitestgehend ignorierte Performance-Segment stellt sich natürlich die Frage, was ATI zukünftig im HighEnd-Segment bieten will. Der RV670-Chip eignet sich dafür nicht, denn dieser wird die R600-Performance im besten Fall nur geringfügig überbieten können. Als eigentliche HighEnd-Lösung war demzufolge schon des längeren ein R680-Chip geplant – welcher allerdings zumeist nur vor einigen Monaten genannt wurde. In jüngerer Vergangenheit wurde an dieser Stelle jedoch vielmehr eine DualChip-Lösung auf RV670-Basis genannt, welche aufgrund der Stärke des RV670-Chip als durchaus potent einzuschätzen wäre. Neueste Informationen [9] sprechen nun hingegen wieder eindeutig von einem R680-Chip – zu welchem es aber wiederum den starken Verdacht gibt, es handle sich hierbei schlicht um zwei RV670-Chips auf einer Platine. Dies würde zumindestens beide bisher existierende Gerüchte zur nächsten HighEnd-Lösung von ATI elegant verbinden ;).
Generell sind solcherart DualChip-Vorhaben natürlich immer skeptisch zu sehen, weil sie eher denn wie ein Notnagel anmuten. Als Vorteil mag aber trotzdem gelten, daß ein einzelner großer Chip für HighEnd-Ansprüche nur in geringen Stückzahlen aufgelegt und demzufolge recht teuer in der Produktion werden wird – zwei Chips aus der deutlich volumenträchtigeren RV670-Produktion können da durchaus günstiger kommen. Der Hauptnachteil ist allerdings, daß die zwei "kleinen" Grafikchips natürlich niemals so effizient sind wie ein großer Grafikchip. Ganz genau wie bei SLI oder CrossFire sind im Schnitt nur 70 Prozent Leistungsgewinn durch den zweiten Grafikchip zu erwarten.
Dies sollte natürlich trotzdem reichen, um eine bei der Performance schlagkräftige HighEnd-Lösung auf die Beine zu stellen. Ausgehend von der mit einem einzelnen RV670-Chip wohl zu erreichenden Performance der Radeon HD 2900 XT dürfte sich eine DualChip-Lösung auf RV670-Basis je nach Taktrate mehr oder minder knapp vor eine GeForce 8800 Ultra setzen – womit das Ziel der Aktion erreicht wäre, solange nVidia keine weitere neue HighEnd-Lösung vorstellt. Preislich dürfte sich eine solche DualChip-Grafikkarte auf RV670-Basis zwischen 500 bis 600 Dollar Listenpreis einordnen, eventuell gibt es dann ja auch noch eine Variante mit niedrigeren Taktraten und einem Preispunkt zwischen 400 und 500 Dollar Listenpreis. Zum Zeitpunkt ist noch nichts genaues klar, frühere Meldungen gingen aber vom ersten Quartal aus, also noch nicht zum Start des RV670-Chips in seiner SingleChip-Ausführung.
Daneben wird ATI auch das LowCost- und Mainstream-Segment noch mit neuen Varianten beglücken: Für das LowCost-Segment wird hierbei zum Jahresanfang der RV620-Chip ins Rennen gehen, welcher in den Grafikkarten-Varianten Radeon HD 2500 Pro und Radeon HD 2500 XT münden soll. Über den RV620-Chip ist derzeit nicht viel mehr bekannt als daß dieser bereits Direct3D 10.1 und PCI Express 2.0 unterstützen wird. Vermutlich dürfte ATI mit dem RV620 aber den beim Vorgänger RV610 (Radeon HD 2400 Serie) eingeschlagenen Weg weitergehen und einen absoluten LowCost-Chip bringen, dessen Stärke keinesfalls die Performance, sondern vielmehr die wirtschaftliche Herstellung von Chip und Grafikboard darstellt.
Für das Mainstream-Segment plant ATI in Ablösung des RV630-Chips (Radeon HD 2600 Serie) den RV635-Chip, welcher ebenfalls zum Jahresanfang in den Grafikkarten-Varianten Radeon HD 2650 Pro und Radeon HD 2650 XT münden soll. Wie alle Grafikchips der Refresh-Generation von ATI wird der RV635-Chip Direct3D 10.1 und PCI Express 2.0 unterstützen, weiteres ist aber auch zu diesem Chip derzeit nicht bekannt. Allerdings könnten wir uns durchaus vorstellen, daß ATI beim RV635 ein gutes Stück mehr Performance vorlegen wird, denn zum einen ist der RV630-Chip diesbezüglich doch deutlich hinter den Erwartungen zurückkgeblieben und zum anderen ergibt sich bis zum Performance-Segment und dort dem RV670-Chip doch eine ziemlich große Lücke.
Auf der anderen Seiten deutet die Namensgebung von Chip und Grafikkarten nicht unbedingt auf einen deutlich höheren Performance-Anspruch hin – und womöglich füllt ATI die Lücke zwischen Mainstream- und Performance-Segment auch mit den auslaufenden Varianten älterer Grafikchips wie beispielsweise der Radeon HD 2900 GT [10]. Demzufolge dürften auch die Möglichkeiten des RV635-Chips eher begrenzt sein und ATI wohl weiterhin auf ein 128 Bit DDR breites Speicherinterface samt der dazu passenden Ausrüstung mit Recheneinheiten setzen. Die Zielgebung dürfte hier klar in der Richtung von Beschleunigern für den Preisbereich von 100 bis 150 Euro liegen, sicherlich kaum darüber.
In der Summe dürfte ATI bis zum Ende des ersten Quartals ein komplett neues Produktprogramm am Markt haben. Alle neuen Grafikchips von ATI haben zudem gleich den Support von Direct3D 10.1 und PCI Express 2.0 an Board – was zweifellos keine "must-have-Features" sind, aber eben doch "nice to have". Als wirklich stark aus dem neuen Produktprogramm ist vor allem der RV670-Chip für das Performance-Segment einzuschätzen, hier wird ATI eine dem R600-Chip vergleichbare Leistung zu einem günstigeren Preis und mit deutlich geringerem Stromverbrauch (wie demzufolge wohl auch geringerer Geräuschbelastung) anbieten.
nVidia wird ebenfalls mit einem Grafikchip für das Performance-Segment den Reigen der Refresh-Generation eröffnen. Der G92-Chip war ursprünglich für den 12. November angesetzt und soll nunmehr gar schon am 29. Oktober [11] debütieren. Dabei hat dieser Grafikchip in der Fachpresse eine wechselvolle Geschichte hinter sich: Erst als Performance-Chip neben dem G90 gedeutet, mittelfristig dann aber als neue HighEnd-Lösung angesehen, wird der G92 nun doch wieder "nur" das Performance-Segment bedienen. Darauf deuten inzwischen die bekannten technischen Daten, der von nVidia gewählte Verkaufsname und auch die preisliche Einordnung eindeutig hin.
So soll die auf dem G92-Chip basierende GeForce 8800 GT über (wahrscheinlich) 64 Shader-Einheiten und (sicher [12]) ein 256 Bit DDR breites Speicherinterface verfügen. Die nur 64 Shader-Einheiten erscheinen zwar dem einen oder anderen etwas zu knapp, durch die 65nm-Fertigung des G92-Chips ist allerdings noch ein gewisser Taktsprung gegenüber den G80-basierenden Grafikkarten möglich: 600/900 MHz werden die Taktraten der GeForce 8800 GT wohl lauten, der Shader-Takt soll sogar 1500 MHz betragen. Daraus ergibt sich auch, daß gleich 96 Shader-Einheiten bei dieser Karte eher unwahrscheinlich sind: Zusammen mit den höheren Taktraten würde man die GeForce 8800 GTS (ebenfalls 96 Shader-Einheiten, 500/1200/800 MHz) spielend überflügeln – dafür ist der G92-Chip aber nicht gedacht.
Denn schon allein an der preislichen Einordnung (199 Dollar Listenpreis für die 256-MB-Edition, 249 Dollar für die 512-MB-Edition) und auch dem Verkaufsnamen ist abzulesen, daß sich der G92-Chip bzw. die GeForce 8800 GT unterhalb oder knapp an der GeForce 8800 GTS einordnen muß, keinesfalls aber darüber. Dies hat allerdings auch nichts mit Schwäche zu tun, nVidia hat den G92-Chip offensichtlich klar für das 200-Euro-Segment ausgelegt, während ATI seinen RV670-Chip eher für das 250-Euro-Segment ausgelegt hat. Die nicht große preisliche Differenz erklärt dann eben auch den jeweiligen Hardware-Unterschied und wieso beide Grafikchips in ihrer jeweils eigenen Liga spielen.
Allerdings scheint nVidia die Erkenntnis, daß es der G92-Chip nicht mit dem RV670-Chip in seiner höchsten Ausbaustufe aufnehmen kann, zu einem eher ungewöhnlichen Schritt getrieben zu haben: Allem Anschein nach [13] will man eine neue Version der GeForce 8800 GTS auf Basis des G80-Chips auflegen – nur diesesmal mit 112 aktivierten Shader-Einheiten und 56 aktivierten TMUs anstatt 96 bzw. 48 wie bei der originalen GeForce 8800 GTS. Da die Taktraten gleichbleiben sollen und das Speicherinterface nicht angetastet wird, ist keine besonders hohe Mehrperformance gegenüber der GeForce 8800 GTS zu erwarten, es werden wohl 10 bis maximal 15 Prozent werden. Offensichtlich ist diese neue Version der GeForce 8800 GTS dafür gedacht, gegen die Radeon HD 2950 XT zu bestehen, da dies der G92-Chip ziemlich offensichtlich nicht mehr leisten kann.
Bezüglich eines neuen HighEnd-Lösung gibt es ähnlich wie bei ATI zwei verschiedene Standpunkte: Zuerst sprach man von einem G90-Chip, später sollte es dann ein DualChip-Grafikkarte auf G92-Basis werden. Die Vor- und Nachteile sind ähnlich wie bei ATI ausgeführt, einige Indizien [14] sprechen im Fall von nVidia allerdings eher dafür, daß es nVidia mit einem echten HighEnd-Chip versuchen wird: Der stärkste Hinweis ist hier wohl die klare Aussage nVidias [15], daß deren nächster HighEnd-Chip eine Rechenleistung von nahezu 1 Terraflop erreichen wird. Daß diese Aussage seinerzeit dem G92-Chip zugeordnet wurde, hing damit zusammen, daß dieser damals eben als absolute HighEnd-Lösung angesehen wurde.
Heutzutage ist aber klar, daß der G92-Chip diesen Wert niemals erreichen kann (wenn nVidia wie üblich MADD und MUL zusammenrechnet, sollte die GeForce 8800 GT bei 64 unveränderten Shader-Einheiten und 1500 MHz Shader-Takt ca. 288 Gigaflops erreichen) – es muß also noch eine andere Lösung neben dem G92 geben. Auch dürfte der G92-Chip, sofern dieser tatsächlich mit nur 64 Shader-Einheiten und 1500 MHz Shader-Takt erscheint, selbst als DualChip-Grafikkarte (ca. 576 Gigaflops MADD+MUL) bei der Rechenleistung generell zu schwach sein, um es mit einer GeForce 8800 Ultra (614 Gigaflops MADD+MUL) aufzunehmen – die bei DualChip-Lösung üblicherweise etwas niedrigen Taktraten noch gar nicht eingerechnet.
Rechnet man dann noch hinzu, daß eine solche SLI-Lösung natürlich auch niemals 100 Prozent des zweiten Grafikchips in Leistung umsetzen kann, würde selbst ein G92-Chip mit angenommenen 96 Shader-Einheiten nur knapp vor der GeForce 8800 Ultra landen – zu wenig für eine echte neue HighEnd-Lösung. Insofern deutet bei nVidia eigentlich alles eher in Richtung eines kommenden neuen HighEnd-Chips im üblichen SingleChip-Verfahren. Dies schließt die Möglichkeit einer DualChip-Grafikkarte auf Basis des G92-Chips noch nicht einmal aus – eine solche Lösung könnte immer noch als Lückenfüller zwischen G90- und G92-Chip dienen.
Problematischerweise ist zum HighEnd-Chip G90 derzeit absolut noch nicht bekannt, man kann über dessen technische Daten momentan nur spekulieren. Man kann jedoch schätzen, daß nVidia dem Chip wahrscheinlich 192 Shader-Einheiten spendieren dürfte, da diese zusammen mit einem gewissen Taktsprung gegenüber dem G80-Chip für dieses Stück an Mehrperformance sorgen dürften, welche man sich von einer Refresh-Generation erwarten darf. Ob das Speicherinterface verbreitet wird, ist dagegen sehr ungewiß: Zum einen haben sich die 384 Bit des G80-Chips doch als recht ideal herausgestellt, erscheint eine Verbreitung auf 512 Bit nicht zwingend. Und zum anderen soll nVidia Samsung wohl eine große Order an mit 1600 MHz taktenden GDDR4-Speicherchips gegeben haben – welche natürlich gut zu einem 384bittigen Speicherinterface passen, bei einem 512bittigen jedoch schnell Overkill werden würden.
Nichts desto trotz gilt im Fall des G90-Chip der Faktor "Überraschung" – es ist weder sicher, ob dieser Chip erscheint, noch zu welchen technischen Daten, noch zu welchem Termin. nVidia hatte früher seine neue HighEnd-Lösung zwar mal für das vierte Quartal 2007 terminiert, allerdings stammt dieser Aussage auch vom Frühjahr und kann sich in der Zwischenzeit einiges verschoben haben. Weil derzeit noch absolut nichts vom G90-Chip zu hören ist (je näher ein neuer Grafikchip heranrückt, desto schlechter läßt sich so etwas geheimhalten, weil mit der Zeit schließlich Informationen und Samples an die Grafikkarten-Hersteller herausgegeben werden müssen) und als Releasetermin im vierten Quartal schließlich auch der 31. Dezember herhalten kann (notfalls mit einem Paperlaunch), sehen wir derzeit den Markteintritt des G90-Chips erst Anfang des kommenden Jahres.
Noch etwas vorher, nämlich schon im November, wird nVidia dagegen seine neue LowCost-Lösung in den Markt entlassen. Der G98-Chip soll hierbei vor allem mit dem G86-Chip (GeForce 8300/8400/8500) gegenüber ATIs RV610-Chip (Radeon HD 2400 Serie) verlorengegangenes Terrain zurückerobern und wird demzufolge sein Hauptaugenmerk nicht auf mehr Performance, sondern auf eine höhere Wirtschaftlichkeit legen. Ein deutlicher Hinweis für diesen Kurs ist die Tatsache, daß der G98-Chip nur noch über ein 64 Bit DDR Speicherinterface verfügen wird – gegenüber dem 128 Bit DDR Speicherinterface beim Vorgängerchip G86 (wenn auch dieses nur bei der GeForce 8500 GT ausgeführt wurde).
Auch der Listenpreis von 59 Dollar, welche deutlich niedriger ist als der der GeForce 8500 GT zu ihrem Start (89 Dollar für die 256-MB-Ausführung) deuten auf eine von Anfang an deutlich günstigere Lösung hin. Demzufolge sind vom G98-Chip auch keine für Spieler interessanten Grafikkarten zu erwarten, sondern einfach nur billigste OEM-Produkte – wieder im Gegensatz zu G86-Chip, wo die GeForce 8500 GT wenigstens limitiert als Spiele-Beschleuniger brauchbar ist. Gut möglich also, daß nVidia beim G98-Chip schlicht die Technik des G86-Chips mit seinen 16 Shader-Einheiten nimmt, daß Speicherinterface auf 64 Bit DDR kürzt – und voilà, wir haben den G98-Chip :).
Den Einstieg in die für Spieler interessanten Grafikkarten dürfte dann die Mainstream-Grafikkarten bilden. Hier will nVidia allerdings erst im nächsten Frühjahr in Form des G96-Chips für Nachschub sorgen – angesichts dessen, daß die aktuelle Mainstream-Generation in Form der GeForce 8600 Serie auf Basis des G84-Chip ziemlich gut läuft, sicherlich nicht so nachteilig für nVidia. Derzeit ist noch nicht bekannt, über welche technischen Daten der G96-Chip verfügen soll. Doch da der G92-Chip im Performance-Segment schon über ein 256bittiges Speicherinterface verfügen wird, ist zu erwarten, daß nVidia auch beim G96-Chip weiterhin am 128 Bit DDR Speicherinterface festhalten wird. Damit sind dann natürlich keine Performance-Wunder zu erwarten, auch der G96-Chip dürfte wieder für Grafikkarten des Preisbereichs von 100 bis 150 Euro stehen.
Ein Punkt wäre zudem zu allen kommenden nVidia-Chips noch zu erwähnen: Der Support von Direct3D 10.1 und PCI Express 2.0. Bei ATIs Refresh-Generation ist die Sache klar: Alle kommenden Grafikchips werden diese beiden Features ausnahmslos unterstützen. Bei nVidia existieren diesbezüglich allerdings nur Halbinformationen. Bekannt ist nur, daß der G98-Chip bereits PCI Express 2.0 unterstützen wird – demzufolge kann man wohl annehmen, daß alle diesem terminlich nachfolgenden Chips (G90, G96) dies ebenfalls tun werden. Vollkommen mau sieht die Informationslage dagegen im Fall von Direct3D 10.1 aus. Dies läßt gerade im Fall des G92-Chips durchaus den Verdacht zu, daß nVidia in diesem Punkt später als ATI dran ist – denn gerade beim G92-Chip sollte es inzwischen an die Presse gedrungen sein, wenn Direct3D 10.1 mit auf dem Menü steht.
Derzeit machen wir uns aus dieser Situation folgenden Reim: G92 und G98 erscheinen noch ohne Direct3D 10.1, die dann folgenden nVidia-Grafikchips werden dann allerdings Direct3D 10.1 mit an Board haben. Der G96-Chip für das Mainstream-Segment dürfte angesichts seines relativ späten Erscheingstermins im Frühjahr 2008 hierfür ein recht sicherer Kandidat sein, beim G90-Chip könnte gerade die aktuelle Verzögerung dem Umstand geschuldet sein, daß man diesen absoluten HighEnd-Chip gern noch auf Direct3D 10.1 "aufrüsten" will (Hardware-technisch soll es keine großen Unterschied zwischen Direct3D10 und Direct3D 10.1 geben). Aber das war jetzt auch nur gut spekuliert – rein praktisch müssen wir uns diesbezüglich auch überraschen lassen.
In der Summe läßt sich das kommende Produktprogramm von nVidias Refresh-Generation deutlich schwer fassen als das von ATI: Es gibt noch Unsicherheiten über die kommende HighEnd-Lösung (G90 oder DualChip G92), die Erscheinungstermine liegen deutlich weiter auseinander und zudem gibt es nur unzureichende Informationen über den Support von Direct3D 10.1 und PCI Express 2.0. Klar erscheint die Lage nur beim G92-Chip: Hiermit wird nVidia endlich den lange geforderten Grafikchip für das Performance-Segment zwischen den GeForce 8600 und GeForce 8800 Serien liefern.
Nach längerer Zeit will sich auch S3 Graphics mal wieder mit neuen Grafikchips am Geschehen beteiligen. Damit wird die schon seit einigen Jahren [16] immer mal wieder erwähnte "Destination Films" Architektur endlich in Silizium gegossen werden – wie üblich bei S3 mit einiger Verspätung, denn ursprünglich sollte diese Architektur schon im zweiten Quartal des Jahres 2004 (!) erscheinen. Seinerzeit waren die Direct3D10-Fähigkeiten der neuen S3-Architektur natürlich noch nicht sicher, heuer sieht dies natürlich anders aus und dürfte sich auch "Destination Films" im Laufe der Zeit einigermaßen gewandelt haben.
Den Anfang soll hierbei der Chrome 460 für das Mainstream-Segment machen, von welchem bekannt ist, daß dieser in 90nm gefertigt ist sowie Direct3D10 und PCI Express 1.1 beherrscht. Weitergehen soll es dann mit dem Chrome 430 für das LowCost-Segment, welcher in 65nm gefertigt sein soll sowie Direct3D 10.1 und PCI Express 1.1 beherrschen soll. Aufgrund dessen, daß der Chrome 430 der etwas moderne Chip ist (kleine Fertigung, bereits Direct3D 10.1), ist es durchaus wahrscheinlich, daß der Chrome 460 mit einigem zeitlichen Abstand vor dem Chrome 430 kommt, auch wenn beide Grafikchips bislang als für den Jahresanfang gedacht beschrieben werden.
Aus den vorhandenen Daten läßt sich natürlich derzeit unmöglich ableiten, wie die neuen S3-Chips einzuschätzen sind. Aus dem Produktportfolio mit nur zwei Grafikchips für LowCost- und Mainstream-Segment ist aber schon zu deuten, daß S3 dem bisher eingeschlagenen Weg treu bleiben und erst einmal nur günstige Lösungen für diese beiden Marktsegmente bringen will. Man sollte hierbei den Performance-Anspruch also nicht all zu hoch ansetzen, wahrscheinlich wird die schnellste S3-Lösung wieder "nur" etwas für den Preisbereich von bis zu 150 Euro werden.
Zusammengefasst in einer (grob chronologisch geordneten) Tabelle sieht der derzeitige Wissensstand also folgendermaßen aus:
ATI | nVidia | S3 | |
---|---|---|---|
HighEnd (Enthusiast) | R680 (Dual RV670, Jahresanfang) Direct3D 10.1, PCI Express 2.0, 55nm, DualChip-Lösung, 2x 320 Shader-Einheiten, wahrscheinlich 2x 16 TMUs, 2x 256 Bit DDR Speicherinterface |
G90 (Jahresanfang) PCI Express 2.0, 65nm |
|
Performance | RV670 (19. November) Direct3D 10.1, PCI Express 2.0, 55nm, 320 Shader-Einheiten, wahrscheinlich 16 TMUs, 256 Bit DDR Speicherinterface, Varianten: • Radeon HD 2950 XT 825/1200 MHz, 512 MB GDDR4, 132W TDP, 299 Dollar Listenpreis • Radeon HD 2950 Pro 750/900 MHz, 256 oder 512 MB GDDR3, 104W TDP, 249 Dollar Listenpreis • Radeon HD 2950 GT (Jahresanfang) Abspeckungen?, 600/? MHz, 80W TDP, wahrscheinlich 256 MB GDDR3, vermutlich 199 Dollar Listenpreis |
G80 (Jahresende) Direct3D10, PCI Express 1.1, 90nm, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Varianten: • GeForce 8800 GTS (neu) nur 112 Shader-Einheiten, nur 56 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 320 MB GDDR3, ca. 125W G92 (29. Oktober) |
|
Mainstream | RV635 (Jahresanfang) Direct3D 10.1, PCI Express 2.0, 55nm, wahrscheinlich 128 Bit DDR Speicherinterface, Varianten: • Radeon HD 2650 XT • Radeon HD 2650 Pro |
G96 (Frühling) PCI Express 2.0, 65nm, wahrscheinlich 128 Bit DDR Speicherinterface |
Chrome 460 (Jahresanfang) Direct3D10, PCI Express 1.1, 90nm |
LowCost (Value) | RV620 (Jahresanfang) Direct3D 10.1, PCI Express 2.0, 55nm, wahrscheinlich 64 Bit DDR Speicherinterface, Varianten: • Radeon HD 2500 XT • Radeon HD 2500 Pro |
G98 (November) PCI Express 2.0, 65nm, 64 Bit DDR Speicherinterface, 59 Dollar Listenpreis |
Chrome 430 (Jahresanfang) Direct3D 10.1, PCI Express 1.1, 65nm |
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen. |
Um gerade die Situation bei den demnächst erscheinenden neuen Karten für das Performance-Segment noch etwas klarer zu machen, haben wir diese nachfolgend nochmals aufgelistet. Ausgangspunkt für die Einordnung war hierbei der (bislang bekannte) Listenpreis dieser Karten – basierend auf der Überlegung, daß die Grafikchip-Entwickler ihre Listenpreise durchaus passend zur herauskommenden Performance wählen. Nichts desto trotz soll folgende Tabelle noch keine wirklichen Aussagen zur Performance geben, sondern eher nur die neu in den Markt kommenden Grafikkarten für das Performance-Segment den bisherigen Angeboten dieses Preisbereichs gegenüberstellen:
aktueller Stand | Preislage | November/Dezember | ||
---|---|---|---|---|
ATI Radeon HD 2900 Pro 1024MB (R600-Chip) Direct3D10, PCI Express 1.1, 80nm, 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, 600/800 MHz, 1024 MB GDDR3, ca. 160W |
299 Dollar | ATI Radeon HD 2950 XT 512MB (RV670-Chip) Direct3D10.1, PCI Express 2.0, 55nm, 320 Shader-Einheiten, wahrscheinlich 16 TMUs, 256 Bit DDR Speicherinterface, 825/1200 MHz, 512 MB GDDR4, 132W TDP |
nVidia GeForce 8800 GTS 640MB (neu) (G80-Chip) Direct3D10, PCI Express 1.1, 90nm, 112 Shader-Einheiten, 56 TMUs, 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, ca. 115W |
|
ATI Radeon HD 2900 Pro 512MB (R600-Chip) Direct3D10, PCI Express 1.1, 80nm, 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, 600/800 MHz, 512 MB GDDR3, ca. 150W |
nVidia GeForce 8800 GTS 320MB (G80-Chip) Direct3D10, PCI Express 1.1, 90nm, 96 Shader-Einheiten, 48 TMUs, 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W |
249 Dollar | ATI Radeon HD 2950 Pro 512MB (RV670-Chip) Direct3D10.1, PCI Express 2.0, 55nm, 320 Shader-Einheiten, wahrscheinlich 16 TMUs, 256 Bit DDR Speicherinterface, 750/900 MHz, 512 MB GDDR3, 104W TDP |
nVidia GeForce 8800 GT 512MB (G92-Chip) 65nm, wahrscheinlich 64 Shader-Einheiten, wahrscheinlich 32 TMUs, 256 Bit DDR Speicherinterface, 512 MB GDDR3, 600/900 MHz, 110W TDP |
ATI Radeon HD 2900 GT 256MB (R600-Chip) Direct3D10, PCI Express 1.1, 80nm, 240 Shader-Einheiten, 256 Bit DDR Speicherinterface, 600/800 MHz, 256 MB GDDR3, ca. 120W |
199 Dollar | ATI Radeon HD 2950 GT (RV670-Chip) Direct3D10.1, PCI Express 2.0, 55nm, technische Daten/Abspeckungen noch unbekannt, 80W TDP |
nVidia GeForce 8800 GT 256MB (G92-Chip) 65nm, wahrscheinlich 64 Shader-Einheiten, wahrscheinlich 32 TMUs, 256 Bit DDR Speicherinterface, 256 MB GDDR3, 600/900 MHz, 110W TDP |
|
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen. |
Damit wird sich dieses Marktsegment, in welchem sich vor dem Erscheinen der Radeon HD 2900 Pro/GT faktisch nur eine einzige Karte in Form der GeForce 8800 GTS 320MB tummelte, schon in naher Zukunft von beiden Grafikchip-Entwicklern reichhaltig mit verschiedenen Lösungen für jeden Preisbereich bestückt werden. Gleichfalls wird allerorten wohl Performance satt zu annehmbaren Preisen geboten werden: ATIs Radeon HD 2950 XT mit einer Performance nahe der jetzigen Radeon HD 2900 XT oder auch die neue GeForce 8800 GTS mit dann 112 Shader-Einheiten (anstatt jetzt 96) sind zu ihrem Preispunkt aller Ehren wert, aber auch die kleinere RV670-Ausführung in Form der Radeon HD 2950 Pro bzw. die GeForce 8800 GT werden eine Preisstufe darunter ihre Käufer finden.
Sehr interessant wird daneben sein, wie gut die jetzige Radeon HD 2900 Pro gegenüber der Radeon HD 2950 XT abschneiden wird. Zwar hat die RV670-basierende Karte mit 825/1200 zu 600/800 MHz die klar höheren Taktraten, allerdings hat die R600-basierende Karte immer noch ihr 512bittiges Speicherinterface. In der Summe ergibt dies bei Rechen- und Texturierleistung einen Vorteil von 37,5 Prozent für die Radeon HD 2950 XT, bei der Speicherbandbreite ist die Radeon HD 2900 Pro dagegen mit 33 Prozent im Vorteil. Da die aktuellen HighEnd-Lösungen von ATI jedoch eigentlich mehr als ausreichend Speicherbandbreite besitzen, ist dann doch zu erwarten, daß der Vorteil bei der Rechen- und Texturierleistung zugunsten der Radeon HD 2950 XT ausschlagen wird.
Problematisch (für ATI) ist allerdings der sehr günstige Preis, zu welchem die Radeon HD 2900 Pro aktuell in den Markt gelangt – zu dieser Preislage ist sie weniger zur kommenden Radeon HD 2950 XT, sondern vielmehr zur kommenden Radeon HD 2950 Pro zu vergleichen. Und aufgrund der niedrigeren Taktraten der Radeon HD 2950 Pro (750/900 MHz) sieht das Verhältnis in diesem Vergleich dermaßen aus, daß die Radeon HD 2950 Pro bei der Rechen- und Texturierleistung nur noch um 25 Prozent führt, die Radeon HD 2900 Pro bei der Speicherbandbreite jedoch um gleich 78 Prozent vorn liegt. Es ist hier anzunehmen, daß die Radeon HD 2900 Pro dieses Duell doch für sich entscheiden wird – womit diese Karte immer mehr zum absoluten Geheimtip wird. Allerdings hat die Radeon HD 2950 Pro natürlich andere Vorteile zu bieten: SingleSlot-Design, geringere Stromaufnahme und damit potentiell leiserer Lüfter.
Insgesamt gesehen werden ATI und nVidia wohl ein ziemlich rundes Angebot für das Performance-Segment präsentieren – was den Verkauf an Direct3D10-Grafikkarten nicht unerheblich ankurbeln dürfte, fehlten bisher doch zwischen (meist zu langsamen) Mainstream- und (meist zu teurerem) HighEnd-Segment Direct3D10-Lösungen mit hoher Performance zu vertretbarem Preis (die GeForce 8800 GTS als Einzelkämpfer einmal ausgenommen). Die eigentlichen HighEnd-Lösungen werden dagegen wohl erst zum Jahresanfang in den Markt treten, hier gibt es aber noch große Informationslücken, welche wohl erst in Nachträgen zu diesem Artikel nach und nach beseitigt werden können.
Verweise:
[1] https://www.3dcenter.org/users/leonidas
[2] https://www.3dcenter.org/artikel/2006/11-08_a.php
[3] https://www.3dcenter.org/news
[4] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385629
[5] http://www.digitimes.com/mobos/a20071001PD211.html
[6] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984
[7] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355
[8] http://www.fudzilla.com/index.php?option=com_content&task=view&id=3515&Itemid=1
[9] http://www.vr-zone.com/?i=5325
[10] https://www.3dcenter.org/news/2007-10-02
[11] http://www.fudzilla.com/index.php?option=com_content&task=view&id=3403&Itemid=34
[12] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385361
[13] https://www.3dcenter.org/news/2007-10-04
[14] http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359
[15] http://www.beyond3d.com/content/news/230
[16] https://www.3dcenter.org/news/2003-01-10