Nachtrag VII

Montag, 23. April 2007
 / von Leonidas
 

Nachtrag vom 17. April 2007

Laut der DigiTimes hat Asus seine GeForce 8600 GTS Grafikkarte etwas vorfristig schon am Montag angekündigt. Damit bestätigen sich auch einige Daten zu dieser Karte – immer noch fehlend ist allerdings die Angabe zur Anzahl der Shader- und Textureneinheiten. Von einigen bei verschiedenen Quellen veröffentlichten 3DMark-Einzelwerten läßt sich aber auf 12 Textureneinheiten schließen – was, wenn nVidia den grundsätzlichen Aufbau der einzelnen Funktionsblöcke zum G80-Chip nicht grundlegend verändert hat (wäre unlogisch, weil es viel Arbeit bedeutet und die Funktionsblöcke als recht ausgewogen gelten), dann auch auf 48 Shader-Einheiten hinausläuft. Damit würde der G84-Chip von den fürs Rendering zuständigen Einheiten 3/8 dem G80 entsprechen, vom Speicherinterface (und den ROPs) her wären es 1/3 des G80.

Auch deutet sich damit an, daß zwischen GeForce 8600 GT und GTS kein Unterschied bei den Hardware-Einheiten besteht, sondern nur ein Taktunterschied (540/700 MHz zu 675/1000 MHz). Gleichfalls gibt es erste Straßenpreise dieser Karten zu vermelden: Der Geizhals-Preisvergleich listet die entsprechenden Modelle von MSI für um die 150 Euro (GeForce 8600 GT) bzw. 200 Euro (GeForce 8600 GTS) auf – was insbesondere für die GeForce 8600 GT interessant klingt, wenn diese Karte in der Tat keinen Unterschied bei den Hardware-Einheiten zur GeForce 8600 GTS haben sollte. Aber natürlich müssen sich die neuen Karten auch erst einmal gegen die in diesem Preissegment bereits angebotenen DirectX9-Karten durchsetzen, welche allesamt eine HighEnd-Abstammung in die Waagschale werfen können und damit den neuen Mainstream-Karten von nVidia durchaus gefährlich werden können.

Wollte man The Inquirer Glauben schenken ;), so kommt die GeForce 8800 Ultra nur in einer Miniauflage von einigen Dutzend Stück. Jene Meldung bezweifeln wir allerdings kräftig, denn nVidia hat es derzeit wohl nicht nötig, sich auf Krampf (sprich beim Kampf um die Performancekrone) derart mit der Computer-Szene zu verscherzen – was allerdings passieren würde, sollte man eine Ultra-Edition nur für einige ausgewählte Hardwaretest-Redaktionen herausbringen. So etwas ist früher schon mal durchgegangen und wurde seinerzeit auch nicht als gut angesehen, heutzutage würden sich dagegen umgehend Hohn und Spott über nVidia ergießen. Und da sich dies auch nVidia ausrechnen kann, wird man wohl diesem Marketing-GAU zu entgehen versuchen und damit entweder eine wenigstens in einigen tausend Exemplaren lieferfähige Ultra-Karte bringen – oder eben gar keine.

Nachtrag vom 18. April 2007

Wie schon in einem extra Artikel ausgeführt, hat nVidia am Dienstag die ersten Mainstream-Beschleuniger für Direct3D10 vorgestellt. Dabei deutete sich schon in jenem Artikel an (welcher kurz nach dem Launch erschien), daß die meisten Hardware-Redaktionen, welche zum Launch die neuen Karten testen konnten, keine herausragenden Noten vergeben haben. Dabei sind die GeForce 8600 GT und GTS Karten durchaus nicht verkehrt, nVidia hat bei diesen neuen Grafikkarten vieles richtig gemacht: Die Stromaufnahme liegt im Rahmen, die meisten Lüfterkontruktionen sind recht leise, sogar passiv gekühlte Karten sind möglich. Dazu kommen alle modernen Features des G80-Chips sowohl beim reinen Featureset als auch bei den bildqualitätsverbessernden Optionen – zusammen garniert mit vollständiger HDCP-Kompatibilität bei der GeForce 8600 GTS und bei den meisten GeForce 8600 GT Karten.

Einzig allein an der puren Performance hapert es wie bekannt etwas. Auffälig ist jedoch, das sich die GeForce 8600 GTS durchaus behaupten kann, sofern man keine höhere Auflösung als 1280x1024 ansetzt: Dann liegt man geringfügig über der Radeon X1950 Pro, gerade in den eher neueren Spiele-Titeln. Das gibt durchaus Hoffnung darauf, daß die GeForce 8600 Serie mit neueren Spielen eventuell bessere Resultate einfahren kann als die jetzige DirectX9-Konkurrenz. Allerdings sollte man weniger darauf setzen, daß die GeForce 8600 Serie inbesondere von Direct3D10-Titeln wird profitieren können: Dafür ist Direct3D10 noch viel zu frisch, ist zu Lebenszeiten dieser Karten (noch) nicht der große Schwung an Direct3D10-Titeln zu erwarten. Die Performance holt die GeForce 8600 Serie derzeit wohl aus der hohen vorhandenen Shader-Power und kann damit die nur mittelmäßige Speicherbandbreite bis zu einem gewissen Maß überdecken.

Eine kleine Korrektur noch zu unserem G84/G86-Launchreport: nVidia hat bei diesen beiden neuen Grafikchips in der Tat die Textureneinheiten noch einmal gegenüber dem G80-Chip verändert, womit die grundlegenden Funktionsblöcke bei G84 und G86 also doch etwas anders aussehen als beim G80. Jener HighEnd-Chip verfügt wie bekannt über 32 Textureneinheiten (acht Quad-TMUs), welche allerdings jede zwei bilineare Texturensamples pro Takt berechnen können. Da bei diesen also doppelt ausgelegten Textureneinheiten jedoch die "Texture Adress Units" nur einfach ausgelegt sind, kann der G80-Chip pro Takt weiterhin nur 32 Texturensamples auswerfen, selbst wenn 64 berechnet werden könnten. Diese Differenz kann man allerdings dazu nutzen, in einem Takt trilineare Filterung zu ermöglichen, der G80-Chip wirft also (maximal) in einem Takt 32 gleich trilinear gefiltere Texturensamples aus.

Für die G84- und G86-Chips wurde diese Anordnung jedoch wieder etwas verändert, nun haben die Textureneinheiten auch eine doppelte Addressierungs-Einheit, womit man also nicht mehr von doppelt ausgelegten Textureneinheiten sprechen sollte, sondern bessern von zwei Textureneinheiten. Demzufolge verfügt der G84-Chip (GeForce 8600 Serie) nun also über 16 Textureneinheiten, der G86-Chip (GeForce 8300/8400/8500) über deren 8. Eine Änderung bei der nominellen Texturierungsleistung bedeutet dies zwar nicht, allerdings ergeben sich Vorteile bei rein bilinearer Filterung, wie sie beispielsweise viele Shader-Programme verwenden. Vermutlich dürfte sich diese Entwicklung zudem auch in zukünftigen HighEnd-Grafikchips von nVidia wiederfinden, da sie natürlich eine effektivere Ausnutzung der zur Verfügung stehenden Rohpower ermöglicht.

Nachtrag vom 23. April 2007

Seitens HardSpell gibt es erstmals angeblich verläßliche Daten zur GeForce 8800 Ultra, welche aus einem zu frühzeitig von Dell publizierten Angebot stammen: Danach besitzt die Ultra-Ausführung des G80-Chips die gleichen Hardwareeinheiten (128 Shader-Einheiten, 384 Bit Speicherinterface) wie die GTX-Ausführung und hat somit nur einen höheren Takt von 650/1080 MHz anzubieten, wobei es sich trotz des hohen Speichertaktes weiterhin um GDDR3-Speicher handelt. Ob damit der im Web vielfach zu lesende Preis von 999 Dollar zu halten sein wird, bezweifeln wir erst einmal – machbar ist hier sicherlich kaum mehr als eine Preisvorstellung von 600 bis 650 Euro für diese nur mäßige "Übertaktung" von 13 bzw. 20 Prozent. Allenfalls mit gleich 1,5 GB Speicherbestückung wären die 999 Dollar vorstellbar – auf der anderen Seite würde das dann zum Prestigeobjekt ausarten, denn so viel Speicher wird der Grafikkarte zu Lebzeiten keinerlei Vorteile bringen können.

Nochmals HardSpell berichten zu ersten halben Benchmarks der kommenden Mainstream-Lösung von ATI, der "Radeon HD 2600 XT" – womit im übrigen auch die "HD"-Namenswahl nunmehr fast vollständig gesichert ist. Da die 3DMark06-Einzelwerte im Vergleich zu einer GeForce 8600 GTS fast deckungsgleich sind und zudem zur Radeon HD 2600 Serie bereits das 128 Bit DDR-Speicherinterface bekannt ist, ergibt sich hier durchaus der begründete Verdacht, daß die neuen Mainstream-Lösungen von ATI bei der reinen Performance nur ähnlich durchschnittlich abschneiden werden wie die neuen Mainstream-Karten von nVidia.

Fudzilla berichtet von einem Listenpreis für die Radeon HD 2900 XT von 399 Dollar – und wiederlegen sich damit eigentlich selber, denn erst kürzlich wurden noch angebliche 100 bis 150 Dollar/Euro Preisvorsprung gegenüber nVidia vermeldet. Doch da die Radeon HD 2900 XT leistungsmäßig irgendwo zwischen GeForce 8800 GTS 640MB (ca. 350 Euro) und GeForce 8800 GTX (ca. 490 Euro) liegen sollte, wäre der Listenpreis von 399 Dollar bzw. in Europa gar 434 Euro Straßenpreis (angeblich der Listenpreis eines europäischen Resellers) absolut gerechtfertigt, würde aber keinesfalls den vorher prognostizierten Preis/Leistungsknaller abgeben. Die (gleich mit 1 GB DDR4 ausgestattet, aber erst im Juni kommende) Radeon HD 2900 XTX ist dann im übrigen angesichts dieser Zahlen für einen Listenpreis von wohl 499 Dollar zu erwarten. Dies würde auch zum gleicher Quelle noch vermeldeten Taktunterschied passen: 800/800 MHz für die Radeon HD 2900 XT und 800 MHz oder etwas darüber Chip- und 1100 MHz Speichertakt für die Radeon HD 2900 XTX.

Nachdem Guru3D in den Release Notes zum Forceware 158.19 einen Eintrag für eine "GeForce 8800 GS" gefunden haben, hat nVidia diese Release Notes kurzfristig geändert und zum anderen bestätigt, daß es keine solche Karte geben solle. Ob es sich hierbei um einen einfachen Schreibfehler handelt, ist nicht klar, in der zum Treiber gehörigen INF-Datei war jedenfalls auch kein Eintrag zu dieser Karte zu finden. Eine angenommene GeForce 8800 GS würde jedoch wohl eine weitere Abspeckung des G80-Chips bedeuten, was allerdings kaum noch wirtschaftlich wäre (und deutlich niedrigere Taktraten würden wiederum nur die Übertakter einladen). Denkbar wäre natürlich trotzdem eine irgendwie noch leistungsreduzierte Version, die dann rein für OEMs produziert wird.

Auf der anderen Seite erscheint es derzeit aber sowieso als folgerichtig, das nVidia den riesigen Performance-Zwischenraum zwischen GeForce 8600 GTS und GeForce 8800 GTS 320MB noch irgendwie füllen wird. Sicherlich wird dies nicht sofort passieren, derzeit liegen beide Karten preislich ja gar nicht weit auseinander (ca. 190 Euro zu ca. 260 Euro) – momentan wird man also versuchen, erst einmal die GeForce 8600 GTS breit abzusetzen. Aber nach diesem Launchschwung wird der Preis dieser Karte wohl in die Nähe von 150 Euro fallen müssen, um gegenüber Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT langfristig konkurrenzfähig zu bleiben. Dann würde ein Raum für eine derzeit spekulativ als "GeForce 8700" bezeichnete Serie bleiben. Diese würde dann natürlich nicht auf dem G80-Chip basieren, sondern vielmehr auf einem extra Grafikchip für das obere Mainstream-Segment – wie es ATI mit dem RV570 (Radeon X1950 Pro) schon vorgemacht hat.

Hardware-technisch sollte ein solcher Grafikchip dann irgendwo zwischen G80 (acht Funktionsblöcke mit jeweils 16 Shader-Einheiten und vier TMUs, 384 Bit DDR Speicherinterface) und G84 (zwei Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs, 128 Bit DDR Speicherinterface) liegen: Man kann hierbei wohl über vier Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs (angelehnt an der verbesserten G84-Architektur) sowie ein 192 oder 256 Bit Speicherinterface spekulieren. Ein solcher Chip würde dann natürlich nicht gerade klein werden, wahrscheinlich dürfte nVidia mit diesem warten, bis man die 65nm Fertigung zu Verfügung hat – was allerdings auch nicht mehr so lange dauern sollte. Nichts desto trotz ist eine "GeForce 8700" derzeit immer noch hochspekulativ, gibt es keinerlei gesicherte Fakten dazu, ob und wie nVidia eine solche Karte plant.

Laut nochmals Fudzilla soll ATIs kommender Mainstream-Grafikchip RV630 über 32 Shader-Einheiten und damit die Hälfte des R600-Chips verfügen, der LowCost-Grafikchip RV610 über 16 Shader-Einheiten und damit ein Viertel des R600-Chips (über die Anzahl der Shader-Einheiten ist der R600 natürlich nicht mit dem G80 zu vergleichen, da die Shader-Einheiten von ATI und nVidia im gewöhnlichen unterschiedlich leistungsfähig sind). Dies würde auf eine Mainstream-Variante von ATI hindeuten, welche Hardware-technisch nicht so arg beschnitten ist wie der G84-Chip (GeForce 8600 Serie). Auf der anderen Seite hat der RV630 aber auch bekanntermaßen das gleiche Speicherinterface wie der G84 – 128 Bit DDR – womit gerade in höheren Auflösungen samt Anti-Aliasing wieder die Gefahr besteht, daß Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT aufgrund der dort verbauten 256 Bit DDR Speicherinterfaces auch an ATIs neuer Mainstream-Lösung vorbeiziehen.

Die am Freitag genannten Dell-Spezifikationen zur GeForce 8800 Ultra kann man sich im übrigen hier in einer Kopie ansehen. Mit dieser bestätigen sich auch die weiterhin nur 768 MB Grafikkartenspeicher dieser Karte, womit ein Listenpreis von 999 Dollar doch als eher unwahrscheinlich angesehen werden kann. Bei den aktuellen Bildern zur Radeon HD 2600 XT (beispielsweise hier) ist auffällig, daß diese größte Mainstream-Ausführung von ATI keinen extra Stromstecker mehr trägt. Ursprünglich wiesen sogar ATI-eigene Unterlagen dieser Karte noch 121 Watt Stromverbrauch aus, ohne extra Stromanschluß kann es jedoch kaum über 60 Watt sein (da man die maximal 75 Watt des PCIe-Ports nie vollständig ausreizt). Einen Benchmarkwert dieser Karte gegenüber einer GeForce 8600 GTS unter Need for Speed: Carbon kann man zudem noch hier nachschlagen.