30

News des 29./30. September 2007

Die Virtual Zone bringt in mehreren Meldungen einige Informationen darüber, wie die Grafikchips der kommenden nVidia Refresh-Generation einzuordnen sind: No.1, No.2, No.3, No.4 und No.5. Danach läßt sich nunmehr mit einiger Sicherheit sagen, daß der am 5. oder 12. November anstehende G92-Chip ins Performance-Segment und keinesfalls in HighEnd-Segment gehört. Dafür spricht auch der Verkaufsname, welcher zuerst "GeForce 8700 GTS" und nunmehr "GeForce 8800 GT" lauten soll. Damit wird die Richtung klar vorgegeben, wonach sich der G92-Chip noch unter allen G80-Varianten inklusive auch der GeForce 8800 GTS einordnen muß. Nichts desto trotz dürfte zumindestens die GeForce 8800 GTS 320MB mit dem Erscheinen des G92-Chips auslaufen, denn diese liegt preislich doch zu nah: Die 256-MB-Ausführung der GeForce 8800 GT soll 199 Dollar kosten, die 512-MB-Ausführung 249 Dollar.

Damit dürfte klar sein, daß die GeForce 8800 GTS 640MB und vor allem die GeForce 8800 GTX und Ultra auch nach dem Launch des G92-Chips weiterhin ihre Berechtigung haben werden. Wenn man diese ablösen will, wird dafür eine neue HighEnd-Lösung (G90-Chip?) oder eben die oftmals prognostizierte DualChip-Grafikkarte auf G92-Basis benötigt. Der G92-Chip als Single-Auführung scheint dafür jedenfalls nicht geeignet – darauf deuten auch die anderen Daten wie die mit 9 Zoll nur maßvoll große Platine (genauso groß wie die GeForce 8800 GTS, aber kleiner als die GeForce 8800 GTX/Ultra) und der Umstand, daß die G92-Boards nur im SingleSlot-Design daherkommen sollen. Sollte sich die VR-Zone hier also nicht in allen diesen Detail-Angaben vollständig irren, geht der G92-Chip ab November ins Performance-Segment und dort in Konkurrenz zu ATIs RV670-Chip, welcher zum selben Zeitraum für dasselbe Marktsegment ansteht.

Gleichzeitig kristallisiert sich immer mehr heraus, daß der ebenfalls im November zu erwartende G98-Chip eine klare LowCost-Lösung darstellen wird. Darauf deutet der wirklich niedrige Launch-Listenpreis von 59 Dollar sowie das nur 64bittige Speicherinterface hin – sogar der G98-Vorgängerchip G86 (GeForce 8300/8400/8500) hat ein 128bittiges Speicherinterface zu bieten (was aber nur bei der GeForce 8500 GT ausgeführt wurde). Ob der G98-Chip damit also wirklich leistungsstärker wird als der G86-Chip, wäre noch zu bezweifeln – der Sinn besteht hier wohl weniger in mehr Leistung, als vielmehr sowohl Chip als auch die Platine günstiger herstellen zu können. Demzufolge dürfte es mit dem G98-Chip womöglich mehr Leistung als bei der GeForce 8400 GS geben, die GeForce 8500 GT mit 128bittigem Speicherinterface dürfte diesbezüglich aber kaum erreichbar sein.

Damit verabschiedet sich der G98-Chip allerdings auch schon wieder aus dem Blickpunkt, denn mit diesen technischen Daten sind entsprechende Boards kaum als Spiele-Grafikkarten zu empfehlen. Der G98-Chip ist ein klarer Konter für ATIs RV610-Chip (mit ebenfalls nur 64bittigem Speicherinterface) und dort besonders die Radeon HD 2400 Pro zu sehen, welche mit sehr niedrigen Performance-Werte antritt, aber eben auch wirklich niedrigen Herstellungskosten aufwarten kann. Dieser Kampf wird allerdings eher denn im OEM-Markt ausgefochten werden, wo sowohl G98 als auch RV610 bzw. der mit ATIs Refreshgeneration kommende Nachfolger RV620 hingehen werden. Weiterhin noch nicht sicher ist im übrigen der Support von PCI Express 2.0 und Direct3D 10.1 bei beiden neuen nVidia-Chips: Ersterer ist wohl wahrscheinlich überall mit dabei, weil von Grafikkkarten-Seite aus ziemlich einfach zu erreichen – beim G98-Chip wird PCI Express 2.0 auch explizit von der VR-Zone erwähnt.

Nicht so sicher ist dies hingegen bei Direct3D 10.1, welches zwar auch relativ einfach einem Grafikchip zufügbar sein soll, es bislang hierzu aber keine eindeutigen Meldungen bezüglich der kommenden neuen nVidia-Grafikchips gibt. Womöglich liegt hier ein Grund für die Zurückhaltung nVidias bezüglich eines echten HighEnd-Chips (G90) verborgen: Wenn der G92 angenommenerweise Direct3D 10.1 noch nicht unterstützt, könnte der Support für dieses Update der Direct3D10-API nun unbedingt noch dem G90-Chip hinzugefügt werden, womit sich dieser wie derzeit zu sehen etwas verzögert. Auch auf ATI bezogen könnte dieser Gedanke zutreffend sein, da auch dort schließlich die Refresh-Generation von einem Performance-Chip (RV670) und nicht von einem HighEnd-Chip (R680) eingeläutet werden wird. Allerdings gab es zumindestens zum RV670-Chip Meldungen, wonach dieser in der Tat bereits Direct3D 10.1 unterstützen soll – womit der vorstehend geäußerte Gedanke zwar erst einmal griffig erscheint, aber keineswegs perfekt zu allen verfügbaren Informationen passt.

Im Linkbereich sind heute einige Artikel und Reviews zu hochgetaktetem DDR3-Speicher zu finden (Liste der Artikel), besonders zu erwähnen sind hierbei die Artikel seitens Hard Tecs 4U, der ComputerBase und von den X-bit Labs. Dabei ist es durchaus erstaunlich und gleichzeitig bemerkenswert, wie schnell die Speicherindustrie den DDR3-Speicherstandard adaptiert und bezüglich der Taktfrequenzen als auch der Latenzen zu wirklich schlagkräftigen Angeboten geformt hat. Zu Zeiten des (auch nur vier Monate zurückliegenden) Starts von DDR3 hätte man sicherlich nicht vermutet, das jetzt schon DDR3/1800-Speicherriegel mit Latenzen von 7-7-7-20 zu bekommen sind – das ergibt eine Latenzzeit von gerade einmal 7,77ns und damit das Niveau von DDR2/800 auf CL3 (7,5ns). Damit hat DDR3-Speicher innerhalb kürzester Zeit die besten bei DDR2 verfügbaren Latenzzeiten eingeholt – und weitere Steigerungen können ja noch kommen.

Der hervorragenden Ausgangslage bei der reinen Technologie stehen allerdings weiterhin zwei mächtige Bremsklötze gegenüber. Denn zum einen benötigten (wie schon einmal ausgeführt) die aktuellen Intel-Prozessoren die sehr hohen Bandbreiten von schnell getaktetem DDR3-Speicher nicht bzw. können diese aufgrund ihres FSBs nicht umsetzen. Zwar gibt es hier und da noch gewisse Leistungsgewinne, wenn man sehr schnell getakteten DDR3-Speicher gegen die schnellsten DDR2-Taktstufen setzt, die wenigen Prozentpunkte in theoretischen Tests (und noch weniger in RealWorld-Benchmarks) sind natürlich angesichts des Taktratenvorteils von DDR3-Speicher von derzeit um die 50 Prozent eher denn ein Witz. Dabei ist DDR2-Übertakterspeicher sogar in der Lage, in hochtheoretischen Bandbreite-Messungen DDR3/1600 zu überflügeln – was nochmals deutlich darauf hinweist, daß das Problem nicht beim DDR3-Speicher, sondern vielmehr der FSB-Limitation der aktuellen Intel-Prozessoren liegt.

Und der andere Bremsklotz ist derzeit noch der deutlich zu hohe Preis für den ganzen Spaß. Nicht nur das DDR3-Speicher von Haus aus teurer ist, gerade die guten Module mit hohen Taktfrequenzen und trotzdem verhältnismäßig niedrigen Latenzen haben einen Preis jenseits von Gut und Böse. Dazu kommt noch der Umstand, daß DDR2-Speichermodule mit niedrigen Latenzen zwar auch ihren Mehrpreis kosten, sich dieser aber noch im Rahmen hält und man daher auch ohne großen finanziellen Aufwand DDR2/800 mit CL3 erstehen kann. Von diesem Maß an Effizienz ist DDR3-Speicher derzeit noch um einige Dimensionen entfernt, da nützt es auch nicht, daß man in den allermeisten Fällen die Benchmark-Diagramme anführt: Für die meistens unter einem halben Prozentpunkt liegenden Vorteile bei RealWorld-Benchmarks sind der drei- bis fünffache Preis einfach vollkommen übertrieben. Oder anders formuliert: An anderen Stellen im PC investiert kann man sicherlich deutlich mehr Leistung für den gleichen monetären Einsatz herausholen.