Nachtrag II

Donnerstag, 22. März 2007
 / von Leonidas
 

Nachtrag vom 20. März 2007

Wie NGOHQ in Berufung auf mehrere Grafikkartenhersteller berichten, soll die GeForce 8800 Ultra als rein höhergetaktete Version des G80-Chips zusammen mit den LowCost- und Mainstream-Lösungen GeForce 8500 GT, GeForce 8600 GT und GTS bereits am 17. April vorgestellt werden – sogar inklusive sofortiger Verfügbarkeit der schnellsten G80-Variante. Dieser Termin ist allerdings etwas erstaunlich, denn als R600-Counterpart wäre es zu erwarten gewesen, daß nVidia den R600-Start abwartet, um erst dann die finalen Taktraten der GeForce 8800 Ultra festzulegen. Man kann hier durchaus darüber spekulieren, daß es nVidia jetzt schon bekannt ist, daß man den R600 nicht schlagen kann und deshalb den R600-Killer bereits vor dem R600 veröffentlicht. Auf der anderen Seite könnte es nVidia natürlich auch leid sein, ständig weiter auf den R600 zu warten ;).

Im Forum der chinesischen Webseite PC Online gibt es Bilder und Benchmarks einer GeForce 8600 GTS von BFG zu visitieren. Die Karte taktete dabei mit 710/1008 MHz, was etwas höher ist als der derzeitig bekannte Referenztakt von 675/1000 MHz – andererseits sind gewisse Taktunterschiede bei Vorserienmodellen normal, ganz besonders wenn diese (eventuell) gebaut wurden, noch bevor der Grafikchip-Entwickler den finalen Referenztakt festgesetzt hat. Im Standardtest von 3DMark06 erreichte diese neue Top-Karte des Mainstream-Segments 5488 3DMarks, was doch angesichts beispielsweise dieser Referenzwerte erstaunlich niedrig ist.

Sicherlich schlägt die GeForce 8600 GTS damit die bisherige offizielle Mainstream-Lösung von nVidia, die GeForce 7600 GT (4364 3DMarks) um immerhin 25 Prozent. Andererseits wildern derzeit im Mainstream-Segment bereits die von HighEnd-Ausführungen abstammenden Karten Radeon X1950 Pro (5965 3DMarks) und GeForce 7900 GS (5652 3DMarks) sehr erfolgreich, aber auch solche Karten wie die Radeon X1950 XT (runde 7000 3DMarks) und die GeForce 7950 GT (6672 3DMarks) werden immer günstiger und können durchaus als zukünftige Kontrahenten zur GeForce 8600 GTS betrachtet werden. Und gegenüber diesen Karten sieht es schlecht für die GeForce 8600 GTS aus – und das in einem Test, welcher durch den Verzicht auf Anti-Aliasing eine der Hauptschwächen der GeForce 8600 GTS (das nur 128bittige Speicherinterface) gut überdeckt.

In der Spielepraxis dürfte zwar der Vorteil gegenüber der GeForce 7600 GT (auch nur 128bittiges Speicherinterface) erhalten bleiben, der Rückstand gegenüber den vorgenannten DirectX9-Karten allerdings tendentiell sogar noch zunehmen, da in der Praxis natürlich mit dem Einsatz von Anti-Aliasing gerechnet werden muß. Es deutet sich damit immer mehr an, daß die kommende DirectX9 Mainstream-Generation wohl nicht in der Lage sein wird, die aktuell bereits im 200-Euro-Preissegment positionierten DirectX9-Karten zu schlagen. Abzuwarten bliebe natürlich noch, ob ATI dies mit dem RV630-Chip bzw. der Radeon X2600 Serie besser machen kann – da dort aber wie bei der GeForce 8600 Serie auch nur ein 128bittiges Speicherinterface verbaut sein wird, sind die Chancen hierfür auch nicht besonders hoch.

Nachtrag vom 21. März 2007

Die gestern gemeldeten ersten Benchmarks einer GeForce 8600 GTS sind nach Angaben von Planet 3DNow! eine Fälschung – in den Bildern fanden sich wohl Photoshop-Tags, außerdem entsprach die angebliche 3DMark-Gesamtwertung nicht den einzelnen Werten. Richtigerweise fügte man zudem an, daß die gestern von uns herangezogenen Vergleichswerte von einer wesentlich leistungsfähigeren CPU stammen, während die angeblichen Benchmarks der neuen nVidia-Karte auf einem SingleCore-Prozessor mit 2.5 GHz erstellt wurden, was in einem Leistungsunterschied von durchaus bis zu 20 Prozent unter dem 3DMark06 resultieren kann. Diesbezüglich haben wir gestern wohl zu schnell geschossen, wofür wir uns ausdrücklich entschuldigen wollen.

Weiteren Meldungen von selber Quelle bezüglich den Benchmark-Werten einer GeForce 8600 GT als der kleineren Schwester der GTS-Version wollen wir demzufolge vorerst keinen Glauben schenken, auf der anderen Seite hat man bei Hardware.fr als in aller Regel verläßlicher Quelle entsprechende 3DMark06-Werte anzubieten: Danach soll auf einem System, wo eine GeForce 8800 GTX ihre 11900 3DMarks erreicht (wohl ein Core 2 Extreme X6800 wie in diesem Test, wo diese Karte 11860 3DMarks erreicht), die GeForce 8600 GTS auf immerhin 7000 3DMarks kommen, was dann etwas überhalb von GeForce 7950 GT (6672 3DMarks) und Radeon X1900 XT (6611 3DMarks) liegen würde. Die GeForce 8600 GT würde hingegen auf 5800 3DMarks kommen, dies ist im Rahmen der GeForce 7900 GT (5668 3DMarks) und der Radeon X1950 Pro (5965 3DMarks). Und letztlich würde die GeForce 8500 GT als größte der neuen LowCost-Karten auf 2800 3DMarks kommen, was doch noch einmal deutlich langsamer wäre jetzt die Radeon X1650 XT (4115 3DMarks) schon liefern kann.

Zumindestens für die neuen Mainstream-Lösungen von nVidia sieht das Bild damit deutlich freundlicher aus – allerdings bleiben unsere gestern geäußerten grundsätzlichen Bedenken bezüglich des 128bittigen Speicherinterfaces dieser Karten weiterhin bestehen. Denn wenn die GeForce 8600 GT und GTS unter 1024x768 ohne Anti-Aliasing auf in etwa die gleiche Performance kommen wie die jetzt im jeweils angepeilten Preissegment schon verfügbaren Karten, dann werden die neuen nVidia Mainstream-Grafikkarten unter höheren Auflösung und unter Zuschaltung von Anti-Aliasing angesichts ihrer jeweils nur 128 Bit DDR breiten Speicherinterfaces kaum diese Performance halten können. Zwar bleiben natürlich in jedem Fall die entsprechenden Benchmarks zum voraussichtlichen Launch dieser Karten am 17. April abzuwarten, aber diese Theorie kann man derzeit sicherlich erst einmal aufstellen.

Daneben gibt es zum ATI R600 Grafikchip noch ein paar neue Informationshäppchen: Laut der VR-Zone soll die (nach wie vor unbestätigte) 65nm-Version des R600-Chips unter einer sehr schlechten Produktionsausbeute leiden – eigentlich kein Wunder bei einem so großen Chip unter 65nm zu einem (für Chipfertiger TSMC) so frühen Zeitpunkt. Auf der anderen Seite ist an dieser Meldung auch nicht klar, ob sie sich wirklich auf die 65nm-Produktion bezieht: Womöglich war die Ursprungsinformation rein nur, daß der R600-Chip eine schlechte Produktionsausbeute habe und die VR-Zone – welche sich derzeit stark auf einen R600 strikt unter 65nm eingeschossen hat – hat dies allein von sich aus auf die 65nm-Fertigung umgedeutet.

Dagegen berichtet die PC Games Hardware von einer gegenüber dem R580-Chip um 40 Prozent höheren (reiner) Rechenleistung für den R600-Chip – was durchaus nicht schlecht wäre, denn bei der reinen Rechenleistung liegt der G80-Chip von nVidia auch "nur" 50 Prozent über dem vorhergehenden G71-Chip. Hard Tecs 4U haben hingegen ein paar CeBIT-Impressionen und -Depressionen zum R600-Chip, welche lesenswerte Hintergründe und Anekdoten zu den Irrungen und Wirrungen um die derzeitige R600-Darstellung von AMD/ATI bieten. Und letztlich gab es bei eBay wohl kurzzeitig das Angebot einer R600-Karte – allerdings nur so lange, bis der Anbieter bemerkte, was er da für einen "Schatz" in den Händen hält. Allerdings bietet die nunmehr geschlossene Auktion auch neues, unabhängiges Bildmaterial zum R600.

Nachtrag vom 22. März 2007

Weiter geht es mit den Informationshäppchen zum ATI R600 Grafikchip: Bei Fudzilla ist man inzwischen umgeschwenkt und betrachtet den R600 wieder als in 80nm gefertigt. Auch die VR-Zone geht inzwischen wieder von einem 80nm Chip aus, zudem hat man dort einen angeblichen 3DMark06-Wert der Radeon X2900 XTX. Für solcherart HighEnd-Karten ist der 3DMark06 allerdings sehr wenig aussagefähig, weil diese Karten in der Praxis schließlich fast immer mit Anti-Aliasing betrieben werden, welches aber beim Standarddurchlauf der 3DMarks nicht aktiv ist. Und letztlich gibt es auf der japanischen Webseite 4Gamer (maschinelle Übersetzung ins englische) noch Teile der AMD-Präsentation zum R600 zu besichtigen, auch dort findet sich im übrigen eine explizite Anmerkung zur 80nm Fertigung dieses Grafikchips.

Bezüglich der kommenden Direct3D10-Lösungen von ATI und nVidia fehlen unsererseits natürlich noch entsprechende Anmerkungen zu den seitens beider Grafikchip-Entwickler entsprechend geplanten Mobile Direct3D10 Lösungen. Prinzipiell muß man hier dazusagen, daß Informationen über Mobile-Grafikchips immer sehr rar sind – ganz besonders dann, wenn die entsprechenden Desktop-Versionen noch nicht einmal offiziell vorgestellt sind. Auf der anderen Seite lassen ATI und nVidia heutzutage im gewöhnlichen auch keine extra Mobile-Grafikchips mehr fertigen, sondern entnehmen die für mobile Geräte gedachten Grafikchips der normalen Produktion – dort sucht man sich schlicht diese Chips aus, welche mit der geringstmöglichen Chipspannung noch einwandfrei funktionieren.

Diese Chips werden zwar dann gewöhnlich als "M" gelabelt – beispielsweise "G71M", technisch besteht jedoch unseres Wissens nach kein Unterschied zu den Desktop-Grafikchips. Allerdings werden für die Mobile-Chips dann zumeist noch etwas ausgefuchstere Stromspartricks angewandt, wie beispielsweise deutlich niedrigere Taktraten und Chipspannungen unter dem 2D-Betrieb. Somit erreicht man auf letztlich einfachem Wege Mobile-Grafikchips, ohne diese deswegen gleich als extra Chips (mit entsprechendem Zeit- und Geldaufwand) auflegen zu müssen. Demzufolge sollte es den Grafikchip-Herstellern eigentlich problemlos möglich sein, im Anschluß an den Launch eines neuen Desktop-Grafikchips auch den Mobile-Markt mit entsprechenden Varianten beliefern zu können.

In der Praxis steht dem allerdings entgegen, daß gerade die heutzutage erscheinenden HighEnd-Lösungen nur schwerlich auf Mobile zu trimmen sind, da deren Stromverbrauch dafür oftmals deutlich zu hoch ist. Genau aus diesem Grunde dauert es dann eben seine Zeit, ehe die GeForce 8800 Serie auch für den Mobile-Markt verfügbar wird: Zuerst einmal gehen die ersten Produktionschargen natürlich in das prestigeträchtigere Desktop-Geschäft – und dann muß die Produktion so weit verfeinert werden, daß es eine genügende Ausbeute an Chips gibt, welche man mit niedrigen Spannungen betreiben kann und welche demzufolge in das Mobile-Segment gehen können. Reicht die Spannungsabsenkung nicht aus, kann es bei HighEnd-Lösungen zudem ebenfalls vorkommen, daß diese gegenüber der Desktop-Variante etwas abgespeckt sind (bei oftmals trotzdem gleichen Namen).

Deshalb hat es auch so lange gedauert, bis der G80-Chip im Mobile-Segment aufgetaucht ist. Wie die VR-Zone berichtet, wird es die GeForce 8800 Go in drei Varianten geben: GS, GTS und GTX. Die Unterschiede zwischen diesen Versionen sind derzeit nicht bekannt, die bekannten Unterschiede aus dem Desktop-Bereich sind hierbei allerdings wohl nicht maßgebend. Klar ist aber, daß auch die GeForce Go 8800 Serie wie schon auf dem Desktop einiges an Strom ziehen wird, deshalb gibt es diese Mobile-Grafiklösungen auch nur im größtmöglichen MXM-Standard, MXM-IV. Nichts desto trotz wird es wieder Notebook-Hersteller geben, welche das ganze auf die Spitze treiben: So berichtet die VR-Zone von einem seitens des Herstellers Clevo geplanten Notebook mit gleich zwei GeForce Go 8800 Modulen in SLI-Verbindung ;).

Gemäß vorstehender Erklärung ist es aber natürlich viel einfacher, LowCost- und Mainstream-Grafikchips für den Mobile-Einsatz zu aquirieren, da deren Verlustleistung in aller Regel schon halbwegs passend ist und man außerdem aufgrund der hohen gefertigten Stückzahlen schneller auf eine ausreichende Anzahl von Grafikchips kommt, welche auch mit abgesenkter Spannung ihren Dienst tun. So ist es denn auch nicht weiter erstaunlich, daß laut PCPop auf der CeBIT von MSI eine erste fertige GeForce8-Lösung gezeigt wurde: Hierbei handelt es sich um eine GeForce Go 8300 auf Basis des G86-Chips in einem MXM-II Modul. Leider ist das natürlich nur die LowCost-Ausführung der GeForce8-Serie, interessanter gerade für Notebooks wären aber eher die Mainstream-Ausführungen, da diese einen guten Mittelweg zwischen Performance und Stromverbrauch darstellen. Allerdings sind diese ebenfalls in absehbarer Zeit zu erwarten, da der G84-Chip kein wirklicher Stromfresser zu sein scheint.