Mit den News-Meldungen der letzten Tage verdichtet sich immer mehr das Bild über die im April/Mai zu erwartenden Direct3D10-Grafikkarten von ATI und nVidia. Mittels dieser Produktoffensive in nur recht wenigen Wochen wird dann von beiden Grafikchip-Entwicklern ein komplettes Programm an Direct3D10-Grafikkarten für alle drei Marktsegmente zur Verfügung stehen. Dieser Artikel soll als aktueller Überblick über das bisher bekannte Wissen zu diesen neuen Karten dienen und wird zu diesem Zweck auch beim Auftauchen neuer Informationen entsprechend ergänzt werden.
Damit wollen wir uns ohne weitere große Vorrede in die Präsentation der entsprechend bekannten Daten zu den HighEnd-Grafikkarten stürzen. nVidia hat ja schon den Anfang in Form der Veröffentlichung des G80-Chips gemacht, während ATIs R600-Chip mehrfache Verspätungen hinnehmen musste. Auch macht es die letzte Verspätung möglich, daß ATI nochmals etwas an den R600-Grafikboards herumbastelt, die entsprechenden Daten gerade zum R600-Chip und dessen Grafikboards sind also weiterhin mit Vorsicht zu genießen.
HighEnd Direct3D10-Grafikkarten | |||
---|---|---|---|
Grafikchip | Grafikkarte | Stromverbrauch | Preis & Verfügbarkeit |
ATI R600 ca. 720 Mill. Tranistoren in 80nm, 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface |
Radeon HD 2900 XTX wie R600-Chip, Chiptakt angeblich 800 MHz, Speichertakt angeblich 1100 MHz, Speichergröße 1 GB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design |
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai, Verfügbarkeit allerdings erst im Juni (oder gar erst im dritten Quartal), Listenpreis angeblich 499 Dollar |
Radeon HD 2900 XT wie R600-Chip, Chiptakt 745 MHz, Speichertakt 800 MHz, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design |
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 399 Dollar | |
Radeon HD 2900 XL die Unterschiede zu den XT/XTX-Versionen sind unklar – höchstwahrscheinlich deutlich niedrigere Taktraten, mit einer geringen Chance sind aber auch deaktivierte Hardware-Einheiten möglich, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design |
unklar | komplett unbekannt | |
nVidia G80 681 Mill. Transistoren in 90nm, 128 Shader-Einheiten (16 Vec8-ALUs), 32 TMUs (acht Quad-TMUs), 24 ROPs, 384 Bit DDR Speicherinterface (6x 64 Bit) |
GeForce 8800 Ultra wie G80-Chip, Chiptakt 612 MHz, Shadertakt 1512 MHz, Speichertakt 1080 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design |
ca. 140-145 Watt realer Verbrauch | Launch am 2. Mai, Verfügbarkeit ab 15. Mai zu einem europäischen Listenpreis von 699 Euro |
GeForce 8800 GTX wie G80-Chip, Chiptakt 575 MHz, Shadertakt 1350 MHz, Speichertakt 900 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design |
132 Watt realer Verbrauch, nVidia empfiehlt ein Netzteil von mindestens 450 Watt Gesamtleistung mit 30A auf der 12V-Leitung | erhältlich für derzeit um die 490 Euro | |
GeForce 8800 GTS wie G80-Chip, jedoch: nur 96 Shader-Einheiten, nur 24 TMUs, nur 20 ROPs, nur 320 Bit Speicherinterface, Chiptakt 500 MHz, Shadertakt 1200 MHz, Speichertakt 800 MHz, Speichergrößen 320 und 640 MB, vollständig HDCP-kompatibel, DualSlot-Design |
106 Watt realer Verbrauch (640-MB-Version), nVidia empfiehlt ein Netzteil von mindestens 400 Watt Gesamtleistung mit 26A auf der 12V-Leitung | erhältlich für derzeit um die 260 (320 MB) bzw. 350 (640 MB) Euro |
Deutlich besser ist hingegen die Informationslage bei den kommenden Mainstream-Grafikkarten um die beiden Grafikchips ATI RV630 und nVidia G84. Beide werden wohl plangemäß im April/Mai vorgestellt werden, auch mit der Verfügbarkeit entsprechender Grafikkarten ist für diesen Zeitraum zu rechnen. Bei den RV630-Abkömmlingen sind derzeit die jeweiligen Namenssuffixe noch nicht bekannt, sondern bislang nur die Codenamen der entsprechenden Referenzboards von ATI:
Mainstream Direct3D10-Grafikkarten | |||
---|---|---|---|
Grafikchip | Grafikkarte | Stromverbrauch | Preis & Verfügbarkeit |
ATI RV630 65nm, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface |
Radeon HD 2600 XT wie RV630-Chip, Chiptakt 800 MHz, Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design |
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 199 Dollar |
Radeon HD 2600 Pro Unterschiede zur XT-Version sind unklar – allerdings vermutlich nur geringere Taktfrequenzen, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design |
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 179 Dollar | |
Radeon HD 2600 Unterschiede zur XT-Version sind unklar – in diesem Fall sind allerdings neben geringeren Taktfrequenzen auch deaktivierte Hardware-Einheiten möglich (das 128 Bit DDR Speicherinterface bleibt allerdings), Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design |
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt | |
nVidia G84 289 Mill. Transistoren in 80nm, 32 Shader-Einheiten (vier Vec8-ALUs), 16 TMUs (zwei Octo-TMUs), 8 ROPs, 128 Bit DDR Speicherinterface |
GeForce 8600 GTS wie G84-Chip, Chiptakt 675 MHz, Shadertakt 1450 MHz, Speichertakt 1000 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design |
49 Watt realer Verbrauch (Karten haben extra Power-Anschluß) | erhältlich für derzeit um die 190 Euro |
GeForce 8600 GT wie G84-Chip, Chiptakt 540 MHz, Shadertakt 1190 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design |
geschätzt 40 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) | erhältlich für derzeit um die 130 Euro |
Und letztlich werden ATI und nVidia mit den Grafikchips RV610 und G86 auch noch neue LowCost-Modelle für Direct3D10 an den Start bringen. Einschränkenderweise gilt hier dazuzusagen, daß meistens nur die Top-Modelle der jeweiligen LowCost-Grafikkarten empfehlenswert sind, die niedrigeren Modelle sind in ihrer Leistung gewöhnlich zu beschnitten, um als sinnvolle 3D-Beschleuniger durchgehen zu können. Gänzlich herausgelassen haben wir nachfolgend im übrigen die LowProfile-Lösungen von ATI, da diese in aller Regel nur im OEM-Markt vertrieben werden:
LowCost Direct3D10-Grafikkarten | |||
---|---|---|---|
Grafikchip | Grafikkarte | Stromverbrauch | Preis & Verfügbarkeit |
ATI RV610 65nm, 40 Shader-Einheiten, 4 TMUs, 128 Bit DDR Speicherinterface |
Radeon HD 2400 XT wie RV610-Chip, Chiptakt 700 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design |
um die 35 Watt TDP | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 99 Dollar |
Radeon HD 2400 Unterschiede zur XT-Version sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, Speichertakt 400 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design, passiv gekühlte Designs zu erwarten, keine Hardware-Unterstützung für CrossFire |
unter 25 Watt TDP | Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt | |
nVidia G86 210 Mill. Transistoren in 80nm, 16 Shader-Einheiten (zwei Vec8-ALUs), 8 TMUs (eine Octo-TMU), 128 Bit DDR Speicherinterface |
GeForce 8500 GT wie G86-Chip, Chiptakt 450 MHz, Shadertakt 900 MHz, Speichertakt 400 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design |
unbekannt | erhältlich für derzeit um die 80 Euro |
GeForce 8400 GS Unterschiede zur GeForce 8500 GT sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, SingleSlot-Design |
unbekannt | Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt | |
GeForce 8300 GS Unterschiede zur GeForce 8500 GT sind unklar – in diesem Fall sind neben geringeren Taktfrequenzen aber auch deaktivierte Hardware-Einheiten anzunehmen (mit sicherlich nur 64 Bit Speicherinterface), SingleSlot-Design |
unbekannt | Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt |
Wie an den großen Lücken bei einzelnen Grafikkarten zu sehen, sind derzeit die Angaben insgesamt noch zu dürftig, um bereits größere Marktprognosen abgeben zu können. Auffallend ist allerdings, daß sowohl ATI wie auch nVidia bei den Mainstream-Grafiklösungen es mit Grafikkarten mit nur 128bittigem Speicherinterface probieren wollen. Man wird dies zwar wohl durch hohe Speichertakte etwas ausgleichen wollen, nichts desto trotz könnte es zu einer Situation kommen, wo die derzeit vertriebenen Karten des Mainstream-Segments aufgrund ihrer 256bittigen Speicherinterfaces eine vergleichbare oder gar bessere Leistung bieten werden können.
Ganz allgemein sind die aktuellen Mainstream- und niedrigeren HighEnd-Lösungen auch weiterhin noch gute Marktchancen einzuräumen, da ATI und nVidia derzeit im Preisbereich von 170 bis 240 Euro wirklich sehr viel Hardware für doch recht moderate Preise verkaufen. Zu nennen wären hier insbesondere Radeon X1950 Pro, Radeon X1950 XT und GeForce 7950 GT, wobei sich zumindestens hinter den beiden letztgenannten Karten einwandfreie HighEnd-Lösungen verbergen, die jetzt einfach nur dermaßen günstig geworden sind, daß sie ins Mainstream-Segment hinabrutschen.
Davon abgesehen gilt es weitere Informationen zu den neuen Direct3D10-Karten abzuwarten, ehe man weitere Einschätzungen dieser vornehmen kann. Wie schon vorstehend angemerkt, wird dieser Artikel mit dem Auftauchen neuer Details entsprechend aktualisiert werden.
Wie zu erwarten, war auf der CeBIT auch gleich genaueres zu den kommenden Mainstream Direct3D10-Grafikkarten von nVidia zu erfahren, auch wenn diese offiziell wohl erst am 17. April vorgestellt werden dürften. So berichtet der Heise Newsticker [3] genauere Daten zum G84-Chip: Jener soll über über die Hälfte der Recheneinheiten des G80-Chips verfügen, ergo 64 Shader-Einheiten (acht Vec8-ALUs). Bezüglich der Textureneinheiten (TMUs) und Raster Operation Units (ROPs) gibt es derzeit noch keine Angaben, bestätigt wurde noch das (allerdings schon länger) bekannte 128bittige Speicherinterface des G84-Chips. Bei den TMUs kann man allerdings eine gleichförmige Abspeckung gegenüber dem G80-Chip auf 16 TMUs (vier Quad-TMUs) annehmen, da ein G8x-Design mit einer nicht gleichförmigen Anzahl an Shader-Einheiten und TMUs wohl deutlich ineffizient wäre.
Zudem hat man erste Hinweise zum G86-Chip, aus welchem im LowCost-Segment die Grafikkarten GeForce 8300 GS, GeForce 8400 GS und GeForce 8500 gebildet werden sollen. Hierbei spricht der Heise Newsticker allerdings etwas nebulös von "voraussichtlich 32 bis 48 Shader-Einheiten" (vier bis sechs Vec8-ALUs) – womit jedoch nicht klar ist, ob das eine Annahme des Heise Newsticker ist, oder ob dies auf einer realen Information basiert. Zumindestens aber wären diese 32 bis 48 Shader-Einheiten absolut im Rahmen des Möglichen, wobei wir uns für einen LowCost-Chip sicherlich eher das untere Ende dieser Skala vorstellen könnten. Auch der G86-Chip soll wieder über ein 128bittiges Speicherinterface verfügen, wobei die günstigen G86-Grafikkarten sicherlich trotzdem nur mit 64bittigem Speicherinterface antreten werden.
Weitere Informationen zum nVidia G84 kommen zudem seitens DailyTech [4]: Hierbei werden primär die schon bekannten Taktraten zur GeForce 8600 GT (540/700 MHz) und GeForce 8600 GTS (675/1000 MHz) bestätigt – interessant sind hier aber vor allem die Verlustleistungsangaben für diese Boards. So soll die größere GeForce 8600 GTS ihre 71 Watt ziehen (hat aber trotzdem einen extra Power-Anschluß, was vielfach bei Grafikboards nahe der 75-Watt-Grenze aus Sicherheitsgründen getan wird), während die kleinere GeForce 8600 GT mit 43 Watt auskommt. Trotz daß dies gegenüber der aktuellen Mainstream-Generation von nVidia wieder etwas mehr ist, scheint nVidia doch beim Stromverbrauch der Mainstream-Grafikkarten die deutlich besseren Karten gegenüber ATI zu haben – deren geplante Mainstream-Lösungen sollen schließlich zwischen 75 und satten 128 Watt ziehen.
Bei TweakTown [5] hat man eine ATI-Roadmap in der Hand, welche die (ursprünglich) geplanten R600-Boards beschreibt. Danach bestätigen sich die schon gerüchteweiser bekannten Daten, wonach die Radeon X2900 XTX mit 1 GB DDR4-Speicher in zwei Bauformen daherkommt: Als 12,4-Zoll-Board mit satten 270 Watt Stromverbrauch und als 9,5-Zoll-Board mit "nur noch" 240 Watt Stromverbrauch. Dazu soll es eine Radeon X2900 XT mit 512 MB GDDR3-Speicher und 10 bis 15 Prozent niedrigeren Taktraten als die XTX-Version geben, der Stromverbrauch dieser Version wird aber trotz niedrigerem Takt irritierenderweise auch mit 240 Watt angegeben. Und letztlich bestätigt sich nun noch die Radeon X2900 XL, welche mit 512 MB GDDR3 und deutlich reduzierten Taktraten bei einem Stromverbrauch von 180 Watt antreten soll. Rechnet man die deutlich reduzierten Taktraten ein, so ist es zudem bei der Radeon X2900 XL unwahrscheinlich (wenn auch nicht unmöglich), daß diese zusätzlich noch Hardware-Abspeckungen gegenüber den XT/XTX-Varianten trägt.
Allerdings haben diese Angaben allesamt ein großes Problem: Sie entstammen alten Planungen seitens ATI, dies beweisen auch die genannten Launchtermine von März für die XTX-Versionen und April für die XT/XL-Versionen. Mit der neuerlichen Verschiebung des R600-Chips auf den Mai könnte sich also doch noch einiges ändern: So berichten K-Hardware [6] davon, daß der R600-Chip nun nicht mehr in 80nm, sondern gleich in der 65nm Fertigung antreten wird. Bei der Bewertung dieser Information sind allerdings durchaus Zweifel angebracht: Man kann womöglich den Sprung von 90nm auf 80nm in recht kurzer Zeit realisieren, der Sprung von 80m auf 65nm ist jedoch ein ziemlich großer, welcher dementsprechend erheblich an Zeit benötigt. Angesichts des weiterhin geplanten Launchtermins im Mai wäre dies ausschließlich dann möglich, wenn ATI schon vor Monaten mit den Produktionsvorbereitungen eines R600-Chips in 65nm begonnen haben würde.
Auch ist bei Chipfertiger TSMC der 65nm-Prozeß angeblich noch nicht so weit, um solche großen Chips wie den R600 mit einer vernünftigen Ausbeute fertigen zu können. Dies soll allerdings nicht bedeuten, daß es unmöglich ist, daß ATI den R600-Chip gleich in 65nm herausbringt – es ist halt nur an gewisse Bedingungen geknüpft und keinesfalls eine geringfügige Änderung der R600-Pläne. Sollte es ATI allerdings tatsächlich gelingen, den R600 in 65nm in den Markt zu bringen, würde man natürlich auf einen Schlag viele Problem lösen: Der Stromverbrauch der R600-Grafikkarten würde erheblich sinken und ATI könnte somit wohl dem eher zweifelhaften Rekord einer Consumer-Grafikkarte mit über 200 Watt Stromverbrauch entgehen. Zudem könnte man sich wohl auch noch einige Taktreserven erwerben, welche dann dem R600 den (für ATI dringend nötigen) Performance-Thriumph über den G80 sichern würde. Nichts desto trotz ist diese 65nm-Information derzeit natürlich unter starken Vorbehalten zu sehen und wären besser weitere Hinweise hierzu abzuwarten.
Neues gibt es zum Fall R600 in 80nm oder 65nm. Zuerst wäre hierzu anzumerken, daß ein potentieller Sprung von ATI von 80nm auf 65nm beim R600-Chip einiges an Vorbereitungszeit erfordern würde, da der 65nm Fertigungsprozeß grundverschieden von den doch ziemlich ähnlichen Prozessen 80nm und 90nm ist. Unterhalb von einigen Monaten straffer Planung, Produktionsvorbereitung und Start der Massenfertigung läuft da gar nichts – wenn ATI also im Mai den R600-Chip auf 65nm ausliefern wollte, müsste man wohl schon zum Ende des letzten Jahres diesen Die-Shrink angegangen haben. Dies beißt sich natürlich etwas damit, daß ATI den R600 ursprünglich sicher zum Ende des März' herausbringen wollte und die entsprechenden Launch-Aktivitäten allesamt schon geplant waren (und nun kurzfristig abgesagt wurden).
Innerhalb dieser Zeit von der Absage des ursprünglichen Launches (Ende Februar) bis zum Zeitpunkt des neuen Launches (Mai) stellt ATI jedoch auf keinen Fall auf die 65nm Fertigung um. Daß die RV610- und RV630-Chips zu diesem Zeitpunkt bereits in 65nm antreten werden können, hängt nur damit zusammen, daß diese schon des längeren auf diese Fertigungstechnologie hin geplant wurden. Hinzu kommt, daß die angeblichen Bestätigungen einer 65nm Fertigung beim R600 durch ATI/AMD laut unserer Nachfrage "Schwachsinn" sind, wie hier nachzuschlagen [7] – wobei wohlgemerkt nicht die 65nm Fertigung beim R600 negiert wurde, sondern nur eine angebliche ATI/AMD-Bestätigung dessen gegenüber K-Hardware [8] und The Inquirer [9].
Damit ist das Thema R600 @ 65nm aber auf keinen Fall schon vom Tisch – denn einen R600 in 65nm gibt es tatsächlich. Wie CDR-Info [10] im Nebensatze berichten, arbeitet ATI/AMD nach eigenen Angaben in der Tat schon an einem R600 in 65nm für den Mobile-Markt – und diesen könnte man natürlich auch auf dem Desktop-Markt einsetzen, sofern jener "R600M" keine Hardware-Abspeckungen gegenüber der Desktop-Variante des R600 hat. Damit sind im Fall R600 in 80nm oder 65nm nach wie vor alle drei Varianten möglich: In der ersten Variante liefert ATI den R600 streng in 80nm aus – mit allen Vor- und Nachteilen (Verfügbarkeit vs. Stromverbrauch). Hier wäre es zwar derzeit etwas unklar, wieso der Chip dann nochmals verschoben wurde, aber diese Frage sollte sich dann zum Launch klären lassen.
In der zweiten Variante bringt ATI den R600 gleich nur noch in 65nm heraus. Dafür hätte man sich allerdings (wie vorstehend beschrieben) schon vor Monaten diesem Thema verstärkt widmen müssen, um im Mai dann auch wirklich lieferbar zu sein. Und in der dritten Variante würde es einen Mix aus 80nm und 65nm geben: ATI bringt den R600 erst einmal in 80nm heraus und beliefert vorzugsweise zuerst die OEMs mit den 80nm-Modellen (weil sich in diesem Markt weniger Diskussionen an dem Stromverbrauch der Karten entzünden werden). Gleichzeitig versucht man so schnell wie möglich auf die 65nm-Version umzusteigen, um mit dieser dann den Retail-Markt beliefern zu können. Auch bei dieser Variante müsste ATI allerdings auch schon vor Monaten ernsthaft an der 65nm Fertigung des R600-Chips gearbeitet haben. Welche der drei Varianten wirklich kommt, ist derzeit noch ziemlich offen – bei unaufgeregt konservativer Betrachtung hat die erste Variante (80nm Launch) allerdings die deutlich größten Chancen.
Wie NGOHQ [11] in Berufung auf mehrere Grafikkartenhersteller berichten, soll die GeForce 8800 Ultra als rein höhergetaktete Version des G80-Chips zusammen mit den LowCost- und Mainstream-Lösungen GeForce 8500 GT, GeForce 8600 GT und GTS bereits am 17. April vorgestellt werden – sogar inklusive sofortiger Verfügbarkeit der schnellsten G80-Variante. Dieser Termin ist allerdings etwas erstaunlich, denn als R600-Counterpart wäre es zu erwarten gewesen, daß nVidia den R600-Start abwartet, um erst dann die finalen Taktraten der GeForce 8800 Ultra festzulegen. Man kann hier durchaus darüber spekulieren, daß es nVidia jetzt schon bekannt ist, daß man den R600 nicht schlagen kann und deshalb den R600-Killer bereits vor dem R600 veröffentlicht. Auf der anderen Seite könnte es nVidia natürlich auch leid sein, ständig weiter auf den R600 zu warten ;).
Im Forum der chinesischen Webseite PC Online [12] gibt es Bilder und Benchmarks einer GeForce 8600 GTS von BFG zu visitieren. Die Karte taktete dabei mit 710/1008 MHz, was etwas höher ist als der derzeitig bekannte Referenztakt von 675/1000 MHz – andererseits sind gewisse Taktunterschiede bei Vorserienmodellen normal, ganz besonders wenn diese (eventuell) gebaut wurden, noch bevor der Grafikchip-Entwickler den finalen Referenztakt festgesetzt hat. Im Standardtest von 3DMark06 erreichte diese neue Top-Karte des Mainstream-Segments 5488 3DMarks, was doch angesichts beispielsweise dieser Referenzwerte [13] erstaunlich niedrig ist.
Sicherlich schlägt die GeForce 8600 GTS damit die bisherige offizielle Mainstream-Lösung von nVidia, die GeForce 7600 GT (4364 3DMarks) um immerhin 25 Prozent. Andererseits wildern derzeit im Mainstream-Segment bereits die von HighEnd-Ausführungen abstammenden Karten Radeon X1950 Pro (5965 3DMarks) und GeForce 7900 GS (5652 3DMarks) sehr erfolgreich, aber auch solche Karten wie die Radeon X1950 XT (runde 7000 3DMarks) und die GeForce 7950 GT (6672 3DMarks) werden immer günstiger und können durchaus als zukünftige Kontrahenten zur GeForce 8600 GTS betrachtet werden. Und gegenüber diesen Karten sieht es schlecht für die GeForce 8600 GTS aus – und das in einem Test, welcher durch den Verzicht auf Anti-Aliasing eine der Hauptschwächen der GeForce 8600 GTS (das nur 128bittige Speicherinterface) gut überdeckt.
In der Spielepraxis dürfte zwar der Vorteil gegenüber der GeForce 7600 GT (auch nur 128bittiges Speicherinterface) erhalten bleiben, der Rückstand gegenüber den vorgenannten DirectX9-Karten allerdings tendentiell sogar noch zunehmen, da in der Praxis natürlich mit dem Einsatz von Anti-Aliasing gerechnet werden muß. Es deutet sich damit immer mehr an, daß die kommende DirectX9 Mainstream-Generation wohl nicht in der Lage sein wird, die aktuell bereits im 200-Euro-Preissegment positionierten DirectX9-Karten zu schlagen. Abzuwarten bliebe natürlich noch, ob ATI dies mit dem RV630-Chip bzw. der Radeon X2600 Serie besser machen kann – da dort aber wie bei der GeForce 8600 Serie auch nur ein 128bittiges Speicherinterface verbaut sein wird, sind die Chancen hierfür auch nicht besonders hoch.
Die gestern gemeldeten ersten Benchmarks einer GeForce 8600 GTS sind nach Angaben von Planet 3DNow! [14] eine Fälschung – in den Bildern fanden sich wohl Photoshop-Tags, außerdem entsprach die angebliche 3DMark-Gesamtwertung nicht den einzelnen Werten. Richtigerweise fügte man zudem an, daß die gestern von uns herangezogenen Vergleichswerte von einer wesentlich leistungsfähigeren CPU stammen, während die angeblichen Benchmarks der neuen nVidia-Karte auf einem SingleCore-Prozessor mit 2.5 GHz erstellt wurden, was in einem Leistungsunterschied von durchaus bis zu 20 Prozent unter dem 3DMark06 resultieren kann. Diesbezüglich haben wir gestern wohl zu schnell geschossen, wofür wir uns ausdrücklich entschuldigen wollen.
Weiteren Meldungen von selber Quelle bezüglich den Benchmark-Werten einer GeForce 8600 GT als der kleineren Schwester der GTS-Version wollen wir demzufolge vorerst keinen Glauben schenken, auf der anderen Seite hat man bei Hardware.fr [15] als in aller Regel verläßlicher Quelle entsprechende 3DMark06-Werte anzubieten: Danach soll auf einem System, wo eine GeForce 8800 GTX ihre 11900 3DMarks erreicht (wohl ein Core 2 Extreme X6800 wie in diesem Test [16], wo diese Karte 11860 3DMarks erreicht), die GeForce 8600 GTS auf immerhin 7000 3DMarks kommen, was dann etwas überhalb von GeForce 7950 GT (6672 3DMarks) und Radeon X1900 XT (6611 3DMarks) liegen würde. Die GeForce 8600 GT würde hingegen auf 5800 3DMarks kommen, dies ist im Rahmen der GeForce 7900 GT (5668 3DMarks) und der Radeon X1950 Pro (5965 3DMarks). Und letztlich würde die GeForce 8500 GT als größte der neuen LowCost-Karten auf 2800 3DMarks kommen, was doch noch einmal deutlich langsamer wäre jetzt die Radeon X1650 XT (4115 3DMarks) schon liefern kann.
Zumindestens für die neuen Mainstream-Lösungen von nVidia sieht das Bild damit deutlich freundlicher aus – allerdings bleiben unsere gestern geäußerten grundsätzlichen Bedenken bezüglich des 128bittigen Speicherinterfaces dieser Karten weiterhin bestehen. Denn wenn die GeForce 8600 GT und GTS unter 1024x768 ohne Anti-Aliasing auf in etwa die gleiche Performance kommen wie die jetzt im jeweils angepeilten Preissegment schon verfügbaren Karten, dann werden die neuen nVidia Mainstream-Grafikkarten unter höheren Auflösung und unter Zuschaltung von Anti-Aliasing angesichts ihrer jeweils nur 128 Bit DDR breiten Speicherinterfaces kaum diese Performance halten können. Zwar bleiben natürlich in jedem Fall die entsprechenden Benchmarks zum voraussichtlichen Launch dieser Karten am 17. April abzuwarten, aber diese Theorie kann man derzeit sicherlich erst einmal aufstellen.
Daneben gibt es zum ATI R600 Grafikchip noch ein paar neue Informationshäppchen: Laut der VR-Zone [17] soll die (nach wie vor unbestätigte) 65nm-Version des R600-Chips unter einer sehr schlechten Produktionsausbeute leiden – eigentlich kein Wunder bei einem so großen Chip unter 65nm zu einem (für Chipfertiger TSMC) so frühen Zeitpunkt. Auf der anderen Seite ist an dieser Meldung auch nicht klar, ob sie sich wirklich auf die 65nm-Produktion bezieht: Womöglich war die Ursprungsinformation rein nur, daß der R600-Chip eine schlechte Produktionsausbeute habe und die VR-Zone – welche sich derzeit stark auf einen R600 strikt unter 65nm eingeschossen hat – hat dies allein von sich aus auf die 65nm-Fertigung umgedeutet.
Dagegen berichtet die PC Games Hardware [18] von einer gegenüber dem R580-Chip um 40 Prozent höheren (reiner) Rechenleistung für den R600-Chip – was durchaus nicht schlecht wäre, denn bei der reinen Rechenleistung liegt der G80-Chip von nVidia auch "nur" 50 Prozent über dem vorhergehenden G71-Chip. Hard Tecs 4U [19] haben hingegen ein paar CeBIT-Impressionen und -Depressionen zum R600-Chip, welche lesenswerte Hintergründe und Anekdoten zu den Irrungen und Wirrungen um die derzeitige R600-Darstellung von AMD/ATI bieten. Und letztlich gab es bei eBay [20] wohl kurzzeitig das Angebot einer R600-Karte – allerdings nur so lange, bis der Anbieter bemerkte, was er da für einen "Schatz" in den Händen hält. Allerdings bietet die nunmehr geschlossene Auktion auch neues, unabhängiges Bildmaterial zum R600.
Weiter geht es mit den Informationshäppchen zum ATI R600 Grafikchip: Bei Fudzilla [21] ist man inzwischen umgeschwenkt und betrachtet den R600 wieder als in 80nm gefertigt. Auch die VR-Zone [22] geht inzwischen wieder von einem 80nm Chip aus, zudem hat man dort einen angeblichen 3DMark06-Wert der Radeon X2900 XTX. Für solcherart HighEnd-Karten ist der 3DMark06 allerdings sehr wenig aussagefähig, weil diese Karten in der Praxis schließlich fast immer mit Anti-Aliasing betrieben werden, welches aber beim Standarddurchlauf der 3DMarks nicht aktiv ist. Und letztlich gibt es auf der japanischen Webseite 4Gamer [23] (maschinelle Übersetzung ins englische [24]) noch Teile der AMD-Präsentation zum R600 zu besichtigen, auch dort findet sich im übrigen eine explizite Anmerkung zur 80nm Fertigung dieses Grafikchips.
Bezüglich der kommenden Direct3D10-Lösungen von ATI und nVidia fehlen unsererseits natürlich noch entsprechende Anmerkungen zu den seitens beider Grafikchip-Entwickler entsprechend geplanten Mobile Direct3D10 Lösungen. Prinzipiell muß man hier dazusagen, daß Informationen über Mobile-Grafikchips immer sehr rar sind – ganz besonders dann, wenn die entsprechenden Desktop-Versionen noch nicht einmal offiziell vorgestellt sind. Auf der anderen Seite lassen ATI und nVidia heutzutage im gewöhnlichen auch keine extra Mobile-Grafikchips mehr fertigen, sondern entnehmen die für mobile Geräte gedachten Grafikchips der normalen Produktion – dort sucht man sich schlicht diese Chips aus, welche mit der geringstmöglichen Chipspannung noch einwandfrei funktionieren.
Diese Chips werden zwar dann gewöhnlich als "M" gelabelt – beispielsweise "G71M", technisch besteht jedoch unseres Wissens nach kein Unterschied zu den Desktop-Grafikchips. Allerdings werden für die Mobile-Chips dann zumeist noch etwas ausgefuchstere Stromspartricks angewandt, wie beispielsweise deutlich niedrigere Taktraten und Chipspannungen unter dem 2D-Betrieb. Somit erreicht man auf letztlich einfachem Wege Mobile-Grafikchips, ohne diese deswegen gleich als extra Chips (mit entsprechendem Zeit- und Geldaufwand) auflegen zu müssen. Demzufolge sollte es den Grafikchip-Herstellern eigentlich problemlos möglich sein, im Anschluß an den Launch eines neuen Desktop-Grafikchips auch den Mobile-Markt mit entsprechenden Varianten beliefern zu können.
In der Praxis steht dem allerdings entgegen, daß gerade die heutzutage erscheinenden HighEnd-Lösungen nur schwerlich auf Mobile zu trimmen sind, da deren Stromverbrauch dafür oftmals deutlich zu hoch ist. Genau aus diesem Grunde dauert es dann eben seine Zeit, ehe die GeForce 8800 Serie auch für den Mobile-Markt verfügbar wird: Zuerst einmal gehen die ersten Produktionschargen natürlich in das prestigeträchtigere Desktop-Geschäft – und dann muß die Produktion so weit verfeinert werden, daß es eine genügende Ausbeute an Chips gibt, welche man mit niedrigen Spannungen betreiben kann und welche demzufolge in das Mobile-Segment gehen können. Reicht die Spannungsabsenkung nicht aus, kann es bei HighEnd-Lösungen zudem ebenfalls vorkommen, daß diese gegenüber der Desktop-Variante etwas abgespeckt sind (bei oftmals trotzdem gleichen Namen).
Deshalb hat es auch so lange gedauert, bis der G80-Chip im Mobile-Segment aufgetaucht ist. Wie die VR-Zone [25] berichtet, wird es die GeForce 8800 Go in drei Varianten geben: GS, GTS und GTX. Die Unterschiede zwischen diesen Versionen sind derzeit nicht bekannt, die bekannten Unterschiede aus dem Desktop-Bereich sind hierbei allerdings wohl nicht maßgebend. Klar ist aber, daß auch die GeForce Go 8800 Serie wie schon auf dem Desktop einiges an Strom ziehen wird, deshalb gibt es diese Mobile-Grafiklösungen auch nur im größtmöglichen MXM-Standard, MXM-IV [26]. Nichts desto trotz wird es wieder Notebook-Hersteller geben, welche das ganze auf die Spitze treiben: So berichtet die VR-Zone von einem seitens des Herstellers Clevo geplanten Notebook mit gleich zwei GeForce Go 8800 Modulen in SLI-Verbindung ;).
Gemäß vorstehender Erklärung ist es aber natürlich viel einfacher, LowCost- und Mainstream-Grafikchips für den Mobile-Einsatz zu aquirieren, da deren Verlustleistung in aller Regel schon halbwegs passend ist und man außerdem aufgrund der hohen gefertigten Stückzahlen schneller auf eine ausreichende Anzahl von Grafikchips kommt, welche auch mit abgesenkter Spannung ihren Dienst tun. So ist es denn auch nicht weiter erstaunlich, daß laut PCPop [27] auf der CeBIT von MSI eine erste fertige GeForce8-Lösung gezeigt wurde: Hierbei handelt es sich um eine GeForce Go 8300 auf Basis des G86-Chips in einem MXM-II Modul. Leider ist das natürlich nur die LowCost-Ausführung der GeForce8-Serie, interessanter gerade für Notebooks wären aber eher die Mainstream-Ausführungen, da diese einen guten Mittelweg zwischen Performance und Stromverbrauch darstellen. Allerdings sind diese ebenfalls in absehbarer Zeit zu erwarten, da der G84-Chip kein wirklicher Stromfresser zu sein scheint.
Gemäß The Inquirer [28] soll der R600-Chip von ATI nunmehr am 23./24. April in Tunis groß gelauncht werden, zudem werden an diesem Tag wohl auch die LowCost-Ausführung RV610 und die Mainstream-Ausführung RV630 vorgestellt. Wie es danach mit der Verfügbarkeit an Karten aussieht, ist nicht bekannt, zumindestens bei den LowCost- und Mainstream-Ausführungen kann man angesichts einiger auf der CeBIT zu sehender Vorserienexemplare allerdings zuversichtlich sein. Eine ähnliche Zuversicht bezüglich des R600 ist derzeit allerdings kaum angebracht, da frühere Berichte zum Lauchtermin eine eher schwache Lieferfähigkeit und dann erst zur Mitte des Mai eine ausreichende Lieferfähigkeit vermeldet haben.
Wie Fudzilla [29] ausführen, sollen R600-Boards im realen Betrieb in der Tat auf eine Stromaufnahme von über 200 Watt kommen – während eine GeForce 8800 GTX auf ungefähr 140 Watt zu schätzen ist. Damit scheinen sich die früher genannten Werte zu bestätigen, welche bei der Radeon X2900 XTX von einer Stromaufnahme von 240 Watt für die 9,5 Zoll große Retail-Version und von 270 Watt für die 10,4 Zoll große OEM-Version sprachen. Andererseits müssen wir bei dieser Gelegenheit auch auf die unterschiedlichen Auffassungen der verschiedenen Hersteller zu Stromverbrauchs-Angaben eingehen: Beispielsweise ist dies im Prozessorenbereich ganz kurios, weil beide Hersteller hier für mehrere unterschiedlich getaktete Prozessoren die gleichen Stromverbrauchsangaben machen.
Was auf der einen Seite technisch Unsinn ist, hilft den Herstellern aber auf der anderen Seite bei der besseren Produktplanung: So können Mainboard-Hersteller aufgrund der identischen Stromaufnahmeangaben ihre Platinen entsprechend so bauen, daß sie automatisch mit allen Prozessoren zusammenlaufen (und da Mainboards die Spannungswandler für die Prozessoren zur Verfügung stellen, ist hierbei eine vollständige Kompatibilität ein höchst wichtiger Punkt). Damit eignen sich die Stromaufnahmeangaben von AMD und Intel aber nur absolut unzureichend, um sagen zu können, wieviel ein Prozessoren-Modell dieser Hersteller wirklich zieht – gerade die kleinen Modelle können teilweise erheblich unter den offiziellen Angaben liegen. Zudem geben beide Prozessorenhersteller ihren Stromaufnahmeangaben – natürlich wiederum unterschiedliche – Spielräume zu, was offizielle Angabe und Realität nochmals auseinanderzieht.
Gleiches gilt dann auch für die Grafikchip-Entwickler ATI und nVidia: Beide verwenden Stromaufnahmeangaben mit einer jeweils unterschiedlicher Philosophie und außerdem mit unterschiedlich hohem Spielraum. Dazu muß man wissen, das man Stromverbrauchsangaben prinzipiell auf drei Arten definierten kann: Erstens der Durchschnittsverbrauch unter Last mit üblicher Software. Zweitens die Thermal Design Power, welcher ebenfalls eine Belastung mit üblicher Software zugrunde liegt, allerdings unter ungünstigen Bedingungen wie schlechter Gehäusekühlung und warmen Außentemperaturen. Dieser Wert soll weniger aussagen, wieviel die Karte unter diesen Bedingungen wirklich verbraucht (bei schlechter Gehäusekühlung und warmer Außentemperatur wird nicht mehr Strom verbraucht), sondern vielmehr stellt die TDP bei Grafikchips eine Maßgabe zur Kühlkonstruktion dar.
Sprich, hierbei legt der Grafikchip-Entwickler eine gewisse Reserve ein, welche der Kühler größer sein muß als eigentlich durchschnittlich vonnöten – um eben auch für Fälle wie schlechte Gehäusekühlung und warme Außentemperaturen gewappnet zu sein. Schließlich soll die Grafikkarte prinzipiell auch unter schlechten Bedingungen noch absturzfrei arbeiten. Deswegen wird dann für eine Karte mit beispielsweise 80 Watt durchschnittlicher Stromaufnahme ein Kühler verbaut, welcher unter normalen Bedingungen auch eine Grafikkarte mit einer Stromaufnahme von 100 Watt kühlen könnte, damit dieser Kühler die Grafikkarten mit der Stromaufnahme von 80 Watt auch unter ungünstigen Bedingungen noch stabil hält.
Und der dritte Wert bei den Stromaufnahmeangaben ist die maximal mögliche Stromaufnahme, welche üblicherweise mit theoretischen Testprogrammen erzielt wird (bei CPUs mit BurnIn-Programmen). Hierbei werden Codes abgearbeitet, welche den Prozessor bestmöglich auslasten, allerdings in dieser Form und vor allem in dieser Häufigkeit bei realer Software nicht vorkommen. Damit werden dann absolute Spitzenwerte bei der Stromaufnahme erreicht. Diese Angaben spielen allerdings für die Hersteller zumeist keine große Rolle: Diese setzen auf die (deutlich niedrigere) durchschnittliche Stromaufnahme unter Last sowie die TDP-Angaben, in letzteren finden sich dann die Spielräume für schlechte Umgebungsbedingungen oder/und ungünstigen Programmcode.
Und um damit letztlich wieder auf den Fall des R600-Chips zurückzukommen: Die bisher genannten Angaben 240 bzw. 270 Watt dürften ebenso wie die Stromnverbrauchsangaben zu den RV610- und RV630-Boards TDP-Angaben sein, der reale Stromverbrauch unter Normalbedingungen sollte also um die 20 bis 30 Prozent niedriger ausfallen als bei diesen Angaben. Auf der anderen Seite sind die geschätzten 140 Watt einer GeForce 8800 GTX und die geschätzten 100 Watt einer GeForce 8800 GTS anscheinend wohl Angaben zum durchschnittlichen Stromverbrauch und keine TDP-Angaben. Aller Vermutung nach trifft dies auch auf die bisher bekannten Stromverbrauchsangaben zur GeForce 8600 GT und GTS zu: Diese haben angeblich 43 bzw. 71 Watt durchschnittlichen Stromverbrauch – was wohl keine TDP-Angaben sind, welche dann ihrerseits noch etwas höher liegen sollten.
Zum schon berichteten [30] R600-Launch am 23./24. April in Tunis gibt es inzwischen den Verdacht, daß dies kein Launch im eigentlichen Sinne des Wortes sein wird, sondern "nur" ein großer TechDay sein soll. Dies würde bedeuten, daß die (ausgewählte) Presse zwar zu diesem Zeitpunkt informiert werden würde, jedoch noch einige Zeit nichts darüber an die Leser weitertragen dürfte (was dem eigentlich Sinn von journalistischer Berichterstattung doch widerspricht). Sprich, das NDA zum R600 könnte womöglich erst später als zu jenem 23./24. April fallen, vermutlich dann erst Anfang Mai. Für ATI würde diese weitere Verzögerung zudem eine gewisse Karenzzeit bedeuten, um zum eigentlichen Launch dann auch genügend Karten bei den Händlern zur Verfügung zu haben.
Dagegen berichtet Fudzilla [31] von einer Verschiebung beim ATI RV630 Direct3D10-Grafikchip für das Mainstream-Segment. Hierbei soll der RV630-Chip wohl ein produktionstechnisches Problem haben, was diesem um einen Monat zurückwirft. Laut Angaben von Fudzilla würde damit die Massenproduktion des RV630 gar erst im Juni starten – was allerdings bedeuten würde, daß auch ohne diese Verzögerung RV630-Boards frühestens Ende Mai in den Handel gelangt wären (Start der Massenfertigung im Mai plus mindestens zwei bis drei Wochen für die Boardhersteller) – und damit niemals bereits zum prognostizierten Launch am 23./24. April. Inwiefern ATI den RV630 noch zu diesem Datum vorstellen wird, ist nicht bekannt – angesichts der vorher breit angekündigten Strategie, zu diesem "größten Launch aller Zeiten" ;)) ein komplettes neues Produktprogramm offieren zu wollen, bleibt ATI aber eigentlich kaum etwas anderes übrig.
Auf der anderen Seiten sollen laut The Inquirer [32] auch die kommenden LowCost- und Mainstream-Grafikchips von nVidia namens G86 (GeForce 8300/8400/8500 Karten) und G84 (GeForce 8600 Serie) eine Verzögerung aufs Parkett legen müssen – ebenfalls wegen (angeblicher) Produktionsprobleme. Wie im Fall des RV630 dürfte das die entsprechenden Karten um mindestens einen Monat zurückwerfen, so daß theoretisch der bislang bekannte 17. April als Launchtermin für G84 & G86 sowie die GeForce 8800 Ultra nicht mehr zu halten sein sollte – zumindestens dann nicht, wenn man zu diesem Termin auch lieferfähig sein will. Wie die vorstehende Meldung zur Verschiebung des RV630 ist aber auch diese Meldung derzeit nicht für bare Münze zu nennen und verdient einer unabhängigen Bestätigung, ehe man sich auf sie verläßt.
Laut HKEPC [33] gibt es Hinweise, daß ATIs RV610 LowCost Direct3D10-Grafikchip nur über ein 64 Bit DDR breites Speicherinterface verfügt, was die Schlagkräftigkeit dieses Grafikchips natürlich erheblich reduzieren würde. Dazu passt auch, das die schnellste RV610-Variante mit 700 MHz einen für das LowCost-Segment doch ausgesprochen hohen Speichertakt haben soll. Allerdings scheint ATI im kommenden Zweikampf der LowCost-Grafikchips RV610 vs. G86 ganz bewußt die kleinere Lösung gewählt zu haben, um den RV610-Chip möglichst klein und damit kostengünstig zu bekommen: So soll [34] die Die-Fläche des RV610 nur 82 mm² betragen, während die des G86 bei 115 mm² liegen soll – was doch in einem Marktsegment, wo vor allem der Preis zählt, ein erhebliches Pfund zugunsten von ATI darstellen dürfte.
Schließlich wird vermutlich auch nVidia für die reinen OEM-Versionen des G86-Chips (vermutlich die GeForce 8300 GS) das Speicherinterface auf 64 Bit DDR limitieren – einfach, weil in dieser Preisklasse nicht mehr notwendig ist und es dort mehr auf Features und wie gesagt den Preis ankommt. Daneben kommen noch neue Informationen zum RV610 seitens Fudzilla [35]: Danach soll nun auch dieser Grafikchip seitens ATI verschoben worden sein – auf nunmehr Ende des Mai. Sollten die gestern berichteten Verzögerungen von RV630, G84 und G86 stimmen, würde sich damit die gesamte LowCost- und Mainstream-Riege von ATI und nVidia um mindestens einen Monat verschieben, was die angepeilten Lauchtermine noch im April zu reinen Paperlaunches verkommen lassen würde.
Laut TweakPC [36] soll eine GeForce 8800 Ultra angeblich 999 Dollar kosten – was wir für ziemlich unglaubwürdig halten, weil eine solche Karte zu diesem Preis selbst bei Leistungsvorsprung gegenüber einer Radeon X2900 XTX von der Presse zerrissen werden würde und damit kaum absatzfähig wäre. Desweiteren kommt wieder das alte Gerücht von einer DualChip-Grafikkarte auf G80-Basis namens "GeForce 8950 GX2" auf. Doch einmal abgesehen von dem Punkt der enormen Stromaufnahme eines solchen Boliden im Rahmen von 200 bis 280 Watt realer Stromaufnahme (und TDP dann 260 bis 340 Watt!) steht hier immer noch die Frage im Raum, wieso nVidia sich so etwas antun sollte: Die G80-Geschäfte gehen gut und selbst wenn der R600-Chip den G80-Chip schlägt, läßt sich das leicht mit Hinweis auf den (mittlerweile deutlich) früheren Erscheinungstermin des G80 erklären.
Wie Hard Tecs 4U [37] berichten, werden die kommenden ATI-Grafikchips RV610 und RV630 über einen integrierten "HD-Audio Controller" verfügen, welcher HD-Audiosignale ausgeben kann. Dies ist allerdings wohl nicht mit einem vollwertigen Soundprozessor zu verwechseln – ATI will hiermit also aller Wahrscheinlichkeit nach nicht die Hersteller von Soundkarten und Audiocodecs angehen. Vielmehr soll eine Erleichterung für Fälle geschaffen werden, wo verschlüsselte Inhalte über den HDMI-Ausgang auf einem Fernseher ausgegeben werden sollen (sowohl Bild als auch Ton, sprich ohne extra Soundanlage). Dann nämlich soll der HDMI-Anschluß auch die Audio-Signale mit durchleiten, wofür man normalerweise ein extra Kabel von der Soundkarte zur Grafikkarte benötigen würde.
Bei den RV610/RV630-Grafikchips sollen die Audiodaten dann direkt von dem "HD-Audio Controller" zusammen mit den Videodaten über den HDMI-Anschluß abgegeben werden. Inwiefern der "HD-Audio Controller" dabei weiterhin auf die Unterstützung des auf dem Mainboard verbauten Soundcodecs angewiesen ist, bleibt derzeit noch unklar. Allerdings spricht gegen diese Lösung, daß ATI dann eine vollständige (also auch für Spiele nutzbare) Soundlösung im Grafikchip hätte – und man diesen Umstand wohl sicherlich erwähnt hätte. Aktuell geht es ATI aber nur um eine gewisse Erleichterung für die Hersteller von Wohnzimmer-PCs (HTPCs), wo das Szenario der Ausgabe eines verschlüsselten Films an einem Fernseher schließlich normal sein dürfte. Aus diesem Grund haben auch nur die Grafikchips RV610 (LowCost) und RV630 (Mainstream) diesen "HD-Audio Controller" – weil jene primär in Wohnzimmer-PCs eingebaut werden dürften und weniger denn die HighEnd-Lösung R600.
Erneut gibt es einen 3DMark06-Wert eines R600-Boards, diesesmal will man seitens Fudzilla [38] ca. 11400 3DMarks in Erfahrung gebracht haben. Auflösung und weitere Settings dieses Tests wurden nicht genannt, allerdings soll eine GeForce 8800 GTX unter ähnlichen Bedingungen wohl 10600 3DMarks erreichen. Dies entspricht prinzipiell gesehen den schon letzte Woche [22] gemeldeten 3DMark06-Werten, welche ebenfalls nur einen geringfügigen Vorsprung für das R600-Board in diesem Benchmark sahen. Allerdings sei angemerkt, daß der 3DMark06 in aller Regel nach wie vor ohne Anti-Aliasing gemessen wird, gerade G80- und R600-Boards in der Praxis jedoch üblicherweise mit hohen Anti-Aliasing Settings eingesetzt werden.
Insofern liefern 3DMark06-Werte ohne Anti-Aliasing – einmal ganz abgesehen von den Optimierungen beider Grafikchip-Entwickler auf diesem Benchmark – eigentlich kaum eine vernünftige Aussage zur in realen Spielen zu erwartenden Performance, einfach weil die Grundvoraussetzungen ohne dem Einsatz von Anti-Aliasing völlig andere sind. Wenn, dann sind Standarddurchläufe des 3DMark06 (also ohne Anti-Aliasing) in erster Linie zur groben Performance-Beurteilung von LowCost-Grafikchips brauchbar, weil diese schließlich in den meisten Fällen nicht leistungsfähig genug sind, um Anti-Aliasing im Gamer-Alltag einsetzen zu können. Schon bei den Mainstream-Grafikchips wird es aber eng, weil selbst diese in der Praxis gern mit Anti-Aliasing betrieben werden und dies nun einmal erheblich andere Anforderungen stellt als ein Benchmark ohne Anti-Aliasing.
Gemäß Fudzilla [39] soll ein Ingenier der Universität des Saarlandes, primär bekannt für ihre Arbeit zum Thema Raytracing [40] auf der CeBIT die Bemerkung fallengelassen haben, der G80-Chip würde über 160 und nicht 128 Shader-Einheiten verfügen. Entsprechende Vermutungen gibt es ja schon des längerem – dem steht allerdings nach wie vor entgegen, daß nVidia nicht gerade bei seinem aktuellen Spitzenmodell Hardware-Einheiten deaktiviert ausliefern dürfte. Möglich ist natürlich rein technisch alles ;). Gleichzeitig setzte man bei Fudzilla [41] noch das wilde Gerücht in die Welt, die ATI-Chips RV610 und RV630 würden angeblich sowohl in 65nm als auch in 80nm daherkommen. Dies halten wir allerdings vorerst für extrem unglaubwürdig, weil das ATI ein Heidengeld kosten würde – dafür, daß die 65nm-Versionen perspektivisch wirtschaftlicher sind und eine eventuelle 80nm Fertigung demzufolge umgehend wieder gestoppt werden würde.
Die chinesischsprachige Seite IT.com [42] (maschinelle Übersetzung ins englische [43]) bringt einen vorfristigen Artikel zur kommenden Mainstream-Riege seitens nVidia, wobei von diesen allerdings nur die GeForce 8600 GT gebencht wurde. Generell ist solchen Vorabtests immer eine gute Portion Mißtrauen entgegenzubringen – man erinnere sich nur an den (nach wie vor) angeblichen R600-Test zum Anfang des Jahres [44]. Allerdings sprechen in diesem Fall die Anzeichen eher dafür, daß dieser Test real ist: Erstens einmal ist es bis zur offiziellen Vorstellung der neuen nVidia-Chips G84 und G86 nicht mehr weit hin (17. April), zweitens enthält der Test keine wirklich unglaubwürdigen Angaben oder Benchmarks – und drittens dürften inzwischen in der Tat schon einige Testkarten durch die Gegend schwirren, wie auch die gestern [45] vermeldeten Übertaktungsversuche der VR-Zone [46] an einer GeForce 8600 GTS belegen.
.Insofern wollen wir dem Test von IT.com vorerst einmal Vertrauen schenken – wobei sich schließlich schon in wenigen Tagen aufklären wird, wieviel an diesem Test richtig und wieviel falsch war. Primär interessant an dem Artikel sind vor allem die genaueren Angaben zu den Spezifikationen der vorgenannten neuen nVidia-Grafikkarten: So verfügt der Mainstream-Grafikchip G84 nun in der Tat über 64 Shader-Einheiten (acht Vec8-ALUs) und ein 128 Bit DDR breites Speicherinterface. Die größere Variante GeForce 8600 GTS wird hierbei mit 675/1000 MHz antreten, die kleinere Variante GeForce 8600 GT mit 540/700 MHz. Hinzu kommt bei der GeForce 8600 GT eine kleine Hardware-Limitierung: Von den 64 physikalisch vorhandenen Shader-Einheiten sind bei dieser Karte nur 48 (sechs Vec8-ALUs) aktiv, was in der Summe mit dem Taktunterschied doch für einen kräftigen Performanceunterschied sorgen sollte.
Der LowCost-Grafikchip G86 wird jedoch reichlich ungenau mit "32/24" Shader-Einheiten angegeben – ob diese Information den Artikelschreibern noch nicht bekannt war oder aber ob dies auf (nicht unwahrscheinliche) unterschiedliche Ausführungen des G86-Chips hindeuten soll, ist derzeit noch unklar. Auch auf den G86-Chip zutreffend ist jedoch das 128 Bit DDR breite Speicherinterface – wobei auch hier G86-Ausführungen mit dann nur 64 Bit DDR breitem Speicherinterface denkbar und wahrscheinlich sind. Die GeForce 8500 GT als größte G86-Variante taktet zudem mit 460/400 MHz recht gemächlich vor allem beim Speichertakt, wobei die ebenfalls G86-basierenden Karten GeForce 8300 GS und GeForce 8400 GS hier wahrscheinlich sogar noch darunterliegen werden.
Noch ohne klare Richtung sind hingegen die mit der vorhandenen GeForce 8600 GT angestellten Benchmarks: Im 3DMark05 und in Need for Speed: Carbon zieht diese 150-Euro-Karte der derzeit für um die 110 Euro angebotenen GeForce 7600 GT zwar maßgeblich davon, andere Messungen im 3DMark06 und vor allem unter Prey erbrachten jedoch nur einen (natürlich unbefriedigenden) Performance-Gleichstand zu dieser älteren Mainstream-Grafikkarte. Inwiefern diese Ergebnisse an derzeit noch unoptimierten Treibern liegen können, wird sich wohl erst am 17. April zeigen – die Benchmark-Werte unter Need for Speed: Carbon, welche sogar einigermaßen schneller sind als bei einer GeForce 7900 GS, deuten jedoch durchaus (und trotz des "kleinen" Speicherinterfaces) auf ein vernünftiges Potential für die GeForce 8600 GT hin.
Gemäß The Inquirer [47] soll auch der R600-Chip über den integrierten "HD-Audio Controller" der Grafikchips RV610 und RV630 verfügen, womit sich die PC-Hersteller das Kabel von der Soundkarte zur Grafikkarte sparen, will man über den HDMI-Anschluß der Grafikkarte geschützte Video- und Audiosignale ausgeben. Allerdings passt diese Meldung deutlich nicht zur früheren Berichterstattung [48], welche den Sinn der ganzen Aktion eher für Wohnzimmer-PCs sahen, wo ein R600-Grafikboard doch selten eingebaut sein dürfte. Auch ist nach wie vor unklar, ob man den "HD-Audio Controller" als vollwertige Soundlösung bezeichnen darf – unserer Meinung nach soll dieser Controller nur sicherstellen, daß die Ausgabe von geschützten Video- und Audiosignale über die Grafikkarte möglichst einfach (eben ohne extra Kabel) zu realisieren ist.
Ein weiterer Vorab-Test zu den kommenden nVidia-Grafikkarten ist bei Au-Ja! [49] zu finden – welche das wohl außergewöhnliche Glück hatten, in einem Computerladen eine offenbar vorfristig ausgelieferte GeForce 8600 GTS seitens Club3D zu finden. Zu den Innereien des G84-Chips machten Au-Ja! leider keine weiteren Angaben – bis auf das die GeForce 8600 GTS als mit 48 Shader-Einheiten bestückt beschrieben wird. Dies beißt sich etwas mit den bisherigen Angaben, welche die GTS-Version mit 64 und nur die GT-Version mit 48 Shader-Einheiten sahen. Was hiervon richtig ist, wird sich aber wohl erst am 17. April bestätigen lassen. Seitens Au-Ja! hat man eher auf Benchmarks gegen eine Radeon X1950 Pro und eine GeForce 7900 GT gesetzt.
Dabei konnte die GeForce 8600 GTS unter dem wohl typischsten Anwendungsfall einer Auflösung von 1280x960/1024 samt 4x Anti-Aliasing und 8x anisotropen Filter nur unter Riddick und Stalker einen klaren Vorsprung gegenüber den beiden genannten anderen Karten verbuchen, währenddessen die Ergebnisse unter Unreal Tournament 2004 (wohl aufgrund CPU-Limitierungen) gleichauf liegen und die GeForce 8600 GTS unter F.E.A.R., Doom 3 und Gothic 3 teilweise erheblich von den beiden anderen Karten abgehängt wird. Gegenüber dem gestern [50] besprochenen Test seitens IT.com [42], welcher doch Anlaß zur guter Hoffnung gab, ist dies eher arg enttäuschend, weil letztlich nicht einmal die Vorgänger-Generation von nVidia geschlagen wird.
Zwar ist die GeForce 7900 GT inzwischen ausgelaufen, womit die letzten noch vorhandenen Angebote keine marktfähigen Preise mehr aufweisen, aber generell kann man die GeForce 7900 GS in der Performance der GeForce 7900 GT fast gleichsetzen – und diese Karte ist derzeit auch schon für um die 150 Euro zu bekommen. Um eine Marktchance zu haben, muß die wohl für 200 Euro antretende GeForce 8600 GTS somit mindestens die GeForce 7900 GS schlagen – was bedeutet, das man zur GeForce 7900 GT mindestens einen Performance-Gleichstand erzielen muß. Dies wird derzeit jedoch offensichtlich nicht erreicht. Natürlich ergibt sich die Chance, das nVidia am Launchtag mit optimierten Treibern noch einmal gut aufholen kann – allerdings ist der Rückstand teilweise ziemlich hoch, die Aufgabe also nicht gerade klein.
Laut Fudzilla [51] soll die GDDR4-Version des R600-Grafikchips seitens ATI, sprich die Radeon X2900 XTX, nummehr mit gar 1050 MHz Speichertakt antreten. Allerdings hängt diese Karte vom Zeitplan her derzeit etwas zurück – zuerst soll wohl die GDDR3-Version kommen, sprich die Radeon X2900 XT. Unklar ist an dieser Aussage allerdings, ob sich der zeitliche Abstand nicht durch die Verschiebung des Launches wieder egalisiert – gut möglich wäre es nämlich, daß ATI auf der Pressevorführung am 23./24. April in Tunis zwar nur die GDDR3-Version zeigt, zum eigentlichen Launch im Mai dann aber bereits mit der GDDR4-Versionen dienen kann. Dafür spricht auch, daß Fudzilla die Auslieferung der GDDR4-Version schon zur Mitte des Mai vermeldet.
Ganz generell scheint mittlerweile klar zu sein, daß ATI den 23./24. April zu einer geschlossenen Veranstaltung mit der Presse und eventuell auch bedeutenden Geschäftspartnern aus dem OEM- und Grafikkartenhersteller-Bereich benutzten wird. All dies wird allerdings natürlich unter einem NDA [52] ablaufen, womit zu diesem Termin wohl nur wenige wirklich technische Informationen zu den neuen Grafikchips R600, RV630 und RV610 in die freie Wildbahn geraten dürften. Der eigentliche Launch dieser Chips soll dann im Mai sein, laut einer Meldung seitens der Overclockers Workbench [53] angeblich am 14. Mai. Erst dann dürfte es erschöpfende technische Artikel samt Benchmarks zu den neuen ATI-Karten geben, welche dann aber aller Wahrscheinlichkeit nach auch umgehend im Handel erhältlich sein werden.
Eine preisliche Vorstellung eines Teils der kommenden ATI-Grafikkarten gibt es im übrigen bei TweakPC [54] – wobei die dort genannten Dollar-Listenpreise sicherlich den Erwartungen entsprechen und auch recht deckungsgleich zu den entsprechenden nVidia-Angeboten sind: So soll die Top-Version des LowCost-Grafikchips RV610 (wohl Radeon X2300 Pro) für 99 Dollar in den Handel gehen, bei nVidia entspricht dies der GeForce 8500 GT auf G86-Basis zum gleichen Preis. Die größte Variante des Mainstream-Grafikchips RV630 (wohl Radeon X2600 XT) soll dagegen 199 Dollar kosten, auch hier findet sich bei nVidia mit der GeForce 8600 GTS auf Basis des G84-Chips ein (preislich) deckungsgleiches Angebot. Die kleinere RV630-Variante (wohl Radeon X2600 Pro) soll hingegen für 179 Dollar zu haben sein, hier dürfte nVidia die GeForce 8600 GT auf G84-Basis für 169 Dollar entgegensetzen.
Unklar ist hingegen noch etwas, für was die (prognostizierten) 499 Dollar für R600-Boards stehen – schließlich sollen diese in unterschiedlichen Versionen auf den Markt kommen. Wenn wir annehmen, dies sei der Preis für die größte Variante (Radeon X2900 XTX), dann wäre dies preislich absolut im selben Rahmen, in dem dato die GeForce 8800 GTX angeboten wird. Eine Radeon X2900 XT wäre dann wohl etwas billiger, womöglich bei 399 Dollar angesiedelt, womit diese Karte in Konkurrenz zur 640-MB-Version der GeForce 8800 GTS gehen würde. Wie von TweakPC richtig angemerkt, klafft dann natürlich zwischen Mainstream- und HighEnd-Segment eine große preisliche Lücke – in welche ATI allerdings wohl die Radeon X2900 XL legen will, wenngleich zu dieser Karte dato nicht viel mehr als nur deren Name bekannt ist.
Laut PCPop [55] (maschinelle Übersetzung ins englische [56]) soll der nVidia G84 Mainstream-Grafikchip angeblich nur 32 Shader-Einheiten enthalten – bisher wurden 64 für die GeForce 8600 GTS und 48 (aktive) für die GeForce 8600 GT angenommen. Allerdings stammen die Angaben aus der Hardwarediagnose-Software Everest, welche jedoch mit hoher Wahrscheinlichkeit diese Daten nicht direkt auslesen kann, sondern sie anhand der erkannten Device-ID aus einer natürlich (und gerade vor dem offiziellen Launch) fehlbaren Datenbank entnimmt. Auch die von Everest "erkannten" Shader-Taktraten sind keine sicheren Angaben, da der (bekannte) Chiptakt einer unübertakteten GeForce 8600 GTS als mit "440%" übertaktet angegeben wurde. Insofern sind die kompletten Angaben dieser Meldung vorerst generell zu bezweifeln.
Der letzte Woche [57] an dieser Stelle kommentierte erste Test einer GeForce 8600 GTS durch Au-Ja! [49] ist von dieser Webseite inzwischen wieder heruntergenommen worden, auch wenn die Gründe hierfür nur angedeutet wurden. So hat man mittels eines von nVidia zur Verfügung gestellten neuen Treiber "in einigen Testläufen deutliche Abweichungen" erzielen können, was dann doch darauf hindeutet, daß die bisherigen Vorabtests zu den kommenden nVidia-Grafikkarten womöglich nicht das ganze Potential dieser Karten offenbaren konnten. Nichts desto trotz gibt es bei bei der Overclockers Workbench [58] einen weiteren Vorabtest zur GeForce 8600 GTS zu erspähen. Die dort genannten Daten zur Anzahl der Shader-Einheiten und zum Shader-Takt entstammen jedoch wieder oben genannter Quelle, sind also derzeit nicht ernst zu nehmen..
Die (reichlich unübersichtlichen) Benchmarks der Overclockers Workbench bringen zudem keine neuen Erkenntnisse, da die Mainstream-Karte nicht "artgerecht" entweder ganz ohne Anti-Aliasing oder aber (für diese Karte völlig übertrieben) mit 8x Anti-Aliasing vermessen wurde. Bestätigt werden konnte jedoch die ziemlich gute Übertaktungseignung der GeForce 8600 GTS, welche sich ohne große Umstände von 675/1000 MHz auf 780/1125 MHz übertaktet ließ. Bei einem weiteren Vorabtest seitens der VR-Zone [59] ging es nicht unähnlich bis auf 745/1145 MHz hinauf, auf diesen Taktraten war die Karte dann sogar etwas schneller als eine GeForce 7900 GT. Auch diese Benchmarks wurden jedoch leider ohne Anti-Aliasing durchgeführt, zudem fehlen bei der VR-Zone unverständlicherweise die Tests auf default-Taktung.
Laut DailyTech [60] soll eine GeForce 8800 Ultra nun in der Tat zum recht utopischen Preis von 999 Dollar kommen. Wie nVidia die Leistung für einen solchen Preissprung zur Verfügung stellen will, ist uns allerdings unklar, denn all zu viel Takt läßt sich aus dem G80-Chip wohl nicht mehr herauspressen. Dies würde dann schon eher darauf hindeuten, daß der G80 doch noch und entgegen aller bisherigen Annahmen über (bisher) deaktivierte Hardware-Einheiten verfügen würde. Eine andere Idee zur Erklärung dieses hohen Preises haben hingegen DailyTech höchstselbst: Möglicherweise verbergen sich hinter der "GeForce 8800 Ultra" schlicht zwei G80-Grafikkarten in einer Box bzw. eventuell auch eine DualChip-Grafikkarte ähnlich der GeForce 7900/7950 GX2. Dieses bleibt zum jetzigen Zeitpunkt natürlich abzuwarten, der Launch der GeForce 8800 Ultra soll am 1. Mai sein, Karten soll es dann Mitte Mai geben.
Weitere Details zum ATI R600 HighEnd-Grafikchip gibt es bei DailyTech [61]: So deutet sich nun immer stärker die Namenswahl "Radeon HD 2000 Serie" an, wobei die R600-Boards sich Radeon HD 2900 XT und XTX nennen, die RV630-Boards Radeon HD 2600 Pro und XT und die RV610-Boards Radeon HD 2400 Pro und XT. Die komplette Serie soll zudem über ein neues Anti-Aliasing verfügen, welches bis auf 24x Anti-Aliasing hinaufgehen soll – wobei diese höchste Variante sicherlich nur von den HighEnd-Ausführungen sinnvoll nutzbar sein dürfte. Zudem soll der R600-Chip nun über gar 320 Stream-Prozessoren verfügen – was natürlich noch keinen Hinweis auf eine potentielle Überlegenheit zum G80-Chip (128 Stream-Prozessoren) gibt, da damit schließlich noch nichts über die Leistungsfähigkeit dieser Stream-Prozessoren gesagt ist.
Gemäß The Inquirer [62] soll die kommende HighEnd-Serie von ATI die bisherigen HighEnd-Grafikkarten auf G80-Basis seitens nVidia preislich klar unterbieten – um 100 bis 150 Dollar. Wie ATI dies realisieren will, bleibt allerdings unklar: Die Grafikchips selber kosten keine 100 Dollar das Stück, so daß ATI bei einem niedrigerem Gesamtpreis auf Mithilfe der Grafikkarten-Hersteller setzen müsste – und die werden sich sicherlich ihre Gewinnmarge nicht so einfach nehmen lassen. Davon abgesehen ist das Boarddesign der R600-Grafikkarten wie bekannt außerordentlich aufwendig – unklar ist also, wo hier die Spielräume für große Preisabschläge gleich zum Launch sein sollen. Allerdings hat das ganze womöglich auch eine ganz einfache Auflösung: Eventuell bezieht sich diese Aussage nur auf die offiziellen Listenpreise der G80-Grafikkarten von 449 Dollar für die GeForce 8800 GTS 640MB und 599 Dollar für die GeForce 8800 GTX.
Allerdings werden die nVidia HighEnd-Grafikkarten bekannterweise längst nicht mehr zu diesen Listenpreisen verkauft, sondern siedeln sich derzeit ca. 100 Euro niedriger an. Und sicherlich wird ATI mit der massiven zeitlichen Verzögerung den R600-Boards gleich vom Start weg einen passenderen Listenpreis geben müssen – und das dann dabei durchaus 100 Dollar Unterschied zum nVidia-Listenpreis entstehen können, wäre kaum verwunderlich. Dies ändert aber letztlich doch nichts an den Straßenpreisen, bei welchen die R600-Boards auf etwa ähnlichem Niveau wie die G80-Boards zu erwarten sind. Zudem halten wir die generelle Idee, AMD könnte einfach mal so mit seiner Erfahrung bei der 65nm-Fertigung bei der Produktion von ATI-Grafikchips unterstützend zur Seite stehen, für nicht wirklich ausgereift.
Denn die ATI-Grafikchips werden weiterhin vollumfänglich bei TSMC gefertigt und eine (potentielle) Unterstützung durch AMD wird zumindestens nicht in kurzfristigen Erfolgen resultieren können. Doch selbst wenn TSMC durch AMD-Unterstützung künftig günstiger fertigen kann als bisher, lassen sich hiermit keine durchschlagenden Preisvorteile für den Endkunden erzielen, da am Gesamtpreis einer Grafikkarte auch der benötigte Speicher und das Grafikboard selber eine entscheidende Rolle spielen. Wollte man wirklich günstige HighEnd-Grafikkarten bauen, müsste man in erster Linie einen Grafikchip mit geringem Stromverbrauch, kleinem Speicherinterface und geringen Anforderungen bezüglich der Klasse des verbauten Speichers erstellen – dann könnten das Boarddesign sowie die Kosten für den Speicher dramatisch sinken. Allerdings erscheint gerade der R600 als das genaue Gegenteil dieser Beschreibung ;).
The Inquirer [63] haben recht vollständige 3DMark 03/05/06 Werte der kommenden nVidia LowCost- und Mainstream-Riege GeForce 8500 GT, 8600 GT und 8600 GTS. Vergleichswerte hierzu lassen sich beispielsweise hier [64] finden, zu beachten wäre allerdings gerade bei den Zahlen ohne Anti-Aliasing der Einfluß der CPU, da bei den Vergleichswerten ein höher getaktetes Prozessormodell zum Einsatz kam. Nichts desto trotz läßt sich sagen, das sich die neuen Mainstream-Grafikkarten von nVidia irgendwo auf der Performance der letzten Mainstream-Karten (mit HighEnd-Basis) um Radeon X1950 Pro/XT und GeForce 7900 GS/7950 GT einordnen lassen, allerdings wohl nicht wirklich schneller sein werden. Genaueres werden dann die zum Dienstag zu erwartenden Launchartikel zu diesen neuen nVidia-Karten sagen können.
Laut der DigiTimes [65] hat Asus seine GeForce 8600 GTS Grafikkarte etwas vorfristig schon am Montag angekündigt. Damit bestätigen sich auch einige Daten zu dieser Karte – immer noch fehlend ist allerdings die Angabe zur Anzahl der Shader- und Textureneinheiten. Von einigen bei verschiedenen Quellen veröffentlichten 3DMark-Einzelwerten läßt sich aber auf 12 Textureneinheiten schließen – was, wenn nVidia den grundsätzlichen Aufbau der einzelnen Funktionsblöcke zum G80-Chip nicht grundlegend verändert hat (wäre unlogisch, weil es viel Arbeit bedeutet und die Funktionsblöcke als recht ausgewogen gelten), dann auch auf 48 Shader-Einheiten hinausläuft. Damit würde der G84-Chip von den fürs Rendering zuständigen Einheiten 3/8 dem G80 entsprechen, vom Speicherinterface (und den ROPs) her wären es 1/3 des G80.
Auch deutet sich damit an, daß zwischen GeForce 8600 GT und GTS kein Unterschied bei den Hardware-Einheiten besteht, sondern nur ein Taktunterschied (540/700 MHz zu 675/1000 MHz). Gleichfalls gibt es erste Straßenpreise dieser Karten zu vermelden: Der Geizhals [66]-Preisvergleich listet die entsprechenden Modelle von MSI für um die 150 Euro (GeForce 8600 GT) bzw. 200 Euro (GeForce 8600 GTS) auf – was insbesondere für die GeForce 8600 GT interessant klingt, wenn diese Karte in der Tat keinen Unterschied bei den Hardware-Einheiten zur GeForce 8600 GTS haben sollte. Aber natürlich müssen sich die neuen Karten auch erst einmal gegen die in diesem Preissegment bereits angebotenen DirectX9-Karten durchsetzen, welche allesamt eine HighEnd-Abstammung in die Waagschale werfen können und damit den neuen Mainstream-Karten von nVidia durchaus gefährlich werden können.
Wollte man The Inquirer [67] Glauben schenken ;), so kommt die GeForce 8800 Ultra nur in einer Miniauflage von einigen Dutzend Stück. Jene Meldung bezweifeln wir allerdings kräftig, denn nVidia hat es derzeit wohl nicht nötig, sich auf Krampf (sprich beim Kampf um die Performancekrone) derart mit der Computer-Szene zu verscherzen – was allerdings passieren würde, sollte man eine Ultra-Edition nur für einige ausgewählte Hardwaretest-Redaktionen herausbringen. So etwas ist früher schon mal durchgegangen und wurde seinerzeit auch nicht als gut angesehen, heutzutage würden sich dagegen umgehend Hohn und Spott über nVidia ergießen. Und da sich dies auch nVidia ausrechnen kann, wird man wohl diesem Marketing-GAU zu entgehen versuchen und damit entweder eine wenigstens in einigen tausend Exemplaren lieferfähige Ultra-Karte bringen – oder eben gar keine.
Wie schon in einem extra Artikel [68] ausgeführt, hat nVidia am Dienstag die ersten Mainstream-Beschleuniger für Direct3D10 vorgestellt. Dabei deutete sich schon in jenem Artikel an (welcher kurz nach dem Launch erschien), daß die meisten Hardware-Redaktionen, welche zum Launch die neuen Karten testen konnten, keine herausragenden Noten vergeben haben. Dabei sind die GeForce 8600 GT und GTS Karten durchaus nicht verkehrt, nVidia hat bei diesen neuen Grafikkarten vieles richtig gemacht: Die Stromaufnahme liegt im Rahmen, die meisten Lüfterkontruktionen sind recht leise, sogar passiv gekühlte Karten sind möglich. Dazu kommen alle modernen Features des G80-Chips sowohl beim reinen Featureset als auch bei den bildqualitätsverbessernden Optionen – zusammen garniert mit vollständiger HDCP-Kompatibilität bei der GeForce 8600 GTS und bei den meisten GeForce 8600 GT Karten.
Einzig allein an der puren Performance hapert es wie bekannt etwas. Auffälig ist jedoch, das sich die GeForce 8600 GTS durchaus behaupten kann, sofern man keine höhere Auflösung als 1280x1024 ansetzt: Dann liegt man geringfügig über der Radeon X1950 Pro, gerade in den eher neueren Spiele-Titeln. Das gibt durchaus Hoffnung darauf, daß die GeForce 8600 Serie mit neueren Spielen eventuell bessere Resultate einfahren kann als die jetzige DirectX9-Konkurrenz. Allerdings sollte man weniger darauf setzen, daß die GeForce 8600 Serie inbesondere von Direct3D10-Titeln wird profitieren können: Dafür ist Direct3D10 noch viel zu frisch, ist zu Lebenszeiten dieser Karten (noch) nicht der große Schwung an Direct3D10-Titeln zu erwarten. Die Performance holt die GeForce 8600 Serie derzeit wohl aus der hohen vorhandenen Shader-Power und kann damit die nur mittelmäßige Speicherbandbreite bis zu einem gewissen Maß überdecken.
Eine kleine Korrektur noch zu unserem G84/G86-Launchreport [68]: nVidia hat bei diesen beiden neuen Grafikchips in der Tat die Textureneinheiten noch einmal gegenüber dem G80-Chip verändert, womit die grundlegenden Funktionsblöcke bei G84 und G86 also doch etwas anders aussehen als beim G80. Jener HighEnd-Chip verfügt wie bekannt über 32 Textureneinheiten (acht Quad-TMUs), welche allerdings jede zwei bilineare Texturensamples pro Takt berechnen können. Da bei diesen also doppelt ausgelegten Textureneinheiten jedoch die "Texture Adress Units" nur einfach ausgelegt sind, kann der G80-Chip pro Takt weiterhin nur 32 Texturensamples auswerfen, selbst wenn 64 berechnet werden könnten. Diese Differenz kann man allerdings dazu nutzen, in einem Takt trilineare Filterung zu ermöglichen, der G80-Chip wirft also (maximal) in einem Takt 32 gleich trilinear gefiltere Texturensamples aus.
Für die G84- und G86-Chips wurde diese Anordnung jedoch wieder etwas verändert, nun haben die Textureneinheiten auch eine doppelte Addressierungs-Einheit, womit man also nicht mehr von doppelt ausgelegten Textureneinheiten sprechen sollte, sondern bessern von zwei Textureneinheiten. Demzufolge verfügt der G84-Chip (GeForce 8600 Serie) nun also über 16 Textureneinheiten, der G86-Chip (GeForce 8300/8400/8500) über deren 8. Eine Änderung bei der nominellen Texturierungsleistung bedeutet dies zwar nicht, allerdings ergeben sich Vorteile bei rein bilinearer Filterung, wie sie beispielsweise viele Shader-Programme verwenden. Vermutlich dürfte sich diese Entwicklung zudem auch in zukünftigen HighEnd-Grafikchips von nVidia wiederfinden, da sie natürlich eine effektivere Ausnutzung der zur Verfügung stehenden Rohpower ermöglicht.
Seitens HardSpell [69] gibt es erstmals angeblich verläßliche Daten zur GeForce 8800 Ultra, welche aus einem zu frühzeitig von Dell publizierten Angebot stammen: Danach besitzt die Ultra-Ausführung des G80-Chips die gleichen Hardwareeinheiten (128 Shader-Einheiten, 384 Bit Speicherinterface) wie die GTX-Ausführung und hat somit nur einen höheren Takt von 650/1080 MHz anzubieten, wobei es sich trotz des hohen Speichertaktes weiterhin um GDDR3-Speicher handelt. Ob damit der im Web vielfach zu lesende Preis von 999 Dollar zu halten sein wird, bezweifeln wir erst einmal – machbar ist hier sicherlich kaum mehr als eine Preisvorstellung von 600 bis 650 Euro für diese nur mäßige "Übertaktung" von 13 bzw. 20 Prozent. Allenfalls mit gleich 1,5 GB Speicherbestückung wären die 999 Dollar vorstellbar – auf der anderen Seite würde das dann zum Prestigeobjekt ausarten, denn so viel Speicher wird der Grafikkarte zu Lebzeiten keinerlei Vorteile bringen können.
Nochmals HardSpell [70] berichten zu ersten halben Benchmarks der kommenden Mainstream-Lösung von ATI, der "Radeon HD 2600 XT" – womit im übrigen auch die "HD"-Namenswahl nunmehr fast vollständig gesichert ist. Da die 3DMark06-Einzelwerte im Vergleich zu einer GeForce 8600 GTS [71] fast deckungsgleich sind und zudem zur Radeon HD 2600 Serie bereits das 128 Bit DDR-Speicherinterface bekannt ist, ergibt sich hier durchaus der begründete Verdacht, daß die neuen Mainstream-Lösungen von ATI bei der reinen Performance nur ähnlich durchschnittlich abschneiden werden wie die neuen Mainstream-Karten von nVidia.
Fudzilla [72] berichtet von einem Listenpreis für die Radeon HD 2900 XT von 399 Dollar – und wiederlegen sich damit eigentlich selber, denn erst kürzlich [73] wurden noch angebliche 100 bis 150 Dollar/Euro Preisvorsprung gegenüber nVidia vermeldet. Doch da die Radeon HD 2900 XT leistungsmäßig irgendwo zwischen GeForce 8800 GTS 640MB (ca. 350 Euro [74]) und GeForce 8800 GTX (ca. 490 Euro [75]) liegen sollte, wäre der Listenpreis von 399 Dollar bzw. in Europa gar 434 Euro Straßenpreis (angeblich [76] der Listenpreis eines europäischen Resellers) absolut gerechtfertigt, würde aber keinesfalls den vorher prognostizierten Preis/Leistungsknaller abgeben. Die (gleich mit 1 GB DDR4 ausgestattet, aber erst im Juni kommende) Radeon HD 2900 XTX ist dann im übrigen angesichts dieser Zahlen für einen Listenpreis von wohl 499 Dollar zu erwarten. Dies würde auch zum gleicher Quelle [77] noch vermeldeten Taktunterschied passen: 800/800 MHz für die Radeon HD 2900 XT und 800 MHz oder etwas darüber Chip- und 1100 MHz Speichertakt für die Radeon HD 2900 XTX.
Nachdem Guru3D [78] in den Release Notes zum Forceware 158.19 einen Eintrag für eine "GeForce 8800 GS" gefunden haben, hat nVidia diese Release Notes kurzfristig geändert und zum anderen bestätigt [78], daß es keine solche Karte geben solle. Ob es sich hierbei um einen einfachen Schreibfehler handelt, ist nicht klar, in der zum Treiber gehörigen INF-Datei war jedenfalls auch kein Eintrag zu dieser Karte zu finden. Eine angenommene GeForce 8800 GS würde jedoch wohl eine weitere Abspeckung des G80-Chips bedeuten, was allerdings kaum noch wirtschaftlich wäre (und deutlich niedrigere Taktraten würden wiederum nur die Übertakter einladen). Denkbar wäre natürlich trotzdem eine irgendwie noch leistungsreduzierte Version, die dann rein für OEMs produziert wird.
Auf der anderen Seite erscheint es derzeit aber sowieso als folgerichtig, das nVidia den riesigen Performance-Zwischenraum zwischen GeForce 8600 GTS und GeForce 8800 GTS 320MB noch irgendwie füllen wird. Sicherlich wird dies nicht sofort passieren, derzeit liegen beide Karten preislich ja gar nicht weit auseinander (ca. 190 Euro [79] zu ca. 260 Euro [80]) – momentan wird man also versuchen, erst einmal die GeForce 8600 GTS breit abzusetzen. Aber nach diesem Launchschwung wird der Preis dieser Karte wohl in die Nähe von 150 Euro fallen müssen, um gegenüber Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT langfristig konkurrenzfähig zu bleiben. Dann würde ein Raum für eine derzeit spekulativ als "GeForce 8700" bezeichnete Serie bleiben. Diese würde dann natürlich nicht auf dem G80-Chip basieren, sondern vielmehr auf einem extra Grafikchip für das obere Mainstream-Segment – wie es ATI mit dem RV570 (Radeon X1950 Pro) schon vorgemacht hat.
Hardware-technisch sollte ein solcher Grafikchip dann irgendwo zwischen G80 (acht Funktionsblöcke mit jeweils 16 Shader-Einheiten und vier TMUs, 384 Bit DDR Speicherinterface) und G84 (zwei Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs, 128 Bit DDR Speicherinterface) liegen: Man kann hierbei wohl über vier Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs (angelehnt an der verbesserten G84-Architektur) sowie ein 192 oder 256 Bit Speicherinterface spekulieren. Ein solcher Chip würde dann natürlich nicht gerade klein werden, wahrscheinlich dürfte nVidia mit diesem warten, bis man die 65nm Fertigung zu Verfügung hat – was allerdings auch nicht mehr so lange dauern sollte. Nichts desto trotz ist eine "GeForce 8700" derzeit immer noch hochspekulativ, gibt es keinerlei gesicherte Fakten dazu, ob und wie nVidia eine solche Karte plant.
Laut nochmals Fudzilla [81] soll ATIs kommender Mainstream-Grafikchip RV630 über 32 Shader-Einheiten und damit die Hälfte des R600-Chips verfügen, der LowCost-Grafikchip RV610 über 16 Shader-Einheiten und damit ein Viertel des R600-Chips (über die Anzahl der Shader-Einheiten ist der R600 natürlich nicht mit dem G80 zu vergleichen, da die Shader-Einheiten von ATI und nVidia im gewöhnlichen unterschiedlich leistungsfähig sind). Dies würde auf eine Mainstream-Variante von ATI hindeuten, welche Hardware-technisch nicht so arg beschnitten ist wie der G84-Chip (GeForce 8600 Serie). Auf der anderen Seite hat der RV630 aber auch bekanntermaßen das gleiche Speicherinterface wie der G84 – 128 Bit DDR – womit gerade in höheren Auflösungen samt Anti-Aliasing wieder die Gefahr besteht, daß Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT aufgrund der dort verbauten 256 Bit DDR Speicherinterfaces auch an ATIs neuer Mainstream-Lösung vorbeiziehen.
Die am Freitag [82] genannten Dell-Spezifikationen zur GeForce 8800 Ultra kann man sich im übrigen hier [83] in einer Kopie ansehen. Mit dieser bestätigen sich auch die weiterhin nur 768 MB Grafikkartenspeicher dieser Karte, womit ein Listenpreis von 999 Dollar doch als eher unwahrscheinlich angesehen werden kann. Bei den aktuellen Bildern zur Radeon HD 2600 XT (beispielsweise hier [84]) ist auffällig, daß diese größte Mainstream-Ausführung von ATI keinen extra Stromstecker mehr trägt. Ursprünglich wiesen sogar ATI-eigene Unterlagen dieser Karte noch 121 Watt Stromverbrauch aus, ohne extra Stromanschluß kann es jedoch kaum über 60 Watt sein (da man die maximal 75 Watt des PCIe-Ports nie vollständig ausreizt). Einen Benchmarkwert dieser Karte gegenüber einer GeForce 8600 GTS unter Need for Speed: Carbon kann man zudem noch hier [85] nachschlagen.
Gemäß Hard Tecs 4U [86] soll der R600-Chip in der Performance nicht der große Überflieger werden, sondern auf dem Niveau einer GeForce 8800 GTX liegen. ATI soll den R600 somit inzwischen als "Best Value High-End" bewerben, also als den Grafikchip mit dem besten Preis/Leistungsverhältnis im HighEnd-Segment. Und dies könnte sogar durchaus zutreffen: Denn da sich die Performance-Aussage offensichtlich auf die Radeon HD 2900 XT (und nicht die erst im Juni kommende XTX-Version) bezieht, welche zu einem Preis von 399 Dollar antreten soll, wären dies zu aktuellen Marktpreisen doch ein guter preislicher Vorsprung gegenüber der GeForce 8800 GTX. Zwar könnte sich bis zum realen Marktstart der neuen ATI-Karte zur Mitte des Mai noch etwas am Preis des nVidia Spitzenmodells tun, aber für den Augenblick erscheint es doch so, als würde ATI durchaus das eigene Versprechen von "Best Value High-End" erfüllen können.
Die ersten wohl glaubwürdigen Performance-Resultate zum ATI R600 Grafikchip in Form der Radeon HD 2900 XT hat man bei DailyTech [87] anzubieten. Vorher sagte man noch aus, daß der R600-Chip nun doch 320 Shader-Einheiten haben wird – angesichts dieser hohen Zahl (G80: 128) kann wohl schon jetzt als gesichert gelten, daß sich G80 und R600 vom Aufbau und Leistungsfähigkeit der Shader-Einheiten her massiv unterscheiden werden, eine Leistungsbestimmung rein über die Anzahl der Shader-Einheiten also zwecklos ist (funktioniert nur innerhalb derselben Generation eines Herstellers). Eine Aussage zum Chiptakt der Radeon HD 2900 XT wurde nicht getroffen, allerdings soll der Speichertakt bei nunmehr 825 MHz liegen – verbaut wird bei dieser Karte wie erwartet 512 MB GDDR3-Speicher. GDDR4-Speicher wird es hingegen erst bei der Radeon HD 2900 XTX geben, welche allerdings erst im Juni zu erwarten ist.
Die Benchmarks selber wurden unter 1280x1024 mit einer leider nicht näher spezifizierten "Maximum Quality" erstellt – hinter welcher sich nach Sichtung von Vergleichswerten aller Wahrscheinlichkeit nach 4x Anti-Aliasing samt 16x anisotropen Filter verbirgt. Als Vergleichskarte wurde der Radeon HD 2900 XT eine GeForce 8800 GTS 640MB gegenübergestellt, welche die neue ATI-Karte auch passabel, aber nicht mit großem Abstand schlagen konnte (10 Prozent über fünf Tests, wobei nur zwei davon größere Ausschläge zugunsten der ATI-Karte zeigten). Hier bleibt noch stark abzuwarten, ob sich die Radeon HD 2900 XT auch mit der GeForce 8800 GTX wird anlegen können – oder ob dies eine Aufgabe für die Radeon HD 2900 XTX bleibt. Der echte Launch der neuen ATI-Karten soll wie schon berichtet am 14. Mai stattfinden, im Handel sollen die Karten (bis auf die Radeon HD 2900 XTX) dann ab 19. Mai sein, wie die DigiTimes [88] berichtet.
Im G84-Test der X-bit Labs [89] gibt es erste gemessene Stromverbrauchswerte der neuen nVidia-Karten – auch inklusive der G80-Varianten, welche sich früher noch gegen entsprechende Messungen sträubten. So kommt die GeForce 8800 GTS 640MB auf 106 Watt Stromverbrauch unter 3D und die GeForce 8800 GTX auf 132 Watt, während sich die GeForce 8600 GTS mit 47 Watt begnügt (und eine GeForce 8600 GT somit auf ca. 40 Watt zu schätzen ist). Während die Verbrauchsangaben zu den G80-Varianten damit im Rahmen der Erwartungen liegen, überrascht der Stromverbrauch der GeForce 8600 GTS doch ein wenig – immerhin ist diese Karte mit einem extra Stromanschluß ausgerüstet, was auf einen Verbrauch in der Nähe von 60 Watt hindeutet. Auf der anderen Seite steigt innerhalb der Mainstream-Karten von nVidia aber dennoch auch mit der GeForce 8600 GTS der Stromverbrauch weiterhin an, denn der vorhergehende Mainstream-Chip G73 verbraucht in Form der GeForce 7600 GT nur ganz 36 Watt.
Zwar ist die GeForce 8600 GTS auch klar schneller als eine GeForce 7600 GT, aber das Effizienz-Verhältnis Performance/Stromverbrauch dürfte mit der GeForce 8600 GTS nicht oder nur geringfügig gesunken sein. Dies wäre allerdings angesichts immer weiter steigender Grafikchip-Leistung wirklich nötig, ansonsten stehen wir in ein paar Jahren bei 300 Watt Stromverbrauch bei HighEnd-Beschleunigern und 100 Watt bei Mainstream-Grafikkarten. Abseits dessen bestätigen sich zudem noch die überaus hohen Leistungsaufnahmen des G80-Chips im reinen 2D-Betrieb von 52 Watt für eine GeForce 8800 GTS 640MB und satten 70 Watt für eine GeForce 8800 GTX. Von dem hierzu seitens nVidia geplanten Treiber, welcher die Stromaufnahme der G80-Varianten im 2D-Betrieb kräftig senken soll, ist leider derzeit immer noch nichts zu sehen.
Inzwischen schwirren einige Spezifikationen zum R600-Chip durch die Gegend – beispielsweise in unserem Forum [90] einzusehen oder auch bei The Inquirer [91] kommentiert. Momentan sind aber in erster Linie nur die Marketing-Schlagwörter bekannt und es bleibt noch weitestgehend unklar, was sich hinter diesen verbirgt. Speziell zum breit vermeldeten 24x Anti-Aliasing wäre allerdings schon jetzt dazuzusagen, daß es sich hierbei sicherlich kaum um ein 24x Multisampling Anti-Aliasing handeln dürfte, sondern das ATI diese hohe Samplezahl mit einiger Sicherheit wohl nur über den Mix aus einem hochwertigen Multisampling mit einem zusätzlichen Supersampling erreicht. Diese Mischform dürfte dann aber vermutlich auch für den R600-Chip schon wieder zu langsam für einen breitflächigen Spieleeinsatz sein.
Davon abgesehen müssen wir generell die früheren Stromverbrauchs-Angaben der kommenden ATI-Chips in Zweifel stellen, nachdem sich zumindestens die Stromverbrauchs-Angaben der Mainstream-Klasse von ATI als falsch erwiesen haben: Dort wurden seinerzeit in ATI-eigenen Unterlagen bis zu 128 Watt Stromverbrauch (für eine Radeon HD 2600 XT mit 512 MB) angegeben, die letzten Bilder [84] von 256-MB-Versionen dieser Karte zeigten aber keinen extra Stromanschluß, was auf einen Verbrauch von zwingend unterhalb von 60 Watt hindeutet (da der PCI Express Port nicht mehr als 75 Watt liefert und man natürlich immer noch etwas Reserve behält). Dieser völlige Wandel bei eigentlich bereits als sicher geltenden Fakten könnte aber auch für ATIs HighEnd-Lösungen bedeuten, daß die früheren Horrormeldungen über TDPs von bis zu 240 Watt inzwischen vollkommen obsolet sind.
Vielmehr kann man durchaus davon ausgehen, daß die R600-Varianten keinen so extrem höheren Stromverbrauch als die G80-Varianten haben werden und daß demzufolge die 200-Watt-Grenze nicht erreicht werden wird. Einen kleinen Hinweis darauf finden wir wieder in unserem Forum [92], wonach laut (inoffizieller) ATI-Aussage ein R600-Board so 40 bis 50 Watt überhalb eines G80-Boards verbrauchen soll. Gemessen an einer GeForce 8800 GTX mit bekanntermaßen [93] 132 Watt Stromverbrauch dürften dies demzufolge 170 bis 180 Watt für den R600-Chip in seiner Maximalausführung Radeon HD 2900 XTX werden, die XT-Version dürfte dann noch etwas darunter liegen. Dies wäre viel, aber immer noch mittels guter Gehäuse-Durchlüftung und passendem Netzteil zu schultern.
Gleichfalls scheint sich diese Radeon HD 2900 XTX weiter zu verschieben – laut Fudzilla [94] nunmehr gar auf das dritte Quartal 2007 (wobei das auch nur eine Verschiebung von Juni auf Juli sein kann). Grund hierfür sollen angeblich Performance-Probleme mit den GDDR4-Speicherchips sein: Ob es – wie Fudzilla vermelden – so weit geht, daß die langsamer getaktete GDDR3-Karte Radeon HD 2900 XT schneller ist, wäre zwar zu bezweifeln, aber es dürfte für ATI schon ein Problem sein, wenn die XTX-Version nicht wirklich schneller als die XT-Version ist: Denn mit der Radeon HD 2900 XTX wird man letztlich gegen die GeForce 8800 Ultra antreten, womit man einiges an Performance gegenüber der Radeon HD 2900 XT draufpacken wird müssen.
Nach den Benchmarks zur Radeon HD 2900 XT [93] haben DailyTech [95] nun auch noch entsprechende Werte zur Radeon HD 2900 XTX anzubieten, welche wie bekannt jedoch etwas später antreten wird und sich dann wohl schon an der GeForce 8800 Ultra messen muß. Um dies etwas auszugleichen, wurde die für die Vergleichsmessungen herangezogene GeForce 8800 GTX (von 575/900 MHz) auf 650/1000 MHz übertaktet, was ziemlich in der Nähe der zu erwartenden Ultra-Taktraten von 675/1080 MHz liegt. Zudem hatten DailyTech aber auch nur ein frühes Sample der ATI-Karte mit nicht finalen Taktraten zur Verfügung: 750/1010 MHz taktete die benutzte XTX-Karte, die finalen Taktraten der Radeon HD 2900 XTX dürften aber wohl bei 800/1100 MHz liegen.
Insofern ist der angetretene Vergleich derzeit noch sehr unvollkommen, dennoch zeigt er einige Tendenzen auf: So liegt erstens einmal die fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX im Prinzip überall mit weitem Abstand vorn. Der Grund hierfür liegt primär wohl darin, daß zweitens die Radeon HD 2900 XTX (auf noch nicht finalen Takten) sich im Prinzip überhaupt nicht von der Radeon HD 2900 XT absetzen kann. Offensichtlich bringen die (in diesem Test) 210 MHz mehr Speichertakt der XTX-Karte keinerlei Performanceschub – was jedoch angesichts des sehr breiten 512 Bit DDR Speicherinterfaces auch nicht wirklich verwundert. Allerdings kann hiermit natürlich noch keine Aussage darüber getroffen werden, wie sich die Radeon HD 2900 XTX mit finalen Taktraten schlägt, vor allem wenn hierbei ein wenig mehr Chiptakt für diese Karte anliegen sollte.
Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.
Wie Fudzilla [96] vermelden, sind derzeit die Liefermengen von nVidias neuem LowCost-Grafikchip G86 angeblich ziemlich gering, so daß man hiermit also nicht den OEM-Markt im Sturm nehmen kann. Normalerweise sollte dies positiv für ATI sein, welche angeblich schon größere Vorbestellungen für ihren kommenden LowCost-Grafikchip RV610 zu verbuchen haben. Auf der anderen Seiten vermelden wiederum Fudzilla [97] für jenen RV610 und auch für den Mainstream-Grafikchip RV630 eine weitere Verschiebung der Massenproduktion auf den Juni. Anscheinend will ATI aber weiterhin Mitte/Ende Mai erste Karten ausliefern – nur wird es sich dabei wohl um geringe Mengen handeln, die großen Stückzahlen sollen dann erst Ende Juni in den Markt gelangen. Am geplanten Launch zum 14. Mai sollte dies allerdings nichts ändern, hierbei hat sich AMD inzwischen viel zu deutlich festgelegt.
Weiterhin Fudzilla [98] berichten davon, daß die kommenden ATI-Chips RV610 und RV630 auch für AGP-Grafikkarten benutzt werden sollen, auch wenn die AGP-Versionen etwas später in den Markt kommen werden. Abzuwarten bleibt hier aber noch, ob damit überhaupt die Performance der bisherigen AGP-Grafikkarten erreicht wird – immerhin gibt es bereits die Radeon X1900 XT auf AGP. Unter anderem The Inquirer [99] berichten von einem angeblichen Launchtermin für die Radeon HD 2900 Serie für den 2. Mai. Dies ist allerdings für schwer unwahrscheinlich zu halten, nachdem AMD schon dermaßen für den "größten Launch aller Zeiten" am 14. Mai geworben hat – zudem müssten die Reviewkarten dann schon längst zu den mit Hardwaretests beschäftigten Online-Redaktionen herausgegangen sein, wovon uns aber noch nichts bekannt ist. Und letztlich vermeldet die gleiche Quelle [100] noch einmal abweichende Taktraten der GeForce 8800 Ultra: 612/1080 MHz sollen es nun werden anstatt der von Dell geposteten Spezifikationen 650/1080 MHz.
Mit der Zeit (und einigen Leaks) scheint sich nunmehr halbwegs zu klären, was sich hinter den (weiterhin für den 14. Mai angesetzten) neuen ATI-Chips verbirgt – vor allem in Bezug auf die Unterschiede zwischen den einzelnen Grafikchips. So wird der HighEnd-Chip R600 wohl mit 64 Shader-Einheiten (nach anderer Zählweise 320), 16 Textureneinheiten und 512 Bit DDR Speicherinterface antreten. Der Mainstream-Grafikchip RV630 soll dagegen 24 Shader-Einheiten (bzw. 120), 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface haben, was diesem Chip (auf gleicher Taktraten) 33 Prozent der Shader-Leistung und 50 Prozent der Texturier-Leistung des HighEnd-Modells geben sollte – was dann schon wesentlich besser aussieht als dieselben Verhältnisse bei nVidias aktueller Mainstream-Klasse (27 bzw. 29 Prozent [101]).
Einzig und allein das 128 Bit Speicherinterface dürfte weiterhin ein gewisser Bremspunkt für den RV630-Chip darstellen, was sich allerdings vornehmlich nur unter höheren Auflösungen auswirken sollte. Bleibt man bei der Auflösung auf für Mainstream-Grafikchips gängigen 1280x1024, erscheint der RV630 doch als potenter als der G84 (GeForce 8600 Serie), da bei ATI der Abstand der Mainstream-Klasse zur HighEnd-Klasse rein von den technischen Daten her klar geringer ist. Ob der RV630 diesen theoretischen Vorteil auch in einem praktischen Leistungsvorteil gegenüber der GeForce 8600 Serie umsetzen kann, wird sich aber wohl erst am 14. Mai ergeben, die derzeitigen Vorab-Benchmarks beschäftigen sich eher denn mit den HighEnd-Modellen der Radeon HD 2900 Serie.
Neue Benchmarks dieser Karte gibt es hier [102] zu erspähen – wobei die Quelle dieser Zahlen umstritten ist: Teilweise sieht das ganze wie ein Hersteller-eigenes Dokument aus, auf der anderen Seite wird die vorgenannte Grafikkarte auch teilweise mit "Radeon HD X2900 XT" etwas falsch bezeichnet. Prinzipiell sind diese Benchmarks zudem nicht überzubewerten, da die SLI-Messungen mit der GeForce 8800 GTS als viel zu schwach erscheinen, wie mit einem falschen Treiber aufgenommen (was wiederum durchaus in Richtung eines Hersteller-eigenen Dokuments deutet). Die prinzipielle Aussage dieser Zahlen wäre wenn dann aber diese, daß sich die Radeon HD 2900 XT primär mit der GeForce 8800 GTS herumschlagen wird – und nicht der GeForce 8800 GTX.
Dies soll sogar AMD/ATI auf der Presseveranstaltung in Tunis so gesagt haben, wie Fudzilla [103] berichten. Preislich dürfte ATI die Radeon HD 2900 XT damit wohl auf 399 Dollar Listenpreis legen, was hierzulande aufgrund des konstant günstigen Dollarkurses wohl in Straßenpreisen von 360 bis 380 Euro resultieren sollte. Damit würde ATI sicherlich eine sowohl vom Preis als auch der Leistung her sehr vernünftige Konkurrenz zur GeForce 8800 GTS auf die Beine stellen können. Die GeForce 8800 GTX wird ATI allerdings wohl nur mit der erst später erscheinenden Radeon HD 2900 XTX angreifen können. Angeblich soll es hierbei ein neues Design dieser Karte geben, welche nicht mehr das Problem hat, nicht schneller die XT-Ausführung zu sein – Bilder hierzu sind hier [104] zu finden.
Davon abgesehen finden sich auch immer genauere technische Daten zum R600-Chip ein, beispielsweise wie hier [105] abgebildet. Zudem gibt es jede Menge Bruchstück-Informationen zur R600-Technik, welche mittels diverser geleakter AMD-Folien ihren Weg ins Netz fanden: Teil 1 [106], Teil 2 [107], Teil 3 [108] und Teil 4 [109]. Diesen Folien fehlt natürlich oftmals die Erklärung, so daß man sich manchmal aus den Marketingnamen noch nichts zusammenreimen kann. Erwähnenswert ist sicherlich das neue "Custom Filter Anti-Aliasing" (CFAA), mit welchem ATI gegen nVidias neues "Coverage Sample Anti-Aliasing" (CSAA) antreten will. Hinter den hohen Sample-Angaben von CFAA verbirgt sich aber schlicht eine Technik, mittels welcher die Samples der umherliegenden Pixel mit für das Anti-Aliasing Verwendung finden – damit spart man enorm an Performance, weil diese Samples der umherliegenden Pixel ja sowieso schon berechnet werden.
Auf der anderen Seite bedeutet dies nichts anderes, als einen Blurfilter auf das gesamte Bild zu legen: Wenn Samples von fremden Pixeln zur Berechnung des Anti-Aliasings eingesetzt werden, werden nicht nur Polygonkanten geglättet, sondern auch Texturen – man verliert dort an Texturenschärfe und damit Bildqualität. Dabei ist diese Idee noch nicht einmal neu, nVidia hat schon des längeren einen entsprechenden Anti-Aliasing Modus namens "Quincunx" im Angebot. ATI will es nun aber bei CFAA deutlich besser machen – was bei den höheren CFAA-Modi eventuell sogar gelingen könnte: Dort liegen dann bereits acht "echte" (aus dem richtigen Pixel stammende) Samples vor, welche sich von den zusätzlichen, aus fremden Pixeln stammenden Samples nicht mehr so stark irritieren lassen dürften. Zudem will man die fremden Samples wohl anders gewichten als die "echten", um dem Quincunx-Effekt entgegenzuwirken.
Dennoch ist rein von der zugrundeliegenden Technik her ein gewisser Blureffekt nicht auszuschließen – ob man dies im Spielealltag sehen kann, müssen die kommenden Launch-Tests zeigen. Dort wird sich dann auch herausstellen, ob die Performance der Karten überhaupt ausreichend für diese neuen Anti-Aliasing Modi ist. Davon abgesehen gibt es noch ein paar aktuelle Bilder der kommenden ATI-Karten: Radeon HD 2900 XT [110] sowie Radeon HD 2400/2600 Karten [111] – wobei die Radeon HD 2400 auch schon als passiv gekühlte Version abgebildet wurde. Selbiges berichtet die Overclockers Workbench [112] im übrigen auch zur Radeon HD 2600 XT – wenn diese Karte dann wirklich noch schneller als das nVidia-Gegenstück GeForce 8600 GTS ist, würde ATI zumindestens im Mainstream-Bereich deutlich punkten können.
Wie gemäß der umfangreichen Vorab-Berichterstattung im Prinzip schon bekannt, launcht nVidia mit dem zweiten Mai-Tag (bei Lieferbarkeit ab dem 15. Mai) seine GeForce 8800 Ultra – und stellt damit ATIs kommender Direct3D10-Klasse eine weitere, noch höhere Hürde entgegen, noch bevor diese überhaupt in den Markt gelangt. Allerdings sind die Steigerungen der Ultra-Version nicht wirklich weltbewegend: Wie vorher schon erwartet worden war, ändert sich an der zugrundeliegenden Technik absolut überhaupt nichts, sondern gibt es allein höhere Takraten: 612/1512/1080 MHz bei der GeForce 8800 Ultra bedeuten gegenüber den 575/1350/900 MHz der GTX-Version allerdings nur arg gemächliche Steigerungen von 6/12/20 Prozent, was kaum großartige Performancegewinne verspricht.
Und genau so sehen dann auch die zum Thema erschienenen ersten Artikel aus (Liste), welche im Schnitt der GeForce 8800 Ultra einen Performancevorsprung von 10 Prozent gegenüber der GeForce 8800 GTX geben. Dies gilt allerdings nur in Auflösungen ab 1280x1024, darunter gleichen sich die Leistungen der beiden Top-Karten von nVidia zu stark – sie sind schlicht schon zu schnell und kommen in Auflösungen bis 1024x768 zu oft in die Nähe des CPU-Limits (zumindestens in Timedemo-Messungen, welche die CPU geringer belasten als Savegame-Messungen [113] bzw. das reale Spiel). Als Ablösung zur GeForce 8800 GTX ist die Ultra-Version somit keineswegs brauchbar, dafür ist der Leistungsunterschied deutlich zu gering. Offensichtlich scheint es sich um ein reines Prestige-Projekt von nVidia zu handeln, um ATI noch einmal viel deutlicher die derzeitigen Markt- bzw. Machtverhältnisse aufzuzeigen.
Denn zu einem europäischen Listenpreis von 699 Euro (in den USA gar satte 829 Dollar) ergibt sich gegenüber der derzeit für ca. 490 Euro zu bekommenden GeForce 8800 GTX kein gutes Preis/Leistungsverhältnis: Runden 40 Prozent Mehrpreis stehen wie gesagt nur 10 Prozent Mehrperformance gegenüber. Wirklich torpediert wird die GeForce 8800 Ultra allerdings von den schon im Markt befindlichen GeForce 8800 GTX Grafikkarten mit ab Werk höheren Taktraten: Interessant sind hier die "BFG GeForce 8800 GTX OC2" mit Taktraten von 626/1450/1000 MHz sowie die "XFX GeForce 8800 GTX XXX" mit Taktraten von 630/1400/1000 MHz. Dies trifft zwar beim Shader- sowie beim Speichertakt noch nicht ganz das Niveau der GeForce 8800 Ultra, doch dafür sind die beiden vorgenannten Karten schon für 550 Euro zu bekommen, was ein deutlich besseres Preis/Leistungsverhältnis als bei der GeForce 8800 Ultra bedeutet.
Laut der ComputerBase [114] hat der Grafikkarten-Hersteller HIS am Mittwoch kurzzeitig bereits die Ankündigung und Spezifikationen der eigenen Radeon HD 2900 XT Grafikkarte auf der HIS-Webseite gehabt, Screenshots dieser inzwischen zurückgezogenen Webseiten befinden sich hier: Teil 1 [115] und Teil 2 [116]. Wirklich neues gibt es mit den dort zu sehenden Daten und Marketing-Stichwörtern allerdings nicht, allenfalls bestätigen sich einige der vorher schon bekannten Details. Die Spalte mit den Taktraten hatte HIS allerdings erstaunlicherweise frei gelassen – ganz so, als ob ATI sich diesbezüglich noch nicht final festgelegt hätte.
Jedoch gibt es hierzu inzwischen halbwegs sichere Hinweise, wiederum stammend aus den vorgestern [117] schon vermeldeten AMD-Folien. Die PC Games Hardware [118] hat hierzu noch eine weitere Folien anzubieten, welcher die Chiptakte diverser kommender ATI-Grafikkarten zu entnehmen sind. So soll die Radeon HD 2900 XT auf R600-Basis (320 Shader-Einheiten, 16 Textureneinheiten und 512 Bit DDR Speicherinterface) mit 742 MHz Chiptakt antreten, der Speichertakt dieser Karte liegt gemäß anderen Quellen bei 800 MHz. Die allerdings nicht vor Juni nachfolgende Radeon HD 2900 XTX soll gemäß früherer Berichterstattung [119] dann mit 800/1100 MHz antreten, was eigentlich doch auf einen vernünftigen Performance-Unterschied zwischen XT- und XTX-Version hindeuten würde.
Desweiteren soll die Radeon HD 2600 XT auf RV630-Basis (120 Shader-Einheiten, 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface) mit gleich 800 MHz Chiptakt antreten, allerdings fehlt zu dieser Karte derzeit noch ein Speichertakt. Da der RV630-Chip aber nur über ein 128 Bit DDR Speicherinterface (wie die Konkurrenz in Form des G84-Chips der GeForce 8600 Serie [68]) verfügt, ist hier ein ebenso hoher Speichertakt zu erwarten, um die negativen Auswirkungen dieses doch etwas kleinen Speicherinterfaces zu minimieren. Und letztlich soll die Radeon HD 2400 XT auf RV610-Basis (40 Shader-Einheiten, 4 Textureneinheiten und ein 128 Bit DDR Speicherinterface) auf 700 MHz antreten, was für eine LowCost-Lösung ausgesprochen viel ist – auch wenn man bedenkt, daß der Speichertakt dieser Karte gemäß früherer Berichterstattung [119] ebenfalls bei 700 MHz liegen soll.
Noch ein paar Anmerkungen zur GeForce 8800 Ultra: Wie Golem [120] ausführen, liegt der Stromhunger dieser Karte nur unmerklich höher als jener der GeForce 8800 GTX. So hat nVidia im Praxisbetrieb einen Stromverbrauch von 146 Watt bei der Ultra-Version vermessen, die GTX-Version liegt diesbezüglich gemäß früheren Meldungen bei ca. 140 Watt (was nebenbei die Messungen der X-bit Labs [89] bestätigt, welche auf 132 Watt für die GeForce 8800 GTX kamen). Der maximale Verbrauch in speziellen, in der Praxis allerdings kaum zu erreichenden Stresstests liegt noch ähnlicher zusammen: 173 Watt für die GTX-Version und 175 Watt für die Ultra-Version. Davon abgesehen gibt es erste Listungen [121] der neuen Karten, welche die 700-Euro-Preisvorstellung klar untermauern: Abgesehen von einer Listung mit offensichtlich irrtümlichen Preis gibt es derzeit keinerlei Händlerangebote unterhalb des europäischen Listenpreises von 699 Euro.
Fudzilla setzen mal wieder wilde Gerüchte zur Radeon HD 2900 XT in die Welt: Zuerst [122] soll der Kühler der Karte laut Titel der Meldung gleich 100 Grad warm werden. Die genaue Meldung lautet aber eigentlich nur, daß im Praxistest der Kühler sehr warm wurde und das eine andere Quelle davon geredet hat, daß die Karte um die 100 Grad warm wird. Aller Vermutung sollte damit aber nur zum Ausdruck gebracht werden, daß einzelne Teile des Grafikchips unter Last bis zu 100 Grad warm werden können – was keine Besonderheit mehr darstellt, auch einige andere Grafikchips haben teilweise sehr hohe interne Temperaturen. Desweiteren [123] wärmt man noch einmal die alte Meldung auf, wonach R600-Grafikkarten gleich 240 Watt Stromaufnahme unter 3D-Last haben sollen.
Hierbei ist unklar, wieso diese alte Meldung wieder hervorgekramt wird. Sicherlich gab es vor einigen Monaten einmal entsprechende Hinweise seitens ATI, allerdings wurde damals auch die Radeon HD 2600 XT als mit bis zu 128 Watt Stromaufnahme beschrieben – und diese Karte gibt es nun auch ohne extra Stromstecker, was auf einen Stromaufnahme von maximal 60 Watt schließen läßt. Insofern ist stärkstens anzunehmen, daß ATI die lange Verzögerung bis zum Launch des R600-Chips doch dafür ausgenutzt hat, auch bei diesem von den einstmals hohen Stromverbrauchs-Angaben herunterzukommen. In die gleiche Kerbe schlägt die Meldung [124], wonach ATI für die Radeon HD 2900 XT eine Netzteilanforderung von 750 Watt ausgeschrieben hätte – dies wäre dramatisch überhalb der GeForce 8800 GTX, für welche nVidia ein 450-Watt-Netzteil (mit 30A auf der 12V-Leitung) empfiehlt.
In einer weiteren Meldung [125] wird die 750-Watt-Aussage dann sogar noch durch einen Screenshot eines AMD-Dokuments untermauert. Wie sich jedoch inzwischen herausgestellt hat, handelt es sich dabei um die ATI-Empfehlung für ein Radeon HD 2900 XT CrossFire-System mit einer QuadCore-CPU. Demzufolge bleibt anzunehmen, daß eine einzelne Radeon HD 2900 XT mit einer Netzteil-Anforderung ziemlich ähnlich der GeForce 8800 GTX zufrieden sein wird – sprich ein gutes Netzteil mit 450 bis 500 Watt. Wichtiger als eine hohe Insgesamtleistung dürfte hier aber sowieso wieder sein, wieviel Stromstärke das Netzteil auf der 12V-Leitung zur Verfügung stellt – aus welcher sich HighEnd-Grafikkarten vorwiegend speisen.
Wie TweakPC [126] in Berufung auf Händlerstimmen vermelden, soll die demnächst anstehende Radeon HD 2900 XT einen nichtzuverachtenden Preissturz bei den HighEnd-Grafikkarten von nVidia auslösen. Die Radeon HD 2900 XT soll wohl für 399 Dollar Listenpreis antreten, die europäischen Straßenpreise sollten dementsprechend anfänglich bei runden 370 Euro liegen, womöglich sogar noch darunter. Damit würde die Karte der GeForce 8800 GTS 640MB gehörig Feuer machen – sowohl vom Preis her als wahrscheinlich auch bei der Performance, welche irgendwo zwischen GeForce 8800 GTS 640MB und GeForce 8800 GTX liegen dürfte. Im Endeffekt wird nVidia den Preis der GeForce 8800 GTS und GTX senken müssen, um sich dem Launch der Radeon HD 2900 XT anzupassen.
Und so soll die GeForce 8800 GTS 640MB dann auf um die 300 Euro heruntersinken, die GeForce 8800 GTX müsste dann in die Nähe von 400 gehen – was für beide Karten gemäß aktuellen Preisen schon ein nicht zu verachtender Preisabschlag wäre. Gleichfalls müsste allerdings auch der Preis der GeForce 8800 Ultra korrigiert werden, diese Karten sollen dann für unter 600 Euro zu haben sein – was den alten Relationsabstand zur GeForce 8800 GTX beibehält, im Vergleich zu jetzigen Preisen aber einen Abschlag von über 100 Euro darstellen würde. Unklar ist nur noch der neue Preis der GeForce 8800 GTS 320MB, aber angesichts der Prognose zur 640-MB-Version sind hier kaum mehr als 250 Euro zu erwarten. Die von TweakPC befragten Händler rechnen mit dieser neuen Preissituation im übrigen in ca. vier bis sechs Wochen, ergo Mitte bis Ende Juni.
Gemäß Fudzilla [127] soll ATI ganze neun Grafikkarten am 14. Mai vorstellen: Im HighEnd-Segment sind dies Radeon X2900 XT mit 512 MB GDDR3-Speicher und Radeon HD 2900 XL mit 512 MB GDDR3-Speicher, im Mainstream-Segment Radeon HD 2600 XT mit 256 MB GDDR3-, 512 MB GDDR3- und 512 MB GDDR4-Speicher und Radeon HD 2600 Pro mit 256 MB GDDR3-Speicher sowie im LowCost-Segment Radeon HD 2400 XT mit 256 MB GDDR2-Speicher und Radeon HD 2400 Pro mit 128 MB GDDR2- und 256 MB GDDR2-Speicher. Etwas unklar ist hierbei noch der Sinn der zwei Radeon HD 2600 XT Karten mit 512 MB Speicher – die eine mit GDDR3 und die andere mit GDDR4. Auf der anderen Seite hört sich dieses Produktprogramm doch schon ganz griffig an: Zwar fehlt der wirkliche Gegenpol zur GeForce 8800 GTX/Ultra, doch unterhalb dieser könnte ATI das womöglich ausgewogenere Programm anbieten als nVidia ...
... Allerdings ist noch nicht sicher, ob alle diese Karten auch wirklich am 14. Mai erhältlich sein werden – einige von diesen könnten der Form halber vorgestellt und dann erst in einigen Wochen wirklich verfügbar werden. Anzeichen dafür gibt es schon des längeren für die gesamten LowCost- und Mainstream-Riege, welche womöglich [128] erst zur Computex Anfang Juni breit verfügbar werden wird. Zu einem ähnlich späten Termin könnte [129] auch die Radeon HD 2900 XL kommen. Spezifikationen zu dieser R600-basierenden Karte sind derzeit noch nicht bekannt, allerdings hört sich der prognostizierte Preispunkt von 279 Dollar schon jetzt hochinteressant an. Allerdings könnte es damit auch zu der Situation kommen, daß ATI am 14. Mai letztlich nur die Radeon HD 2900 XT liefern kann.
Fast, denn eventuell [130] geht zu diesem Termin auch noch die Radeon HD 2900 XTX in den Markt – wenngleich nicht mehr unter diesem Namen. Inzwischen soll ATI die Karte "Radeon HD 2900 XT 1024 DDR4" nennen, allerdings scheint es sich hierbei wohl wirklich nur um eine Umbenennung handeln, denn der hohe Speichertakt von 1100 MHz soll auch bei dieser Karte wieder anlegen. Offensichtlich scheint ATI der Performanceabstand dieser Karte zur gewöhnlichen XT-Version aber weiterhin zu gering zu sein, so daß man auf den (mehr Leistung verheissenden) XTX-Suffix verzichtet – und die Karte letztlich nur im OEM-Segment ausliefern will. Gut möglich, daß es sich hierbei nur um eine Abverkaufsaktion für die schon produzierten 1024-MB-Version handelt und daß man in einiger Zeit mit einer wirklichen XTX-Version mit wohl auch mehr Chiptakt noch einmal angreifen will.
Davon abgesehen haben Fudzilla [131] noch entsprechende Angaben zu den Stromverbrauchswerten der kommenden HighEnd-Grafikkarten von ATI anzubieten: So soll die Radeon HD 2900 XT 1024 DDR4 eine TDP (Thermal Design Power) von 180 Watt haben und dann 225 Watt verbrauchen. Bei der "gewöhnlichen" Radeon HD 2900 XT mit 512 MB Speicher lauten diese Werte 160 und 225 Watt, während es bei der Radeon HD 2900 XL 130 und 205 Watt sein sollen. Wie üblich benötigt auch diese Fudzilla-Meldung jedoch wieder einiges an Mitdenken, ehe man zum wahren Kern vorstossen kann: Denn ganz offensichtlich kann es sich bei den genannten "Verbrauchswerten" niemals um den Stromverbrauch im Alltagsbetrieb handeln, denn dieser kann schließlich nie überhalb der TDP liegen, wonach das Kühlkonzept der Grafikkarte erstellt wird.
Möglicherweise sind diese "Verbrauchswerte" von 200 Watt und mehr auch schlicht nur Extremmessungen, was maximal möglich ist – allerdings würde dann doch der große Abstand zu den TDP-Werten überraschen. Eher wahrscheinlich ist es aber, daß Fudzilla schlicht die Werte der jeweils falschen Bezeichnung zugeordnet haben: Die als TDP ausgegeben Werte stellen die Messungen des realen Verbrauchs dar und umgedreht. Dann würden die Werte auch viel eher in die allgemeinen Erwartungen passen, welche ein R600-Board beim Stromverbrauch zwar überhalb eines G80-Boards sehen, jedoch eben nicht deutlich darüber. Eine Radeon HD 2900 XT 1024 DDR4 mit 180 Watt Stromverbrauch würde somit genau dem entsprechen, was ATI früher [132] schon ausgesagt haben soll: Maximal 40 bis 50 Watt überhalb von nVidia – und eine GeForce 8800 GTX verbraucht um die 132 Watt unter 3D-Last.
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] http://www.forum-3dcenter.org/vbulletin/showthread.php?t=353742
[3] http://www.heise.de/newsticker/meldung/86835
[4] http://www.dailytech.com/article.aspx?newsid=6477
[5] http://www.tweaktown.com/news/7193/amd_roadmap_update_on_r600_details_confirmed/index.html
[6] http://www.k-hardware.de/news.php?s=&news_id=6395
[7] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5336939#post5336939
[8] http://www.k-hardware.de/news.php?s=c&news_id=6399
[9] http://uk.theinquirer.net/?article=38292
[10] http://www.cdrinfo.com/Sections/News/Details.aspx?NewsId=20005
[11] http://www.ngohq.com/home.php?page=articles&go=read&arc_id=130
[12] http://itbbs.pconline.com.cn/topic.jsp?tid=6864651
[13] http://techreport.com/reviews/2006q4/radeon-x1950-pro/index.x?pg=9
[14] http://itbbs.pconline.com.cn/topic.jsp?tid=6867769&pageNo=1
[15] http://www.hardware.fr/news/8684/cebit-performances-geforce-8600-8500.html
[16] http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=15
[17] http://www.vr-zone.com/?i=4828
[18] http://www.pcgameshardware.de/?article_id=571982
[19] http://www.hardtecs4u.com/?id=1174347172,60439,ht4u.php
[20] http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=160095063471&ru=http%3A%2F%2Fsearch.ebay.com%3A80%2Fsearch%2Fsearch.dll%3Fsofocus%3Dbs%26sbrftog%3D1%26from%3DR10%26submitsearch%3DSearch%26satitle%3D160095063471%26sacat%3D-1%2526catref%253DC6%26sargn%3D-1%2526saslc%253D2%26sadis%3D200%26fpos%3DZIP%252FPostal%26ftrt%3D1%26ftrv%3D1%26saprclo%3D%26saprchi%3D%26fpos%3DZIP%252FPostal%26lsot%3D%26fsop%3D1%2526fsoo%253D1%26coaction%3Dcompare%26copagenum%3D1%26coentrypage%3Dsearch%26fgtp%3D%26fpos%3DZIP%252FPostal%26fvi%3D1
[21] http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=34
[22] http://www.vr-zone.com/?i=4830
[23] http://www.4gamer.net/news/history/2007.03/20070319154103detail.html
[24] http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fnews%2Fhistory%2F2007.03%2F20070319154103detail.html&langpair=ja%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
[25] http://www.vr-zone.com/index.php?i=4801
[26] http://de.wikipedia.org/wiki/MXM
[27] http://www.pcpop.com/doc/0/180/180986.shtml
[28] http://uk.theinquirer.net/?article=38442
[29] http://www.fudzilla.com/index.php?option=com_content&task=view&id=185&Itemid=1
[30] http://www.3dcenter.org/news/2007-03-23
[31] http://www.fudzilla.com/index.php?option=com_content&task=view&id=298&Itemid=34
[32] http://www.theinquirer.net/default.aspx?article=38500
[33] http://www.hkepc.com/bbs/itnews.php?tid=751990
[34] http://forum.beyond3d.com/showthread.php?t=39676
[35] http://www.fudzilla.com/index.php?option=com_content&task=view&id=306&Itemid=1
[36] http://www.tweakpc.de/news/11277/preis-der-geforce-8800-ultra-und-geruechte-um-eine-8950-gx2/
[37] http://www.hardtecs4u.com/?id=1174573047,48372,ht4u.php
[38] http://www.fudzilla.com/index.php?option=com_content&task=view&id=345&Itemid=34
[39] http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=34
[40] http://www.3dcenter.org/artikel/2007/03-31.php
[41] http://www.fudzilla.com/index.php?option=com_content&task=view&id=326&Itemid=1
[42] http://it.com.cn/f/diy/074/3/401291.htm
[43] http://translate.google.com/translate?u=http%3A%2F%2Fit.com.cn%2Ff%2Fdiy%2F074%2F3%2F401291.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
[44] http://www.3dcenter.org/news/2007-01-01
[45] http://www.3dcenter.org/news/2007/woche14.php#2007-04-03
[46] http://www.vr-zone.com/?i=4875&s=1
[47] http://www.theinquirer.net/default.aspx?article=38714
[48] http://www.3dcenter.org/news/2007-03-28
[49] http://www.au-ja.de/review-club3d8600gts-1.phtml
[50] http://www.3dcenter.org/news/2007-04-04
[51] http://www.fudzilla.com/index.php?option=com_content&task=view&id=380&Itemid=1
[52] http://de.wikipedia.org/wiki/Non-Disclosure_Agreement
[53] http://forums.ocworkbench.com/bbs/showthread.php?%20threadid=61511
[54] http://www.tweakpc.de/news/11358/preise-der-ati-r6xx-karten/
[55] http://www.pcpop.com/doc/0/186/186116.shtml
[56] http://64.233.179.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://www.pcpop.com/doc/0/186/186116.shtml&prev=/language_tools
[57] http://www.3dcenter.org/news/2007-04-05
[58] http://www.ocworkbench.com/2007/nvidia/8600GTS/b1.htm
[59] http://www.vr-zone.com/?i=4883
[60] http://www.dailytech.com/DailyTech+Digest+GeForce+8800+Ultra/article6826.htm
[61] http://dailytech.com/ATI+Releases+More+R600+Details/article6903.htm
[62] http://www.theinquirer.net/default.aspx?article=38837
[63] http://www.theinquirer.net/default.aspx?article=38769
[64] http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/7/#abschnitt_3dmark06
[65] http://www.digitimes.com/mobos/a20070416PR203.html
[66] http://geizhals.at/eu/?fs=Geforce+8600&in=
[67] http://de.theinquirer.net/2007/04/15/geforce_8800_ultra_seltener_al.html
[68] http://www.3dcenter.org/artikel/2007/04-17.php
[69] http://www.hardspell.com/english/doc/showcont.asp?news_id=423
[70] http://www.hardspell.com/english/doc/showcont.asp?news_id=414
[71] http://www.pcgameshardware.de/?menu=browser&article_id=575622&image_id=%20601212
[72] http://www.fudzilla.com/index.php?option=com_content&task=view&id=584&Itemid=1
[73] http://www.3dcenter.org/news/2007-04-13
[74] http://www.preisroboter.de/search.php?search=geforce+8800+gts+640&x=0&y=0
[75] http://www.preisroboter.de/search.php?search=geforce+8800+gtx+-aqua&x=0&y=0&min=&max=
[76] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5419746#post5419746
[77] http://www.fudzilla.com/index.php?option=com_content&task=view&id=611&Itemid=1
[78] http://www.guru3d.com/newsitem.php?id=5219
[79] http://www.preisroboter.de/search.php?search=geforce+8600+gts&x=0&y=0
[80] http://www.preisroboter.de/search.php?search=geforce+8800+gts+320&x=0&y=0
[81] http://www.fudzilla.com/index.php?option=com_content&task=view&id=590&Itemid=1
[82] http://www.3dcenter.org/news/2007-04-20
[83] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5422556#post5422556
[84] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423888#post5423888
[85] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5422222#post5422222
[86] http://www.hardtecs4u.com/?id=1177352560,86918,ht4u.php
[87] http://www.dailytech.com/article.aspx?newsid=7043
[88] http://www.digitimes.com/news/a20070423PD213.html
[89] http://www.xbitlabs.com/articles/video/display/geforce8600gts_7.html
[90] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5434588#post5434588
[91] http://uk.theinquirer.net/?article=39145
[92] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5433748#post5433748
[93] http://www.3dcenter.org/news/2007-04-24
[94] http://www.fudzilla.com/index.php?option=com_content&task=view&id=661&Itemid=1
[95] http://www.dailytech.com/article.aspx?newsid=7052
[96] http://www.fudzilla.com/index.php?option=com_content&task=view&id=699&Itemid=1
[97] http://www.fudzilla.com/index.php?option=com_content&task=view&id=698&Itemid=1
[98] http://www.fudzilla.com/index.php?option=com_content&task=view&id=714&Itemid=1
[99] http://de.theinquirer.net/2007/04/27/r600_laeuft_vor_und_zurueck.html
[100] http://de.theinquirer.net/2007/04/27/geforce_8800_ultra_mit_enttaeu.html
[101] http://www.3dcenter.org/artikel/2007/04-26.php
[102] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5445474#post5445474
[103] http://www.fudzilla.com/index.php?option=com_content&task=view&id=703&Itemid=34
[104] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5445425#post5445425
[105] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5444345#post5444345
[106] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5449565#post5449565
[107] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5449613#post5449613
[108] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450755#post5450755
[109] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5449740#post5449740
[110] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450425#post5450425
[111] http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450411#post5450411
[112] http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62530
[113] http://www.3dcenter.org/artikel/timedemos
[114] http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/panne_his_ati_radeon_hd_2900_xt/
[115] http://img478.imageshack.us/img478/4903/his1as5.jpg
[116] http://img384.imageshack.us/img384/6908/his2zs1.jpg
[117] http://www.3dcenter.org/news/2007-05-01
[118] http://www.pcgameshardware.de/?menu=browser&article_id=600527&image_id=%20651855
[119] http://www.3dcenter.org/artikel/2007/03-16_a.php
[120] http://www.golem.de/0705/51994.html
[121] http://geizhals.at/eu/?fs=geforce+8800+ultra&x=0&y=0&in=
[122] http://www.fudzilla.com/index.php?option=com_content&task=view&id=803&Itemid=1
[123] http://www.fudzilla.com/index.php?option=com_content&task=view&id=788&Itemid=34
[124] http://www.fudzilla.com/index.php?option=com_content&task=view&id=791&Itemid=1
[125] http://www.fudzilla.com/index.php?option=com_content&task=view&id=810&Itemid=34
[126] http://www.tweakpc.de/news/11545/preis-kollaps-bei-der-geforce-8800-ultra/
[127] http://www.fudzilla.com/index.php?option=com_content&task=view&id=854&Itemid=1
[128] http://www.fudzilla.com/index.php?option=com_content&task=view&id=820&Itemid=1
[129] http://www.fudzilla.com/index.php?option=com_content&task=view&id=872&Itemid=1
[130] http://www.fudzilla.com/index.php?option=com_content&task=view&id=849&Itemid=1
[131] http://www.fudzilla.com/index.php?option=com_content&task=view&id=850&Itemid=1
[132] http://www.3dcenter.org/news/2007-04-25