Nachtrag I

Montag, 19. März 2007
 / von Leonidas
 

Nachtrag vom 16. März 2007

Wie zu erwarten, war auf der CeBIT auch gleich genaueres zu den kommenden Mainstream Direct3D10-Grafikkarten von nVidia zu erfahren, auch wenn diese offiziell wohl erst am 17. April vorgestellt werden dürften. So berichtet der Heise Newsticker genauere Daten zum G84-Chip: Jener soll über über die Hälfte der Recheneinheiten des G80-Chips verfügen, ergo 64 Shader-Einheiten (acht Vec8-ALUs). Bezüglich der Textureneinheiten (TMUs) und Raster Operation Units (ROPs) gibt es derzeit noch keine Angaben, bestätigt wurde noch das (allerdings schon länger) bekannte 128bittige Speicherinterface des G84-Chips. Bei den TMUs kann man allerdings eine gleichförmige Abspeckung gegenüber dem G80-Chip auf 16 TMUs (vier Quad-TMUs) annehmen, da ein G8x-Design mit einer nicht gleichförmigen Anzahl an Shader-Einheiten und TMUs wohl deutlich ineffizient wäre.

Zudem hat man erste Hinweise zum G86-Chip, aus welchem im LowCost-Segment die Grafikkarten GeForce 8300 GS, GeForce 8400 GS und GeForce 8500 gebildet werden sollen. Hierbei spricht der Heise Newsticker allerdings etwas nebulös von "voraussichtlich 32 bis 48 Shader-Einheiten" (vier bis sechs Vec8-ALUs) – womit jedoch nicht klar ist, ob das eine Annahme des Heise Newsticker ist, oder ob dies auf einer realen Information basiert. Zumindestens aber wären diese 32 bis 48 Shader-Einheiten absolut im Rahmen des Möglichen, wobei wir uns für einen LowCost-Chip sicherlich eher das untere Ende dieser Skala vorstellen könnten. Auch der G86-Chip soll wieder über ein 128bittiges Speicherinterface verfügen, wobei die günstigen G86-Grafikkarten sicherlich trotzdem nur mit 64bittigem Speicherinterface antreten werden.

Weitere Informationen zum nVidia G84 kommen zudem seitens DailyTech: Hierbei werden primär die schon bekannten Taktraten zur GeForce 8600 GT (540/700 MHz) und GeForce 8600 GTS (675/1000 MHz) bestätigt – interessant sind hier aber vor allem die Verlustleistungsangaben für diese Boards. So soll die größere GeForce 8600 GTS ihre 71 Watt ziehen (hat aber trotzdem einen extra Power-Anschluß, was vielfach bei Grafikboards nahe der 75-Watt-Grenze aus Sicherheitsgründen getan wird), während die kleinere GeForce 8600 GT mit 43 Watt auskommt. Trotz daß dies gegenüber der aktuellen Mainstream-Generation von nVidia wieder etwas mehr ist, scheint nVidia doch beim Stromverbrauch der Mainstream-Grafikkarten die deutlich besseren Karten gegenüber ATI zu haben – deren geplante Mainstream-Lösungen sollen schließlich zwischen 75 und satten 128 Watt ziehen.

Nachtrag vom 17. März 2007

Bei TweakTown hat man eine ATI-Roadmap in der Hand, welche die (ursprünglich) geplanten R600-Boards beschreibt. Danach bestätigen sich die schon gerüchteweiser bekannten Daten, wonach die Radeon X2900 XTX mit 1 GB DDR4-Speicher in zwei Bauformen daherkommt: Als 12,4-Zoll-Board mit satten 270 Watt Stromverbrauch und als 9,5-Zoll-Board mit "nur noch" 240 Watt Stromverbrauch. Dazu soll es eine Radeon X2900 XT mit 512 MB GDDR3-Speicher und 10 bis 15 Prozent niedrigeren Taktraten als die XTX-Version geben, der Stromverbrauch dieser Version wird aber trotz niedrigerem Takt irritierenderweise auch mit 240 Watt angegeben. Und letztlich bestätigt sich nun noch die Radeon X2900 XL, welche mit 512 MB GDDR3 und deutlich reduzierten Taktraten bei einem Stromverbrauch von 180 Watt antreten soll. Rechnet man die deutlich reduzierten Taktraten ein, so ist es zudem bei der Radeon X2900 XL unwahrscheinlich (wenn auch nicht unmöglich), daß diese zusätzlich noch Hardware-Abspeckungen gegenüber den XT/XTX-Varianten trägt.

Allerdings haben diese Angaben allesamt ein großes Problem: Sie entstammen alten Planungen seitens ATI, dies beweisen auch die genannten Launchtermine von März für die XTX-Versionen und April für die XT/XL-Versionen. Mit der neuerlichen Verschiebung des R600-Chips auf den Mai könnte sich also doch noch einiges ändern: So berichten K-Hardware davon, daß der R600-Chip nun nicht mehr in 80nm, sondern gleich in der 65nm Fertigung antreten wird. Bei der Bewertung dieser Information sind allerdings durchaus Zweifel angebracht: Man kann womöglich den Sprung von 90nm auf 80nm in recht kurzer Zeit realisieren, der Sprung von 80m auf 65nm ist jedoch ein ziemlich großer, welcher dementsprechend erheblich an Zeit benötigt. Angesichts des weiterhin geplanten Launchtermins im Mai wäre dies ausschließlich dann möglich, wenn ATI schon vor Monaten mit den Produktionsvorbereitungen eines R600-Chips in 65nm begonnen haben würde.

Auch ist bei Chipfertiger TSMC der 65nm-Prozeß angeblich noch nicht so weit, um solche großen Chips wie den R600 mit einer vernünftigen Ausbeute fertigen zu können. Dies soll allerdings nicht bedeuten, daß es unmöglich ist, daß ATI den R600-Chip gleich in 65nm herausbringt – es ist halt nur an gewisse Bedingungen geknüpft und keinesfalls eine geringfügige Änderung der R600-Pläne. Sollte es ATI allerdings tatsächlich gelingen, den R600 in 65nm in den Markt zu bringen, würde man natürlich auf einen Schlag viele Problem lösen: Der Stromverbrauch der R600-Grafikkarten würde erheblich sinken und ATI könnte somit wohl dem eher zweifelhaften Rekord einer Consumer-Grafikkarte mit über 200 Watt Stromverbrauch entgehen. Zudem könnte man sich wohl auch noch einige Taktreserven erwerben, welche dann dem R600 den (für ATI dringend nötigen) Performance-Thriumph über den G80 sichern würde. Nichts desto trotz ist diese 65nm-Information derzeit natürlich unter starken Vorbehalten zu sehen und wären besser weitere Hinweise hierzu abzuwarten.

Nachtrag vom 19. März 2007

Neues gibt es zum Fall R600 in 80nm oder 65nm. Zuerst wäre hierzu anzumerken, daß ein potentieller Sprung von ATI von 80nm auf 65nm beim R600-Chip einiges an Vorbereitungszeit erfordern würde, da der 65nm Fertigungsprozeß grundverschieden von den doch ziemlich ähnlichen Prozessen 80nm und 90nm ist. Unterhalb von einigen Monaten straffer Planung, Produktionsvorbereitung und Start der Massenfertigung läuft da gar nichts – wenn ATI also im Mai den R600-Chip auf 65nm ausliefern wollte, müsste man wohl schon zum Ende des letzten Jahres diesen Die-Shrink angegangen haben. Dies beißt sich natürlich etwas damit, daß ATI den R600 ursprünglich sicher zum Ende des März' herausbringen wollte und die entsprechenden Launch-Aktivitäten allesamt schon geplant waren (und nun kurzfristig abgesagt wurden).

Innerhalb dieser Zeit von der Absage des ursprünglichen Launches (Ende Februar) bis zum Zeitpunkt des neuen Launches (Mai) stellt ATI jedoch auf keinen Fall auf die 65nm Fertigung um. Daß die RV610- und RV630-Chips zu diesem Zeitpunkt bereits in 65nm antreten werden können, hängt nur damit zusammen, daß diese schon des längeren auf diese Fertigungstechnologie hin geplant wurden. Hinzu kommt, daß die angeblichen Bestätigungen einer 65nm Fertigung beim R600 durch ATI/AMD laut unserer Nachfrage "Schwachsinn" sind, wie hier nachzuschlagen – wobei wohlgemerkt nicht die 65nm Fertigung beim R600 negiert wurde, sondern nur eine angebliche ATI/AMD-Bestätigung dessen gegenüber K-Hardware und The Inquirer.

Damit ist das Thema R600 @ 65nm aber auf keinen Fall schon vom Tisch – denn einen R600 in 65nm gibt es tatsächlich. Wie CDR-Info im Nebensatze berichten, arbeitet ATI/AMD nach eigenen Angaben in der Tat schon an einem R600 in 65nm für den Mobile-Markt – und diesen könnte man natürlich auch auf dem Desktop-Markt einsetzen, sofern jener "R600M" keine Hardware-Abspeckungen gegenüber der Desktop-Variante des R600 hat. Damit sind im Fall R600 in 80nm oder 65nm nach wie vor alle drei Varianten möglich: In der ersten Variante liefert ATI den R600 streng in 80nm aus – mit allen Vor- und Nachteilen (Verfügbarkeit vs. Stromverbrauch). Hier wäre es zwar derzeit etwas unklar, wieso der Chip dann nochmals verschoben wurde, aber diese Frage sollte sich dann zum Launch klären lassen.

In der zweiten Variante bringt ATI den R600 gleich nur noch in 65nm heraus. Dafür hätte man sich allerdings (wie vorstehend beschrieben) schon vor Monaten diesem Thema verstärkt widmen müssen, um im Mai dann auch wirklich lieferbar zu sein. Und in der dritten Variante würde es einen Mix aus 80nm und 65nm geben: ATI bringt den R600 erst einmal in 80nm heraus und beliefert vorzugsweise zuerst die OEMs mit den 80nm-Modellen (weil sich in diesem Markt weniger Diskussionen an dem Stromverbrauch der Karten entzünden werden). Gleichzeitig versucht man so schnell wie möglich auf die 65nm-Version umzusteigen, um mit dieser dann den Retail-Markt beliefern zu können. Auch bei dieser Variante müsste ATI allerdings auch schon vor Monaten ernsthaft an der 65nm Fertigung des R600-Chips gearbeitet haben. Welche der drei Varianten wirklich kommt, ist derzeit noch ziemlich offen – bei unaufgeregt konservativer Betrachtung hat die erste Variante (80nm Launch) allerdings die deutlich größten Chancen.