7

News des 6./7. Dezember 2008

Bei AnandTech gibt es einen hochinteressanten Artikel über die Entstehungsgeschichte von ATIs RV770-Chip der Radeon HD 4800 Grafikkarten-Serie. Dabei gibt es jede Menge kleiner Details und witziger Anekdoten zu erfahren – wie beispielsweise, daß die Radeon HD 4850 ursprünglich einmal mit Taktraten von 500/900 MHz samt 256 MB Speicher geplant war und nur durch die Intervention der ATI-eigenen Benchmark-Abteilung jetzt mit Taktraten von 625/1000 MHz samt 512 MB Speicher antritt. Hierfür verantwortlich zeichnete im übrigen Dave Baumann, welcher ehemals die bekannte 3D-Webseite Beyond3D aus der Taufe gehoben hatte. Er wiess den ATI-Ingenieuren seinerzeit nach, daß mit den ursprünglich geplanten Taktraten nVidia keinesfalls ernsthaft unter Druck zu setzen war, wie es nun aber Wirklichkeit geworden ist.

Viel entscheidener als diese eine Grafikkarte ist aber ATIs Wechsel des grundsätzlichen Ansatzes beim RV770-Chip sowie eigentlich auch schon beim RV670-Chip der Radeon HD 3800 Grafikkarten-Serie. Vor diesen Grafikchips galt jahrelang bei beiden Grafikchip-Herstellern das Prinzip, daß der jeweilige HighEnd-Chip immer eine geradezu extreme Performance liefern musste und dabei oftmals auf das Dreifache der Frameraten und Hardware-Einheiten von Mainstream-Lösungen kam. Dieser Ansatz, welcher derzeit von nVidia immer noch verfolgt wird, hat allerdings seine Nachteile: Erstens einmal stimmt das Aufwand/Nutzen-Verhältnis nicht wirklich, denn echte HighEnd-Chips erlangen nicht die Verkaufszahlen von Performance- und Mainstreamlösungen, sind aber in der Produktion sowohl durch die hohe Transistorenmenge als auch die verhältnismäßig geringe Stückzahl recht teurer.

Und zweitens hat das Auflegen von wirklichen HighEnd-Chips immer wieder den Nachteil, daß damit der Abstand zum Mainstream-Segment regelmäßig zu groß wird und man das wichtige Performance-Segment mit Behelfslösungen füllen muß: Früher hat man hierzu auf die jeweils vergangene HighEnd-Generation oder auch Abspeckungen der aktuellen HighEnd-Generation gesetzt, nVidia bietet inzwischen sogar einen extra Grafikchip nur für das Performance-Segment auf, womit man dann gleichzeitig immer vier aktuelle Grafikchips fertigen muß. Die Idee seitens ATI war hier schlicht, zukünftig den größten eigenen Chip nicht mehr im HighEnd-, sondern nur noch im Performance-Segment oder auch an der Grenze zwischen beiden Marktsegmenten zu plazieren – und die eigentlichen HighEnd-Lösungen dann schlicht mittels DualChip-Grafikkarten zu lösen.

Durchzusetzen war dieser Ansatz jedoch nur mit einer sehr aggressiven Preisgestaltung, weil man gemäß dieses Ansatzes mit den eigenen SingleChip-Grafikkarten natürlich keine Chance mehr den Performance-Thron hatte. Demzufolge liegt die eigentliche Leistung seitens ATI auch eher weniger in dieser neuen Idee, sondern vielmehr darin, daß man es geschafft hat, den RV770-Chip mit seinen immerhin auch 965 Millionen Transistoren so kostengünstig herzustellen, daß die aktuell zu beobachtende Preisgestaltung für RV770-Boards überhaupt möglich wurde. Gut möglich, daß nVidia zukünftig regelrecht dazu gezwungen ist, den gleichen Ansatz zu verfolgen und das HighEnd-Segment demnächst eine reine Angelegenheit von MultiChip-Lösungen wird.

Im Rahmen des neuesten Eintrags im 3DCenter-Blog, welcher sich um die Leistungsaufnahme älterer und neuer Grafikkarten dreht, gibt es auch einen neuen Wert zur Stromaufnahme der GeForce 9800 GTX+ zu vermelden, welcher mit 80,2 Watt unter Last erstaunlich gering ausfällt. Als die GeForce 9800 GTX+ auf den Markt kam, sprachen erste grobe Messungen der Karte eine geringere Leistungsaufnahme als der Vorgänger-Karte GeForce 9800 GTX ab, seinerzeit hoben sich der Effekt von kleinerer Fertigung (von 65nm auf 55nm) und höherem Takt (738 MHz vs. 675 MHz) zwischen GeForce 9800 GTX und deren Plus-Version offenbar gegenseitig auf. Daß nun in der ersten ernsthaften Messung die GeForce 9800 GTX+ mit 80,2 Watt aber deutlich weniger verbraucht als die GeForce 9800 GTX mit ihren 108,1 Watt, läßt sich nur mit Verbesserungen in der 55nm-Fertigung des G92b-Chips erklären.

Daß es gleich so viel ist (26 Prozent weniger trotz etwas höherem Chiptakt), bleibt allerdings erstaunlich – normalerweise steht der Sprung von der 65nm- auf die 55nm-Fertigung eher nur für eine Einsparung von 15 Prozent Verlustleistung. Eventuell spielen hier auch die ständigen Produktionsverbesserungen im Laufe der Zeit eine gewisse Rolle und die alte Messung zur GeForce 9800 GTX ist auch nicht mehr wirklich aktuell. In jedem Fall bedeutet diese neue Messung zur GeForce 9800 GTX+ aber für nVidia, daß die Umstellung auf die 55nm-Fertigung trotz bislang eher durchwachsener Vorzeichen reichlich Verbesserungspotential birgt. Wenn beispielsweise die Senkung des Stromverbrauchs beim GT200b-Chip (in 55nm) ähnlich ausfällt, würde es deutlich einfacher werden, eine DualChip-Grafikkarte auf Basis des GT200b-Chips (GeForce GTX 295) herauszubringen.

Alternativ würden sich damit aber auch höhergetaktete SingleChip-Varianten wieder ins Gespräch bringen, wie sie als "GeForce GTX 270/290" längere Zeit gehandelt wurden, zuletzt (möglicherweise aufgrund einer Planänderung bei nVidia) aber kaum noch Erwähnung fanden. Davon abgesehen dürfte der Gewinn durch die 55nm-Fertigung letztlich auch Käufern kleinerer Grafikkarten zu gute kommen: Der G92b-Chip der GeForce 9800 GTX+ dürfte zunehmend auch für GeForce 9800 GT und GeForce 9600 GSO Verwendung finden, zudem werden demnächst auch der G94-Chip der GeForce 9600 GT und der G96-Chip der GeForce 9500 GT vollständig auf die 55nm-Fertigung umgestellt sein. Derzeit sind von G92, G94 und G96 sowohl 65nm- als auch 55nm-Modelle (G92b, G94b und G96b) im Markt – wobei es leider von außen schwer ist zu erkennen, auf was für einen Chip die konkret vorliegende Grafikkarte gerade setzt.