26

News des 26. Oktober 2009

HT4U berichten zu Gerüchten, wonach ATIs wohl im November kommenden DualChip-Grafikkarten der Radeon HD 5900 Serie eine TDP von über 300 Watt aufweisen würden. Dies wäre in der Tat ein neuer Rekord (die Radeon HD 4870 X2 liegt bei 286W TDP und die GeForce GTX 295 bei 289W TDP) – welcher aber in erster Linie dadurch zustandekommen dürfte, daß die Grafikchip-Entwickler nach den jüngsten unabhängigen Stromverbrauchstests ihre TDP-Angaben nunmehr ehrlicher ansetzen als früher noch. Denn beispielsweise eine Radeon HD 4870 X2 konnte unter dem FurMark auch schon einmal 373 Watt verbraten – deutlich mehr als die angesetzte TDP von 286 Watt. Bei den neuen Karten der Radeon HD 5700/5800 Serien sind die TDP-Angaben durchgehend realistisch angesetzt, nur in einem Fall wurde in der Praxis ein leicht höherer Stromverbrauchswert als die TDP ermittelt.

Insofern wird es wahrscheinlich passieren, daß die neuen DualChip-Grafikkarten von ATI zwar eine höhere – weil ehrlicher bemessenere – TDP als die DualChip-Grafikkarten auf Basis des RV770-Chips haben, dafür aber real nicht mehr verbrauchen werden. So zieht eine Radeon HD 5870 etwas mehr Strom (ca. 10%) als eine Radeon HD 4870 als Basis der DualChip-Grafikkarte Radeon HD 4870 X2, dafür aber sollen bei der potentiellen Radeon HD 5970 auch die Taktraten gegenüber der Radeon HD 5870 deutlich abgesenkt werden – dies könnte darauf hinauslaufen, daß bei der Radeon HD 5970 ziemlich exakt der gleiche Stromverbrauch wie bei der Radeon HD 4870 X2 (303W Spieleverbrauch, 373W FurMark) herauskommt. In irgendeiner Form stromsparend ist dies natürlich nicht, aber das in diesen HighEnd-Sphären auch nicht so gewollt – jedes irgendwo anders eingesparte Watt würde hier sofort wieder zur Leistungssteigerung per höherem Takt eingesetzt, in diesem Preisbereich werden die Grenzen eher von der Kühltechnologie und der Stromstecker-Spezifikationen gesetzt.

Wir kommen nochmal zurück auf das Thema GeForce G210 & GT 220, weil zu diesen 40nm-Grafikchips nun auch die Transistorenzahl und Die-Fläche vorliegen, was ganz interessant bezüglich der Umsetzung der GT200-Architektur auf die kleineren Grafikchips (unterhalb des GT200/b selber) ist. Die Die-Flächen der Grafikchips GT218 (GeForce G210) und GT216 (GeForce GT 220) sind mit 57mm² und ca. 100² ziemlich gut, was aber in erster Linie dem modernen 40nm-Fertigungsverfahren geschuldet ist. Die Transistorenanzahl ist jedoch mit 260 bzw. 486 Millionen erschreckend hoch für Karten dieses Preissegments – und nVidia hat sich bei diesen Chips ja auch nicht mit Ausführungseinheiten übernommen, sondern ging vielmehr eher sehr sparsam mit diesem um. Dabei zeigt sich im Vergleich zu ähnlichen G9x-Chips, daß die GT2xx-Architektur viel mehr Transistoren für die gleiche Anzahl an Ausführungseinheiten verschlingt.

Transistoren Fertigung Technik
nVidia G96b 314 Mill. 119mm² in 55nm 32 Shader-Einheiten, 16 TMUs, 8 ROPs, 128 Bit DDR Interface
nVidia GT216 486 Mill. 100mm² in 40nm 48 Shader-Einheiten, 16 TMUs, 8 ROPs, 128 Bit DDR Interface
nVidia G94b 505 Mill. 180mm² in 55nm 64 Shader-Einheiten, 32 TMUs, 16 ROPs, 256 Bit DDR Interface

Insbesondere der Vergleich zum G94b-Chip der GeForce 9600 GT geht ziemlich ungünstig für den GT216-Chip der GeForce GT 220 aus: Bei einer nur um 4 Prozent differierenden Transistorenmenge hat der G94b-Chip 50 Prozent mehr Shader-Einheiten, während bei TMUs, ROPs und dem Speicherinterface ein Unterschied von glatt 100 Prozent zwischen diesen beiden Chips steht. Dies ist um so entscheidender, als daß eine GeForce GT 220 sich von der Performance her ziemlich exakt anhand der Anzahl ihrer Shader-Einheiten (48) zwischen GeForce 9500 GT (32) und GeForce 9600 GT (64) einordnen muß – die beim GT218-Chip mehr angesetzten Transistoren werden ergo nicht oder nur kaum in Mehrperformance umgewandelt. Die GT2xx-Architektur braucht also deutlich mehr Transistoren, um auf die gleiche Performance wie die G9x-Architektur zu kommen.

Dies ist jetzt keine ganz neue Erkenntnis, schließlich gibt es dieses Problematik schon des längerem beim GT200/b-Chip. Bei diesem waren die Mehrtransistoren aber bisher durch seine GPGPU-Fähigkeiten und durch dessen allgemein hohe Performance erklärbar. Allerdings scheint sich nun der Transistorenhunger dieses HighEnd-Chips auch auf die kleineren Chips der GT2xx-Architektur abzufärben – und dort geht es sicherlich nicht um GPGPU oder um Spitzenleistungen, sondern vor allem um Wirtschaftlichkeit. Der hohe Transistorenbedarf der GT21x-Chips wird derzeit in erster Linie durch die 40nm-Fertigung verdeckt, aber rechnet man diese heraus, würde ein GT216 in 55nm vielleicht 160mm² Die-Fläche verschlingen – für einen Chip des unteren Mainstream-Segments selbst unter 55nm zu viel, der schnellere RV730-Chip der Radeon HD 4650/4670 kommt auf 146mm² Die-Fläche in 55nm.

Es ergibt sich scheinbar folgende Faustregel: Damit ein GT2xx-Chip auf dieselbe Anzahl an Ausführungseinheiten kommt wie ein G9x-Chip, werden runde 20 Prozent mehr Transistoren als beim G9x-Chip benötigt. Dies mag bei Modellen des Performance- und HighEnd-Segments noch so durchgehend (und wie gesagt ergibt sich dort der Zweitnutzen als GPGPU-Beschleuniger), bei Lösungen für das LowCost- und Mainstream-Segment sind dies aber einfach unnütze Mehrkosten – sowohl in Bezug auf die Herstellungskosten des Grafikchips selber als auch durch ein etwas komplexeres Grafikboard (größerer Chip = relativ gesehen höherer Stromverbrauch = relativ gesehen aufwendigere Stromversorgung & Platinenlayout). Vielleicht liegt hier ja auch ein Grund, weshalb nVidia den einstmals geplanten GT212-Chip frühzeitig gestrichen hat – dieser GT212-Chip wurde möglicherweise zu groß und war damit (für das angepeilte Preissegment) nicht mehr wirtschaftlich herzustellen.

In jedem Fall wirft die ganze Sache die Frage auf, wie nVidia dies bei der kommenden GF10x-Architektur zu lösen gedenkt, welche ja noch deutlich stärker auf GPGPU ausgelegt sein wird als die GT2xx-Architektur. Hierzu hat nVidia bereits die Aussage getroffen, daß man in den kleineren Fermi-basierten Grafikchips für die GPGPU-Funktionalität benötigte Transistoren herauslassen will (namentlich die DoublePrecision-Einheiten, gleiches hat ATI im übrigen auch beim RV840-Chip der Radeon HD 5750/5770 getan), dies dürfte sicherlich weiterhelfen. Ob es reicht, daß die zukünftigen nVidia-Chips für die LowCost-, Mainstream- und Performance-Segmente nicht unnötigen Ballast mit sich herumschleppen, wäre allerdings noch von nVidia zu belegen – bei der GT2xx-Architektur scheint dies jedenfalls nicht funktioniert zu haben.

Shortcuts: S3 Graphics läßt mal wieder was von sich hören in Form des "Chrome 5400E GPGPU Processors". Leider handelt es sich hierbei nur um einen Embedded-Chip für Kleingeräte wie Handys oder Handhelds, welcher allerdings interessanterweise seitens S3 als GPGPU-Lösung angepriesen wird, inklusive auch des Supports von OpenCL. Der Planet 3DNow! berichtet von ersten Listungen des Phenom II X4 965 BE im C3-Stepping, womit die TDP dieses Prozessors von original 140W auf 125W zurückgeht. In einer anderen Meldung dergleichen Webseite wird zudem bestätigt, daß auch die neuen Athlon II X3 Prozessoren nicht durchgehend auf dem Level3-Cache-losen Propus-Kern basieren, sondern zum Teil auch Deneb-Kerne (des Phenom II X4) benutzt werden, bei welchen dann der Level3-Cache durch AMD deaktiviert wird. Letzterer kann sich mittels Glück und der AAC-Funktion diverser Mainboards dann natürlich wieder freischalten lassen.