10

News des 9./10. November 2010

Im Artikel zum Launch der GeForce GTX 580 war für die ersten 10-20 Minuten nach Online-Schaltung des Artikels leider noch ein Fehler beim Spiele-Verbrauch der GeForce GTX 480 zu sehen: Dieser lautet richtigerweise 249 Watt – und nicht 230 Watt. Damit verbraucht die GeForce GTX 580 doch in keiner Situation mehr als die GeForce GTX 480 – allerdings auch nicht weniger, denn die neue Karte kommt unter Spielen auf einen Verbrauch von 247 Watt, gerade einmal zwei Watt weniger. Daneben fehlt im Artikel sicherlich noch die Erwähnung der "GPU-Control-Unit" – einer Sicherheitsschaltung, welche die Karte durch Takt-Drosselung vor einem zu hohem Stromverbrauch und damit einem Absturz bewahren soll. Prinzipiell ist eine solche Schaltung eigentlich eher nützlich, gerade bei einer HighEnd-Grafikkarte – jedoch können sich natürlich gewisse Probleme mit der maximalen Übertaktbarkeit ergeben.

Allerdings reicht der GF110-Chip der GeForce GTX 580 derzeit anscheinend sowieso nicht weit genug, um dies wirklich austesten zu können: Die meisten Übertaktungen erreichten gerade einmal das Niveau von gutklassigen Übertaktungen der GeForce GTX 480 – sprich, unter Übertaktung kommen sich diese beiden HighEnd-Grafikkarten deutlich näher, Schluß ist zumeist beiderseits bei um die 840 MHz Chiptakt. Durch die höhere Einheitenzahl und die tendentiell bessere Speicherübertaktung liegt die GeForce GTX 580 zwar auch im Overclocking-Betrieb weiterhin vorn, aber zumindest läßt sich sagen, daß die GeForce GTX 580 derzeit nur ein durchschnittlicher Übertakter ist. Abzuwarten bleibt, ob dies eigene Designs der Grafikkarten-Hersteller mit der Zeit ändern können – oder aber ob hier wirklich das Limit der GF100/GF110-Chips erreicht ist.

Der GF110-Chip rückt auch dadurch natürlich immer mehr in die Richtung einer reinen Überarbeitung des GF100-Chips ohne Anspruch auf Neuheitswert – nicht unähnlich dem Verhältnis zwischen RV770-Chip (Radeon HD 4850/4870) und RV790-Chip (Radeon HD 4890). Dabei darf durchaus die Frage gestellt werden, ob nVidia den gleichen Effekt nicht doch auch mit einem weiteren GF100-Stepping erzielen hätte können – zumindest für die Grafikkartenhersteller hätte dies durch die Weiterverwendbarkeit der GF100-Platinen vorteilhaft sein können. Daneben steht die viel bedeutendere Frage im Raum, ob man sich von den weiteren folgenden GF11x-Chips ein ähnliches Maß an "Veränderungen" erwarten kann – es erscheint uns als wenig zielführend, die bisherigen Fermi-Chips mit kleineren Veränderungen allesamt nochmals in 40nm aufzulegen.

Allerdings liegt hier natürlich ein generelles Problem, an welchem beide Grafikchip-Entwickler derzeit knappern: Ohne eine neue Fertigung sind entscheidende Fortschritte nur erzielbar durch einen merkbar höheren Stromverbrauch – was dann aber schnell an Akzeptanz-Limits stößt. Sicherlich hätte nVidia einen noch größeren GF110-Chip (mit mehr Hardware-Einheiten) auflegen können – aber der würde dann schnell in Richtung 300 Watt Spieleverbrauch gehen. Und im Mainstream-Bereich kann man problemlos neue Grafikchips mit mehr Hardware-Einheiten auflegen – nur daß dort dann ebenfalls der Verbrauch auf untypisch hohe Werte hochgehen würde. Einmal abgesehen von den höheren Kosten für die Grafikkartenhersteller durch die entsprechend aufwändigeren Platinen ist einfach kein Markt zu sehen für Mainstream-Grafikkarten mit einem Verbrauch von mehr als 100 Watt und Performance-Grafikkarten mit einem Verbrauch von mehr als 150 Watt.

Hier dürfte der Hauptgrund in dem recht handzahm ausgefallenen GF110-Chip liegen: nVidia will eventuell weiter, kann aber nicht, ohne die sowieso schon zu hohe Verlustleistung noch weiter explodieren zu lassen. Gleiches gilt bei nVidia aber auch für die restlichen Marktsegmente bzw. die darin befindlichen Chips: Kommen hierfür Refresh-Chips mit (klar) höherer Einheitenzahl, geht dementsprechend die Verlustleistung hoch in Regionen, wo die Karten teuer herzustellen und schwer abzusetzen sind. Aus dieser Überlegung heraus sind seitens nVidia eigentlich keine bedeutenden Sprünge mehr zu erwarten, sondern eher Programmergänzungen – wie diejenige der GeForce GTX 560 auf Basis eines GF104-Chips im Vollausbau. Bis auf den absoluten LowCost-Bereich ist nVidias Fermi-Reihe so aufgestellt, daß man jeglichen Marktbedarf abdecken kann – womit eigentlich keine neuen Grafikchips vor der 28nm-Generation Kepler (Ende 2011) benötigt werden würden.

Auf AMD treffen diese grundsätzlichen Überlegungen natürlich genauso auch zu, allerdings hat AMD einen großen Vorteil: Im HighEnd-Bereich hat man nach der Radeon HD 5800 Serie von der Verlustleistung her einfach noch Platz – in welchen nun die Radeon HD 6900 Serie auf Cayman-Basis hineingehen wird. Diese Grafikkarten-Serie wird zwar nicht so (relativ) stromsparend wie bisher von AMD bekannt, dafür aber auch bei der Performance deutlich näher an nVidias Top-Modell herangehen als in der bisherigen Konstellation von Radeon HD 5870 vs. GeForce GTX 480. Und im Performance-Segment hat AMD mit der Radeon HD 6800 Serie sicherlich deutlich mehr Hardware-Einheiten hingelegt als bei der vorherigen Performance-Generation (Radeon HD 5700 Serie) – aber dies auch nur, weil die Radeon HD 5700 Serie den Performance-Anspruch nicht mehr halten konnte und natürlich auch nur realisiert mit einem klar größeren Grafikchip und mehr Verlustleistung. Auch bei AMD gilt grundsätzlich, daß innerhalb derselben 40nm-Fertigung jeder weitere klare Fortschritt nur mit komplexeren Designs und mehr Verlustleistung erkämpft werden kann – was den erzielbaren Fortschritt bei beiden Grafikchip-Entwicklern vor dem Start der 28nm-Fertigung sehr deutlich eindämpft.