25

News des 25. Oktober 2010

Nach dem Launch des Performance-Chips Barts in Form der Radeon HD 6850 & 6870 Grafikkarten geht der Blick natürlich schon in Richtung des HighEnd-Chips Cayman, welchen AMD im November an den Start zu bringen gedenkt. Gerade nach dem Barts-Launch sind die Hardware-Daten dieses Chips ungewisser denn je, denn Barts hatte in einigen Disziplinen überrascht: Mehr Shader-Einheiten als unsprünglich angenommen, dafür aber keine moderneren 4-D VLIW Shader-Einheiten und auch ansonsten recht wenige Ansätze einer neuen Architektur, sondern die weitgehende Weiterverwendung der Evergreen-Architektur der Radeon HD 5000 Serie. Dies könnte dem Umstand geschuldet sein, daß AMD im Laufe der ursprünglichen Entwicklung seiner 32nm-Generation auf eben diese Fertigung verzichten mußte und daher für die nun zu sehende Einschub-Generation in 40nm nicht mehr all zu viel Zeit übrig hatte – und daher vor allem bei den kleineren Chips den einfachen Weg gewählt hat, diese eben eher an die Evergreen-Generation anzulehnen.

Beim kommenden HighEnd-Chip Cayman wird AMD allerdings doch mehr bieten müssen, ansonsten lohnt es kaum, von einer neuen Architektur zu sprechen. Limitiert wird man allerdings dabei durch die 40nm-Fertigung, welche keinen Grafikchip mit einem so deutlichen Sprung wie zwischen RV770 (Radeon HD 4870) und RV870/Cypress (Radeon HD 5870) von 800 auf 1600 Shader-Einheiten zuläßt – AMD wird ganz sicher im Gegensatz zu nVidia nicht mit einem 500mm²-Chip die Grenzen der 40nm-Fertigung austesten wollen. Realistisch und zugleich schon eine recht hohe Ansetzung sind 1920 4-D VLIW Shader-Einheiten und 120 Textureneinheiten für den Cayman-Chip, das 256 Bit DDR Speicherinterface samt 32 ROPs stehen gemäß AMD-Angaben schon fest. Die hohe Anzahl an Textureneinheiten ergibt sich aus dem Wegfall der früheren fünften Shader-Einheit bei den 4-D VLIW Shader-Einheiten – die Größe eines Shader-Clusters sinkt somit auf 64 Shader-Einheiten, denen jeweils eine Quad-TMU zugeordnet sein sollte.

Und diese Ansetzung würde dann auch keine schlechte Mehrperformance gegenüber RV870/Cypress bedeuten: Man hat zwar nur 20 Prozent mehr Shader-Einheiten – dafür aber die effizienteren 4-D VLIW Einheiten, von welchen man sagt, daß ein Cluster dieser Einheiten zu 98,5 Prozent dieselbe Leistung wie ein Cluster an 5-D VLIW Shader-Einheiten erbingt. Rechnet man dies ein, so würde Cayman schon auf 48 Prozent mehr real verfügbare Rechenleistung kommen, hinzu kommen 50 Prozent mehr Textureneinheiten und eine Speicherbandbreite, die um zwischen 21 und 25 Prozent höher liegen wird (der Speichertakt wird wohl 2900 oder 3000 MHz betragen, genau ist das noch nicht heraus). Da schon RV870/Cypress nicht unbedingt an der Speicherbandbreite krankte, wird Cayman dieses deutliche Plus an Rechen- und Texturierleistung sicherlich gut in Mehrleistung umsetzen können, trotz der nur mittelprächtigen Steigerung der Speicherbandbreite. Sollten diese Hardware-Daten zu Cayman zutreffen (und dieser Chip auf entsprechende Taktraten kommen), liegt unsere Prognose zur Mehrleistung einer Radeon HD 6970 gegenüber einer Radeon HD 5870 bei 30 bis 40 Prozent, was nicht schlecht wäre angesichts der Weiterverwendung der 40nm-Fertigung.

Die Chipgröße würde allerdings auf irgendetwas zwischen 400 bis 450mm² hinaufgehen und auch der Verbrauch wäre klar höher: Die TDP der Radeon HD 6970 könnte irgendwo bei 250 Watt herauskommen, der reale Spieleverbrauch bei geschätzt 190 Watt liegen (Radeon HD 5870: 188W TDP und 148W Spiele), was in etwa das Niveau einer GeForce GTX 470 wäre (215W TDP und 191W Spiele). Von der Performance her würde man damit eine GeForce GTX 480 um ca. 10 bis 20 Prozent überflügeln – nVidias Konter in der Form der GF110-basierten GeForce GTX 580 sollte das alte Kräfteverhältnis allerdings wieder herstellen. Allerdings könnte AMD im Vergleich zwischen Radeon HD 6970 und GeForce GTX 580 näher an nVidia liegen als derzeit zwischen Radeon HD 5870 und GeForce GTX 480, da der Zugewinn des neuen HighEnd-Chips von nVidia nicht so hoch einzuschätzen ist (+20%) wie der Zugewinn des neuen HighEnd-Chips von AMD. Sofern die GeForce GTX 580 wirklich nur 20 Prozent oben drauf legt und die Radeon HD 6970 am oberen Ende unserer Schätzungen (sprich: +40%) herauskommt, könnte es sogar so knapp werden, daß es zu einem echten Zweikampf dieser HighEnd-Chips kommt.

Radeon HD 6970 GeForce GTX 580
Chipbasis AMD Cayman, 40nm, geschätzt 400-450mm² Die-Fläche nVidia GF110, 40nm
Technik vermutlich 1920 4-D VLIW Shader-Einheiten, vermutlich 120 Textureneinheiten, höchstwahrscheinlich 32 ROPs, definitiv 256 Bit DDR Speicherinterface vermutlich 512 1-D Shader-Einheiten, vermutlich 128 Textureneinheiten, vermutlich 64 ROPs, vermutlich 512 Bit DDR Speicherinterface
Vorteile deutlich mehr Shader-Leistung deutlich mehr ROP-Leistung und klar mehr Speicherbandbreite
Verbrauch TDP geschätzt 250 Watt, Spiele geschätzt 190W unklar, möglicherweise sogar etwas weniger als bei der GeForce GTX 480
Mehrperformance gegenüber Radeon HD 5870: geschätzt +30-40% gegenüber GeForce GTX 480: angeblich +20%
weitere Varianten Radeon HD 6950: SingleChip-Version mit wahrscheinlich weniger Shader-Einheiten und niedrigerem Takt
Radeon HD 6990: DualChip-Variante mit höchstwahrscheinlich sehr deutlichen Abspeckungen
unbekannt

Die letztlich übrigbleibende Frage ist, warum und wie AMD dann noch eine DualChip-Variante in Form der Radeon HD 6990 auflegen will: Wenn die Radeon HD 6970 in Schlagdistanz zur GeForce GTX 580 kommt, wäre dies nicht mehr unbedingt notwendig, weil man sich dann diesem Zweikampf widmen kann. Zudem erscheint eine DualChip-Grafikkarte auf Cayman-Basis als schwer realisierbar durch den steigenden Stromverbrauch dieses Grafikchips: Einfach plump zwei Radeon HD 6970 Grafikchips auf eine Dual-Platine würden eine TDP von rund 500 Watt bedeuten – sehr unrealistisch, daß AMD so etwas herausbringt. Ähnlich wie bei der Radeon HD 5970 wird man sich mit Abspeckungen behelfen müssen – aber diese werden beim Cayman-Chip bzw. der Radeon HD 6990 viel deutlich ausfallen müssen, um die TDP in einem zügelbaren Rahmen zu behalten. Dies wird der Radeon HD 6990 auf der anderen Seite aber wieder an Schlagkraft nehmen – schon jetzt liegen zwischen Radeon HD 5870 und 5970 nur gut 50 Prozent Mehrperformance, zwischen Radeon HD 6970 und 6990 sollten es noch weniger sein.

Über OnLive wird natürlich schon seit Monaten heftig diskutiert – und nun erneut um so mehr nach der gestrigen Berichterstattung zu dem Spielestreaming-Dienst. Dabei lassen sich dieser Diskussion auch weitere Pro- und Contra-Argumente entnehmen: So soll wohl gemäß einigen Testern die Bildqualität in Bewegung nicht so niederschmetternd sein wie seitens des Tech Reports dargestellt. Auch über den Lag gibt es verschiedene Ansichten – und die reinen Ping-Zeiten sind in diversen Tests auch ganz gut gewesen (unter 30ms). Allerdings sind Ping-Zeiten nun nicht zwingend mit diesen Zeiten zu vergleichen, die die Daten dann real benötigen – was man auch aus der eigenen Gamer-Erfahrung bestätigen kann: Ein reiner Ping zu einem Spieleserver kann gut sein, im Spiel selber können die Pingzeiten dann aber doch deutlich höher liegen.

Real scheint OnLive hier einen Zeitverzug von ca. 150ms zu haben. Dies ist nichts, womit geübte Spieler nicht zurechtkommen können – wenn es sich um ein normales, letztlich lokal berechnetes Spiel handeln würde. Dieses setzt zwar Spieleraktionen auf dem alles steuernden Spieleserver auch erst 150ms nach der Eingabe um (so wie bei OnLive), bietet aber auf dem Rechner des Spielers schon eine entsprechende Vorschau (nicht wie bei OnLive). Konkret macht sich dies bei normalen Steuerungseingaben bemerkbar – auf dem lokalen Rechner läuft die Spielfigur eben sofort nach links, wenn man dies so eingibt, bei OnLive hat man selbst für diese einfache Funktion einen Zeitverzug von 150ms. Fürs Zielen und Schießen kann man die 150ms noch halbwegs einplanen (ISDN-Veteranen werden sich erinnen können), für schnelle und präzise eigene Bewegungen sind diese 150ms jedoch ziemlich ungünstig – bei einem regulären Spiel würde man dies als "äußerst schwammige Steuerung" beschreiben.

Ob sich daran mittel- und langfristig etwas verbessern läßt, ist nun die große Frage. An den Pings selber ist ja nicht viel auszusetzen, nur der reale Zeitverzug ist zu hoch – bekämpfbar wäre dies zum einen über eine Priorisierung des Internet-Verkehrs oder zum anderen über Provider-gebundene Rechenzentren. In jedem Fall würde dies Geld kosten, weil die Provider dann sicherlich mitverdienen wollen. Ähnliches gilt für die Steigerung der Bildqualität: Dies setzt höhere Rechenkapazitäten bei OnLive und höhere Bandbreiten bei OnLive und den OnLive-Nutzern voraus – für welche vor allem OnLive selber deutlich tiefer in die Tasche greifen müsste. Langfristig gesehen kann es sich natürlich entwickeln und letztlich ist ein solcher Dienst sicherlich der feuchte Traum der Spieleindustrie, weil damit keine Raubkopien mehr möglich sind und die absolut vollständige Kontrolle über den Content (und damit den Nutzern) allein bei den Rechteinhabern liegt.