4

Spezifikationen zu nVidias GM200-Chip scheinbar bestätigt

TechPowerUp haben in deren GPU-Z-Datenbank den Eintrag zu einer "nVidia Quadro M6000" entdeckt, welche wahrscheinlich die Hardware-Spezifikationen des nVidia GM200 Grafikchips enthält bzw. dessen Spezifikationen gegenüber den bisherigen Angaben bestätigt. Denn faktisch gleichen sich die früheren, aus der SiSoft-Datenbank gezogenen Angaben absolut mit den neuen Angaben aus der GPU-Z-Datenbank. Natürlich besteht weiterhin die Möglichkeit übler Scherze, auch die Ergebnis-Validierung dieser Tools bzw. Datenbanken wird letztlich nicht unüberwindbar sein. Am Ende deutet aber alles darauf hin, daß die nachfolgenden Angaben zu nVidias GM200-Chip korrekt sind bzw. zumindest nahe an das finalen Produkt herankommen werden:

    nVidia GM200

  • sicher:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~600mm² Chipfläche
  • ziemlich sicher:  Maxwell 2.0 Architektur
  • ziemlich sicher:  DirectX 11.2b
  • angenommen:  6 Raster-Engines
  • ziemlich sicher:  3072 Shader-Einheiten in 24 Shader-Clustern (SMX)
  • wahrscheinlich:  192 Textureneinheiten (TMUs)
  • ziemlich sicher:  96 Raster Operation Units (ROPs)
  • ziemlich sicher:  3 MB Level2-Cache
  • ziemlich sicher:  384 Bit DDR GDDR5-Speicherinterface
  • möglicher Speicherausbau:  6 oder 12 GB GDDR5
  • möglicher Chiptakt:  Grundtakt ~1100 MHz, bis zu ~1400 MHz Boost-Takt
  • möglicher Speichertakt:  3500 MHz
  • Performance-Prognose:  +30% bis +40% zur GeForce GTX 980
  • möglicher Release:  ab März 2015
  • mögliche Verkaufsnamen:  GeForce GTX Titan X oder GeForce GTX Titan II

Bis auf eine Ausnahme mussten an obiger Auflistung keine Daten gegenüber dem früheren Stand verändert werden, sondern konnten sogar einige Adjektive von "wahrscheinlich" in nunmehr "ziemlich sicher" umgewandelt werden – das Bild zum GM200-Chip verdichtet sich also. Ein scheinbarer Unterschied besteht noch in der Anzahl der Textureneinheiten, welche seitens GPU-Z (über die Berechnung der Füllrate) mit 256 Stück angegeben werden – aber dies könnte auch eine Fehldeutung sein, GPU-Z verwendet hier wahrscheinlich schlicht das für die Maxwell-Generation nicht mehr zutreffende Verhältnis an Shader- zu Textureneinheiten des GK110-Chips. Die einzigen Werte, welche GPU-Z wirklich misst bzw. im Treiber ausliest, sind üblicherweise die Taktraten, die Anzahl der Shader-Einheiten und die Breite des Speicherinterfaces.

In letzterem Punkt gibt es dann die einzige echte Korrektur gegenüber den bisherigen Angaben: Jene Quadro M6000 lief gleich mit 3300 MHz Speichertakt – was dann also darauf hindeutet, daß es bei den Gamer-Ausführungen sicherlich wieder mindestens 3500 MHz Speichertakt werden dürften, sprich den Standard von GeForce GTX 780 Ti und GeForce GTX 980. Daß jene Quadro M6000 nur mit einem Chiptakt von 988 MHz daherkam, muß im übrigen nichts bedeuten, da die professionellen Ausführungen üblicherweise klar niedriger getaktet als die Gamer-Ausführungen antreten. Eher kann man hieraus eine gewisse Bestätigung dafür ziehen, daß der GM200-Chip im Gaming-Einsatz Taktraten klar oberhalb von 1000 MHz bieten dürfte, wenn schon die Quadro-Ausführung mit nahezu 1000 MHz Chiptakt daherkommt.

Damit läßt sich auch die bisherige Performance-Prognose von "+30% bis +40% zur GeForce GTX 980" weiterhin aufrecht erhalten – sofern der GM200-Chip nicht deutlich abweichend von diesen Spezifikationen antritt, kann an dieser Prognose kaum etwas schiefgehen. Damit wird nVidia natürlich Performance-Höhen erklimmen, welche bislang nur DualChip-Lösungen vorbehalten waren (im besten Fall Richtung 3DC Perf.Index 800%) – und sicherlich dafür auch entsprechend abkassieren wollen. Anfänglich dürfte der GM200-Chip sicherlich in Form einer einzelnen Titan-Grafikkarte mit dementsprechendem Preispunkt von 999 Dollar erscheinen – eine später nachgeschobene abgespeckte Variante (möglicherweise "GeForce GTX 980 Ti" genannt) mit humanerem Preispunkt ist nicht unwahrscheinlich, derzeit aber noch unbestätigt. Ob AMD diese Show durch seine Fuji- & Bermuda-Projekte entscheidend stören kann, hängt sicherlich auch an den konkreten Launchterminen: Sowohl bei AMD als auch bei nVidia kann es ab dem März soweit sein, sind jedoch auch weitere Verzögerungen nicht wirklich auszuschließen.