4

Spezifikationen zu nVidias GM200-Chip scheinbar bestätigt

TechPowerUp haben in deren GPU-Z-Datenbank den Eintrag zu einer "nVidia Quadro M6000" entdeckt, welche wahrscheinlich die Hardware-Spezifikationen des nVidia GM200 Grafikchips enthält bzw. dessen Spezifikationen gegenüber den bisherigen Angaben bestätigt. Denn faktisch gleichen sich die früheren, aus der SiSoft-Datenbank gezogenen Angaben absolut mit den neuen Angaben aus der GPU-Z-Datenbank. Natürlich besteht weiterhin die Möglichkeit übler Scherze, auch die Ergebnis-Validierung dieser Tools bzw. Datenbanken wird letztlich nicht unüberwindbar sein. Am Ende deutet aber alles darauf hin, daß die nachfolgenden Angaben zu nVidias GM200-Chip korrekt sind bzw. zumindest nahe an das finalen Produkt herankommen werden:

    nVidia GM200

  • sicher:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~600mm² Chipfläche
  • ziemlich sicher:  Maxwell 2.0 Architektur
  • ziemlich sicher:  DirectX 11.2b
  • angenommen:  6 Raster-Engines
  • ziemlich sicher:  3072 Shader-Einheiten in 24 Shader-Clustern (SMX)
  • wahrscheinlich:  192 Textureneinheiten (TMUs)
  • ziemlich sicher:  96 Raster Operation Units (ROPs)
  • ziemlich sicher:  3 MB Level2-Cache
  • ziemlich sicher:  384 Bit DDR GDDR5-Speicherinterface
  • möglicher Speicherausbau:  6 oder 12 GB GDDR5
  • möglicher Chiptakt:  Grundtakt ~1100 MHz, bis zu ~1400 MHz Boost-Takt
  • möglicher Speichertakt:  3500 MHz
  • Performance-Prognose:  +30% bis +40% zur GeForce GTX 980
  • möglicher Release:  ab März 2015
  • mögliche Verkaufsnamen:  GeForce GTX Titan X oder GeForce GTX Titan II

Bis auf eine Ausnahme mussten an obiger Auflistung keine Daten gegenüber dem früheren Stand verändert werden, sondern konnten sogar einige Adjektive von "wahrscheinlich" in nunmehr "ziemlich sicher" umgewandelt werden – das Bild zum GM200-Chip verdichtet sich also. Ein scheinbarer Unterschied besteht noch in der Anzahl der Textureneinheiten, welche seitens GPU-Z (über die Berechnung der Füllrate) mit 256 Stück angegeben werden – aber dies könnte auch eine Fehldeutung sein, GPU-Z verwendet hier wahrscheinlich schlicht das für die Maxwell-Generation nicht mehr zutreffende Verhältnis an Shader- zu Textureneinheiten des GK110-Chips. Die einzigen Werte, welche GPU-Z wirklich misst bzw. im Treiber ausliest, sind üblicherweise die Taktraten, die Anzahl der Shader-Einheiten und die Breite des Speicherinterfaces.

In letzterem Punkt gibt es dann die einzige echte Korrektur gegenüber den bisherigen Angaben: Jene Quadro M6000 lief gleich mit 3300 MHz Speichertakt – was dann also darauf hindeutet, daß es bei den Gamer-Ausführungen sicherlich wieder mindestens 3500 MHz Speichertakt werden dürften, sprich den Standard von GeForce GTX 780 Ti und GeForce GTX 980. Daß jene Quadro M6000 nur mit einem Chiptakt von 988 MHz daherkam, muß im übrigen nichts bedeuten, da die professionellen Ausführungen üblicherweise klar niedriger getaktet als die Gamer-Ausführungen antreten. Eher kann man hieraus eine gewisse Bestätigung dafür ziehen, daß der GM200-Chip im Gaming-Einsatz Taktraten klar oberhalb von 1000 MHz bieten dürfte, wenn schon die Quadro-Ausführung mit nahezu 1000 MHz Chiptakt daherkommt.

Damit läßt sich auch die bisherige Performance-Prognose von "+30% bis +40% zur GeForce GTX 980" weiterhin aufrecht erhalten – sofern der GM200-Chip nicht deutlich abweichend von diesen Spezifikationen antritt, kann an dieser Prognose kaum etwas schiefgehen. Damit wird nVidia natürlich Performance-Höhen erklimmen, welche bislang nur DualChip-Lösungen vorbehalten waren (im besten Fall Richtung 3DC Perf.Index 800%) – und sicherlich dafür auch entsprechend abkassieren wollen. Anfänglich dürfte der GM200-Chip sicherlich in Form einer einzelnen Titan-Grafikkarte mit dementsprechendem Preispunkt von 999 Dollar erscheinen – eine später nachgeschobene abgespeckte Variante (möglicherweise "GeForce GTX 980 Ti" genannt) mit humanerem Preispunkt ist nicht unwahrscheinlich, derzeit aber noch unbestätigt. Ob AMD diese Show durch seine Fuji- & Bermuda-Projekte entscheidend stören kann, hängt sicherlich auch an den konkreten Launchterminen: Sowohl bei AMD als auch bei nVidia kann es ab dem März soweit sein, sind jedoch auch weitere Verzögerungen nicht wirklich auszuschließen.

4

Intels Broadwell-Grafik scheinbar erneut mit deutlichem Performance-Sprung

Während man Intel bezüglich der Entwicklung der CPU-Rechenkraft durchaus nachsagen kann, in den letzten Jahren nur das allernötigste getan zu haben, gab es mit den letzten Intel-Generationen immer gute bis erstklassige Sprünge bei der Performance der integrierten Grafik. Mit jener kommt Intel (zumindest nominell) inzwischen nahe an die Performance-Werte von Grafik-Spezialist AMD heran. Auch mit der kommenden Broadwell-Generation scheint Intel diesen Weg erneut gehen zu wollen, denn erste auf YouTube zu sehende Benchmarks einer integrierten Broadwell-Grafik versprechen erneut einen deutlichen Performance-Sprung bei dieser neuen Intel-Architektur. Hierbei wurden zwei Ultrabook-Prozessoren mit GT2-Grafik direkt miteinander verglichen – der eine aus der Haswell-Generation, der andere aus der Broadwell-Generation:

Technik 3DMark Vantage
Perf. insg.
3DMark Vantage
Perf. GPU
(Quelle)
Intel HD Graphics 5500 Broadwell GT2, 24 EU @ 200/950 MHz, auf Core i7-5500U, 2C+HT, 2.4/3.0 GHz, 15W TDP 5124 4351 (YouTube)
Intel HD Graphics 4400 Haswell GT2, 20 EU @ 200/1100 MHz, auf Core i7-4510U, 2C+HT, 2.0/3.1 GHz, 15W TDP 3868 3252 (YouTube)
Intel Iris Pro Graphics 5200 Haswell GT3e, 40 EU @ 200/1200 MHz, auf Core i7-4750HQ, 4C+HT, 2.0/3.2 GHz, 47W TDP 8166 - (3DCenter)

Leider gab es bei diesem Vorab-Test nur einen einzelnen 3DMark-Vantage-Wert – dafür ist es heutzutage schon schwer, noch Vergleichswerte zu modernen integrierten Grafiklösungen zu finden. In einem älteren 3DCenter-Artikel zur Intel Iris Pro Graphics 5200 finden sich noch entsprechende Benchmarks zum 3DMark Vantage, allerdings ist diese integrierte Grafiklösung auch ein absolutes Spitzenmodell mit deutlich mehr Ausführungseinheiten (EU) samt extra 128 MB eDRAM. Daß jene Haswell GT3e-Grafik dann der Broadwell GT2-Grafik davonzieht, kann wenig erstaunen – bleibt also letztlich der reine Performancesprung zwischen Haswell GT2 und Broadwell GT2 von (laut diesen Messungen) ca. +34%. Angesichts eines geringeren TurboMode-Takts und dem eher mittelprächtigen Sprung von 20 auf 24 Ausführungseinheiten ist dies ein hervorragendes Ergebnis, gerade weil keine neue Speichertechnologie und damit auch nicht mehr Speicherbandbreite zur Verfügung standen.

Ein Spitzenmodell wird die Broadwell GT2-Grafik damit noch lange nicht – jene ist dafür aber auch nicht gedacht, es handelt sich vielmehr um eine Standard-Grafiklösung, welche in nahezu jedem Broadwell-Prozessor verwendet werden wird. Mit dem genannten Performance-Sprung von +34% zwischen Haswell GT2 und Broadwell GT2 robbt sich Intel einmal mehr an AMDs integrierte Grafiklösungen heran – und es würde nicht überraschen, wenn abseits der jeweiligen Topmodelle die Broadwell-Grafik dann inzwischen ähnlich schnell wie die gleichwertigen AMD-Lösungen herauskommt. Daß AMDs integrierten Grafiklösungen aufgrund ihrer Radeon-Abstammung die (viel) höhere Spielekompatibiliät aufweisen und damit die für Gamer jederzeit bessere Option darstellen, besteht weiterhin – doch integrierte Grafik ist ja auch eigentlich nicht für Gamer gedacht, sondern allerhöchstens für den Gelegenheitsnutzer, wo also bestmögliche Spielekompatibilität kein wirklich großes Argument darstellt.

3 3

Welche PC-Hardware wird 2015 am meisten erwartet?

Jene Umfrage bezieht sich nur auf die einzelnen anstehenden Prozessoren-Architekturen und Grafikchips von AMD, Intel und nVidia, nicht auf allgemeine Hardware-Entwicklungen wie FreeSync-Monitore oder VR-Brillen. Alle derzeit bekannten Informationen über die kommenden Neuvorstellungen von AMD, Intel und nVidia sind dem entsprechenden Artikel "Das Hardware-Jahr 2015 in der Vorschau" zu entnehmen.

AMD Carrizo
12% (272 Stimmen)
AMD Fiji/Bermuda
37% (816 Stimmen)
Intel Broadwell
5% (105 Stimmen)
Intel Skylake
21% (462 Stimmen)
nVidia GM206 (kleinere Maxwell-Modelle)
7% (145 Stimmen)
nVidia GM200
19% (411 Stimmen)
Gesamte Stimmen: 2211
3

nVidias GM200 kommt scheinbar als (nahezu) reiner Gamerchip

Die japanischen 4Gamer (maschinelle Übersetzung ins Deutsche) berichten über eine nVidia-Pressekonferenz am 24. Dezember 2014 in Tokio, bei welcher ein hoher nVidia-Manager zum Thema zukünftiger Supercomputer und der nVidia-Chips für jene Auskunft gab. Dabei ging es vorwiegend um die zukünftigen Grafikchip-Architekturen "Volta" und "Pascal", wobei beide als sehr ähnlich beschrieben wurden. Womöglich ist Volta schlicht eine Unter- oder Vorform von Pascal, bis zur Enthüllung von Pascal stand schließlich Volta auf früheren nVidia-Roadmaps an exakt der Stelle von Pascal.

Fast im Nebensatz gab es dagegen eine bedeutsame Aussage zum demnächst anstehenden großen Maxwell-Chip GM200: Jenem fehlen offenbar die extra DoublePrecision-Einheiten, womit jener Grafikchip nicht für das Tesla-Segment geplant ist und daher nahezu ausschließlich in den Gaming-Bereich gehen würde. Eine Nebennutzung im Quadro-Segment ist genauso möglich, aber zumindest für das Supercomputer-Segment dürfte der GM200-Chip somit ausfallen. Normalerweise wäre eine solche Aussage überaus unglaubwürdig – aber wenn sie direkt von nVidia kommt, läßt sich daran kaum etwas herumdeuteln (der klareren Übersetzung wegen maschinell ins Englische übersetzt:)

Maxwell will not be used in such a way of Tesla because there is no double-precision.
(Aussage Kenichi Hayashi von nVidia)

Wenn wir abseits von eher unwahrscheinlichen Varianten wie einer Fehlinformation oder aber fehlerhaften DoublePrecision-Einheiten beim GM200-Chip einmal davon ausgehen wollen, daß dies alles so passt und so geplant war – dann stellt sich die Frage, wieso nVidia den GM200-Chip derart beschneidet? Dafür könnte es eine sehr plausible Erklärung in schlicht der limitierten Chipgröße samt keinem neuen Fertigungsverfahren geben. Wenn nVidia den GM200-Chip wirklich mit 3072 Shader-Einheiten herausbringen will – immerhin auch nur 7% mehr als beim GK110-Chip – und die Maxwell-Architektur wie bekannt ihre Mehrtransistoren benötigt, könnte es für nVidia womöglich zu eng gewesen sein, den GM200-Chip mit dieser hohen Anzahl an Shader-Einheiten und DoublePrecision-Fähigkeiten gleichzeitig auszustatten. Womöglich wollte nVidia auch einfach nicht über gewisse Chipflächen gehen – und musste daher irgendwo abspecken.

Denn schließlich gilt, daß die Maxwell-Architektur in ihrer Konzeptphase sicherlich für die 20nm-Fertigung geplant war, als Architektur- und Fertigungstechnolgie-Nachfolger der in der 28nm-Fertigung hergestellten Kepler-Architektur. Unter der 20nm-Fertigung wäre der GM204-Chip dann deutlich kleiner ausgefallen, wären auch mehr Funktionen in den GM200-Chip zu einer vertretbaren Chipfläche packbar gewesen. Der Ausfall der 20nm-Fertigung ist beim GM204-Chip noch verkraftbar, der Chip wurde halt einfach größer als einstmals geplant. Beim GM200-Chip würde ein solches Vorgehen dagegen einfach an Grenzen stoßen – womöglich musste irgendetwas raus aus dem Chip. Da man auf die höhere Anzahl an Shader-Einheiten aus Gründen der Schlagkräftigkeit im Gamer-Segment unmöglich verzichten konnte, wurde eben augenscheinlich auf die Tesla-Fähigkeiten verzichtet. Ein indirekter Hinweis auf eine solcherart Entwicklung kommt im übrigen aus nVidias verschiedenen Roadmaps: Wurden auf jenen früher noch die verschiedenen nVidia-Architekturen bezüglich deren DoublePrecision-Rechenkraft verglichen, vergleichen die neueren Roadmaps nur noch nach der SinglePrecision-Rechenkraft.

Und am Ende ist die DoublePrecision-Fähigkeit und damit die Möglichkeit zum Einsatz im Tesla-Segment beim GM200-Chip vielleicht auch gar nicht so wichtig. Die taktnormierte Rechenleistung steigt beim Sprung von GK110 (2880 Shader-Einheiten) auf GM200 (3072 Shader-Einheiten) nur minimal an – mittels höherer Taktraten und einer besseren Energieeffizienz kann man sicherlich noch etwas herausholen, aber ein Dimensionssprung wird das niemals. Ein GM200-Chip mit DoublePrecision-Fähigkeit wäre diesbezüglich womöglich gar nicht viel schneller, als es der GK110-Chip in dieser Disziplin derzeit schon ist. All zu viel verliert nVidia mit dieser Entscheidung also nicht – viel mehr Performance auf diesem Feld ist nur über Grafikchips basierend auf einer neuen Fertigungstechnologie zu erwarten. Zumindest wird nun klarer, weshalb nVidia dann doch noch einen GK210-Chip aufgelegt hat – als in kleinen, nur für den Supercomputer-Einsatz relevanten Features überarbeiteten GK110-Nachfolger, welcher wegen des Ausfalls des GM200-Chips für das Tesla-Segment noch eine ganze Weile nVidias Topangebot für Tesla-Bedürfnisse sein wird.

Nachtrag vom 4. Januar 2015

Zur Meldung über nVidias GM200 als (nahezu) reinen Gamerchip wäre noch die Bedeutung des ganzen für das Gamer-Segment zu würdigen: Denn obgleich der Nachteile für das professionelle Segment hat die Entscheidung nVidias, dem G200-Chip augenscheinlich keine dedizierte DoublePrecision-Hardware mitzugeben, durchaus seine Vorteile im Gaming-Segment: Schließlich muß nVidia somit keine Chipfläche rein für professionelle Zwecke opfern, jene kann nun durchgehend mit für den Gaming-Einsatz relevanten Dingen belegt werden. Zudem ergibt sich damit auch die Chance auf ansprechende Taktraten, nachdem die letzten Enthusiasten-Chips von nVidia diesbezüglich immer etwas zurücklagen und einiges an Potential durch ihre niedrigeren Taktraten verloren. Am Ende wurde sich im Gamer-Umfeld schon des längerem ein reiner (großer) Gamer-Grafikchip gewünscht – und nVidia scheint selbigen nunmehr bedingt durch die Umstände zu liefern.

Inhalt abgleichen