4

Spezifikationen zu nVidias GM200-Chip scheinbar bestätigt

TechPowerUp haben in deren GPU-Z-Datenbank den Eintrag zu einer "nVidia Quadro M6000" entdeckt, welche wahrscheinlich die Hardware-Spezifikationen des nVidia GM200 Grafikchips enthält bzw. dessen Spezifikationen gegenüber den bisherigen Angaben bestätigt. Denn faktisch gleichen sich die früheren, aus der SiSoft-Datenbank gezogenen Angaben absolut mit den neuen Angaben aus der GPU-Z-Datenbank. Natürlich besteht weiterhin die Möglichkeit übler Scherze, auch die Ergebnis-Validierung dieser Tools bzw. Datenbanken wird letztlich nicht unüberwindbar sein. Am Ende deutet aber alles darauf hin, daß die nachfolgenden Angaben zu nVidias GM200-Chip korrekt sind bzw. zumindest nahe an das finalen Produkt herankommen werden:

    nVidia GM200

  • sicher:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~600mm² Chipfläche
  • ziemlich sicher:  Maxwell 2.0 Architektur
  • ziemlich sicher:  DirectX 11.2b
  • angenommen:  6 Raster-Engines
  • ziemlich sicher:  3072 Shader-Einheiten in 24 Shader-Clustern (SMX)
  • wahrscheinlich:  192 Textureneinheiten (TMUs)
  • ziemlich sicher:  96 Raster Operation Units (ROPs)
  • ziemlich sicher:  3 MB Level2-Cache
  • ziemlich sicher:  384 Bit DDR GDDR5-Speicherinterface
  • möglicher Speicherausbau:  6 oder 12 GB GDDR5
  • möglicher Chiptakt:  Grundtakt ~1100 MHz, bis zu ~1400 MHz Boost-Takt
  • möglicher Speichertakt:  3500 MHz
  • Performance-Prognose:  +30% bis +40% zur GeForce GTX 980
  • möglicher Release:  ab März 2015
  • mögliche Verkaufsnamen:  GeForce GTX Titan X oder GeForce GTX Titan II

Bis auf eine Ausnahme mussten an obiger Auflistung keine Daten gegenüber dem früheren Stand verändert werden, sondern konnten sogar einige Adjektive von "wahrscheinlich" in nunmehr "ziemlich sicher" umgewandelt werden – das Bild zum GM200-Chip verdichtet sich also. Ein scheinbarer Unterschied besteht noch in der Anzahl der Textureneinheiten, welche seitens GPU-Z (über die Berechnung der Füllrate) mit 256 Stück angegeben werden – aber dies könnte auch eine Fehldeutung sein, GPU-Z verwendet hier wahrscheinlich schlicht das für die Maxwell-Generation nicht mehr zutreffende Verhältnis an Shader- zu Textureneinheiten des GK110-Chips. Die einzigen Werte, welche GPU-Z wirklich misst bzw. im Treiber ausliest, sind üblicherweise die Taktraten, die Anzahl der Shader-Einheiten und die Breite des Speicherinterfaces.

In letzterem Punkt gibt es dann die einzige echte Korrektur gegenüber den bisherigen Angaben: Jene Quadro M6000 lief gleich mit 3300 MHz Speichertakt – was dann also darauf hindeutet, daß es bei den Gamer-Ausführungen sicherlich wieder mindestens 3500 MHz Speichertakt werden dürften, sprich den Standard von GeForce GTX 780 Ti und GeForce GTX 980. Daß jene Quadro M6000 nur mit einem Chiptakt von 988 MHz daherkam, muß im übrigen nichts bedeuten, da die professionellen Ausführungen üblicherweise klar niedriger getaktet als die Gamer-Ausführungen antreten. Eher kann man hieraus eine gewisse Bestätigung dafür ziehen, daß der GM200-Chip im Gaming-Einsatz Taktraten klar oberhalb von 1000 MHz bieten dürfte, wenn schon die Quadro-Ausführung mit nahezu 1000 MHz Chiptakt daherkommt.

Damit läßt sich auch die bisherige Performance-Prognose von "+30% bis +40% zur GeForce GTX 980" weiterhin aufrecht erhalten – sofern der GM200-Chip nicht deutlich abweichend von diesen Spezifikationen antritt, kann an dieser Prognose kaum etwas schiefgehen. Damit wird nVidia natürlich Performance-Höhen erklimmen, welche bislang nur DualChip-Lösungen vorbehalten waren (im besten Fall Richtung 3DC Perf.Index 800%) – und sicherlich dafür auch entsprechend abkassieren wollen. Anfänglich dürfte der GM200-Chip sicherlich in Form einer einzelnen Titan-Grafikkarte mit dementsprechendem Preispunkt von 999 Dollar erscheinen – eine später nachgeschobene abgespeckte Variante (möglicherweise "GeForce GTX 980 Ti" genannt) mit humanerem Preispunkt ist nicht unwahrscheinlich, derzeit aber noch unbestätigt. Ob AMD diese Show durch seine Fuji- & Bermuda-Projekte entscheidend stören kann, hängt sicherlich auch an den konkreten Launchterminen: Sowohl bei AMD als auch bei nVidia kann es ab dem März soweit sein, sind jedoch auch weitere Verzögerungen nicht wirklich auszuschließen.

4

Intels Broadwell-Grafik scheinbar erneut mit deutlichem Performance-Sprung

Während man Intel bezüglich der Entwicklung der CPU-Rechenkraft durchaus nachsagen kann, in den letzten Jahren nur das allernötigste getan zu haben, gab es mit den letzten Intel-Generationen immer gute bis erstklassige Sprünge bei der Performance der integrierten Grafik. Mit jener kommt Intel (zumindest nominell) inzwischen nahe an die Performance-Werte von Grafik-Spezialist AMD heran. Auch mit der kommenden Broadwell-Generation scheint Intel diesen Weg erneut gehen zu wollen, denn erste auf YouTube zu sehende Benchmarks einer integrierten Broadwell-Grafik versprechen erneut einen deutlichen Performance-Sprung bei dieser neuen Intel-Architektur. Hierbei wurden zwei Ultrabook-Prozessoren mit GT2-Grafik direkt miteinander verglichen – der eine aus der Haswell-Generation, der andere aus der Broadwell-Generation:

Technik 3DMark Vantage
Perf. insg.
3DMark Vantage
Perf. GPU
(Quelle)
Intel HD Graphics 5500 Broadwell GT2, 24 EU @ 200/950 MHz, auf Core i7-5500U, 2C+HT, 2.4/3.0 GHz, 15W TDP 5124 4351 (YouTube)
Intel HD Graphics 4400 Haswell GT2, 20 EU @ 200/1100 MHz, auf Core i7-4510U, 2C+HT, 2.0/3.1 GHz, 15W TDP 3868 3252 (YouTube)
Intel Iris Pro Graphics 5200 Haswell GT3e, 40 EU @ 200/1200 MHz, auf Core i7-4750HQ, 4C+HT, 2.0/3.2 GHz, 47W TDP 8166 - (3DCenter)

Leider gab es bei diesem Vorab-Test nur einen einzelnen 3DMark-Vantage-Wert – dafür ist es heutzutage schon schwer, noch Vergleichswerte zu modernen integrierten Grafiklösungen zu finden. In einem älteren 3DCenter-Artikel zur Intel Iris Pro Graphics 5200 finden sich noch entsprechende Benchmarks zum 3DMark Vantage, allerdings ist diese integrierte Grafiklösung auch ein absolutes Spitzenmodell mit deutlich mehr Ausführungseinheiten (EU) samt extra 128 MB eDRAM. Daß jene Haswell GT3e-Grafik dann der Broadwell GT2-Grafik davonzieht, kann wenig erstaunen – bleibt also letztlich der reine Performancesprung zwischen Haswell GT2 und Broadwell GT2 von (laut diesen Messungen) ca. +34%. Angesichts eines geringeren TurboMode-Takts und dem eher mittelprächtigen Sprung von 20 auf 24 Ausführungseinheiten ist dies ein hervorragendes Ergebnis, gerade weil keine neue Speichertechnologie und damit auch nicht mehr Speicherbandbreite zur Verfügung standen.

Ein Spitzenmodell wird die Broadwell GT2-Grafik damit noch lange nicht – jene ist dafür aber auch nicht gedacht, es handelt sich vielmehr um eine Standard-Grafiklösung, welche in nahezu jedem Broadwell-Prozessor verwendet werden wird. Mit dem genannten Performance-Sprung von +34% zwischen Haswell GT2 und Broadwell GT2 robbt sich Intel einmal mehr an AMDs integrierte Grafiklösungen heran – und es würde nicht überraschen, wenn abseits der jeweiligen Topmodelle die Broadwell-Grafik dann inzwischen ähnlich schnell wie die gleichwertigen AMD-Lösungen herauskommt. Daß AMDs integrierten Grafiklösungen aufgrund ihrer Radeon-Abstammung die (viel) höhere Spielekompatibiliät aufweisen und damit die für Gamer jederzeit bessere Option darstellen, besteht weiterhin – doch integrierte Grafik ist ja auch eigentlich nicht für Gamer gedacht, sondern allerhöchstens für den Gelegenheitsnutzer, wo also bestmögliche Spielekompatibilität kein wirklich großes Argument darstellt.

3 3

Welche PC-Hardware wird 2015 am meisten erwartet?

Jene Umfrage bezieht sich nur auf die einzelnen anstehenden Prozessoren-Architekturen und Grafikchips von AMD, Intel und nVidia, nicht auf allgemeine Hardware-Entwicklungen wie FreeSync-Monitore oder VR-Brillen. Alle derzeit bekannten Informationen über die kommenden Neuvorstellungen von AMD, Intel und nVidia sind dem entsprechenden Artikel "Das Hardware-Jahr 2015 in der Vorschau" zu entnehmen.

AMD Carrizo
12% (272 Stimmen)
AMD Fiji/Bermuda
37% (816 Stimmen)
Intel Broadwell
5% (105 Stimmen)
Intel Skylake
21% (462 Stimmen)
nVidia GM206 (kleinere Maxwell-Modelle)
7% (145 Stimmen)
nVidia GM200
19% (411 Stimmen)
Gesamte Stimmen: 2211
3

nVidias GM200 kommt scheinbar als (nahezu) reiner Gamerchip

Die japanischen 4Gamer (maschinelle Übersetzung ins Deutsche) berichten über eine nVidia-Pressekonferenz am 24. Dezember 2014 in Tokio, bei welcher ein hoher nVidia-Manager zum Thema zukünftiger Supercomputer und der nVidia-Chips für jene Auskunft gab. Dabei ging es vorwiegend um die zukünftigen Grafikchip-Architekturen "Volta" und "Pascal", wobei beide als sehr ähnlich beschrieben wurden. Womöglich ist Volta schlicht eine Unter- oder Vorform von Pascal, bis zur Enthüllung von Pascal stand schließlich Volta auf früheren nVidia-Roadmaps an exakt der Stelle von Pascal.

Fast im Nebensatz gab es dagegen eine bedeutsame Aussage zum demnächst anstehenden großen Maxwell-Chip GM200: Jenem fehlen offenbar die extra DoublePrecision-Einheiten, womit jener Grafikchip nicht für das Tesla-Segment geplant ist und daher nahezu ausschließlich in den Gaming-Bereich gehen würde. Eine Nebennutzung im Quadro-Segment ist genauso möglich, aber zumindest für das Supercomputer-Segment dürfte der GM200-Chip somit ausfallen. Normalerweise wäre eine solche Aussage überaus unglaubwürdig – aber wenn sie direkt von nVidia kommt, läßt sich daran kaum etwas herumdeuteln (der klareren Übersetzung wegen maschinell ins Englische übersetzt:)

Maxwell will not be used in such a way of Tesla because there is no double-precision.
(Aussage Kenichi Hayashi von nVidia)

Wenn wir abseits von eher unwahrscheinlichen Varianten wie einer Fehlinformation oder aber fehlerhaften DoublePrecision-Einheiten beim GM200-Chip einmal davon ausgehen wollen, daß dies alles so passt und so geplant war – dann stellt sich die Frage, wieso nVidia den GM200-Chip derart beschneidet? Dafür könnte es eine sehr plausible Erklärung in schlicht der limitierten Chipgröße samt keinem neuen Fertigungsverfahren geben. Wenn nVidia den GM200-Chip wirklich mit 3072 Shader-Einheiten herausbringen will – immerhin auch nur 7% mehr als beim GK110-Chip – und die Maxwell-Architektur wie bekannt ihre Mehrtransistoren benötigt, könnte es für nVidia womöglich zu eng gewesen sein, den GM200-Chip mit dieser hohen Anzahl an Shader-Einheiten und DoublePrecision-Fähigkeiten gleichzeitig auszustatten. Womöglich wollte nVidia auch einfach nicht über gewisse Chipflächen gehen – und musste daher irgendwo abspecken.

Denn schließlich gilt, daß die Maxwell-Architektur in ihrer Konzeptphase sicherlich für die 20nm-Fertigung geplant war, als Architektur- und Fertigungstechnolgie-Nachfolger der in der 28nm-Fertigung hergestellten Kepler-Architektur. Unter der 20nm-Fertigung wäre der GM204-Chip dann deutlich kleiner ausgefallen, wären auch mehr Funktionen in den GM200-Chip zu einer vertretbaren Chipfläche packbar gewesen. Der Ausfall der 20nm-Fertigung ist beim GM204-Chip noch verkraftbar, der Chip wurde halt einfach größer als einstmals geplant. Beim GM200-Chip würde ein solches Vorgehen dagegen einfach an Grenzen stoßen – womöglich musste irgendetwas raus aus dem Chip. Da man auf die höhere Anzahl an Shader-Einheiten aus Gründen der Schlagkräftigkeit im Gamer-Segment unmöglich verzichten konnte, wurde eben augenscheinlich auf die Tesla-Fähigkeiten verzichtet. Ein indirekter Hinweis auf eine solcherart Entwicklung kommt im übrigen aus nVidias verschiedenen Roadmaps: Wurden auf jenen früher noch die verschiedenen nVidia-Architekturen bezüglich deren DoublePrecision-Rechenkraft verglichen, vergleichen die neueren Roadmaps nur noch nach der SinglePrecision-Rechenkraft.

Und am Ende ist die DoublePrecision-Fähigkeit und damit die Möglichkeit zum Einsatz im Tesla-Segment beim GM200-Chip vielleicht auch gar nicht so wichtig. Die taktnormierte Rechenleistung steigt beim Sprung von GK110 (2880 Shader-Einheiten) auf GM200 (3072 Shader-Einheiten) nur minimal an – mittels höherer Taktraten und einer besseren Energieeffizienz kann man sicherlich noch etwas herausholen, aber ein Dimensionssprung wird das niemals. Ein GM200-Chip mit DoublePrecision-Fähigkeit wäre diesbezüglich womöglich gar nicht viel schneller, als es der GK110-Chip in dieser Disziplin derzeit schon ist. All zu viel verliert nVidia mit dieser Entscheidung also nicht – viel mehr Performance auf diesem Feld ist nur über Grafikchips basierend auf einer neuen Fertigungstechnologie zu erwarten. Zumindest wird nun klarer, weshalb nVidia dann doch noch einen GK210-Chip aufgelegt hat – als in kleinen, nur für den Supercomputer-Einsatz relevanten Features überarbeiteten GK110-Nachfolger, welcher wegen des Ausfalls des GM200-Chips für das Tesla-Segment noch eine ganze Weile nVidias Topangebot für Tesla-Bedürfnisse sein wird.

Nachtrag vom 4. Januar 2015

Zur Meldung über nVidias GM200 als (nahezu) reinen Gamerchip wäre noch die Bedeutung des ganzen für das Gamer-Segment zu würdigen: Denn obgleich der Nachteile für das professionelle Segment hat die Entscheidung nVidias, dem G200-Chip augenscheinlich keine dedizierte DoublePrecision-Hardware mitzugeben, durchaus seine Vorteile im Gaming-Segment: Schließlich muß nVidia somit keine Chipfläche rein für professionelle Zwecke opfern, jene kann nun durchgehend mit für den Gaming-Einsatz relevanten Dingen belegt werden. Zudem ergibt sich damit auch die Chance auf ansprechende Taktraten, nachdem die letzten Enthusiasten-Chips von nVidia diesbezüglich immer etwas zurücklagen und einiges an Potential durch ihre niedrigeren Taktraten verloren. Am Ende wurde sich im Gamer-Umfeld schon des längerem ein reiner (großer) Gamer-Grafikchip gewünscht – und nVidia scheint selbigen nunmehr bedingt durch die Umstände zu liefern.

2

Hardware- und Nachrichten-Links des 1./2. Januar 2015

Die PC Games Hardware hat ein Interview mit Microsoft zum Thema DirectX 12 geführt – in welchem Microsoft den teilweise sehr konkreten Fragen jedoch unverholen ausweicht und der Interviewer an diesen Stellen dann leider auch nicht nachhakt. So gibt es nur viele Nebelkerzen und Marketingsprech zu hören, welche DirectX 12 in den Himmel loben, jedoch keine verwertbaren neuen Informationen bieten. Ein klein wenig für Aufregung sorgt dagegen die Aussage, Microsoft erwarte bereits im Weihnachtsgeschäft 2015 die ersten Spiele für DirectX 12. Bei dieser Aufregung wird jedoch vergessen, daß DirectX 12 über seinen (dominierenden) Software-Part einen ziemlich einfachen Einstieg in den Markt haben wird, weil jener Software-Part keine neue Hardware erfordert und damit von den Spieleentwicklern viel eher adaptiert werden kann als andere, wirklich neue Hardware bedingende Features. Hinzu kommt, daß Mirosoft nicht von DirectX-12-only-Spielen gesprochen hat, sondern natürlich auch jedes Spiel mit einem optionalen DirectX-12-Feature die Microsoft-Aussage erfüllt.

DirectX-12-only-Spiele werden voraussichtlich richtig lange auf sich warten lassen – man sieht dies derzeit an DirectX 11, wofür es fünf Jahre nach Launch gerade einmal die ersten DirectX-11-only-Spiele gibt. Und dies ist auch noch dadurch begünstigt, daß die niedrigste DirectX-10-Basis (Windows Vista) automatisch auch DirectX 11 unterstützt – ein Punkt, welchen es bei DirectX 12 wohl nicht geben wird. Vielmehr werden sich die Spieleentwickler mit einem jahrelangen Nebeneinander von Windows 7 & DirectX 11 sowie Windows 10 & DirectX 12 arrangieren müssen, da die ganze Masse an bestehenden Windows-7-Systemen gar nicht so schnell auf Windows 10 umsteigen kann. Abhilfe könnte Microsoft nur dadurch liefern, wenn man DirectX 11.3 – welches die Hardware-Features von DirectX 12 umfassen soll, aber nicht den Software-Part der Mantle-artigen Beschleunigung – doch noch für Windows 7 freigeben würde. Dies würde trotzdem einen optischen sowie einen Performance-Vorteil für Windows 10 bedeuten, aber so könnten die Spieleentwickler für dieselbe Hardware-Basis auf allen populären Betriebssystemen entwickeln. In welche Richtung Microsoft sich in dieser Frage entscheidet, ist jedoch derzeit noch vollkommen unbekannt.

Laut PCWorld will AMD die großen OEMs für seine kommende Mainstream-APU "Carrizo" mit einem "neuen" Feature begeistern: So soll es ein standardisiertes Notebook-Mainboard geben, in welches alle Carrizo-APUs unabhängig von der Ausrichtung der konkret benutzten CPU passen werden. Damit sollen die Kosten für die OEMs eben durch die weitere Standardisierung sinken. Allerdings ist fraglich, ob man dies wirklich als "neue Idee" betrachten kann, denn denselben Sockel werden alle Carrizo-APUs für das Mobile-Segment sowieso verwenden, so daß sich die OEMs sowieso je nach Bedarf Standard-Mainboards bauen können. Vor allem aber erscheint es als unwahrscheinlich, daß man wirklich dieselben Mainboards für Netbooks und für Mainstream-Notebooks verwenden will, da ergeben sich doch einigermaßen abweichende Feature-Anforderungen. Aber womöglich wird diese Meldung auch nur falsch aufgefasst und AMD hilft den Notebook-Hersteller eigentlich nur bei der Erstellung eben solcher Standard-Notebooks weiter – eine Hilfe, welche die OEMs üblicherweise gern annehmen.

WCCF Tech vermelden die angeblichen Systemanforderungen zu GTA V. Jene sehen mit einem Zweikerner ab Core-2-Niveau und GeForce GT 530 als Minimum überhaupt nicht herausfordernd aus, selbst die empfohlenen Spezifikationen mit Vierkerner ab Phenom-II-Niveau und Radeon HD 6970 oder GeForce GTX 480 sind nicht wirklich beeindruckend. Hier dürfte allerdings auch die Weiterverwendung der in GTA IV benutzten Engine durchschlagen, welche seinerzeit (im Jahr 2008) reichlich Hardware-fordernd war, von heutiger Hardware aber nahezu mühelos gestemmt werden kann. Bei den Speicheranforderungen von 4 GB Hauptspeicher (6 GB empfohlen) samt einem 64bittigen Windows 7/8/8.1 ist GTA V dagegen eher auf der Höhe der Zeit. Die ganze Meldung ist allerdings unter Vorbehalt zu sehen, da WCCF Tech wirklich jeden Gerüchtefetzen als "Wahrheit" veröffentlicht und daher keine wirklich belastbare Quelle darstellt. Andererseits würde es wirklich nicht überraschen, wenn die Systemanforderungen zu GTA V genau so aussehen – was dann die Praxis darstellt, bliebe allerdings abzuwarten.

Laut WinFuture wollen LG und Sony auf der kommenden CES bereits erste 8K-Fernseher zeigen – wobei allerdings zu bezweifeln wäre, daß es sich hierbei um kaufbare Modelle handelt, vermutlich dürften es eher denn Designstudien sein, welche (viel) später in realen Modellen resultieren werden. Die 8K-Auflösung soll eigentlich erst in der dritten Stufe von UltraHD kommen, welche für nach dem Jahr 2020 angesetzt ist. So lange es nur wenige Sichtungen von 4K-Bildmaterial gibt, lohnt sich 8K ganz gewiß nicht – dafür aber eher die zweite Stufe von UltraHD, welche die 4K-Auflösung mit 100 bzw. 120 Hz Bildwiederholrate bieten wird. Gutklassige Modelle dürften zu diesem Zeitpunkt auch nicht mehr mit der aktuell noch üblichen Farb-Unterabtastung arbeiten, sondern ein (zumindest technisch) einwandfreies 4K-Bild bieten – was für lange Zeit reichen wird. Theoretisch sagt man zwar, daß mit 8K alle Möglichkeiten ausgeschöpft sind, für das menschliche Auge kein schärferes Bild wahrnehmbar ist – was die Herstellerindustrie sicherlich nicht davon abhalten wird, uns auch für die Zeit nach dem UltraHD-Standard mit neuen, unbedingt zu kaufenden Fernseh-Standards zu beglücken.

2

Neuer Artikel: Das Hardware-Jahr 2015 in der Vorschau

Das Hardware-Jahr 2014 ist zu Ende – und läßt aufgrund seiner mageren Ausbeute eigentlich nur auf bessere Zeiten im Jahr 2015 hoffen. Vieles von dem, was im Jahr 2014 vorgestellt wurde, war eher halbgar oder nur Programmergänzung – zudem wurde einiges von dem, was für das Jahre 2014 geplant war, letztlich entscheidend zurückgestellt (Intels Broadwell & nVidia GM200). Die einzigen wirklich beachtbaren Fortschritt im Jahr 2014 waren demzufolge die Vorstellung von Intels Haswell-E Plattform im August sowie die von nVidias GM204-Chips in Form von GeForce GTX 970 & 980 im September – recht wenig auf ein ganzes Jahr bezogen. Für das Jahr 2015 kann man wegen der "Rückstellungen" von eigentlich auf das Jahr 2014 geplanten Produkte mehr erwarten, als Bremsklotz dürfte sich aber auch im Jahr 2015 der langsame Fortschritt bei der Fertigungstechnologie erweisen, welche die ganz großen Fortschritte auf das Jahr 2016 mit der dann (vermutlich) verfügbaren 14/16nm-Fertigung verschiebt. Was sich aber dennoch jetzt schon für das Jahr 2015 angekündigt hat, wollen wir nachfolgend skizzieren ... zum Artikel.

Januar Januar bis Juni:
AMD Carrizo
19. Januar bis Juni:
Intel Broadwell
22. Januar:
nVidia GeForce GTX 960 (GM206)
Februar Februar bis Juli:
weitere Modelle der nVidia GeForce GTX 900 Serie (GM204/GM206)
März vmtl. März bis August
AMD Radeon R300 Serie (Tonga/Fiji/Bermuda)
März bis Juni:
nVidia GeForce GTX Titan II (GM200)
April
Mai
Juni vermlt. Juni bis August
Intel Braswell
Juli vmtl. Juli bis August
AMD Nolan & Armur
vtml. Juli bis September
Intel Skylake
August
September
Inhalt abgleichen