6

nVidias GeForce GTX 960 kommt tatsächlich nur mit 128 Bit DDR Speicherinterface samt 2 GB GDDR5-Speicher

Videocardz bestätigen in zwei Meldungen, was zuletzt berichtet wurde, teilweise aber durchaus unglaubwürdig klang: Die kommende GeForce GTX 960 auf Basis des GM206-Chips tritt tatsächlich nur mit 128 Bit DDR Speicherinterface samt vor allem nur 2 GB GDDR5-Speicher an. Die erste Meldung zeigt einen GM206-Dieshot, sowie diverse erste Händlerlistungen zu GeForce GTX 960 Karten, die seitens der Händler sowie auch der Kartennamen in aller Klarheit als mit 128 Bit DDR Speicherinterface samt 2 GB GDDR5-Speicher ausgerüstet beschrieben werden. Die zweite Meldung macht es dann über Bilder der Verpackungen diverser MSI-Grafikkarten, welche klar nur 2 GB GDDR5-Speicher für die GeForce GTX 960 notieren, nochmals eindeutiger.

Es bleibt trotzdem eine gewisse Überraschung übrig, denn eigentlich war der GM206-Chip – in der Mitte zwischen GM107 (640 Shader-Einheiten an einem 128 Bit DDR Speicherinterface) und GM204 (2048 Shader-Einheiten an einem 256 Bit DDR Speicherinterface) stehend – dafür prädestiniert, ein 192 Bit DDR Speicherinterface zu tragen, was dann auch zu einer deutlich freundlicheren default-Speicherbestückung von 3 GB geführt hätte. Daß ein solch breiteres Speicherinterface noch irgendwie im GM206-Chip schlummert, erscheint im übrigen angesichts der Hardware-Daten zur GeForce GTX 960 als unwahrscheinlich: Wenn nVidia wirklich mehr Speicher bieten wollte, hätte man für die GeForce GTX 960 entweder jenes breitere Speicherinterface benutzt oder aber die default-Speicherbestückung gleich auf 4 GB hochgesetzt. Mit der default-Speicherbestückung von 2 GB scheint es dagegen so, als wäre das 128 Bit DDR Speicherinterface beim GM206-Chip regelrecht so geplant gewesen.

    nVidia GeForce GTX 960

  • sicher:  nVidia GM206-Chip in der 28nm-Fertigung von TSMC
  • geschätzt:  ~3 Milliarden Transistoren auf ~250mm² Chipfläche
  • ziemlich sicher:  Maxwell 2.0 Architektur
  • ziemlich sicher:  DirectX 11.2b
  • angenommen:  2 Raster-Engines
  • wahrscheinlich:  1024 Shader-Einheiten in 8 Shader-Clustern (SMX)
  • wahrscheinlich:  64 Textureneinheiten (TMUs)
  • wahrscheinlich:  16 oder 32 Raster Operation Units (ROPs)
  • bestätigt:  128 Bit DDR GDDR5-Speicherinterface
  • bestätigter default-Speicherausbau:  2 GB GDDR5
  • scheinbare Taktraten:  1178/?/3500 MHz
  • Performance-Prognose:  Richtung GeForce GTX 760 (Perf.Index 310%)
  • Launch:  15. oder 22. Januar 2015
  • Preispunkt:  ~170 Euro

Wie viel Staat damit zu machen sein wird, bleibt dann die Benchmarks des Launch-Tags abzuwarten – einfach wird es aber nicht werden, irgendwo wird der GeForce GTX 960 dann ziemlich sicher die Speicherbandbreite in sehr erheblichen Maße ausgehen. Mehr als gutes Mainstream-Niveau ist da nicht zu erwarten, angesichts der unzeitgemäßen Speicherbestückung dürften alle an wirklicher Performance interessierten Grafikkarten-Käufer wohl lieber wo anders schauen, selbst wenn andere Angebote am Markt nicht so energieeffizient zu Werke gehen wie dieser weitere Maxwell-Abkömmling. Es besteht hier durchaus die Chance, daß die GeForce GTX 960 – in dieser Form – heftig von der Fachpresse abgestraft wird, eine gute Energieeffizienz wird niemals die (zu erwartende) schwache Performance oberhalb von FullHD und nur 2 GB Speicher für eine neu vorgestellte Grafikkarte aufwiegen können.

Natürlich sind die konkreten Tests abzuwarten, zudem kann ein passender Preispunkt immer auch gewisse Schwächen wieder wettmachen. Gerade der vor einiger Zeit gemeldete Preispunkt von 170 Euro könnte schon wieder vieles entschärfen, wenn wenigstens die Performance der GeForce GTX 760 durch die GeForce GTX 960 erreicht wird. Selbiges werden wir entweder am 22. Januar (früher gemeldeter Launchtermin) oder am 15. Januar (von Videocardz jüngst neu gemeldeter Launchtermin) erfahren, wenn die GeForce GTX 960 – wohl allein – vorgestellt werden wird. Käufer des Performance-Segments dürften angesichts der vorgenannten Hardware-Daten zur GeForce GTX 960 aber wohl eher auf eine mögliche "GeForce GTX 960 Ti" warten, welche als weitere Abspeckung des GM204-Chips irgendwann im Laufe des Frühjahrs 2015 erwartet wird.

6

Erste Chipflächen zu Broadwell-Dies bekannt

Mit der offiziellen Vorstellung der Ultrabook-Modelle der Broadwell-Architektur gab Intel auch Chipflächen und Transistorenzahlen zu den ersten ausgelieferten Broadwell-Dies bekannt: Der Zweikerner mit GT2-Grafiklösung kommt auf 1,3 Milliarden Transistoren auf 82mm² Chipfläche, der Zweikerner mit GT3-Grafiklösung auf 1,9 Milliarden Transistoren auf 133mm² Chipfläche. Beides ist trotz erheblicher Zunahme der Transistoren-Anzahl (35% bzw 46% mehr als bei Haswell) deutlich kleiner als beim Haswell-Vorgänger, wo der Zweikerner mit GT2-Grafiklösung immerhin 130mm² Chipfläche belegt (59% mehr bzw. 37% weniger) bzw. der Zweikerner mit GT3-Grafiklösung dann gleich 181mm² Chipfläche in Anspruch nahm (36% mehr bzw. 27% weniger). Die 14nm-Fertigung von Intel zeigt hier ihre Möglichkeiten: Deutlicher Sprung in der Anzahl der Transistoren bei gleichzeitig klarer Verkleinerung der Chipflächen.

Broadwell 2C+GT1 Broadwell 2C+GT2 Broadwell 2C+GT3 Broadwell 4C+GT1 Broadwell 4C+GT2 Broadwell 4C+GT3
2 Rechenkerne + HyperThreading 4 Rechenkerne + HyperThreading
GT1-iGPU GT2-iGPU GT3-iGPU GT1-iGPU GT2-iGPU GT3-iGPU
? 1,3 Mrd. Transist. 1,9 Mrd. Transist. ? ? ?
? 82mm² Chipfläche 133mm² Chipfläche ? ? ?
Haswell 2C+GT1: ~96mm² Haswell 2C+GT2: 130mm² Haswell 2C+GT3: 181mm² Haswell 4C+GT1: ~143mm² Haswell 4C+GT2: 177mm² Haswell 4C+GT3: ~261mm² (+ optionaler eDRAM 77mm²)
Ivy Bridge 2C+GT1: 94mm² Ivy Bridge 2C+GT2: 118mm² - Ivy Bridge 4C+GT1: 133mm² Ivy Bridge 4C+GT2: 160mm² -
Sandy Bridge 2C+GT1: 131mm² Sandy Bridge 2C+GT2: 149mm² - - Sandy Bridge 4C+GT2: 216mm² -
Es ist nach wie vor unsicher, ob Haswell mit GT1-Grafiklösung überhaupt extra hergestellt wird – oder nicht einfach aus der Fertigung von Haswell mit GT2-Grafiklösung gewonnen wird. Selbiges trifft dann natürlich auch auf Broadwell zu.

Besonders bemerkenswert ist hierbei, daß Intel bei der Wald-und-Wiesen-Ausführung Zweikerner mit GT2-Grafiklösung auf eine Chipfläche klar unterhalb von 82mm² herunterkommen konnte – dies ist weniger als einige HighEnd-SoCs an Chipfläche aufbieten. Dabei belegt die integrierte Grafik bei diesem Modell immerhin schon zwei Drittel der Chipfläche, würde ein Zweikerner ohne integrierter Grafik in Intels 14nm-Fertigung bei einer spartanischen Chipfläche von ~30mm² landen können. Wenn der CPU-Krieg zwischen AMD und Intel noch laufen würde, wären solche Möglichkeiten wohl schon längst für wirklich interessante CPUs genutzt worden – sagen wir einen 16-Kerner ohne integrierter Grafik auf einer (absolut beherrschbaren) Chipfläche von 240mm². Derzeit gehen jedoch die allermeisten Fortschritte bei den Fertigungsverfahren nur in die Profitablität Intels sowie schnellere integrierte Grafik – was sicherlich seinen Wert hat, aber im Gamer-Umfeld natürlich niemanden hinter dem warmen Ofen hervorholt.

5

Hardware- und Nachrichten-Links des 5. Januar 2015

Als erste PC-Hardware des Jahres 2015 hat Intel am Montag Nachmittag die Ultrabook-Modelle von Broadwell vorgestellt – welche aber auch gern für viele reguläre Notebooks benutzt werden und daher eine größere Bedeutung haben, als nur in den (begrenzten) Ultrabook-Markt zu gehen. Es handelt sich allerdings nicht um die allerersten Broadwell-Prozessoren – jene Ehre gebührt dem Core M, welcher schon im September vorgestellt wurde. Ob es jemals einen "vollwertigen" Broadwell-Launch geben wird, steht inzwischen zu bezweifeln, denn die regulären Notebook-Modelle werden irgendwann im Frühjahr nachfolgen, die Desktop-Modelle dann voraussichtlich im Juni. Letztere dürfte Intel aufgrund der terminlichen Nähe zur Skylake-Architektur (geplant für Spätsommer bis Herbst 2015) wohl vermutlich gar nicht mehr groß ausschlachten wollen – Broadwell wird ergo eher still bzw. gezielt für die einzelnen Marktsegmente vorgestellt. Dies schadet im konkreten Fall nicht, denn so kann man sich stärker auf die Unterschiede zu den Ultrabook-Modellen von Haswell konzentrieren. Unabhängig etwaiger Pro/MHz-Vorteile der Broadwell-Architektur scheint deren 14nm-Fertigung in jedem Fall – bei gleichen TDPs – klar höhere CPU-Taktraten zu ermöglichen.

Beispielsweise beim kleinsten 15-Watt-Modell, welches bei Haswell in sehr vielen Notebooks & Ultrabooks verbaut wird, steigen die Taktraten von 1.6/2.6 GHz (Core i5-4200U, Haswell) auf nunmehr 2.2/2.7 GHz (Core i5-5200U, Broadwell) sehr deutlich an, hier ergeben sich ganz automatisch klare Performancezuwächse Richtung +20-30%. Auch die integrierte Broadwell-Grafik soll wie kürzlich schon berichtet deutliche Performance-Zuwächse bieten. Broadwell ist also für den Ultrabook-Bereich – dort, wo es eine limitierte TDP gibt und damit die Powereffizienz eine wichtige Größe darstellt – ein klarer Fortschritt gegenüber dem seinerseits auch nicht schlechtem Haswell. Leider dauert es wohl noch einige Wochen, ehe ein breites Angebot an entsprechenden Geräten im Markt stehen soll, Intel geht derzeit von Februar aus. Danach dürfte ab dem März der Launch der regulären Notebook-Prozessoren anstehen, womit dann auch höhere Wattagen und damit Performance-Gefilde bedient werden, es vor allem auch neue Mobile-Vierkerner geben wird.

Wohin nVidia die Tegra-Sparte derzeit dirigiert, sieht man gut an der Berichterstattung von Golem & Heise über nVidias neuesten Tegra-Chip "Tegra X1" (Codename "Erista") aus der 20nm-Fertigung von TSMC: Mit acht ARM-Rechenkernen (vier Cortex A53 und vier Cortex A57) samt Maxwell-basierter Grafiklösung mit immerhin 256 Shader-Einheiten ist dieser Tegra X1 außergewöhnlich leistungsstark ausgerüstet, was man allerdings auch in der TDP von 10 Watt sieht. Einsatzgebiet sollen aber nicht Tablets oder wenigstens andere PC-nahe Marktsegmente sein, der Tegra X1 ist vielmehr speziell für die Bedürfnisse der Autoindustrie gedacht. Neben dem üblichen Anwendungsfeld des Infotainments geht es hierbei vor allem um die Zukunftstechnologie der selbstfahrenden Automobile. nVidia liefert hierfür mit dem Tegra X1 nicht nur die entsprechende Hardware zur Steuerung, sondern auch ein Software-Framework namens "Drive" – womit die Autohersteller ein Komplettpaket aus einer Hand bei nVidia kaufen können. Bislang existieren hierfür zwar nur Designstudien seitens Audi – aber wenn sich nVidia in diesem Zukunftsmarkt gut positionieren kann, winken große Geschäfte und damit auch eine geringere Abhängigkeit von den Schwankungen des PC-Markts.

Eine andere neue Geschäftstätigkeit nVidias sollen laut der DigiTimes "GPU-Lizenzierungen" werden. Hierbei würde nVidia das Design seiner Grafikchips und -Architekturen für andere Chipdesigner lizenzierbar machen, so daß jene eigene Chips mit nVidia-Elementen auflegen können. Dies lohnt sich für nVidia natürlich nur in solchen Marktsegmenten, wo man nicht selber aktiv ist – also natürlich nicht bei Grafikchips für Grafikkarten und Mobile-Grafiklösungen. Aber nachdem nVidia den SoC-Markt für das Smartphone- und Tablet-Segment nahezu aufgegeben hat, weil dort die nVidia-eigenen SoCs bisher nicht zünden konnten, könnte nVidia durchaus seine Grafiklösungen den SoC-Entwicklern zur Verfügung stellen. Faktisch hat man dies mit der Kepler-Architektur schon getan, die DigiTimes erwartet ähnliches für die Maxwell-Architektur im Laufe diesen Jahres. Dies könnte nVidia einen stärkeren Einfluß auf den SoC-Markt verschaffen, ohne daß man hierfür den komplizierten Weg eines kompletten SoC-Designs gehen muß – und natürlich ohne viel Arbeit nette Lizenzzahlungen in die Kassen spülen.

5

Angebliche Benchmarks zur GeForce GTX 960 Serie aufgetaucht

Auf der koreanischen Webseite IYD war kurzzeitig ein Test zu verschiedenen Modellen der GeForce GTX 960 Serie online. Der Test verschwand recht schnell wieder und ist selbst im Google-Cache nicht mehr zu finden, gerettet werden konnte wohl nur (nachfolgend zu sehende) Benchmark-Auswertungsgrafik. Verschiedene Berichterstattungen im Web haben daraus schon schlau zu werden versucht, oftmals natürlich garniert mit eigenen Annahmen – was die nächste, davon abschreibende Webseite dann wieder als Wahrheit bzw. Aussage der Originalquelle nimmt, womit sich letztlich Original-Aussagen mit fremden Annahmen vermischen. Beispielsweise stand bei der Originalquelle wohl kein Wort zu den exakten Grafikkarten-Namen und auch nichts zu etwaigen Preispunkten – dies wurde alles später hinzugedichtet.

Damit sollten wir uns besser nur auf die vorliegende Benchmark-Auswertungsgrafik und die aus jener ableitbaren Aussagen konzentrieren. Jene Benchmark-Auswertungsgrafik zeigt erst einmal Performance-Werte zu drei neuen nVidia-Grafikkarten unterhalb der GeForce GTX 970 an – prinzipiell bleibt da nicht mehr viel anderes übrig als die GeForce GTX 960 Serie, sofern nVidia nicht solche Bezeichnungen wie "GeForce GTX 970 SE" aus dem Giftschrank holen will. Die langsamste Lösung scheint sich dabei "GeForce GTX 960" zu nennen, die beiden höheren sollen den Ti-Suffix tragen – denkbar wären also Verkaufsnamen à "GeForce GTX 960 Ti" für die mittlere sowie "GeForce GTX 965 Ti" für die schnellste Lösung.

Hochinteressant und in der bisherigen Berichterstattung wohl noch nicht richtig gewürdigt sind die Performance-Unterschiede zwischen diesen drei Lösungen: Zwischen GeForce GTX 960 Ti und GeForce GTX 965 Ti liegen gerade einmal 12,4%, zwischen GeForce GTX 960 und GeForce GTX 960 Ti jedoch stattliche 30,1%. Letzteres ist schon schwer über die Benutzung desselben Grafikchips erreichbar – aber nicht unmöglich bei wirklich deutlichen Abspeckungen, also auch das Speicherinterface betreffend. Der Unterschied der beiden Top-Modelle hingegen ist viel zu gering, als daß man hierfür gleich zwei Varianten benötigen würde – noch dazu, wo nur ~9% oberhalb der GeForce GTX 965 Ti dann schon die GeForce GTX 970 steht. Faktisch ist die GeForce GTX 965 Ti glatt überflüssig, zwischen GeForce GTX 960 Ti und GeForce GTX 970 ergibt sich ein Performance-Unterschied von ~19,5%, was ziemlich optimal aussieht und alle weiteren Varianten zwischen diesen beiden Karten erübrigen sollte.

Technik IYD-Benchmarks 3DC Perf.Index
GeForce GTX 970 GM204 (Maxwell), 1664 Shader-Einheiten @ 256 Bit DDR Speicherinterface, 4 GB GDDR5 - 490%
"GeForce GTX 965 Ti" GM204 (Maxwell), 1536 Shader-Einheiten 102,82% ~450%
GeForce GTX 780 GK110 (Kepler), 2304 Shader-Einheiten @ 384 Bit DDR Speicherinterface, 3 GB GDDR5 100% 440%
"GeForce GTX 960 Ti" GM204 oder GM206 (Maxwell), 1280 Shader-Einheiten 91,50% ~410%
GeForce GTX 770 GK104 (Kepler), 1536 Shader-Einheiten @ 256 Bit DDR Speicherinterface, 2 GB GDDR5 82,86% 380%
"GeForce GTX 960" GM206 (Maxwell), 1024 Shader-Einheiten 70,35% ~330%
GeForce GTX 760 GK104 (Kepler), 1152 Shader-Einheiten @ 256 Bit DDR Speicherinterface, 2 GB GDDR5 64,49% 310%

Sofern nVidia tatsächlich eine dritte Variante zu einer solchen Performance auflegt, muß dies irgendeinen speziellen Hintergrund haben. Denkbar wäre, daß die mittlere GeForce GTX 960 Ti nur über ein 192 Bit DDR Speicherinterface und damit nur eine Speicherbestückung von 3 GB verfügt – die größere GeForce GTX 965 Ti dagegen über das 256 Bit DDR Speicherinterface des GM204-Chips und damit eine (aus heutiger Sicht) viel attraktivere Speicherbestückung von 4 GB. Daß die GeForce GTX 960 Ti dagegen nur über ein 128 Bit DDR Speicherinterface verfügt, ist angesichts der anzeigten Performance nahezu unmöglich – denkbar wäre dies aufgrund des hohen Performanceunterschieds allerdings bei der regulären GeForce GTX 960. Für den Augenblick kann man sich trotzdem nur eher schwer mit dem Gedanken anfreunden, daß nVidia in ein Performancefeld mit nur gut 20% Performance-Differenz gleich drei Karten – GeForce GTX 960 Ti, GeForce GTX 965 Ti & GeForce GTX 970 – stellen will. Dafür müsste ein sehr guter Grund existieren, ansonsten vermeidet man üblicherweise eine solcherart Eigenkannibalisierung.

Am Ende könnten sich diese Benchmarks und die damit einhergehenden Informationen sogar als weitgehende Fantasie aus Fernost erweisen, denn der koreanische Hardware-Tester soll sich in der Vergangenheit durchaus schon mit der Simulation von real gar nicht vorliegender Hardware beschäftigt haben. Unter Umständen war nur die reguläre GeForce GTX 960 real im Test vorhanden und die beiden "Meßwerte" zu den Ti-Varianten sollen nur ausdrücken, welche Performance eine GeForce GTX 960 Ti mit eben 1280 oder 1536 Shader-Einheiten erreichen könnten – ohne daß deswegen gesagt wäre, ob nVidia eine oder zwei Ti-Varianten in den Markt schickt. Es ist also trotz dieses Testberichts weiterhin nicht sicher, ob nVidia am 22. Januar wirklich mehr als die reguläre GeForce GTX 960 vorstellt – weitere Zwischenvarianten sind wahrscheinlich, eine klare Bestätigung zu selbigen fehlt derzeit aber immer noch.

4

Hardware- und Nachrichten-Links des 3./4. Januar 2015

Zur Meldung über nVidias GM200 als (nahezu) reinen Gamerchip wäre noch die Bedeutung des ganzen für das Gamer-Segment zu würdigen: Denn obgleich der Nachteile für das professionelle Segment hat die Entscheidung nVidias, dem G200-Chip augenscheinlich keine dedizierte DoublePrecision-Hardware mitzugeben, durchaus seine Vorteile im Gaming-Segment: Schließlich muß nVidia somit keine Chipfläche rein für professionelle Zwecke opfern, jene kann nun durchgehend mit für den Gaming-Einsatz relevanten Dingen belegt werden. Zudem ergibt sich damit auch die Chance auf ansprechende Taktraten, nachdem die letzten Enthusiasten-Chips von nVidia diesbezüglich immer etwas zurücklagen und einiges an Potential durch ihre niedrigeren Taktraten verloren. Am Ende wurde sich im Gamer-Umfeld schon des längerem ein reiner (großer) Gamer-Grafikchip gewünscht – und nVidia scheint selbigen nunmehr bedingt durch die Umstände zu liefern.

In der Diskussion über die kürzliche Meldung zu Intels Management Engine wurde der Punkt erwähnt, daß gemäß früheren Berichten die Management Engine relevant für die Hardware-Beschleunigung für Videos sei, darunter auch Intels QuickSync-Feature. Nach entsprechenden Tests kann allerdings bestätigt werden, daß dem nicht so ist: Trotz deaktivierter Management Engine, sparsamer Treiberinstallation und deaktivierter Intel-Dienste funktioniert die Hardware-Beschleunigung für Videos inklusive auch QuickSync einwandfrei. Möglicherweise war dies früher einmal miteinander verbunden, möglich war dies auch ein einfacher Bug zu Anfangszeiten der Management Engine. Unsere Erfahrung lautet jedenfalls darauf, daß eine Deaktivierung keinerlei Featureverlust im Normalbetrieb nach sich zieht – irgendwelche Tweaktools, welche (unnötigerweise) nur mit der Management Engine zusammen funktionieren, natürlich ausgeschlossen.

Noch nachzutragen aus dem Jahr 2014 ist die jüngste Ausführung des Rücklaufquoten-Reports von Hardware.fr (maschinelle Übersetzung ins Deutsche). Die ganz großen Veränderungen hat es hierbei nicht gegeben, selbst über mehrere der halbjährig erstellten Reports bewegt sich bei den RMA-Quoten der einzelnen Geräte-Klassen recht wenig. Mit einer Ausnahme allerdings: Die RMA-Quoten von SSDs sind zuletzt konstant gesunken, derzeit liegt man mit 0,44% Rücklaufquote sogar niedriger als reguläre Festplatten mit derzeit 0,82% Rücklaufquote. Der früher beobachtete Effekt, daß die SSDs der Anfangszeiten teilweise viel höhere RMA-Quoten als andere Hardware-Bauteile hatten, kann also wirklich als ausgestanden und damit Teil der Vergangenheit betrachtet werden.

Passend zum letzten Gedanken gibt es auf Wikibon eine Ausarbeitung, welche sich mit der Weiterentwicklung von Flash-Speicher im Vergleich insbesondere zu herkömmlichen Festplatten beschäftigt. Ziemlich am Ende des Artikels findet sich dazu auch eine Grafik, welche eine Projektion der Herstellungskosten für die nächsten 10 Jahre enthält – an deren Ende man eine Preis-Parität zwischen Flashspeicher-basierten SSDs und Magnetspeicher-basierten Festplatten vorhersagt. Und in der Tat läßt sich eine solche Vorhersage immer machen, wenn einfach nur die Kosten für die eine Sache stärker sinken als die Kosten für die andere Sache. Die Grundvoraussetzung dafür, daß eine Preis-Parität irgendwann erreicht sein wird, liegt dabei jedoch darin, daß die jährliche Kostenreduktion auch in der Zukunft in jedem Jahr in voller Höhe stattfindet. Eine langfristige Garantie über jährlich große Kostensenkungen kann man dabei eigentlich gar nicht abgeben – selbst wenn eine gewisse Chance existiert, daß es in diesem Fall so oder ähnlich eintreten wird. Ob die SSD die herkömmlichen Festplatten wirklich ablöst, ist in jedem Fall ferne Zukunftsmusik, für die absehbare Zeit sind wir im Zeitalter der Koexistenz beider Technologien.

4

Spezifikationen zu nVidias GM200-Chip scheinbar bestätigt

TechPowerUp haben in deren GPU-Z-Datenbank den Eintrag zu einer "nVidia Quadro M6000" entdeckt, welche wahrscheinlich die Hardware-Spezifikationen des nVidia GM200 Grafikchips enthält bzw. dessen Spezifikationen gegenüber den bisherigen Angaben bestätigt. Denn faktisch gleichen sich die früheren, aus der SiSoft-Datenbank gezogenen Angaben absolut mit den neuen Angaben aus der GPU-Z-Datenbank. Natürlich besteht weiterhin die Möglichkeit übler Scherze, auch die Ergebnis-Validierung dieser Tools bzw. Datenbanken wird letztlich nicht unüberwindbar sein. Am Ende deutet aber alles darauf hin, daß die nachfolgenden Angaben zu nVidias GM200-Chip korrekt sind bzw. zumindest nahe an das finalen Produkt herankommen werden:

    nVidia GM200

  • sicher:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~600mm² Chipfläche
  • ziemlich sicher:  Maxwell 2.0 Architektur
  • ziemlich sicher:  DirectX 11.2b
  • angenommen:  6 Raster-Engines
  • ziemlich sicher:  3072 Shader-Einheiten in 24 Shader-Clustern (SMX)
  • wahrscheinlich:  192 Textureneinheiten (TMUs)
  • ziemlich sicher:  96 Raster Operation Units (ROPs)
  • ziemlich sicher:  3 MB Level2-Cache
  • ziemlich sicher:  384 Bit DDR GDDR5-Speicherinterface
  • möglicher Speicherausbau:  6 oder 12 GB GDDR5
  • möglicher Chiptakt:  Grundtakt ~1100 MHz, bis zu ~1400 MHz Boost-Takt
  • möglicher Speichertakt:  3500 MHz
  • Performance-Prognose:  +30% bis +40% zur GeForce GTX 980
  • möglicher Release:  ab März 2015
  • mögliche Verkaufsnamen:  GeForce GTX Titan X oder GeForce GTX Titan II

Bis auf eine Ausnahme mussten an obiger Auflistung keine Daten gegenüber dem früheren Stand verändert werden, sondern konnten sogar einige Adjektive von "wahrscheinlich" in nunmehr "ziemlich sicher" umgewandelt werden – das Bild zum GM200-Chip verdichtet sich also. Ein scheinbarer Unterschied besteht noch in der Anzahl der Textureneinheiten, welche seitens GPU-Z (über die Berechnung der Füllrate) mit 256 Stück angegeben werden – aber dies könnte auch eine Fehldeutung sein, GPU-Z verwendet hier wahrscheinlich schlicht das für die Maxwell-Generation nicht mehr zutreffende Verhältnis an Shader- zu Textureneinheiten des GK110-Chips. Die einzigen Werte, welche GPU-Z wirklich misst bzw. im Treiber ausliest, sind üblicherweise die Taktraten, die Anzahl der Shader-Einheiten und die Breite des Speicherinterfaces.

In letzterem Punkt gibt es dann die einzige echte Korrektur gegenüber den bisherigen Angaben: Jene Quadro M6000 lief gleich mit 3300 MHz Speichertakt – was dann also darauf hindeutet, daß es bei den Gamer-Ausführungen sicherlich wieder mindestens 3500 MHz Speichertakt werden dürften, sprich den Standard von GeForce GTX 780 Ti und GeForce GTX 980. Daß jene Quadro M6000 nur mit einem Chiptakt von 988 MHz daherkam, muß im übrigen nichts bedeuten, da die professionellen Ausführungen üblicherweise klar niedriger getaktet als die Gamer-Ausführungen antreten. Eher kann man hieraus eine gewisse Bestätigung dafür ziehen, daß der GM200-Chip im Gaming-Einsatz Taktraten klar oberhalb von 1000 MHz bieten dürfte, wenn schon die Quadro-Ausführung mit nahezu 1000 MHz Chiptakt daherkommt.

Damit läßt sich auch die bisherige Performance-Prognose von "+30% bis +40% zur GeForce GTX 980" weiterhin aufrecht erhalten – sofern der GM200-Chip nicht deutlich abweichend von diesen Spezifikationen antritt, kann an dieser Prognose kaum etwas schiefgehen. Damit wird nVidia natürlich Performance-Höhen erklimmen, welche bislang nur DualChip-Lösungen vorbehalten waren (im besten Fall Richtung 3DC Perf.Index 800%) – und sicherlich dafür auch entsprechend abkassieren wollen. Anfänglich dürfte der GM200-Chip sicherlich in Form einer einzelnen Titan-Grafikkarte mit dementsprechendem Preispunkt von 999 Dollar erscheinen – eine später nachgeschobene abgespeckte Variante (möglicherweise "GeForce GTX 980 Ti" genannt) mit humanerem Preispunkt ist nicht unwahrscheinlich, derzeit aber noch unbestätigt. Ob AMD diese Show durch seine Fuji- & Bermuda-Projekte entscheidend stören kann, hängt sicherlich auch an den konkreten Launchterminen: Sowohl bei AMD als auch bei nVidia kann es ab dem März soweit sein, sind jedoch auch weitere Verzögerungen nicht wirklich auszuschließen.

Inhalt abgleichen