17

Hardware- und Nachrichten-Links des 16./17. Juli 2016

Bei der PC Games Hardware hat man eine Radeon RX 480 im Referenzdesign mit einem anderen Kühler (Arctic Accelero Mono Plus) umgerüstet, was derzeit (vor dem Erscheinen von Herstellerdesigns) eine sicherlich sinnvolle Maßnahme darstellt. Dabei konnte nicht nur die Chiptemperatur von 84°C auf 67°C deutlich gesenkt werden, sondern ergaben sich dann auch größere Spielräume für Übertaktung und Undervolting. Ob das ganze zu einer höheren realen Boosttaktrate im unübertakteten Betrieb geführt hat, wurde leider nicht nachgeprüft – wenn, dann dürfte der Effekt jedoch eher minimaler Natur sein, denn die Radeon RX 480 ist ohne Übertaktung gewöhnlich nicht Temperatur-limitiert (sondern hängt primär an ihrem Power-Limit). Damit dürfte dieser Umbau auch eine Vorschau auf die kommenden Herstellerdesigns zur Radeon RX 480 sein: Jene dürften (ohne Änderung an den Taktraten bzw. am Power-Limit) kaum mehr Performance bieten, dafür aber entweder deutlich leisere Grafikkarten auf Referenz-Taktraten ermöglichen oder aber endlich einen richtigen Übertaktungsspielraum bieten.

Bei Legit Reviews hat man dagegen nachgeprüft, was mit Undervolting bei der Radeon RX 480 noch herauszuholen ist. Voraussetzung hierfür ist natürlich etwas Glück beim verbauten Polaris-10-Chip – richtig verallgemein läßt sich das ganze derzeit nicht, nur die nachkommenden Herstellerdesigns haben eine gewisse Chance darauf. Denn bei Legit Reviews führte die geringere Chipspannung zu einer glatten Mehrperformance von immerhin +2,7% – vorangetrieben durch einen höheren realen Boosttakt, welcher natürlich mit der geringeren Chipspannung mehr Platz unter dem festen Power-Limit hatte. Verallgemeinern darf man dies (wie Legit Reviews es leider tun) natürlich nicht – die sehr verschiedenen ausfallenden Ergebnisse zur Radeon RX 480 zeigen, das die default-Chipspannung in der Tat derart gewählt wurde, um bei allen Karten deren Taktraten & Performance garantieren zu können. Einzelne Karten im Referenzdesign können mehr Möglichkeiten haben und damit von Undervolting profitieren – andere werden dies mit Bluescreens quittieren. Von den Herstellerdesigns ist diesbezüglich mehr zu erwarten, zum einen wegen der zu erwartenden besseren Kühllösungen – zum anderen, weil die Grafikkarten-Hersteller dann auch mehr Zeit hatten, dem Polaris-10-Chip auf den Zahn zu fühlen und jener somit besser ausgereizt werden kann.

Bei der PC Games Hardware sowie eTeknix hat man sich mit der DirectX-12-Performance unter Total War: Warhammer beschäftigt, nachdem hierfür eine Beta-Unterstütung seitens dieses Strategietitels existiert. Dummerweise hat der Spieleentwickler dem Spiel einen integrierten Benchmark beigelegt, welcher allerdings – sehr untypisch für ein Strategie-Spiel – kaum CPU-Last erzeugt und somit viel mehr über die Fähigkeiten der einzelen Grafikkarten aussagt, als letztlich im Spiel selbst davon ankommt. Nichtsdestotrotz bleiben die Meßergebnisse im Rahmen des bekannten Performancebildes – es erstaunt eher, das AMD-Grafikkarten hier nicht noch stärker davonziehen. Die PCGH hat sich dann noch an Messungen im Spiel selber versucht, welche allerdings den nVidia-Grafikkarten nochmals zugute kamen – ein bislang unter DirectX 12 eher untypisches Ergebnis. Am Ende dominiert vielleicht noch viel zu stark der Beta-Status des DirectX-12-Supports des Spiels – gerade wenn meistens DirectX 11 sogar für höhere Frameraten unter diesem Titel sorgt.

17

Erste 3DMark13 "TimeSpy" Benchmarks der GeForce GTX 1060 6GB

Nach zweimal nVidia-eigenen Benchmarks – No.1 & No.2 – sowie ersten 3DMark13-FireStrike-Werten kommen nun aus dem chinesischen Forum PCEva erste 3DMark13-TimeSpy-Messungen zur nächste Woche zu erwartenden neuen Midrange-Karte von nVidia – eine "GeForce GTX 1060" wurde dort zwar nicht explizit genannt, aber es ist offensichtlich, das es sich um Messungen dieser Karte handelt. Es existieren zwar noch recht wenige Erfahrungswerte zu diesem neuen synthetischen DirectX-12-Test, aber auf den ersten Blick scheinen neuere Grafikkarten ähnlich abzuschneiden wie bisher schon vom 3DMark13 her bekannt – sprich mit leichtem AMD-Vorteil, aber insgesamt nicht wirklich abweichend vom allgemein bekannten Gesamtbild:

TimeSpy Score TimeSpy GPU Async-Gewinn
GeForce GTX 1080 7246 7722 +5,9%
GeForce GTX 1070 6009 6508 ?
Radeon R9 Fury 4567 5045 +15,4%
GeForce GTX 1060 6GB 4166 4623 +3,9%
Radeon RX 480 8GB 3909 4356 +7,7%

So kommt auch unter diesen TimeSpy-Messungen die GeForce GTX 1060 6GB um ca. 6% vor der Radeon RX 480 8GB heraus – gleichlautend schon den FireStrike-Messungen zwischen diesen beiden Karte. Ansonsten wird allerdings eher eine Performance-Differenz von +5-13% zwischen Radeon RX 480 8GB und GeForce GTX 1060 6GB erwartet, die nVidia-Karte dürfte diesen Zweikampf (zu allerdings abweichenden Preispunkten) wohl mit geringem Vorsprung für sich entscheiden. Interessant daneben der Performance-Gewinn durch die Zuschaltung von Async Compute, welcher bei nVidia allgemein schwächer ausfällt als bei AMD, bei der GeForce GTX 1060 sogar besonders schwach. Selbst die Radeon RX 480 liegt in dieser Frage aber noch deutlich hinter der Radeon R9 Fury zurück – ein klarer Hinweis darauf, das von dieser Funktion insbesondere Grafikkarten aus älteren AMD-Architekturen profitieren, wo die Auslastung des Grafikchips besonders suboptimal war. Sobald die Auslastung des Grafikchips allerdings nahe am Optimum ist – wie bei den nVidia-Grafikkarten und wie (abgeschwächt) auch bei AMDs neuen Grafikkarten – geht der Performancevorteil von Async Compute augenscheinlich zurück.

17 17

Wo liegt die ideale Speichermenge für eine FullHD-Grafikkarte?

Im Sinne der Radeon RX 480 mit ihren Speichermengen von 4 und 8 GB sowie der GeForce GTX 1060 mit ihren Speichermengen von 3 und 6 GB ergibt sich eine interessante Streitfrage: Wo liegt die ideal Speichermenge für eine für die FullHD-Auflösung genutzte Grafikkarte? Gemeint ist damit ein jetzt neu gekauftes Modell, welches also 2-3 Jahre genutzt werden soll. Je nach subjektiver Ausrichtung kann man hier also die langfristige Entwicklung und/oder auch so einen Punkt wie den Wiederverkaufswert mit beachten. Oder ganz einfach formuliert: Wenn jetzt eine Grafikkarte für die FullHD-Auflösung anzuschaffen wäre – welche Speichermenge sollte jene haben?

2 GB
1% (34 Stimmen)
2-3 GB
1% (19 Stimmen)
3 GB
1% (37 Stimmen)
3-4 GB
5% (144 Stimmen)
4 GB
29% (917 Stimmen)
4-6 GB
15% (477 Stimmen)
6 GB
5% (165 Stimmen)
6-8 GB
14% (450 Stimmen)
8 GB
30% (956 Stimmen)
Gesamte Stimmen: 3199
15

Hardware- und Nachrichten-Links des 15. Juli 2016

Die polnische Webseite PurePC (maschinelle Übersetzung ins Deutsche) gibt Daten zu einer angeblichen GeForce GTX 1060 für Laptops zum besten – welche wiederum ohne "M"-Suffix daherkommt, die Hardware-Daten der Desktop-Version haben und allein mit niedrigeren Taktraten antreten soll. Der nominelle Taktratenunterschied ist mit 1405/1671/4000 MHz (Mobile) zu 1506/1709/4000 MHz (Desktop) sogar ausgesprochen gering – wobei sich dies natürlich noch in der Praxis vergrößern könnte, je nachdem ob die mobile Lösung ihre Boosttaktraten wirklich halten kann (was in Notebooks eher selten der Fall ist). In jedem Fall ergibt dies einen erneuten Hinweis darauf, das nVidia tatsächlich eine GeForce 1000 Mobile-Serie möglichst nah an der Desktop-Serie plant, leider aber auch den unterscheidenden "M"-Suffix abschaffen will. Viel wichtiger dürfte aber wohl sein, das nVidia hiermit exakt dort wildert, wo sich AMD vor dem Start der 14/16nm-Generation mit einem großen zeitlichen Vorteil sah – bei den Mobile-Grafiklösung auf Basis der neuen Fertigung.

AMD hat nun extra für einen besseren Zugang zu diesem Markt seine komplette Releasestrategie abweichend von bisherigen Gepflogenheiten ausgerichtet – die beiden kleineren Grafikchips der 14/16nm-Generation zuerst (Polaris 11 & 10), die beiden größeren später (Vega 10 & 11). Um so schmerzlicher dürfte es nunmehr für AMD sein, das nVidias Gegenangebot für den Polaris-10-Chip in Form des GP106-Chip sehr zeitnah sowohl im Desktop- als auch Mobile-Feld nachkommt, während der eigentlich breit fürs Mobile-Segment gedachte Polaris-11-Chip immer noch nicht im Markt steht. Sicherlich hat AMD bei Polaris 11 dann doch noch einen gewissen zeitlichen Vorsprung, da nVidias Gegenangebot in Form des GP107-Chips nicht vor dem Herbst ansteht – aber die augenscheinliche Verzögerung bei Polaris 11 läßt diesen zeitlichen Vorsprung immer weiter abschmelzen. AMDs Releasestrategie mag gut gedacht gewesen sein, wurde jedoch nicht zügig genug durchgeführt, um ihren nominellen Vorteil – des deutlich früheren Markteintritts in allen für OEMs interessanten Segmenten – auch in die Praxis zu überführen.

Mittels einer kurzzeitig bei Scribd einsehbaren Sony-Präsentation läßt sich nachträglich der Leak der Hardware-Daten zur Sony PS4K "Neo" von diesem April bestätigen. Die leakenden Webseiten hatten seinerzeit augenscheinlich exakt dieses Dokument in den Händen, denn die damals abgeschriebenen Daten passen perfekt zu dem, was sich nunmehr im Original begutachten läßt: Eine schneller getaktete CPU, welche aber weiterhin bei acht Jaguar-Rechenkernen bleibt, dafür aber eine neue GPU mit deutlich mehr Hardware-Einheiten und mehr Chiptakt, so das am Ende 128% mehr (nominelle) GPU-Rechenleistung zugunsten der kommenden Sony-Konsole stehen. Seitens Sony wurde dies natürlich noch nicht bestätigt, offiziell ist derzeit nur die Arbeit an einer neuen Konsole, welche Software-Kompatibilität zur originalen PS4 halten und wohl noch in diesem Jahr herauskommen soll. Ein klein wenig seltsam ist vielleicht noch, das dieses Dokument einige Webseiten rund um den Globus große Meldungen wert ist – welche meistens jedoch nicht darauf eingehen, das der Dokumenteninhalt selber eigentlich schon seit April bekannt ist.

Sony PS4K "Neo" Spezifikationen (Teil 1)
Sony PS4K "Neo" Spezifikationen (Teil 1)
Sony PS4K "Neo" Spezifikationen (Teil 2)
Sony PS4K "Neo" Spezifikationen (Teil 2)

Golem vermelden endlich einmal echte Fortschritte bei der EUV-Technik zur Halbleiterfertigung: Jene fortschrittliche Belichtungstechnik, welche technisch eigentlich schon seit Jahren spruchreif ist, scheint nun endlich an der Schwelle zur Wirtschaftlichkeit zu stehen, so das Halbleiterfertiger TSMC seine 7nm-Fertigung als Testlauf für EUV plant und ab der 5nm-Fertigung standardmäßig auf EUV setzen will. Die entsprechenden Belichtungsmaschinen wurden bereits bei Fertigungsausrüster ASML geordert, hierbei handelt es sich also nicht nur um Prognosen oder lose Planungen, sondern erstmals um konkret angesetzte Vorhaben. Jene 5nm-Fertiung mit EUV will TSMC im übrigen im Jahr 2020 spruchreif haben – wie zuletzt schon ausgedrückt geht es derzeit mal wieder ziemlich fix mit der Weiterentwicklung der Chipfertigung in Richtung 10nm, 7nm und 5nm voran. Interessanterweise gibt es allerdings noch keinerlei Wortmeldung zu dem, was danach kommen soll – was angesichts der langen Planungszeiträume der Halbleiterfertiger ziemlich verwundert und damit den Verdacht offenläßt, das es nach der 5nm-Fertigung eventuell zu einem gewissen "Fortschrittsloch" kommen könnte.

15

Umfrage-Auswertung: Wie ist der Ersteindruck zur Radeon RX 480?

Mit einer Umfrage von Anfang Juli wurde der Usermeinung zur Radeon RX 480 abgefragt. AMDs neues Midrange-Angebot hatte zwar seine gewissen Probleme, hinterließ aber dennoch ein insgesamt recht freundliches Bild bei den Umfrage-Teilnehmern: 45,5% positiver Ersteindruck bei nur 24,5% negativer Ersteindruck sind ziemlich exakt so, wie die GeForce GTX 1080 abgeschnitten hatte (45,9% positiv & 25,5% negativ). Im Vergleich zu den Launchs früherer AMD-Hardware ist dies ebenfalls ordentlich, kommt allerdings nicht an die Spitzenwerte der allerersten 28nm-Beschleuniger heran – wobei dies auch nVidia aktuell nicht mehr gelingt. Entweder sind die User allgemein kritischer geworden – oder aber wird der mit der 14/16nm-Generation hingelegte Performancesprung als niedriger wahrgenommen als seinerzeit beim Aufkommen den allerersten 28nm-Beschleuniger.

Dabei verschenkt die Radeon RX 480 noch massig an Potential für eine klar bessere Wertung – denn von den Umfrage-Teilnehmern mit durchschnittlichem oder negativem Ersteindruck stimmten gleich 40,8% für den Bruch der PCI-Express-Spezifikation als primäres Problem der Karte, dies sind immerhin 22,2% aller Umfrage-Teilnehmer. Ausgerüstet mit zwei 6poligen oder einem 8poligem Stromstecker hätte die Radeon RX 480 diese Problematik komplett umschiffen und potentiell gesehen jene 22,2% der Umfrage-Teilnehmer eventuell sogar noch auf ihre Seite ziehen können. An dieser Stelle angelangt, sollten sich die Verantwortlichen bei AMD wirklich überlegen, ob jene Entscheidung gegen mehr Stromstecker wirklich die richtige war. Sicherlich wollte man damit vermeiden, das die Radeon RX 480 bezüglich deren Performance mit schnelleren Grafikkarten verglichen wird und sich somit eine unerfüllbare Erwartungshaltung aufbaut. Andererseits ist es genau Aufgabe des Marketings, um solche Klippen herumzuschiffen – nicht aber, das Produkt dafür auf eine andere Klippe zuzusteuern.

Die restlichen Stimmen der Umfrage-Teilnehmern mit durchschnittlichem oder negativem Ersteindruck gehen mit 24,8% auf eine nicht ganz überzeugende Performance und mit 29,9% auf einen (vergleichsweise) hohen Stromverbrauch. Die schwache Overclocking-Eignung der Radeon RX 480 wurde hingegen von nur 1,8% als primäres Proble angesehen, dieser Punkt geht wohl unter den anderen unter, ist aber auch in diesem Preissegment generell wohl nicht so wichtig. Sehr bemerkenswert ist letztendlich angesichts der reichlichen Kritikpunkte an der Radeon RX 480, das gleich satte 30,2% aller Umfrage-Teilnehmer die Karte als interessant für eine Neuanschaffung betrachten. Dies ist abgesehen vom einsamen Spitzenwert der GeForce GTX 970 (52,4%) das bislang höchste potentielle Kaufinteresse seit dem Anbeginn dieser Umfragen mit der ersten 28nm-Grafikkarte in Form der Radeon HD 7970 zum Jahresanfang 2012. Unabhängig davon, das auch nVidias Gegenangebot in Form der GeForce GTX 1060 wohl ziemlich gut werden wird, dürfte AMD mit der Radeon RX 480 somit einen wirklichen Umsatzbringer an der Hand haben.

  positiv durchschn. negativ Kaufint.
Radeon RX 480 45,5% 30,0% 24,5% 30,2%
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380X 21,8% 47,0% 31,2% 8,1%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R7 360 24,5% 32,1% 43,4% 7,6%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
GeForce GTX 1080 45,9% 28,6% 25,5% 12,2%
GeForce GTX 1070 44,0% 30,4% 25,6% 17,5%
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 950 23,1% 33,1% 43,8% 4,9%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
14

Hardware- und Nachrichten-Links des 14. Juli 2016

Zur GeForce GTX 1060 3GB kommen sich widersprechende Meldungen herein: Bei Game-Debate will man deren Listenpreise wissen, welche mit 149$ für die Herstellerdesigns und 199$ für die Founders Edition allerdings arg niedrig erscheinen. Sicherlich wäre ein solcher Preispunkt zu begrüssen und würde auch viel von dem Nachteil des nur 3 GB großen Speichers abtragen – allein, nVidia ist einfach nicht für derartige Preisbrecher-Angebote bekannt. Hier ist eine hohe Chance darauf zu sehen, das sich jemand diesen Preis einfach nur ausgedacht und nun jenen als "Gerücht" verkaufen will. Preislich darf die GeForce GTX 1060 3GB sicherlich nicht über die 199$-Marke hinausgehen, aber dies kann man schließlich auch damit erreichen, einen Listenpreis für Herstellerdesigns von 199$ anzusetzen und sich für diese Karte eine Founders Edition zu sparen. Die teilweise angedachte Konkurrenz der GeForce GTX 1060 3GB zur Radeon RX 470 ist sowieso falsch prognostiziert – die GeForce GTX 1060 3GB wird nahe genug an der eigenen 6-GB-Version dran sein, um immer noch ein Kontrahent für die Radeon RX 480 in deren 4-GB-Version zu bleiben und die Radeon RX 470 damit klar hinter sich zu lassen.

TweakTown gehen dann in eine ganz andere Richtung mit der Meldung, nVidia hätte die ursprünglich so geplante GeForce GTX 1060 3GB in dieser Form gleich ganz gestrichen und würde stattdessen im Dezember eine GeForce GTX 1050 mit 3 GB Speicher bringen. Angesichts der bereits ziemlich fortgeschrittenen Pläne zur GeForce GTX 1060 3GB wäre dies eine gewagte Wendung in nahezu letztere Sekunde – immerhin gibt es zur GeForce GTX 1060 3GB teilweise schon explizite Produktnummern bei den Grafikkarten-Herstellern. Zudem könnten sich TweakTown hier auch einfach in Bockshorn jagen lassen haben und die genannte GeForce GTX 1050 ist kein Ersatz der GeForce GTX 1060 3GB, sondern schlicht eine weitere Grafikkarte auf Basis des GP106-Chips, nur eben noch einmal stärker abgespeckt. Es bleibt somit abzuwarten, was an dieser Meldung dran ist – gänzlich unmöglich wäre eine solche oder ähnliche Auflösung aber auch nicht, denn nVidia kann sicherlich einschätzen, das sich eine 3-GB-Karte im Midrange-Bereich heutzutage einfach schlecht macht und demzufolge deren Verkaufserfolg zumindest in Frage gestellt werden kann.

Hier liegt einfach die Crux des 192 Bit DDR breiten GDDR5-Speicherinterfaces des GP106-Chips: Zwar kann man damit der Hauptvariante GeForce GTX 1060 6GB eine gute Speicherbandbreite mitgeben – und auch deren Speichermenge von 6 GB erscheint als guter Mix zwischen Anforderung und Wirtschaftlichkeit. Aber eine Variante mit kleinerer Speichermenge ist darauf aufbauend um so schwerer zu erstellen, da es bei GDDR5-Speicher (im Gegensatz zu GDDR5X) keine Speicherchips mit "krummen" Speichermengen á 0,75 und 1,5 GB Speicher gibt, wo man auch an einem 192 Bit Speicherinterface also 4,5 GB Speicher unterbringen könnte – und damit über die verkaufspsychologisch wichtige Marke von 4 GB kommen würde. Da die Nutzung von GDDR5X-Speicher (zu diesem Zeitpunkt) wohl allein aus Kostengründen ausscheidet, bliebe nur der Weg, das Speicherinterface auf 128 Bit zusammenzukürzen und mit der daraus resultierenden um ein glattes Drittel niedrigeren Speicherbandbreite zu leben. Dies dürfte allerdings für die Performance der Karte desaströs sein, dann könnte sich jene nicht mehr an der Radeon RX 480 reiben. Den Schleichweg eines gesplitteten Speicherinterface will nVidia hingegen aufgrund der schlechten Erfahrungen bei der GeForce GTX 970 sicherlich nicht mehr gehen – womit am Ende nur ein Haufen ungünstiger Lösungen zurückbleibt. Eben deswegen hat man in der Vergangenheit ungern auf diese krummen Speicherinterface-Breiten gesetzt – erst wenn sich GDDR5X durchgesetzt hat, wird diese Problematik verschwinden.

Laut Fudzilla kommt nVidias Volta-Generation noch in der 16nm-Fertigung und muß sich daher der mit Volta einhergehende Performance-Schub primär aus Architektur-Verbesserungen speisen. Nun könnte nVidia eventuell dazu gezwungen sein, außerplanmäßig derart zu handeln – aber original ist die Volta-Generation ziemlich sicher auf einer besseren Fertigungsstufe als 16nm geplant. Denn es gibt seitens nVidia klare Maßgaben, das es bei Volta nicht nur eine Stromverbrauchs-normierte Performanceverdopplung geben soll (was man auch mit Effizienzverbesserungen erreichen könnte), vielmehr prognostiziert nVidia auch eine nahezu verdoppelte absolute Rechenleistung. Selbige ist jedoch nur mit nahezu verdoppelter Einheiten-Anzahl oder nahezu verdoppeltem Takt zu erreichen – etwas, was angesichts des schon sehr mächtigen GP100-Chips einfach nicht mehr in die 16nm-Fertigung pressbar scheint. Unbenommen etwaiger Planänderungen seitens nVidia muß die Volta-Generation demzufolge original zwingend für eine bessere Fertigung als 16nm geplant gewesen sein.

Davon abgesehen legt nVidia normalerweise sowieso keine zwei Grafikchip-Generationen pro Fertigungsstufe auf – oftmals zwei Grafikkarten-Generationen pro Grafikchip-Generation, aber eben nicht zwei Grafikchip-Generationen. Maxwell ist in dieser Frage die klare Ausnahme und hat auch seine Begründung mit der ewig langen Wartezeit auf die 14/16nm-Fertigung. Genau diese Situation ist nun aber augenscheinlich nicht erneut anstehend – die Halbleiterhersteller drängen eher mit neuen Fertigungsstufen nach vorn, als den Fortschritt wie im Laufe der 28nm-Fertigung immer weiter zu verzögern. Dieses Jahr werden erste kaufbare Produkte mit in 10nm gefertigten Smartphone-SoCs erscheinen (Apples A10-SoC im iPhone7) – so gesehen könnte die 10nm-Fertigung unter Umständen schon nächsten Sommer/Herbst auch für Grafikchips zur Verfügung stehen (ganz äquivalent der 14/16nm-Fertigung mit demselben Ablauf nur ein Jahr früher). Selbst wenn also die Weiterentwicklung des Fertigungsverfahren von Smartphone-SoCs zu großen Grafikchips bei der 10nm-Fertigung deutlich länger dauert als bei der 14/16nm-Fertigung, sollte die 10nm-Fertigung im Jahr 2018 durchaus spruchreif für Grafikchips sein.

Insofern ist hier erst einmal nichts zu sehen, was nVidia zur Weiterverwendung der 16nm-Fertigung bei Volta bringen sollte. Allenfalls könnte eine schlechte Eignung der 10nm-Fertigung für Grafikchips (äquivalent zur 20nm-Fertigung) oder deren Verspätung zu einer entsprechenden Planänderung führen. Dann müsste sich nVidia jedoch auch von allen früheren Performancezielen für Volta verabschieden und deutlich kleinere Brötchen backen – gerade (deutlich) mehr nominelle Rechenleistung sind ausgehend vom GP100-Chip auf schon satten 610mm² Chipfläche unter der 16nm-Fertigung nicht mehr erreichbar. Etwas unbenommen davon wären allerdings mögliche Gamer-Grafikchips der Volta-Generation unter weiterhin der 16nm-Fertigung: Da nVidia bei den Chipgröße der aktuellen Pascal-Generation noch nicht am Limit ist, könnte man für Volta einfach neue Gamer-Grafikchips mit mehr Einheiten und damit größerer Chipfläche in der 16nm-Fertigung auflegen, welche dann auch bemerkbar mehr Performance abwerfen. Den großen entscheidenden Performancesprung darf man von einem solchen Modell aber auch wieder nicht erwarten – dafür braucht es dann doch ein neues, kleineres Fertigungsverfahren.

Inhalt abgleichen