26

Hardware- und Nachrichten-Links des 26. September 2018

Bei Reddit wird über die Chipdaten von Apples A12-Chip diskutiert, dem ersten aus der Massenfertigung bei TSMC kommenden 7nm-Chip. Hierzu wird der Vergleich zu den vorhergehenden Apple-Chips A10 (16nm) und A11 (10nm) gezogen – womit sich bestimmen läßt, wo der Flächenvorteile der verschiedenen TSMC-Fertigungsverfahren bei realen Chipprojekten herauskommt. Aus dieser Warte her betrachtet liegt TSMC vollkommen im Plan, der Flächenvorteil des A12 zum A11 liegt exakt so, wie es TSMC bei der Differenz von der 10nm- zur 7nm-Fertigung prognostiziert hat (grob zwei Drittel höhere Packdichte). Zwischen der 16nm- und der 7nm-Fertigung wird dann sogar leicht mehr als eine Verdreifachung der Packdichte erreicht (x 3,14). Zwar wird damit TSMCs Prognose (x 3,33) nicht gänzlich erreicht und zu einem doppelten Fullnode-Sprung (x 4,00) fehlt auch noch ein gutes Stück – aber da ja industrieweit die 10nm-Fertigung oftmals ganz ausgelassen wird, ergibt dies dennoch einen riesigen Schritt von der 16nm- auf die 7nm-Fertigung. Dieser Schritt ist letztlich derart enorm (wie aber auch die Anfangskosten der 7nm-Fertigung), das die Chipentwickler dies sicherlich mit der ersten 7nm-Generation kaum vollständig ausschöpfen werden – für die gleiche Chipfläche könnte man schließlich die dreifache Transistoren-Anzahl wie unter der 16nm-Fertigung aufbieten.

Prozeß Chipfläche Transistoren Packdichte Realität vs. Vorgabe
Apple A10 TSMC 16FF 125mm² 3,3 Mrd. 26,4 MT/mm² -
Apple A11 TSMC 10FF 87,6mm² 4,3 Mrd. 49,1 MT/mm² +86% vs. +100%
Apple A12 TSMC 7FF 83,3mm² 6,9 Mrd. 82,8 MT/mm² +69% vs. 67%

Vermutlich dürfte es hierbei eher zu einem Mittelweg kommen, beispielsweise eine zweifache Transistoren-Anzahl zu entsprechend kleineren Chipflächen. Apple selber ist hierfür das perfekte Beispiel, zwischen A10 (16nm) und A12 (7nm) gab es eine grob verdoppelte Transistorenmenge bei allerdings um ein Drittel kleinerer Chipfläche. Natürlich hängt dies auch am konkreten Chipprojekt: Bei AMDs Zen-2-basierten Prozessoren wird sich die Transistorenmenge wegen der doppelten Kern-Anzahl ebenfalls grob verdoppeln, die Chipfläche somit entsprechend etwas kleiner ausfallen (geschätzt 150-170mm² anstatt derzeit 213mm²) – damit läge ein weiteres Idealbeispiel für diese Mittelswegs-These vor. nVidia hingegen braucht die unter der 7nm-Fertigung möglichen Mehrtransistoren, um sein RayTracing-Projekt entscheidend voranzutreiben – und dürfte daher mit seiner ersten 7nm-Generation sicherlich kleinere Chipflächen gegenüber den aktuellen 12nm-Chips anstreben, deswegen aber kaum unterhalb des Chipflächen-Niveaus der eigenen 16nm-Generation gehen. Eine erste Prognose zu nVidias 7nm-Plänen lautet somit darauf, das deren 7nm-Chips durchaus mit der dreifachen Transistoren-Menge der 16nm-Chips antreten könnten – was gegenüber nVidias aktuellen 12nm-Chips eine um 60-90% höhere Transistoren-Anzahl ergeben würde.

Weit beachtet wird derzeit eine Meldung aus dem Chiphell-Forum (maschinelle Übersetzung ins Deutsche), wonach AMD nun tatsächlich noch einen 12nm-Refresh der Polaris-Chips auflegen soll – von verschiedenen Webseiten dann als "Polaris 30 Generation" bezeichnet, weil sich entsprechende Grafikchips vermutlich "Polaris 30" sowie "Polaris 31" nennen dürften. Laut der Aussage des Chiphell-Nutzers "wjm47196", welcher früher schon in diese Richtung geschrieben hatte, ist bei AMD die Entscheidung pro einer solchen neuen Chip-Serie gefallen und soll es schon im Oktober entsprechende Grafikkarten geben. Dies wäre dann überraschend schnell, in diesem Fall sollte die Entscheidung pro eines 12nm-Refreshs eigentlich schon vor einigen Quartalen gefallen sein (neue Grafikchips aufzulegen bedeutet eine Vorlaufzeit von mindestens 2-3 Quartalen). Gänzlich abzulehnen ist die These eines 12nm-Refreshs von Polaris keinesfalls, aber es gibt hierzu auch gewisse Gegenanzeigen: Erstens einmal ist AMDs Hausfertiger GlobalFoundries wegen des Erfolgs mit den Zen-basierten AMD-Prozessoren derzeit randvoll ausgelastet – da lohnt sich die Auflage weiterer Projekte in der 14/12nm-Fertigung eher weniger (man verkauft letztlich so oder so nicht mehr).

Ein Ausweg hierzu würde darin liegen, den 12nm-Refresh von Polaris bei einem anderen Chipfertiger in Auftrag zu geben – so bei Samsung oder TSMC (wobei Samsung offiziell derzeit keine 12nm-Fertigung hat), dies würde dann sogar eine zusätzliche Entlastung für GlobalFoundries bedeuten. Und zweitens ist der Performance-Effekt eines 12nm-Refreshs zu hinterfragen, gerade wenn AMD mit der Radeon RX 500 Serie schließlich bereits einen Polaris-Refresh hingelegt hat. Die 12nm-Fertigung sowohl von GlobalFoundries als auch von TSMC bringt keine wirklich sichtbaren Vorteile, die von den Chipfertigern hierzu angegebenen Spezifikationen haben sich als mehrheitliche Marketing-Erfindungen herausgestellt. In dieser Ausgangslage, das AMD dem Polaris-Projekt bereits einen Refresh angedeien lassen hat, darf man durchaus bezweifeln, das ein zweiter Refresh dann noch wirklich beachtbar etwas herausholen kann. Aber natürlich ist es dennoch möglich, das AMD das ganze trotzdem durchzieht – gerade wenn es noch dieses Jahr passiert, macht dies schließlich wieder Sinn, die Wartezeit auf erste 7nm-Beschleuniger aus der Navi-Generation ist wohl noch zu lang. Hier liegt dann auch der Knackpunkt dieses Gerüchts: Wenn, dann muß tatsächlich jetzt noch etwas passieren, ab dem Jahr 2019 geht dann der Blick eher schon zu den nachfolgenden 7nm-Grafikkarten.

Bei Phoronix hat man sich eingehend mit der Ethereum-Performance der GeForce RTX 2080 Ti beschäftigt, andere Messungen hierzu gab es mit den Launchreviews bereits bei ComputerBase, Hardwareluxx und Legit Reviews. Allen diesen Tests gemeinsam ist die Aussage, das die GeForce RTX 2080 Ti "FE" (unter Ethereum) eine gute Mining-Performance hinlegt, hierbei mit Performancegewinnen von 49-58% (gegenüber der GeForce GTX 1080 Ti) sogar besser skaliert als im Spiele-Einsatz (+34,8% unter UltraHD). Selbst die Energieeffizienz der Karte ist dann besser als bei der GeForce GTX 1080 Ti bzw. anderen Pascal-basierten Beschleunigern. Der hohe Preispunkt der RTX-Karte wirkt allerdings als deutliche Spaßbremse, da sind andere Möglichkeiten wie GeForce GTX 1070 & 1070 Ti wesentlich effizienter im Mining-Einsatz. Die GeForce RTX 2080 erreicht in den anderen Tests hingegen eine gegenüber der GeForce GTX 1080 Ti leicht bessere Ethereum-Performance zu ebenfalls besserer Energieeffizienz, auch hier funktioniert das ganze allerdings mit Blick auf die aktuellen Preislagen nicht mehr.

Da sich selbige Preislagen allerdings zukünftig auch wieder beruhigen können, ist die Kuh noch nicht ganz vom Eis: Technisch gesehen können die Turing-Karten sogar etwas bessere Mining-Beschleuniger abgeben als die Pascal-Karten. Jener Vorteil reicht aber natürlich noch nicht aus, um einen neuen Mining-Boom zu befeuern, dafür müsste Performancesprünge um mehrere Dimensionen vorliegen – was auf Basis der nur maßvoll gesteigerten Rohleistung kaum passieren wird. Ein letzter Ansatzpunkt läge dann in der Mining-Nutzung von RT- und Tensor-Cores – aber es steht zu erwarten, das diese üblicherweise mit geringer Präzision arbeitenden Recheneinheiten nicht besonders gut für Mining-Tätigkeiten nutzbar gemacht werden können. Beim Mining geht es schließlich um kryptographische Aufgaben, da ist keinerlei geringere Präzision erlaubt, muß das Endergebnis letztlich mathematisch stimmen (während beim Rendern von 3D-Spielen gewisse Rundungsfehler erlaubt sind und nur in einem unwahrnehmbaren Maßstab das herauskommende Bild beinflußen). Für den Augenblick hat man also wenig Mining-Ungemach für und durch nVidias RTX-Karten zu befürchten.