25

Hardware- und Nachrichten-Links des 25. Februar 2020

Zu nVidias GA100-Chip und dessen angeblicher Chipgröße von satten 826mm² kommt nun auch noch eine Transistoren-Anzahl: Angeblich 55 Milliarden sollen hierbei verbaut sein. Die Quelle hierzu ist eine in unserem Forum festgehaltene Twitter-Notiz, die sich allerdings im Original nicht mehr finden läßt und daher etwas vakant bleibt. Die Information selber ist aber bereits ausreichend wackelig – denn der vorherige GV100-Chip aus nVidias Volta-Generation trägt nur 21,1 Milliarden Transistoren, hiermit würde also eine Zunahme auf gleich das 2,6fach versprochen werden. Was zuerst noch grenzwertig, aber vielleicht doch machbar klingt, wird dann aber mittels der damit erreichten Packdichte schwer unter Druck gesetzt: Dies wären auf der angegebenen Chipfläche satte 66,6 Mio. Transistoren pro mm² – ein monströser Wert angesichts dessen, das andere große PC-Chips wie Navi 12 unter der 7nm-Fertigung derzeit bei 40-41 Mio. Transistoren pro mm² stehen (das Zen-2-CCD ist nicht zu werten, da gänzlich ohne I/O-Teil). Selbst dass der GA100-Chip höchstwahrscheinlich schon unter der 7nm+ Fertigung von TSMC antritt, kann diese enorme Diskrepanz nicht erklären: Jene Werte (von 826mm² Chipfläche samt 55 Mrd. Transistoren) passen einfach nicht zusammen, ergo dürfte zumindest einer der beiden Werte falsch sein.

Generation Fertigung Chip-Daten Packdichte
nVidia GP100 Pascal 16nm TSMC 15,3 Mrd. Transistoren auf 610mm² 25,1 Mio. Tr./mm²
nVidia GV100 Volta 12nm TSMC 21,1 Mrd. Transistoren auf 815mm² 25,9 Mio. Tr./mm²
AMD Vega 20 Vega 7nm TSMC 13,2 Mrd. Transistoren auf 331mm² 39,9 Mio. Tr./mm²
AMD Navi 10 Navi 1X 7nm TSMC 10,3 Mrd. Transistoren auf 251mm² 41,0 Mio. Tr./mm²
nVidia GA100 Ampere 7nm+ TSMC angeblich 55 Mrd. Transistoren auf 826mm² 66,6 Mio. Tr./mm² (???)

Unser Forum beschäftigt sich erneut mit AMDs Navi 12 und dem Zweck dieses immer noch nicht vorgestellten Grafikchips der Navi-1X-Generation, welcher demzufolge weiterhin der RDNA1-Architektur (ohne Hardware-RayTracing) angehören sollte. Ausgangspunkt hierfür sind Treiber-Sequenzen im Linux-Kernel, welche letztlich darauf hindeuten, das Navi 12 ein besonders Energie-effizienter Grafikchip sein soll. Dazu passt dann auch die früher schon vermeldete Benutzung von HBM2-Speicher – was zwar teurer, aber Energie-effizienter ist. Trotzdem dürfte Navi 12 grundsätzlich in der Nähe der Hardware von Navi 10 (40 Shader-Cluster) verbleiben, was ungewöhnlich wäre, weil dann eben zwei Grafikchips grob dieselbe Hardware aufweisen würden. Allerdings wäre es denkbar, das AMD mit den Energieeffizienz-Resultaten der eigenen Mobile-Lösungen (auf Basis Navi 10/14) nicht zufrieden ist, bei welchen die Differenz zwischen dem Energieverbrauch von Desktop- und Mobile-Lösung sicherlich noch einigermaßen von dem hohen Maßstab entfernt ist, welchen nVidia in dieser Frage mit seinen Mobile-Lösungen regelmäßig vorlegt. Zusammen mit der immer wieder kolportierten Apple-These könnte Navi 12 also als reiner Mobile-Grafikchip herauskommen, welcher nVidia auch bei der Energieeffizienz angreifen können soll – allerdings womöglich alleinig oder zumindest zeitweise exklusiv für Apple gedacht.

WinFuture berichten über zwei interessante Initiativen zugunsten von langlebigere Smartphones: Zum einen gibt es Anstrengungen in der EU, die Smartphone-Hersteller zu besser reparierbaren Geräten inklusive auch austauschbaren Akkus zu bewegen – eine Idee, die man unbedingt auch für Notebooks übernehmen sollte, wo inzwischen sehr viel neue Modelle nur noch mit fest verbauten Akku erscheinen. Und zweitens will das bundesdeutsche BSI die Smartphone-Hersteller zu einer fünfjährigen Pflicht auf Sicherheitsupdates bewegen – alternativ müssen die Hersteller den garantierten Update-Zeitraum direkt auf der Verpackung vermerken. Mit beiden Initiativen wird dem stark gestiegenen Stellenwert des Smartphones für das Alltagsleben Rechnung getragen, wobei insbesondere die letztgenannte bundesdeutsche Initiative dazu beitragen könnte, selbiges nun endlich auch aus Sicht der IT-Sicherheit voranzutreiben. Selbst wenn die Hersteller hierbei erst einmal nicht mitspielen und ihre Support-Zeiträume nicht verlängern wollen, dürfte die genannte Kennzeichungspflicht (Beispiel: "garantierter Support an Sicherheitsupdates: 1 Jahr ab Markteinführung") die Hersteller doch wenigstens langfristig in die richtige Richtung treiben. Es bleibt nur zu hoffen, das in entsprechenden EU-Regelungen der Kern dieser Initiativen auch wirklich erhaltenbleibt – und nicht nur eine verwässerte und damit handzahme Version davon ersetzt wird.

Die Bekanntgabe der Rechenleistung zur Xbox Series X hat einige Diskussionen über die Preislage dieser kommenden Microsoft-Konsole ausgelöst – schließlich läßt sich deren wichtigste Komponenten (in Form der Grafikleistung) nun erstmals ziemlich gut einschätzen. Und die 12 TeraFlops sind natürlich kein Pappenstiel, gerade im Rahmen der Navi-Generation, wo AMD inzwischen aus der reinen Rechenleistung nahezu dieselbe Performance herausholt wie nVidia. Bei früheren GCN-basierten Grafiklösungen war diese Effizienz zwischen Rechenleistung und Performance klar schlechter – womit auch der direkte Vergleich zu den 6 TFlops der Xbox One X wenig taugt, weil dort nur "GCN4" (Polaris-Klasse) zum Einsatz kam. Den besseren Ansatzpunkt erhält man wohl über den Vergleich mit jeweils ähnlichen Grafikkarten aus der Zeit zum jeweiligen Release. Für die Xbox One wäre dies die Radeon HD 7770 (FHD Perf.Index 145%), für die Playstation 4 die Radeon HD 7850 (FHD Perf.Index 225%) – beides mehr oder weniger Mainstream-Beschleuniger, welche seinerzeit zu Preispunkten von 159 bzw. 249 Dollar in den Markt kamen.

Release GPU-Abst. Rechenleistung Speicherbandbreite PC-Äquivalent Launch-Pr.
Xbox One 2013 AMD GCN2 1,3 TFlops 68 GB/sec (+eDRAM) ähnlich zur Radeon HD 7700 (145%) 499$
Playstation 4 2013 AMD GCN2 1,8 TFlops 176 GB/sec ähnlich zur Radeon HD 7850 (225%) 399$
Playstation 4 Pro 2016 AMD GCN4 4,2 TFlops 218 GB/sec ähnlich zur Radeon RX 470 (490%) 399$
Xbox One X 2017 AMD GCN4 6,0 TFlops 326 GB/sec etwas besser als Radeon RX 580 (590%) 499$
Xbox Series X 2020 AMD RDNA2 12 TFlops angebl. 560 GB/sec etwas besser als GeForce RTX 2080 Super (1310%) ?

Jene AMD-Grafikkarten kamen zudem schon im Jahr vor dem Release dieser seinerzeitigen Spielekonsolen heraus, insofern sollte ein heute angetretener Vergleich den gleichen Weg gehen – und somit nach vergleichbarer Grafik-Hardware aus dem Jahr 2019 suchen. Für den aktuellen Fall wäre somit die GeForce RTX 2080 Super der passende Vergleichs-Partner, ist mit 11,2 TFlops & 496 GB/sec auch ganz gut in der Nähe der Hardware-Daten der Xbox Series X. Und dies würde dann schon deutlich auf einen ganz anderen Preisansatz der kommenden Microsoft-Konsole hindeuten – jene GeForce RTX 2080 Super steht bei nVidia immerhin für 699 Dollar in der Liste, ist im Gegensatz zu den vorgenannten Radeon HD 7770 & 7850 auch zweifelsfrei nicht dem Mainstream- oder Midrange-Segment zuzuordnen. Die Frage, ob die NextGen-Konsolen bzw. die Xbox Series X den mit der letzten Konsolen-Generation gefahrenenen "Mainstream-Ansatz" weiterhin halten können, kommt also durchaus zu recht. Wie Microsoft dies dann auflöst, ist aber noch nicht bekannt: Neben einer Preiserhöhung wäre auch das früher einmal gepflegte System der Quersubventionierung durch Spieleverkäufe möglich – von welchem man aber eigentlich froh war, größtenteils davon weggekommen zu sein.