10

Hardware- und Nachrichten-Links des 10. September 2020

Golem, Hardwareluxx & PC Games Hardware bestätigen im Rahmen ihrer Unboxing-Artikel zur GeForce RTX 3080 das zuletzt schon kolportierte Ampere-Launchdatum vom 14. September – und nicht den 17. September, wie es gemäß nVidias Ampere-Vorstellung zu vermuten war. Am selbigen 17. September wird zum einen der Verkaufsstart stattfinden, gemäß früherer Informationen müssen die Tests der Herstellerdesigns zur GeForce RTX 3080 allerdings genauso bis zu diesem 17. September zurückgehalten werden. Am 14. September um 15 Uhr deutscher Zeit dürfte es somit ausschließlich Benchmark-Resulate zu nVidias eigener Founders Edition geben – was aber keinen Beinbruch darstellt, da selbige Karte augenscheinlich recht hochwertig ist und es auch keine abweichenden Taktraten innerhalb der Ampere-Generation mehr gibt. Da alle drei Webseiten explizit auch nur die GeForce RTX 3080 erwähnen, scheint somit zudem die These vom Tisch zu sein, die größere GeForce RTX 3090 würde eventuell am selben Tag mitgetestet werden. Vermutlich kommt die GeForce RTX 3090 somit einheitlich am 24. September – wo dann Launch von Founders Edition und Custom-Designs sowie der Marktstart auf denselben Tag fallen.

FE-Benchmarks AIB-Benchmarks Marktstart
GeForce RTX 3080 bestätigt:  14. Sept. angeblich:  17. Sept. offiziell:  17. Sept.
GeForce RTX 3090 anzunehmen:  24. Sept. anzunehmen:  24. Sept. offiziell:  24. Sept.

Das gestern schon erwähnte und bei Videocardz einzusehende Radeon RX 6000 "Engineering Sample" deutet laut Twitterer Scott Tee eher auf einen mittelgroßen Grafikchip hin, da die mit Pins bestückte Package-Unterseite grob eine Fläche von 320-360mm² einnimmt. Dies würde augenfällig gut zu "Navi 22" passen, welcher laut einem Gerücht von diesem April bereits mit einer Chipfläche von 340mm² genannt wurde. Zu einem solchen Chip würde dann auch ein 256bittiges Speicherinterface durchaus passen, die Anzahl der Shader-Cluster von Navi 22 ist schließlich auf 52-56 zu schätzen. Sicherlich trägt Navi 10 (mit "nur" 40 Shader-Clustern) auch schon ein 256bittiges Speicherinterface, aber eventuell kann AMD bei der RDNA2-Architektur wiederum Fortschritte bei der Bandbreiten-Effizienz anbringen und somit auch diese um 30-40% höhere Anzahl an Shader-Clustern noch vernünftig versorgen.

Diese Auflösung wäre somit gut für Navi 22, würde somit dort eine Speicherbestückung von (bis zu) 16 GB möglich werden. AMD setzte bei dem genannten Engineering Sample augenscheinlich 2-GByte-Speicherchips ein, welche es allerdings bei GDDR6 (im Gegensatz zu GDDR6X) auch tatsächlich schon gibt. Eine belastbare Aussage dazu, dass Navi-22-basierte Gamer-Grafikkarten tatsächlich mit 16 GB Speicher erscheinen werden, ergibt dies allerdings noch nicht: Die Speicherbestückung von 16 GB könnte potentiell natürlich auch Profi-Grafikkarten auf Navi-22-Basis vorbehalten bleiben. Natürlich wäre AMD cleverer dran, auch im Gaming-Markt gleich mit der größeren Speicherbestückung anzutreten, die Preisdifferenz liegt laut den GDDR6-Preisen des Komponentenhändlers Digi-Key bei ca. 95 Dollar (für 8x 2GByte anstatt 8x 1GByte), wobei AMD bzw. die Grafikkartenhersteller im Direktvertrag mit den Speicherchip-Herstellern sicherlich nur einen Bruchteil davon bezahlen. Für Navi 21 bedeutet diese Auflösung aber auch, dass damit ein 512-Bit-Interface um so unwahrscheinlicher geworden ist: Wenn Navi 22 mit 256 Bit auskommt, dann sollten 384 Bit für Navi 21 ausreichend sein.

Navi 24 Navi 23 Navi 22 Navi 21
Chipfläche unbekannt angeblich 240mm² angeblich 340mm² angeblich 427mm² oder 505mm²
Shader-Cluster angenommen 24-28 CU angenommen 32-40 CU angenommen 52-56 CU angeblich 80 CU
Speicherinterface angenommen 128 Bit GDDR6 angenommen 192 Bit GDDR6 angeblich 256 Bit GDDR6 angenommen 384 Bit GDDR6
Speicherausbau möglich: 4/8 GB möglich: 6/12 GB möglich: 8/16 GB möglich: 12/24 GB
Release angeblich H2/2021 angenommen H1/2021 angenommen Q1/2021 vermutlich November 2020

Und dies bedeutet wiederum für Navi 21, dass dort dann keine 16 GB Speicher möglich sind – ein "Voodoo-Interface" wie bei der Xbox Series S/X dürfte man hingegen zu vermeiden versuchen, dies macht sich für reine PC-Grafikkarten nicht (jene müssen schließlich im Gegensatz zu Spielekonsolen keine OS/CPU-Daten vorhalten). Ein 384bittiges Speicherinterface bei Navi 21 zwingt AMD somit zu 12 oder 24 GB Speicher – was zu einer diffizilen Entscheidung führt: Mit 12 GB wäre man gegenüber der GeForce RTX 3080 ausreichend gewappnet, würde aber diese Ampere-Grafikkarte auf der Speicherseite eben nicht herausfordern. Dem Navi-21-Chip gleich 24 GB Speicher zu spendieren, würde hingegen normalerweise erfordern, aber auch bei kleineren Grafikkarten der Radeon RX 6000 Serie gleich die jeweils größere Speicherbestückung anzusetzen – Navi 22 mit nur 8 GB würde neben Navi 21 mit gleich 24 GB schließlich reichlich komisch aussehen. Die einzige andere Auflösung, wie AMD dennoch 16 GB Speicher an Navi 21 dranbekommt, läge in einem HBM2-Speicherinterface – was nach wie vor nicht ausgeschlossen werden kann.

In unserem Forum wird hingegen über eine ganz andere Auslegung zu AMDs "Navi 21" Chip diskutiert – ein angeblicher MCM-Ansatz mit 2x 40 Shader-Clustern an einem (augenscheinlich 2048 Bit breiten) HBM2-Interface. Allerdings wird dieses Chipdesign mehrheitlich als "Fake" oder auch als Troll-Versuch zurückgewiesen, da es für ein MultiChip-Design noch zu früh ist bzw. AMD in diesem Fall schließlich nicht gleich vier verschiedene Grafikchips innerhalb der RDNA2-Generation bräuchte. Ein MCM-Ansatz wird hingegen der nachfolgenden RDNA3-Generation bzw. dort dem "Navi 31" Chip nachgesagt, wobei weiterführende Gerüchte den Schluß nahelegen, dass hierbei nur eine Auftrennung des Grafikchips in Compute-Die und I/O-Die stattfinden könnte, mitnichten aber mehrere Compute-Dies dann für denselben Gaming-Grafikchip zum Einsatz kommen.

Sicherlich geht derzeit alles in der Chip-Industrie in Richtung "MCM" und Chiplet-Designs, aber die Entwickler von Gaming-Grafikchips werden bei diesem Vorhaben regelmäßig daran ausgebremst, dass heutige Spiele mit so etwas nicht skalieren können und dass speziell im Grafik-Bereich die zwischen den einzelnen Chiplets fliessenden Datenströme zu groß sind, um das ganze noch energieeffizient hinzubekommen. Hier müssen erst einmal Software-seitige Lösungen gefunden werden, um den Spielen das MCM-Konstrukt als "ein" Chip zu verkaufen, damit die mehreren Chiplets überhaupt mit Arbeit gefüttert werden können. Und für die Problematik der enormen Datenströme zwischen den einzelnen Chiplets braucht es wohl Hardware-Lösungen, welche diesen Datenverkehr auf das wirklich notwendige reduzieren, die Chiplets somit unabhängiger voneinander arbeiten lassen. In beiden Punkten ist man allerdings noch ziemlich am Anfang der Dinge – die Möglichkeit zur reinen Herstellung von Chiplets hilft da nicht weiter. Die Ampere & RDNA2 folgenden Grafikchip-Architekturen "Hopper" und RDNA3 werden somit wohl erste Ansätze in die MCM-Richtung hervorbringen – aber bevor Gaming-Grafikchips tatsächlich mehrere Compute-Dies an derselben Grafik-Aufgabe rechnen lassen können, könnte durchaus noch einiges mehr an Zeit vergehen.