26

Hardware- und Nachrichten-Links des 25./26. Dezember 2019

Twitterer 'Komachi' berichtet in zwei Meldungen genaueres zur kommenden Radeon RX 5600 XT: Posting #1 notiert Kartendaten zu einer "Gigabyte RX 5600 XT Gaming OC 6G" mit einem Basetakt von 1650 MHz, einem Game Clock bei 1795 MHz und einer Speicherübertragungsrate von 12 Gbps (entspricht einem Speichertakt von 3000 MHz QDR). Die ebenfalls angegebenen Referenz-Taktraten sollen im übrigen bei 1605/1755/3000 MHz liegen – denn die Gigabyte-Karte selbst ist natürlich werksübertaktet. Das hierfür angesetzte Board ist mit 28,0cm Länge ganz schön groß ausgefallen – eventuell benutzt man hierfür schlicht Platinen der Radeon RX 5700 und bestückt zwei Speicherplätz nicht (die Radeon RX 5700 von Gigabyte ist zufälligerweise 28cm lang). Dies wäre aber fast nur für den Marktstart sinnvoll, bei entsprechendem Erfolg der Radeon RX 5600 XT ist die Auflage von extra Platinen sicherlich effektiver. Posting #2 macht dann noch einmal klar, das hierbei GDDR6-Speicher an einem 192-Bit-Speicherinterface und kein HBM2 zum Einsatz kommt. Die Chip-Basis der Radeon RX 5600 XT ist zwar nach wie vor nicht sicher bestätigt, aber es läuft eigentlich alles auf Navi 10 hinaus – denn zwischen Navi 10 (251mm²) und Navi 14 (158mm²) noch einen weiteren Grafikchip zu quetschen, erscheint kaum als sinnvoll. Natürlich sind (gerade bei AMD) schon verrücktere Sachen vorgekommen, eine Restchance gibt es hierbei immer noch.

GeForce GTX 1660 Ti Radeon RX 5600 XT GeForce RTX 2060
Chipbasis nVidia TU116, 6.6 Mrd. Transistoren auf 284mm² Chipfläche in der 12nm-Fertigung von TSMC wahrschl. AMD Navi 10, 10.3 Mrd. Transistoren auf 251mm² Chipfläche in der 7nm-Fertigung von TSMC nVidia TU106, 10.6 Mrd. Transistoren auf 445mm² Chipfläche in der 12nm-Fertigung von TSMC
Technik 3 Raster-Engines, 24 Shader-Cluster, 1536 Shader-Einheiten, 96 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR6-Interface (Vollausbau) angenommen 26-30 Shader-Cluster, 1664-1920 Shader-Einheiten, 104-120 TMUs, 48 ROPs, 3 MB Level2-Cache, 192 Bit GDDR6-Interface (Salvage) 3 Raster-Engines, 30 Shader-Cluster, 1920 Shader-Einheiten, 120 TMUs, 30 RT-Cores, 240 Tensor-Cores, 48 ROPs, 3 MB Level2-Cache, 192 Bit GDDR6-Interface (Salvage)
Taktraten 1500/1770/3000 MHz (QDR) angeblich 1605/1755/3000 MHz (QDR) 1365/1680/3500 MHz (QDR)
Rohleistungen 5,4 TFlops & 288 GB/sec geschätzt 5,8-6,7 TFlops & 288 GB/sec. 6,5 TFlops & 336 GB/sec
Speicherausbau 6 GB GDDR6 6 GB GDDR6 6 GB GDDR6
TDP 120W ? 160W
FHD Perf.Index 790% geschätzt ~840-870% 910%
4K Perf.Index 103% geschätzt ~110-115% 123%
Listenpreis 229$ ? 349$
Release 22. Februar 2019 wahrschl. Anfang 2020 7. Januar 2019

Genauso eine Außenseiter-Chance hat auch die von der PC Games Hardware ausführlich dargelegte These, wonach die Radeon RX 5600 /XT in zwei Varianten erscheinen könnte: Als "Radeon RX 5600" für OEMs mit 6 GB Speicher sowie als "Radeon RX 5600 XT" für den Retailhandel mit 8 GB Speicher – sprich, in einem ähnlichen System wie bei der kürzlichen Radeon RX 5500 /XT. Allerdings gibt es dennoch gravierende Abweichungen zwischen beiden Fällen: So besteht bei der Radeon RX 5500 /XT allein ein teilweiser Unterschied bei der Speicherbestückung – teilweise, weil die Radeon RX 5500 für OEMs und die Radeon RX 5500 XT 4GB dieselbe Speichermenge und nur eine minimale Performance-Differenz aufweisen. Im angenommenen Fall einer Auftrennung der Radeon RX 5600 /XT würden dagegen die unterschiedlichen Speicherbestückungen auch einen klaren Performance-Unterschied ergeben – nicht wegen der Speichermenge per se, sondern wegen des damit verbundenen Speicherinterfaces: Eine 8-GB-Lösung setzt das volle 256-Bit-Speicherinterface samt 64 ROPs und 4 MB Level2-Cache voraus – eine 6-GB-Lösung würde dagegen naturgemäß nur über ein 192-Bit-Interface samt 48 ROPs und 3 MB Level2-Cache verfügen können. Dies ergibt also nicht nur 2 GB weniger Grafikkartenspeicher, sondern vor allem ein Viertel weniger Speicherbandbreite, ein Viertel weniger ROP-Power und ein Viertel weniger Level2-Cache.

Interface ROPs Level2-Cache Performance
Radeon RX 5600 XT 8GB 256 Bit 64 4 MB 100%
Radeon RX 5600 XT 6GB 192 Bit  (-25%) 48  (-25%) 3 MB  (-25%) geschätzt 85-90%
reines Gedankenspiel = ohne Aussage, mit welcher Speicherbestückung die Radeon RX 5600 XT tatsächlich daherkommt

Dies kann – je nachdem wie Bandbreiten-durstig der benutzte Grafikchip in seiner jeweiligen Hardware-Konfiguration ist – durchaus für 10-15% Performance-Differenz sorgen, welche dann auch ständig da wären und nicht nur in Speicher-fressenden Spielen wie im Fall der zwei Speicherbestückungen der Radeon RX 5500 XT. In der Summe will die angesetzte Speichermenge bei der Radeon RX 5600 XT also wohlüberlegt sein, bestimmt jene zum Teil auch mit über die Gesamtperformance der Karte. Der einzige Zwischenweg bestände in der Verwendung von "krummen" Speicherchips mit also 1.5 GByte Kapazität pro Chip (anstatt wie üblich 0.5, 1 oder 2 GByte pro Chip). Jene wurden schon für GDDR5X spezifiziert, seitdem aber nirgendwo praktisch aufgelegt. Wahrscheinlich ist es schlicht zu teuer, hierfür eine extra Fertigung zu starten – und konkurrenzfähige Preispunkte gibt es üblicherweise dann erst mit einer eingelaufenen Massenfertigung. Allerdings scheint derzeit sowieso fast alles für reine 6-GB-Lösungen bei der Radeon RX 5600 /XT zu sprechen, wenn gerade die vorgenannte werksübertaktete Gigabyte-Karte (mit "XT"-Siegel) auch nur mit 6 GB Speicher daherkommmt. Alle Anzeichen auf 8-GB-Lösungen stammten sowieso nur von der Zertifizierungsstelle EEC, wo die Hersteller gern einmal Platzhalter-Daten in Masse hineinsetzen.

Nochmals Komachi @ Twitter weist auf EEC-Eintragungen zu Intels DG1 hin – sprich, dem ersten Grafikboard von Intel im Rahmen der Xe-Architektur. Hierbei wurde ein Alpha-SDK zertifiziert, welches auf die aktuell laufende Validierung des ersten Intel-Grafikchips & -Platinen hinweist. Die genaue Benennung weist zudem explizit auf 96 Execution Units (EU) hin, welche bei DG1 vorhanden sein sollen. Dies ist genauso viel wie bei der (ebenfalls Xe-basierten) größten Grafiklösung von Tiger Lake, womit DG1 schlicht die Desktop-Variante der Tiger-Lake-iGPU darstellt. Vor allem aber läßt sich DG1 damit erstmals genauer einschätzen, denn jene Execution Units bei Intels Grafiklösungen kann man nominell mit 8 Shader Units bei AMDs & nVidias Grafiklösungen gleichsetzen, ergo käme DG1 somit in AMDs & nVidias System auf 768 Shader-Einheiten. Dies ist etwas unterhalb des Niveaus der GeForce GTX 1650 (896 Shader-Einheiten) und im späteren Jahr 2020 sicherlich nicht mehr der Rede wert – aber wie zuletzt schon ausgeführt, soll DG1 ja vor allem Einsteiger-Bedürfnisse abdecken. Sofern Intel dies dann tatsächlich Plan-gerecht mit einer TDP von 25 Watt realisieren könnte, wäre dies dann wiederum regelrecht gut, denn nVidia benötigt hierfür (in der deutlich gröberen 12nm-Fertigung von TSMC) immerhin noch 71 Watt.

EU TFlops @ 1.5 GHz TFlops vergleichbar mit
Intel DG2-512 angenommen 512 12,2 TFlops GeForce RTX 2080 Super (11,2 TFlops)
Intel DG2-256 angenommen 256 6,1 TFlops GeForce RTX 2060 (6,5 TFlops)
Intel DG2-128 angenommen 128 3,1 TFlops GeForce GTX 1650 (3,0 TFlops)
Intel DG1 anscheinend 96 2,3 TFlops GeForce GTX 1050 Ti (2,1 TFlops)
basierend auf unbestätigten Gerüchten & Annahmen, ergo arg fehleranfällig

Andererseits erscheint dieses TDP-Ziel als ziemlich niedrig (aka mutig) angesetzt, wenn man hiervon ausgehend auf DG2-512 hochrechnet: Selbige Spitzen-Lösung mit der Rechenleistung von grob einer GeForce RTX 2080 Super zu 133 Watt Stromverbrauch erscheint selbst unter Intels besserer 10nm-Fertigung (vergleichbar mit 7nm von TSMC & Samsung) nicht besonders realistisch. Eventuell bezieht sich diese TDP-Angabe aber auch nur auf den Grafikchip selber, nicht auf das gesamte Grafikboard – dann könnte dies eventuell hinkommen. Da Intel derzeit aber noch einige Probleme haben soll, die Xe-Grafikchips so Energie-effizient hinzubekommen wie geplant, dürften alle diese Hochrechnungen sowieso Makulatur sein und die in der Praxis erscheinenden Intel-Beschleuniger dann andere Stromverbrauchswerte mit sich bringen. Somit gibt jene Angabe von 96 EU bei DG1 zuerst einmal nur Nahrung für die These, dass DG1 die kleinste der Xe-Lösungen darstellt und dass die nachfolgenden DG2-Lösungen entsprechend kräftiger erscheinen. Eventuell passt damit sogar die vorstehende angesetzte Auslegung, wonach die Benennungen "DG2-128", "DG2-256" und "DG2-512" jeweils deren EU-Anzahl wiedergeben – was auf den ersten Blick wohl naheliegt, aber eben nach wie vor unbestätigt ist.

Die DigiTimes weist auf den schlichten wie korrekten Umstand hin, das sich PCI Express 4.0 in der Breite des Marktes bzw. der darauf aufbauenden Gerätschaften erst dann durchsetzen wird, wenn Intel hierfür eine entsprechende Basis mit seinen eigenen Prozessoren sowie Mainboard-Chipsätzen liefert. Und dies passiert nicht vor der Tiger-Lake-Generation, welche zum Jahresende 2020 im Mobile-Segment erwartet werden darf – welches wiederum der schlechtestmögliche Ansatzpunkt für PCI-Express-Gerätschaften darstellt. Denn PCI Express in der jeweils neuesten Ausführung wird in Notebooks üblicherweise nur für die Anbindung von extra Grafiklösungen eingesetzt, aber kaum nach außen geführt – womit dann doch kaum eine verwertbare Basis für weitere Gerätschaften auf PCI Express 4.0 existiert. Über Desktop-CPUs mit PCI Express 4.0 bei Intel ist aber schlicht noch nichts bekannt – dies könnte mit Rocket Lake passieren, denn hierbei kommt schließlich eine Abwandlung der Tiger-Lake-Architektur zum Einsatz. Dies wäre dann aber erst ein Thema des Jahres 2021 – bis dahin wird PCI Express 4.0 wahrscheinlich auf eine breite Verwendung warten müssen.

PCI Express 4.0 PCI Express 5.0 DDR5-Speicher
AMD – Consumer-CPUs Zen 2 (2019) unklar unklar
AMD – Server-CPUs Zen 2 (2019) unklar Zen 4 (2021)
AMD – Grafikkarten Navi (2019) unklar -
Intel – Consumer-CPUs Tiger Lake (2020/21) unklar Tiger Lake (2020/21)
Intel – Server-CPUs Ice Lake SP (2020) Sapphire Rapids (2021) Sapphire Rapids (2021)
nVidia – Grafikkarten vermtl. Ampere (2020) unklar -