8

Hardware- und Nachrichten-Links des 8. Oktober 2019

Neben sich nicht widersprechenden wie auch vollständigen Daten fehlte bei der Vorstellung der Radeon RX 5500 /M auch eine Wortmeldung zur Radeon RX 5300 XT – welche eigentlich erwartet worden war, nachdem diverse Komplett-PCs von HP mit exakt dieser Einsteiger-Grafiklösung bereits ab dem 8. Oktober vertrieben werden sollten. Davon ist bei HP inzwischen nichts mehr zu sehen, insofern bleibt zur Radeon RX 5300 XT als einzige belastbare Informationen nur eine grobe Performance-Angaben unter (stark gerundeten) 3DMark11-Benchmarks zurück. Zusammen mit den nunmehr bestätigten Hardware-Daten zur Radeon RX 5500 läßt sich davon ausgehend jedoch schlußfolgern, das die Radeon RX 5300 XT auf einer entsprechend größeren Abspeckung des Navi-14-Chips basieren dürfte – vermutlich mit 18 oder 20 aktiven Shader-Clustern (aka 1152 oder 1280 Shader-Einheiten). Selbst nur 16 aktive Shader-Cluster (aka 1024 Shader-Einheiten) sind nicht gänzlich aus dem Rennen, damit würde man schließlich dieselbe Hardware-Ausrüstung wie die GeForce GTX 1650 Mobile (basierend auf dem Vollausbau des TU117-Chips) aufbieten, hätte aber immerhin den GDDR6-Speicher zugunsten einer klar höheren Speicherbandbreite zur Hand. So oder so dürfte die Radeon RX 5300 XT grob in der Performance-Region der ebenfalls noch nicht vorgestellten GeForce GTX 1650 Super herauskommen, die bisherige GeForce GTX 1650 dürfte von beiden neuen Karten geschlagen werden.

Chipbasis Technik FHD Perf.Index
GeForce GTX 1660 Super TU116 angebl. 1408 Shader-Einheiten an einem 192 Bit GDDR6-Interface grob geschätzt ~750-790%
GeForce GTX 1660 TU116 1408 Shader-Einheiten an einem 192 Bit GDDR5-Interface 690%
Radeon RX 5500 XT Navi 14 whrschl. 1536 Shader-Einheiten an einem 128 Bit GDDR6-Interface grob geschätzt ~650-700%
Radeon RX 5500 Navi 14 1408 Shader-Einheiten an einem 128 Bit GDDR6-Interface geschätzt ~600-620%
Radeon RX 5300 XT Navi 14 angen. 1152-1280 Shader-Einheiten an einem 128 Bit GDDR6-Interface grob geschätzt ~500-550%
GeForce GTX 1650 Super whrschl. TU117 whrschl. 1024 Shader-Einheiten an einem 128 Bit GDDR5/6-Interface grob geschätzt ~490-550%
GeForce GTX 1650 TU117 896 Shader-Einheiten an einem 128 Bit GDDR5-Interface 450%

Im übrigen wird mit den Hardware-Daten von Navi 14 nunmehr klarer, wohin der noch austehende Navi-12-Chip gehen dürfte – zumindest nicht in die Mitte zwischen Navi 10 & Navi 14. Zwar existiert zwischen Radeon RX 5500 XT & 5700 eine große Performance-Lücke, aber jene kann man auch mit weiteren Salvage-Lösungen schließen. Ein weiterer Grafikchip dazwischen bietet sich dagegen kaum an, denn Navi 14 ist gerade einmal 93mm² kleiner als Navi 10 – dies kann man als vernünftige Differenz betrachten, wo es sich auch wirklich lohnt, entsprechend kleinere/größere Grafikchips aufzulegen. Wollte man hier aber tatsächlich noch einen weiteren Grafikchip dazwischenschieben, würde diese Differenz auf 2x 46mm² schrumpfen – was vollkommen ungebräuchlich und wirtschaftlich sicherlich nicht sinnvoll ist. Navi 12 wird also entweder kleiner als Navi 14 (und damit zum LowCost-Chip) – oder größer als Navi 10 (und damit zum HighEnd-Chip). Da es für letztere Auslegung derzeit mehr Anzeichen als für erstere Auslegung gibt und sich zudem die vorgenannte Radeon RX 5300 XT sehr gut als größere Navi-14-Abspeckung erklären läßt, zeigt für den Augenblick alles auf Navi 12 als Basis kommender HighEnd-Lösungen von AMD hin.

AMD Navi nVidia Turing
Enthusiast ? TU102
18,6 Mrd. Transist. in 12nm auf 754mm²
HighEnd ? TU104
13,6 Mrd. Transist. in 12nm auf 545mm²
Midrange Navi 10
10,3 Mrd. Transist. in 7nm auf 251mm²
TU106
10,6 Mrd. Transist. in 12nm auf 445mm²
Mainstream Navi 14
6,4 Mrd. Transist. in 7nm auf 158mm²
TU116
6,6 Mrd. Transist. in 12nm auf 284mm²
LowCost ? TU117
4,7 Mrd. Transist. in 12nm auf 200mm²

Im übrigen läßt sich an vorstehender Auflistung auch erkennen, wieso nVidia gleich drei Turing-Chips mit RayTracing aufgelegt hat, obwohl TU104 & TU106 wie bekannt von den Hardware-Daten her vergleichsweise eng zusammenliegen: Der Grund liegt schlicht in der Einsparung an Chipfläche, welche von TU104 zu TU106 immerhin glatte 100mm² beträgt. Augenscheinlich ist dies eine auch im HighEnd-Segment wirtschaftlich relevante Größenordnung, womit es sich für nVidia gelohnt hat, extra den TU106 aufzulegen, anstatt dessen Aufgaben mittels Salvage-Lösungen basierend auf dem TU104 zu lösen. Dies zeigt darauf hin, das man in solchen Fragen weniger in relativen Größenordnungen denken sollte: Denn die hauptsächliche Hardware-Differenz zwischen TU104 & TU106 bei den Shader-Clustern liegt gerade einmal bei -25% (48 zu 36 Shader-Cluster) – und damit eigentlich weit unterhalb dessen, wo man normalerweise einen extra Grafikchip ansetzt (üblicherweise Hardware-Halbierungen oder wenigstens -40%). Diese Faustregel gilt aber eher nur für kleinere Grafikchips, sobald die Chips so groß werden wie unter nVidias Turing-Generation, zählen dann wohl eher absolute Kennzahlen – wie die genannte 100mm² Flächenersparnis zwischen TU104 und TU106.

Golem notieren die Einstellung von Intels Kaby Lake G – der Kaby-Lake-Sondervariante mit "Intel-CPU mit AMD-Grafik" samt HBM2-Speicher auf einem MultiChip-Package. Jene wurde Anfang 2018 mit einigem Aufsehen gestartet, seinerzeit versprachen sich Intel & Marktbeobachter teilweise eine neue Ära der integrierten Grafik von diesem Projekt – was nun augenscheinlich völlig danebengegangen ist. Hierfür dürften wohl zwei Gründe maßgeblich sein: Golem nennen zum einen die Zurückhaltung seitens Apple, für welche Kaby Lake G angeblich seitens Intel gedacht war, welche sich dann jedoch für "Vega Mobile" entschieden haben. Zum anderen waren aber auch die von Intel gemachten Preislagen völlig daneben: Intel dachte wohl, für ein technologisch derart exklusives Produkt entsprechende hohe Preise nehmen zu können. Allerdings war und ist Kaby Lake G natürlich jederzeit über extra Mobile-Beschleuniger ersetzbar – und da die bei Kaby Lake G verbaute Polaris/Vega-Zwitterlösung bei der Performance bestenfalls oberes Mainstream-Niveau erreicht, konnte damit bei den Notebook-Herstellern nirgendwo ein nachhaltiger Eindruck erzielt werden. Daneben ist Kaby Lake G natürlich immer nur als Zwischenschritt bei Intels Weg zurück ins wirkliche Grafikchip-Geschäft gedacht gewesen, eine längere Zusammenarbeit mit AMD war wegen Intels eigener Grafikchip-Projekte sowieso nicht notwendig.

Gegenüber Wired hat Sony einige der bisherigen Annahmen zur Playstation 5 nunmehr ganz offiziell bestätigt. So wird der Verkaufsnamen tatsächlich auf "Playstation 5" laufen und diese NextGen-Konsole (wie ihr Microsoft-Counterpart) zur "Holiday Season 2020" erscheinen, sprich zur geschäftlich lukrativen Vorweihnachtszeit (beispielsweise im November, wie seinerzeit bei PS3 & PS4 passiert). Bestätigt wurde daneben eine Hardware-basierte RayTracing-Lösung – bzw. wurde hiermit Befürchtungen entgegengetreten, die schon angekündigte RayTracing-Unterstützung bei der Playstation 5 könnte eventuell eine reine Software-Lösung darstellen. Im Endeffekt kommt es damit zum erwarteten Zweikampf mit Microsofts "Xbox Scarlett" mit grundsätzlich denselben Hardware-Daten (Zen-2-basierte CPU mit Navi-basierter Grafiklösung, SSD als System-Laufwerk) zur exakt selben Terminlage in der Vorweihnachtszeit 2020. Für den PC werden mit diesen NextGen-Konsolen dann sicherlich einige Bremsen gelöst werden, denn selbige NextGen-Konsolen setzen die Spieleentwicklung auf eine völlig neue Hardware-Basis, was üblicherweise (für ein paar Jahre) in bedeutsam anziehenden Hardware-Anforderungen bei PC-Spielen resultieren dürfte.