8

Hardware- und Nachrichten-Links des 7./8. November 2020

Auch angesichts der kürzlich schon angeschnittenen Frage der Speichermengen bei den nun erscheinenden NextGen-Grafikkarten wird immer klarer, dass sich nVidia in Bezug auf die Einschätzung der Radeon RX 6000 Grafikkarten von AMD maßgeblich vertan hat – und demzufolge die eigene Ampere-Grafikkarten konzeptionell falsch zugeschnitten hat. Einzurechnen wäre hierbei, dass die grundsätzliche Produkt-Festlegung basierend auf den erstellten Grafikchips sicherlich einige Monate vor Markteintritt erfolgen muß – ganz besonders wenn es eventuell um andere Speicherchips gehen würde. Jene können (im Gegensatz zu neuen Grafikkarten-Varianten basierend auf vorhandener Technik) nicht aus dem Hut gezaubert werden – was ganz besonders auf 1,5-GByte-Speicherchips zutrifft, welche nVidia in der aktuellen Situation unglaublich weiterhelfen würden. Mittels selbigen könnte nVidia umgehend ein auf der Speicherseite konkurrenzfähigiges Angebot aufstellen – was um so mehr bedeutsam ist, als dass es bei der Performance auf einen groben Gleichstand hinausläuft und die deutlich unterschiedlichen Speichermengen somit derzeit das "Zünglein an der Waage" innerhalb dieser Grafikkarten-Generation ergeben.

AMD RDNA2 nVidia Ampere Ampere mit 1,5-GByte-Speicherchips
Radeon RX 6900 XT16 GB GeForce RTX 309024 GB 12x 1,5 GByte GDDR6X = 18 GB
Radeon RX 6800 XT16 GB GeForce RTX 308010 GB 10x 1,5 GByte GDDR6X = 15 GB
Radeon RX 680016 GB GeForce RTX 30708 GB 8x 1,5 GByte GDDR6 = 12 GB
Radeon RX 6700 XT12 GB GeForce RTX 3060 Ti8 GB 8x 1,5 GByte GDDR6 = 12 GB
Radeon RX 670010 GB GeForce RTX 30606 GB 6x 1,5 GByte GDDR6 = 9 GB
Anmerkung: reine Projektion der Möglichkeiten von 1,5-GByte-Speicherchips

Simuliert man hingegen (wie vorstehend) eine Ampere-Generation auf Basis von 1,5-GByte-Speicherchips, könnte sich die Betrachtung wieder auf andere Punkte verlagern, würden nicht mehr die Speichermengen als Unterscheidungsmerkmal derart dominieren. Sicherlich kann nVidia mittels der Verwendung von 1,5-GByte-Speicherchips nicht in jedem Fall AMD (bei den Speichermengen) einholen, aber es wäre nahe genug dran, um keinen großartigen Unterschied mehr zu ergeben. Zudem sind 1,5-Gybte-Speicherchips auch gut mit nVidias üblichem Credo zu vereinbaren, nie all zu viel Speicher (bis auf bei der Titan-Klasse) mitzugeben, um somit Reserven für zukünftige Grafikkarten-Generationen zu lassen. Aus Konsumenten-Sicht ist die Verwendung von gleich 2-Gybte-Speicherchips logischerweise besser, aber dies entspricht einfach nicht der üblichen Vorgehensweise von nVidia in Fragen der Speicherbestückung. Vor allem aber zeigt der Fall des GDDR6X-Speicher von GeForce RTX 3080 & 3090 an, dass es durchaus im Rahmen des Möglichen gewesen war, ein neue, bislang noch nirgendwo produzierte Speichersorte nur für den Launch der Ampere-Generation aus der Taufe zu heben.

Schließlich wird der GDDR6X-Speicher derzeit nur von zwei Gaming-Grafikkarten verwendet, weder die entsprechenden Quadro-Modelle benutzen diesen Speicher noch hat AMD entsprechende Pläne. Mit entsprechender Vorplanung wäre es also sicherlich möglich gewesen, bei den Speicherchip-Herstellern auch die Fertigung von 1,5-GByte-Speicherchips von GDDR6 & GDDR6X anzustoßen – welche schließlich schon seit GDDR5X in der JEDEC-Spezifikation stehen und bislang einfach nur noch nie hergestellt wurden. Durchaus möglich also, dass sich nVidia bei besserem Vorwissen über die Performance und Speicherbestückung der Radeon RX 6000 Serie bei der Frage der Speicherbestückung der initialen Ampere-Grafikkarten vielleicht anders entschieden hätte. Genauso gut möglich aber auch, dass nVidia nunmehr einen solchen oder auch ähnlichen Weg für den eventuell in Planung befindlichen "Ampere-Refresh" geht: Denn unabhängig von etwaigen Performance-Zuwächsen muß ein solcher Ampere-Refresh vielleicht sogar ganz vordringlich die Frage der Speichermengen-Diskrepanz zum AMD-Angebot angehen – und natürlich auch deswegen, weil es hierbei um Grafikkarten geht, welche sicherlich nicht vor Mitte 2021 herauskommen. Im Endeffekt könnte der Wettbewerbsdruck durch AMD also nVidia dazu zwingen, sich in der Frage der Speichermengen substantiell zu bewegen.

Der erste Praxistest einer Intel Iris Xe Max diskreten Grafiklösung bei PurePC bringt interessante, aber auch teilweise widersprüchliche Ergebnisse hervor: So wird die vorher unter ihrem Codenamen "DG1" bekannte Intel-Grafiklösung zwar Benchmark-Sieger gegenüber der integrierten Xe-Grafik, einer Radeon RX Vega 8 sowie immerhin auch einer GeForce MX 350, allerdings sind die erzielten Differenzen generell klein und damit auch der Abstand zwischen Xe-iGPU und DG1 mit nur +6% unerwartet geringfügig. Möglicherweise hängt dies an der Benchmark-Auswahl, dem limitierenden Faktor der Notebook-Prozessoren bzw. deren Thermik – oder eventuell spielen hierbei auch abweichende Power-Limits mit hinein. Hierzu gab es leider kaum zielführende Angaben in diesem Testbericht, welcher sich diesbezüglich vornehmlich auf die Angaben der CPU-Hersteller verlassen hat – mißachtend den Punkt, dass den Notebook-Hersteller hierbei eigentlich freie Hand gegeben ist und jene demzufolge alles mögliche an abweichenden Power-Limits eingestellt haben könnten.

Technik FullHD-Perf.
nVidia GeForce MX 350 MSI Modern 15, Core i7-10510U 104,4%
Intel Iris Xe Max Acer Swift 3X, Core i7-1165G7 106,0%
Intel Iris Xe (iGPU) Asus ZenBook 14 UX425E, Core i7-1165G 100%
Radeon RX Vega 8 (iGPU) Lenovo IdeaPad Slim 7, Ryzen 7 4800U 87,5%
gemäß der Tests von PurePC unter 5 Spiele-Benchmarks (ohne CS:GO)

Insofern läßt sich aus diesem Testbericht eher nur mitnehmen, dass Intels Performance-Prophezeiung eines groben Performance-Gleichstands zwischen Iris Xe Max und GeForce MX 350 mutmaßlich zutrifft – immer gesetzt denn Fall, das hierbei keine größeren TDP-Differenzen vorliegen. Aber nicht umsonst arbeitet nVidia derzeit an einer "GeForce MX 450", welche nVidia dann im Einsteiger-Bereich des Mobile-Segments wieder in klare Vorhand bringen soll. Nicht thematisiert wurde leider die Spielekompatibilität, wo Intels Treiber laut OneRaichu @ Twitter immer noch einige Schwierigkeiten aufweisen sollen. Zu erwähnen wäre daneben noch ein "Iris Xe Max" Review bei SiSoftware, welches sich um die GPGPU-Eignung von Intels erster diskreter Grafiklösung seit vielen Jahren kümmert – und der Hinweis seitens AnandTech, dass es die DG1-Lösung nächstes Jahr dann tatsächlich auch in Desktop-Form geben soll. Derzeit ist zwar leider nur die Abgabe an OEMs geplant – aber mal schauen, wie sich dies noch entwickelt. Denn nachdem AMD & nVidia bei den Office-Grafiklösungen derzeit nur technologische Altware aufbieten, könnte DG1 aus der Sicht einer hochmodernen Office-Grafikkarte durchaus noch interessant werden.