2

Hardware- und Nachrichten-Links des 1./2. August 2020

Von Reddit geht derzeit eine Diskussion zu den RMA-Quoten von AMD- und nVidia-Grafikkarten aus, basierend auf per Google Spreadsheet ausgewerteten Verkaufsdaten des deutschen Einzelhändlers 'Mindfactory'. Zu erwähnen wäre vorab, dass laut einer früheren Mindfactory-Aussage diese RMA-Quoten auch Rücksendungen im Rahmen des 14-Tages-Rückgaberechts enthalten, ergo nicht zwingend auf technische Probleme zurückzuführen sind. Aufgrund der hohen Verkaufszahlen läßt sich aber dennoch eine gewisse Tendenz erkennen, selbst wenn die Reddit-Aussage einer doppelt so hohen RMA-Quote bei den neuen AMD-Grafikkarten aufgrund einer ungleichen Datenbasis nicht wirklich solide ist. Beispielsweise wird der vielzitierte Vergleich der RMA-Quoten der beiden Top-Seller in Form von Radeon RX 5700 XT (3,6%) vs. GeForce RTX 2070 Super (1,2%) dadurch unterminimiert, dass die nVidia-Karte ein Refresh-Produkt auf Basis eines bekannten Platinen-Layouts darstellt – wo also die Kinderkrankheiten bereits mit der Vorgänger-Karte (GeForce RTX 2070) "ausgetrieben" wurden und eine niedrige RMA-Quote somit obligatorisch ist.

Release Verkäufe RMA-Quote Datenbasis
Radeon RX 5700 XT 7. Juli 2019 29'340 3,6% grob vollständig
Radeon RX 5700 7. Juli 2019 8'910 3,6% grob vollständig
GeForce RTX 2080 Ti 19. September 2018 8'890 5,3% grob vollständig
GeForce RTX 2080 Super 23. Juli 2019 8'320 1,2% grob vollständig
GeForce RTX 2070 Super 2. Juli 2019 30'030 1,2% grob vollständig
GeForce RTX 2070 16. Oktober 2018 4'790 3,0% enorm lückenhaft
GeForce RTX 2060 Super 2. Juli 2019 12'780 1,9% grob vollständig
GeForce RTX 2060 7. Januar 2019 7'750 1,8% lückenhaft
basierend auf der Auswertung der Mindfactory-Verkaufszahlen per Google Spreadsheet
2 2

DLSS per default im Treiber aktiviert?

Eines der Gerüchte zu nVidias Ampere-Generation spricht über ein verbessertes DLSS 3.0 – und zugleich die Option, wonach nVidia jenes im Grafik-Treiber per default aktivieren könnte. Das Feature würde dann natürlich "nur" für Spiele nach DLSS 3.0 gelten, nicht für Spiele ohne DLSS-Feature (und vermutlich auch nicht für Spiele mit den älteren DLSS-Versionen 1.0 & 2.0). Trotzdem kann man eine default-Aktivierung per Treiber natürlich als einen Eingriff in die Wahlfreiheit des Benutzers betrachten – wobei der Zweck für nVidia eher darin bestehen dürfte, in Benchmarks besser dazustehen. Die sich hiermit ergebende Frage ist somit, wie dies die Grafikkarten-Enthusiasten sehen, sofern dieses Gerücht Wirklichkeit werden sollte. Unter Umständen kann diese Umfrage damit sogar nVidia bei der internen Entscheidungsfindung helfen, sollte man dort derzeit tatsächlich darüber beraten, DLSS per default aktiv zu machen.
PS: Diskussion zur Umfrage und zum Umfrageergebnis in unserem Forum.

2

Umfrage-Auswertung: Was sollte es für ein Einsteiger-System sein: Schneller Vierkerner oder gemächlicher Sechskerner?

Mittels einer Umfrage von Mitte Mai wurde – anschließend an den seinerzeitigen Launch von AMDs Ryzen 3 3100 & 3300X Vierkern-Prozessoren – die Frage gestellt, ob es für ein Einsteiger-System besser ein schneller Vierkerner oder ein gemächlicher Sechskerner sein soll. Selbige Frage wäre vor kurzer Zeit noch sehr eindeutig entschieden worden, da es bis vor Ryzen 3 3100 & 3300X sowie den Core i3 von Intels Comet Lake zuletzt keine potenten Vierkerner gab. Speziell die beiden neuen AMD-Vierkerner haben dann aber dennoch für einiges neues Interesse an Vierkerner sorgen können, was man auch dem Umfrage-Ergebnis ansieht: Jenes zeigt zwischen dem Vierkerner mit 42,3% sowie dem gemächlichen Sechskerner mit 38,4% einen groben Gleichstand an (mit leichter Tendenz pro des Vierkerners) – was angesichts der früheren Stimmungslage gegen Prozessoren mit weniger als 6 CPU-Kernen doch einen ziemlichen Erfolg für den Vierkerner darstellt.

1

AMDs "Navi 21" RDNA2-Grafikchip tritt tatsächlich mit 80 Shader-Clustern an

Twitterer Rogame hat in einem neueren Linux-Treiber exakte Hardware-Angaben zu AMDs "Navi 21" Grafikchip erspäht. Jene Angaben geben die Maximal-Konfiguration des jeweiligen Grafikchips wieder und wurden früher schon dazu benutzt, beispielsweise den "Arcturus" HPC-Chip korrekt auf 128 Shader-Cluster einzuordnen, sind ergo eine bislang absolut verläßliche Quelle. Somit wird klar, dass Navi 21 mit 4 Shader-Engines zu jeweils 2 Shader-Arrays zu jeweils 5 Workgroups zu jeweils zwei Shader-Clustern antreten wird – und nach Adam Riese somit 80 Shader-Cluster tragen wird. Das ganze stellt eine exakte Verdopplung des "Navi 10" Grafikchips der Radeon RX 5600/5700 Serien dar und ermöglicht somit einen Performane-Sprung auf grob das Doppelte der Radeon RX 5700 XT – und je nachdem wieviel Taktrate AMD noch herausholt bzw. wie stark die Verbesserungen der RDNA2-Architektur ausfallen, vielleicht sogar etwas mehr.

1

Gerüchteküche: Erste grobe TimeSpy-Werte zu GeForce RTX 3080 & 3090 aufgetaucht

Twitterer Kopite7kimi hat einen weiteren TimeSpy-Wert zu nVidias Ampere genannt – diesesmal gab es einen halbwegs genauen Graphics-Wert zur GeForce RTX 3080 unter dem TimeSpy Extreme. Selbiger wird vergleichsweise selten getestet, belastbare Vergleichswerte gibt es nur von Hardwareluxx und Overclock3D. Folgt man den Ausführungen des Twitterers, welcher immerhin schon im Mai des Jahres 2019 die kompletten Hardware-Spezifikationen von nVidias Ampere-Generation augenscheinlich korrekt genannt hatte, dann kommt die GeForce RTX 3080 auf immerhin ca. +35% Mehrperformance gegenüber der GeForce RTX 2080 Ti unter diesem TimeSpy-Test heraus. Zugleich ergibt sich anhand des neuen Benchmark-Wertes zur GeForce RTX 3080 der Punkt, dass der gestrige Wert zur GeForce RTX 3090 somit kaum weit von der Zehntausender-Marke entfernt sein kann, wahrscheinlich mindestens bei 98xx Punkten liegt. Die TimeSpy-Mehrperformance der GeForce RTX 3090 tendiert somit eher in Richtung von +55% gegenüber der GeForce RTX 2080 Ti.

Hardware TimeSpy Extreme (GPU) Quelle(n)
GeForce RTX 3090 nVidia Ampere, whrschl. GA102, 82 SM @ 384 Bit GDDR6 "almost" 10000 Kopite7kimi
GeForce RTX 3080 nVidia Ampere, whrschl. GA102, 68 SM @ 320 Bit GDDR6 "almost" 8600 Kopite7kimi
GeForce RTX 2080 Ti FE nVidia Turing, TU102, 68 SM @ 352 Bit GDDR6 Ø 6333 HWLuxx & OC3D
GeForce RTX 2080 FE nVidia Turing, TU104, 46 SM @ 256 Bit GDDR6 Ø 4912 HWLuxx & OC3D
31

Hardware- und Nachrichten-Links des 31. Juli 2020

Während der Analysten-Konferenz zu den jüngsten AMD-Quartalszahlen hat die AMD-Chefin eine interessante Aussage zur Portfolio-Breite von RDNA2-Lösungen abgegeben. Danach soll der Release von "Big Navi" einen Ersatz des kompletten Grafikkarten-Portfolios (im Gaming-Bereich) auslösen, sprich von LowCost bis HighEnd-Lösungen. Zuerst einmal hört sich diese Aussage ganz danach an, als dass damit ein total auf Navi-2X-Chips basierendes Grafikkarten-Portfolio angekündigt würde. Bei genauerem Lesen fällt allerdings auf, dass dies nicht direkt gesagt wurde – gerade da man sich sowieso nur auf den Launch eines einzelnen Grafikchips ("Big Navi") bezogen hat, welcher nun unmöglich gleich das komplette Portfolio bedienen kann. Der im genauen angekündigte Ersatz des bisherigen Grafikkarten-Portfolios kann demzufolge auch mit anderen, nicht zwingend RDNA2-basierten Grafikchips erfolgen. Im eigentlichen hat AMD nur ein komplett neues Grafikkarten-Portfolio angekündigt. Jenes könnte natürlich auch durchgehend auf brandneuen Grafikchips basieren, aber dieser Punkt wurde explizit nicht ausgeführt und gehört somit ins Feld der Eigen-Interpretationen.

We are in the process of a product transition. We are on track to launch RDNA 2 or, as you call it, Big Navi late this year. We're excited about the RDNA 2 architecture.
I think it's a full refresh for us from the top of the stack through the rest of the stack.

Quelle:  AMD-CEO Lisa Su bei der Analysten-Konferenz zu den AMD-Quartalszahlen Q2/2020 am 28. Juli 2020, notiert von Motley Fool

30

Hardware- und Nachrichten-Links des 30. Juli 2020

Auf Twitter hat Kopite7kimi mal wieder eine seiner Wasserstandsmeldungen zu nVidias Gaming-Ampere von sich gegeben – welche sich augenscheinlich immer auf aktuelle Testsamples und deren Hardware-Spezifikationen beziehen. Weil nVidia hierbei sicherlich noch in die eine oder andere Richtung hin testet, ergeben sich ab und zu (leicht) abweichende Spezifikationen, weswegen hieraus noch nicht der finale Stand abgeleitet werden kann – wie vom Twitterer aber auch regelmäßig angemerkt. Die aktuelle Entwicklung scheint nunmehr in diese Richtung zu gehen, dass die ganz hohen Speichertaktungen oberhalb 20 Gbbps nicht mehr im Plan stehen – die GeForce RTX 3090 wird mit 19,5 Gbps und die GeForce RTX 3080 mit 19 Gbps gemeldet. Dies erscheint als wesentlich plausibler als höhere Taktraten oder aber ein größerer Taktraten-Unterschied zwischen beiden Karten, welche ja sowieso schon ein erheblicher Unterschied bei der Breite des Speicherinterfaces trennt (384 Bit zu 320 Bit). Basierend auf diesen Daten wird die GeForce RTX 3090 eine um +23% höhere Speicherbandbreite gegenüber der GeForce RTX 3080 aufweisen – was gut zur Differenz bei der Anzahl der Shader-Cluster passt (82 zu 68, +21%).

Maybe,
3090 19.5Gbps 384bits 936G
3080 19Gbps 320bits 760G

Quelle:  Kopite7kimi @ Twitter am 29. Juli 2020

29

Hardware- und Nachrichten-Links des 29. Juli 2020

Die PC Games Hardware berichtet über ein Sony-Patent, welches prinzipiell für ein PS5-Äquivalent zu DLSS nutzbar wäre. Derzeit hat Sony (wie auch AMD) noch überhaupt nichts in diese Richtung hin gesagt, aber diverse Rohleistungs-schonende Maßnahmen werden auch den NextGen-Konsolen in ein paar Jahren überaus nützlich sein, um die dann anstehenden wirklichen NextGen-Spiele tatsächlich noch unter einer (nominellen) 4K-Auflösungen abspulen zu können. Zwar gibt es auch andere Rohleistungs-schonende Maßnahmen zur Wahl (dynamische Auflösung, Checkerboard-Rendering und Variable Rate Shading), aber keine davon bringt einen derart hohen Performance-Zugewinn zu zugleich im groben Maßstab keinerlei Bildqualitäts-Nachteil. nVidias DLSS ist eigentlich wie für Spielekonsolen gemacht, wird aber natürlich dort nie eingesetzt werden, sondern steht exklusiv allein nVidia-Hardware zur Verfügung. Da sich DLSS 2.0 aber zuletzt wirklich gut präsentieren konnte und von einem (möglichen) DLSS 3.0 nur noch besseres erwartet werden kann, sind die anderen Anbieter von Grafik-Hardware langsam unter Zugzwang, ähnliches zu liefern.

RayTracing DLSS o.ä. Anmerkung
AMD Navi 1X  (RDNA1)
AMD Navi 2X  (RDNA2)
Microsoft Xbox Series X  (RDNA2) ? möglicherweise mittels DirectML geplant
nVidia Turing & Ampere Turing: DLSS 2.0, Ampere: möglicherweise DLSS 3.0
Sony Playstation 5  (RDNA2) ? DLSS-Alternative möglicherweise in Vorbereitung
29

Aktualisierte AMD-Roadmaps zeigt "Zen 4" im Consumer-Bereich nicht vor dem Jahr 2022 an

AMD hat im Zusammenhang mit seinen jüngsten Quartalszahlen auch eine neue "Unternehmens-Präsentation" (PDF) herausgegeben, welche u.a. alle offiziellen AMD-Roadmaps in aktualisierter Form enthält. Dazu gibt es eigentlich keinerlei bahnbrechende Neuigkeiten zu berichten – um so mehr verwundern dann Meldungen, wonach AMD mit diesen Roadmaps angeblich Zen 4 und RDNA3 bereits für das Jahr 2021 "bestätigt" haben soll. Dies wäre selbigen Roadmaps aber nur dann zu entnehmen, sofern man die Roadmap-Zeitskala als jeweils tagesgenaue Zeitpunkte interpretiert. Eine AMD-Roadmap mit eingezeichneter Zeitskala von "2017 bis 2021" endet aber nicht am 1. Januar 2021 (womit alle eingezeichneten Produkte noch bis Ende 2020 herauskommen müssten) – sondern natürlich endet diese Roadmap am 31. Dezember 2021, da mit den Jahresangaben jeweils immer das komplette Jahr gemeint ist. Eine indirekte Bestätigung für diese Auslegung findet sich in einem früheren AnandTech-Artikel, wo AMD auf Nachfrage das Zeitskalen-Ende "2021" mit "end of 2021" gleichsetzte. Eine andere Bestätigung ergibt sich über frühere AMD-Roadmaps, wo "Zen 3" rein optisch noch vor dem Jahr 2020 eingezeichnet wurde – logisch, dass die Jahresangabe dort nur als "Gesamtjahr 2020" und nicht als "Jahresstart 2020" gemeint sein konnte.

28

Hardware- und Nachrichten-Links des 28. Juli 2020

Die koreanische Quasarzone (maschinelle Übersetzung ins Deutsche) bietet den ersten Hardwaretest zum Core i9-10850K auf, dem gegenüber dem bekannten Core i9-10900K minimal taktschwächeren Comet-Lake-Zehnkerner von Intel. Im Spiele-Tests (zu 1% Minimum-Frameraten) wurde dabei das exakt gleiche Ergebnis gegenüber dem Core i9-10900K erzielt, unter Anwendungen gab es hingegen eine mit -2,6% erstaunlich klare Performance-Differenz. Selbige liegt somit leicht oberhalb der Taktraten-Differenz, welche eigentlich nur für -2,0% stehen sollte – und weist indirekt auf den augenscheinlichen Umstand hin, dass Intel beim Core i9-10850 natürlich die tendentiell schwächeren Prozessoren-Dies einsetzt. Der Übertaktungs-Test lief hingegen anständig, es waren 5.0 GHz zu erreichen, 100 MHz weniger als beim vorliegenden Core i9-10900K. Um bezüglich der Übertaktungs-Eignung eine belastbare Tendenz abzuleiten, müssten aber natürlich deutlich mehr entsprechende Resultate vorliegend sein.

10700K 10850K 10900K 3900X 3900XT 3950X
Technik 8C CML 10C CML 10C CML 12C Zen2 12C Zen2 16C Zen2
Anwendungs-Performance  (9 Tests) 85,3% 97,4% 100% 105,6% 106,6% 119,6%
Spiele-Perf.  (8 Tests, 1% min. fps @ FHD) 95,2% 100,0% 100% 95,2% 95,3% 95,7%
gemäß den Ausführungen & Benchmarks der Quasarzone
Inhalt abgleichen