10

Hardware- und Nachrichten-Links des 10. Dezember 2021

Die ComputerBase hat sich mit einem XTHX-Modell zur Radeon RX 6900 XT beschäftigt, konkret realisiert mittels der "XFX Radeon RX 6900 XT Merc 319 Limited Black Gaming". Die XTXH-Ausbaustufe des Navi-21-Chips wurde von AMD nie wirklich offiziell deklariert, ermöglicht jedoch höhere Chip-Spannungen und Taktraten zu gleichzeitig höherem Stromverbrauch – und wird daher gern auf den Spitzen-Exemplaren der Grafikkarten-Hersteller eingesetzt. Ob man wirklich von einer extra Chip-Variante sprechen kann, steht auf einem anderen Blatt, denn letztlich besteht der Unterschied nur in einem gewissen Binning – was die Hersteller bei anderen Grafikchips genauso durchführen, dies dann aber meist nicht so explizit markiert wird. Verglichen wurde die XFX-Karte mit einer "Asus GeForce RTX 3090 Strix OC", sprich einer ebenfalls hoch taktenden Ausführung von nVidias Spitzen-Grafikkarte.

4K/2160p  (avg fps) RX 6900 XT RTX 3090 Differenz
Referenz-Designs 86,4% 90,7% +5,0% pro nVidia
XFX Merc319 LBG vs Asus Strix OC 93,0% 93,8% +0,9% pro nVidia
Hersteller-Karten manuell übertaktet 95,8% 98,0% +2,3% pro nVidia
gemäß den Ausführungen der ComputerBase unter 16 Spiele-Benchmarks

Dabei konnte sich die von XFX werksübertaktete Radeon RX 6900 XT mit +7,6% durchaus beachtbar vom AMD-Referenzdesign absetzen – bei nVidia lag die Mehrperformance der Asus-Werksübertaktung nur bei +3,4%. Allerdings reicht es trotzdem nicht ganz für einen Performance-Gleichstand zwischen den beiden Werksübertaktungen, da die nVidia-Grafikkarte von einem höheren Sockel aus starten kann. Dabei sind die ComputerBase-Benchmarks schon vergleichsweise AMD-freundlich mit einer Differenz von nur +5,0% zwischen (Referenz-mäßiger) Radeon RX 6900 XT gegen GeForce RTX 3090 (pro nVidia). Laut dem 3DCenter 4K Performance-Index sind es im Schnitt von Benchmarks aus der Breite der Fachpresse eher denn +8,0% zugunsten von nVidia – und würde somit die werksübertaktete AMD-Karte in einer breiteren Betrachtung auch kaum auf einen Nahezu-Gleichstand zur werksübertakteten nVidia-Karte kommen können.

Hierin liegt vielleicht auch der Grund, wieso AMD diese XTXH-Chipvariante niemals in eine eigene Grafikkarten-Variante überführt hat (beispielsweise in Form einer "Radeon RX 6900 XTX") – jene wäre trotzdem nur als zweiter Sieger durchs Ziel gekommen. Allenfalls gegenüber der GeForce RTX 3080 Ti hätte AMD damit ein besseres Ergebnis erzielen können – was jedoch in gewissem Sinne unnötig ist, denn in diesem Vergleich spricht entweder der Mehrspeicher eindeutig für AMD oder die bessere RayTracing-Eignung eindeutig für nVidia. Die paar Prozentpunkte Performance, die AMD herausholen kann, machen das Kraut nicht fett – würden nur zählen beim absoluten Performance-Thron, welchen AMD mit Navi 21 jedoch auch in der XTXH-Variante nicht erreichen kann. Zudem hätte man sich dafür den Stromverbrauch ruinieren müssen, denn die XFX-Karte verbraucht mit 375 Watt deutlich mehr als AMDs Referenzdesign mit 296 Watt. Die aktuelle Darreichungsform als werksübertaktete Hersteller-Karte erfüllt genauso den Zweck, insofern war dies die bessere Auflösung für AMD.

Intel hat mit einem kurzen YouTube-Trailer seine Rückkehr ins Grafikchip- und Grafikkarten-Geschäft nun auch noch medial angeteasert. Der Trailer enthält knappe Ausschnitte populärer Spieletitel, welche wohl auf einer Arc-Grafikkarte aufgenommen wurden, ansonsten aber keine weiteren Schlüsse zulassen oder Informationen preisgeben. Der einzige wertbare Punkt ist die Termin-Nennung am Trailer-Ende mit "Q1/2022" – womit Intel sich dann positioniert hat. Hierbei dürfte es sich natürlich um den offiziellen Launch-Termin handeln, was nicht zwingend mit dem Marktstart einhergeht. Vorherige Gerüchte hatten davon gesprochen, dass Intel noch im ersten Quartal die Mobile-Modelle an den Start bringt, die Desktop-Modelle allerdings erst im zweiten Quartal – was sich mit einem offiziellen Launch irgendwann im ersten Quartal nicht widerspricht. Behält die Gerüchteküche auch weiterhin Recht, muß man zum Quartals-Anfang allerdings nichts erwarten und kommt vor dem März 2022 nichts von Intels Arc-Grafikkarten.

Bei Igor's Lab packt man AVX512 als Effizienz-Tipp für "Alder Lake" aus – was sich zuerst arg ungewöhnlich anhört, durch die Benchmarks allerdings bestätigt wird. Dabei läuft Alder Lake im Modus mit reinen Performance-Kernen unter Aktivierung von AVX512 sowohl schneller als auch weniger stromdurstig gegenüber der (default-mäßigen) Deaktivierung von AVX512. Mittels dieser Methode kommt man sogar halbwegs an die Performance des vollen Alder-Lake-Prozessors heran, sprich der Performance-Verlust durch die Deaktivierung der E-Kerne wird weitgehend aufgehoben. Dies könnte dann noch einmal interessant werden für die kommenden HEDT-Prozessoren auf Basis derselben Golden-Cove-Kerne ("Sapphire Rapids-X"), wo mangels verbauter Effizienz-Kernen AVX512 sicherlich ab Werk aktiviert sein dürfte.

Y-Cruncher Far Cry 6 LinX
Core i9-12900K  (default) 72,6 sec @ 255W 140 fps @ 172W 671 GFlops @ 255W
Core i9-12900K – nur P-Kerne 80,8 sec @ 290W 144 fps @ 192W 530 GFlops @ 296W
Core i9-12900K – nur P-Kerne mit AVX512 71,5 sec @ 263W 143 fps @ 179W 580 GFlops @ 249W
gemäß den Ausführungen von Igor's Lab

Bei TechteamGB @ YouTube hat man sich damit beschäftigt, ob Intel eventuell "Golden Samples" als Teststellungen zu den Hardwaretestern beim Alder-Lake-Launch geschickt hat. Dafür wurden die Performance-Egebnisse von Intel-Testsamples sowie von im Einzelhandel erstandenen Modellen zu Core i5-12600K und Core i9-12900K verglichen – allerdings vergleichsweise kurz, so dass eine genauere Auswertung keinen größeren Sinn macht. Die aufgestellten Ergebnisse weisen allerdings bereits darauf hin, dass beim Core i5-12600K kaum Differenz zwischen Testsample und Retail-Exemplar existieren, und dass man beim Core i9-12900K allenfalls von kleineren Differenzen reden kann, welche wohl noch unter die typischen Serienstreuung fallen. Die größte Differenz gab es sowieso nicht bei irgendwelchen Benchmarks, sondern beim Stromverbrauch, wo Intels Testsample des Core i9-12900K einen Peak-Verbrauch von 253 Watt erreichte, das Retail-Exemplar hingegen nur 241,8 Watt.

Da das Power-Limit von 251 Watt bei Peak-Messungen normalerweise erreicht werden sollte, deutet dies u.U. eher auf ein vergleichsweise schwaches Retail-Exemplar hin – was dann auch die minimalen Performance-Differenzen erklären würde. Dass der "Fehler" hierbei auf Seiten des Retail-Exemplars liegt, ist eine Seitenchance, welche man nur über den Kauf und Vergleich mehrerer Retail-Exemplare gänzlich ausschließen könnte. So oder so fehlt hier der große Beweis dafür, dass Intel im bedeutsamen Maßstab seine an die Fachpresse abgegebenen Testsamples nach Güteklasse aussucht. Und selbst wenn dies passiert, ist der Effekt dieser Maßnahme augenscheinlich vergleichsweise gering, weil auch die Retail-Exemplare im Rahmen der Serienstreuung vergleichbare Leistungen bringen. Natürlich schadet es dennoch nicht, dies ab und zu nachzuprüfen – denn überall dort, wo nicht mit Kontrollen gerechnet werden muß, reißt es mit der Zeit erfahrungsgemäß ein.