9

Hardware- und Nachrichten-Links des 9. Oktober 2019

Mit der neuesten Beta-Version des Diagnose-Tools HWiNFO wird ein vorläufiger Support für "AMD Arcturus" geboten – und damit gleichzeitig mal ein Lebenszeichen zu diesem immer noch nicht gut einordenbarem Chip-Projekt. Jener Support könnte im übrigen auf Daten von AMD selber basieren, denn mangels anderer Leaks zu "Arcturus" gäbe es keinen anderen Grund für einen solchen Support in einem Diagnose-Tool, in welchem normalerweise sowieso keine Gerüchte-basierten Informationen auftauchen (sollten). Zur Frage, in welche Richtung es bei "Arcturus" geht, trägt dieser HWiNFO-Support dann allerdings auch nichts bei. Zuerst dachte man ja, Arcturus wäre einfach nur die "Navi" nachfolgende Chip-Generation bei AMD – eine These, welche nachfolgend immer mehr in Frage gestellt wurde. Inzwischen ist das ganze vollkommen offen und "Arcturus" könnte letztlich auch ein Sonder-Projekt sein, welches mit dem normalen Grafikchip-Geschäft nicht viel zu tun hat. Hierfür bräuchte AMD vorerst nicht einmal weiteren Chipnamen, könnte man auch mit zusätzlichen Navi-Generation weitermachen – wie es sich schon mit Navi 2X (bestehend aus Navi 21 & Navi 23) andeutet. Aber natürlich ist einfach noch zu wenig über die langfristigen Grafikchip-Pläne von AMD bekannt: Alle früheren Roadmaps enden schlicht mit "Navi" – die neueren Roadmaps hingegen mit "RDNA2", was Navi 2X sein wird.

Added preliminary support of AMD Arcturus.
Quelle:  Release Notes von HWiNFO 6.13 Build 3945

Stichwort Navi 21 & Navi 23: Zusammen mit dem noch der ersten Navi-Generation bzw. der RDNA1-Architektur zuzuordnendem Navi-12-Chip ergibt dies noch drei bekannte Chip-Projekte innerhalb von Navi 1X & 2X. Neben der bekannten Zuordnung von Navi 10 & Navi 14 sowie der vermutlichen Zuordnung von Navi 12 zum HighEnd-Segment gibt es zudem zu Navi 23 den Hinweis, das jenes Chip-Projekt AMD-intern angeblich als "nVidia Killer" laufen soll. Natürlich ist nicht sicher, ob AMD tatsächlich wie nVidia einen Portfolio-Aufbau mit fünf Grafikchips anstrebt, aber für den Augenblick ergibt dies durchaus viel Sinn: Vier Navi-Chips lassen sich schon einordnen und "Navi 21" würde somit übrigbleiben für den obligatorischen LowCost-Chip, wo AMD irgendwann sicherlich auch mal wieder einen modernisierten Ersatz für die derzeit dort immer noch genutzten 14nm-Chips benötigt. Trifft diese These zu, ergeben Navi 1X & 2X zusammen dann ein vollständiges Navi-Portfolio, egal wie dann die eigentlichen Grafikkarten-Namen ausfallen werden (Radeon RX 6000 Rebrandings für das Jahr 2020 oder weiter mit der Radeon RX 5000 Serie). Wie es dann nach Navi 2X weitergeht, ist dagegen wie gesagt weiterhin völlig im Dunklen.

AMD Navi nVidia Turing
Enthusiast spekulativ: Navi 23
(Sommer/Herbst 2020)
TU102
18,6 Mrd. Transist. in 12nm auf 754mm²
HighEnd wahrschl.: Navi 12
(Jahreswechsel 2019/20)
TU104
13,6 Mrd. Transist. in 12nm auf 545mm²
Midrange Navi 10
10,3 Mrd. Transist. in 7nm auf 251mm²
TU106
10,6 Mrd. Transist. in 12nm auf 445mm²
Mainstream Navi 14
6,4 Mrd. Transist. in 7nm auf 158mm²
TU116
6,6 Mrd. Transist. in 12nm auf 284mm²
LowCost spekulativ: Navi 21
(Sommer/Herbst 2020)
TU117
4,7 Mrd. Transist. in 12nm auf 200mm²

Von ComputerBase, GameGPU, Igor's Lab, PC Games Hardware und WCCF Tech kommen umfangreiche Grafikkarten-Benchmarks zu Ghost Recon Breakpoint, dem neuesten Titel der Ghost-Recon-Reihe auf Basis wiederum von Ubisofts "AnvilNext 2.0" Spiele-Engine und damit weiterhin DirectX 11. Performance-technisch geht es dabei richtig zu Sache, werden die offiziellen Systemanforderungen eigentlich nur in der Empfehlungs-Spalte getroffen – bei allen anderen Settings verlangt das Spiel real klar mehr Hardware als offiziell deklariert. Auf dem zweithöchsten Bildqualitäts-Preset "Ultra" braucht es für durchschnittlich 60 fps immerhin schon GeForce GTX 1080 Ti, GeForce RTX 2080 oder Radeon RX 5700 XT – allein unter FullHD wohlgemerkt. Für die WQHD-Auflösung geht diese Anforderung auf (allein) eine GeForce RTX 2080 Ti hinauf, welche selbige Performance dann logischerweise unter der UltraHD-Auflösung nicht mehr erbringen kann – dafür ist derzeit keine erhältliche Grafikkarte leistungsfähig genug.

Grafikkarten-Empfehlung für "Ghost Recon Breakpoint"
"High"-Preset @ 40 fps "Ultra"-Preset @ 60 fps
FullHD GeForce GTX 970, GeForce GTX 1060 3GB, GeForce GTX 1650 oder Radeon R9 290, Radeon RX 470 GeForce GTX 1080 Ti, GeForce RTX 2080 oder Radeon RX 5700 XT
WQHD GeForce GTX 1070, GeForce GTX 1660 oder Radeon RX Vega 56, Radeon RX 5700 GeForce RTX 2080 Ti
UltraHD GeForce RTX 2080 GeForce RTX 2080 Ti @ ca. 35-40 fps
interpoliert gemäß der Benchmarks von ComputerBase, Igor's Lab & PC Games Hardware

Dabei stellt das "Ultra" Bildqualitäts-Preset noch nicht einmal das Performance-Maximum dar, darüber gibt es noch ein "Ultimate" Bildqualitäts-Preset mit einer Performance-Differenz von ca. 15%, welches jedoch vergleichsweise selten getestet wurde. Bei "Ultimate" kommt auch noch hinzu, das hierfür nicht einmal 8 GB Grafikkarten-Speicher ausreichend sind: Es werden laut der PCGH bis zu 9,5 GB Grafikkartenspeicher addressiert, unterhalb dieser Größe kommt es zu Nachladerucklern und reduzierter Texturenqualität. Dafür kann man ganz gut mit den verschiedenen Bildqualitäts-Presets spielen und somit die Anforderungen auf ein verträgliches Maß senken. Es stehen insgesamt 6 Bildqualitäts-Presets zur Verfügung, wobei neben "Ultra" oftmals auch mit "High" die viertbeste Bildqualität getestet wurde. Gänzlich anspruchslos ist dieses Bildqualitäts-Presets allerdings auch nicht, denn hierbei ergibt sich eine heftige Auflösungs-Skalierung, wenn unter FullHD für 40 fps eine GeForce GTX 1650 reichen sollte, für denselben Job unter UltraHD dann jedoch gleich eine GeForce RTX 2080 zum Einsatz kommen muß. In der Summe ist Ghost Recon Breakpoint ein echter Grafikkarten-Prüfstein, gerade wenn es um bestmögliche Bildqualität auf höheren Auflösungen als FullHD geht.

Auf AMDs Produkt-Webseiten sind Einträge zu Ryzen 5 3500X & Ryzen 9 3900 aufgetaucht, nach welchen AMD diese beiden Prozessoren sogar schon zum 24. September in den Markt entlassen hat. Die technischen Daten stimmen dabei mit den Vorab-Meldungen überein: Der Ryzen 5 3500X ist ein Sechskerner ohne SMT auf 3.6/4.1 GHz und 65 Watt TDP, der Ryzen 9 3900 ein 12-Kerner mit SMT auf 3.1/4.3 GHz und 65 Watt TDP – letzterer ist damit Hardware-technisch identisch zum offiziell von AMD verkündeten Ryzen 9 Pro 3900. Allerdings tragen beide neuen Prozessoren-Modelle laut ihren Produkt-Webseiten einen gewissen Malus: Der Ryzen 5 3500X ist derzeit China-only, der Ryzen 9 3900 wird derzeit nur im OEM-Geschäft den Herstellern von Komplett-PCs angeboten. Ob beide Prozessoren-Modelle eines Tages mal ohne diese Einschränkungen ins normale Angebotsprogramm wandern, kann man zwar spekulieren – für den Augenblick gibt es jedoch erst einmal keinen Zugriff auf diese Modelle und damit nominell keine Änderung des hierzulande im Retailhandel erhältlichen Ryzen-3000-Portfolios. Damit muß sich AMD vorerst natürlich auch noch nicht mit der Frage herumplagen, welcher Preispunkt für den Ryzen 9 3900 der richtige ist – so das weder der Ryzen 9 3900X entwertet wird, noch der Ryzen 9 3900 ohne zählbaren Vorteil darsteht.

Kerne Takt L2+L3 TDP Kühler Liste Release
Ryzen 9 3950X 16C/32T 3.5/4.7 GHz 8+64 MB 105W Wraith Prism LED 749$ November 2019
Ryzen 9 3900X 12C/24T 3.8/4.6 GHz 6+64 MB 105W Wraith Prism LED 499$ 7. Juli 2019
Ryzen 9 3900 12C/24T 3.1/4.3 GHz 6+64 MB 65W ohne OEM-Ware 24. Sept. 2019
Ryzen 7 3800X 8C/16T 3.9/4.5 GHz 4+32 MB 105W Wraith Prism LED 399$ 7. Juli 2019
Ryzen 7 3700X 8C/16T 3.6/4.4 GHz 4+32 MB 65W Wraith Prism LED 329$ 7. Juli 2019
Ryzen 5 3600X 6C/12T 3.8/4.4 GHz 3+32 MB 65W Wraith Spire 249$ 7. Juli 2019
Ryzen 5 3600 6C/12T 3.6/4.2 GHz 3+32 MB 65W Wraith Stealth 199$ 7. Juli 2019
Ryzen 5 3500X 6C/6T 3.6/4.1 GHz 3+32 MB 65W Wraith Stealth China only 24. Sept. 2019