9

Hardware- und Nachrichten-Links des 9. September 2020

AMD hat nun endlich einmal etwas offizielles zu den nächsten CPU- und Grafik-Generationen von AMD gesagt – auch wenn es nur die Ankündigung einer (vermutlichen) Vorstellung geworden ist: Danach soll es am 8. Oktober neues zu Zen 3 geben, am 28. Oktober dann zur RDNA2-Architektur. In beiden Fällen wurden keine konkreten Produkte genannt (im Fall der RDNA2-Architektur allerdings die daraus resultierende "Radeon RX 6000" Serie erstmals offiziell genannt), was eher darauf hindeutet, dass zu diesen Tagen die generelle Architektur vorgestellt wird, die entsprechenden Produkte aber nur (für einen späteren Launch) angekündigt werden. Dieses System – zuerst offizielle Vorstellung, etwas später dann der eigentliche Launch – hatte sich zuletzt bei allen drei großen Chip-Entwicklern etabliert und ist auch in diesem Fall zu erwarten. Falls es wider Erwarten davon eine Abweichung gibt, dürfte sich dies sicherlich rechtzeitig vor den genannten Terminlagen ergeben, weil gewisse Leaks eigentlich unvermeidbar sind. Spekulativ tritt somit AMDs Ryzen 4000 Prozessoren-Serie irgendwann Mitte Oktober an, die ersten Modelle der AMD Radeon RX 6000 Grafikkarten-Serie hingegen Anfang November.

A new era of leadership performance across computing and graphics is coming. The journey begins on October 8.
 
AMD RDNA2 architecture and Radeon RX 6000 Series graphics cards will bring the best of Radeon to gamers worldwide. Learn more October 28.

Quelle:  AMD @ Twitter in zwei Tweets: Tweet #1 & Tweet #2 am 9. September 2020

Passend hierzu zeigen Videocardz Bilder eines Radeon RX 6000 "Engineering Sample". Die gezeigte Karte ist vergleichsweise groß, aufgrund des Bildausschnitts ist dies jedoch nicht exakt bestimmbar. Desweiteren sind 8 Speicherchips zu erkennen, zu welchen ein Aufkleber erklärt, dass es sich um ein Platinen-Design mit "Typical Samsung 16Gb" handelt. Dies bedeutet normalerweise, dass hierbei ein Grafikchip mit 256 Bit Speicherinterface vorliegt, an welchem 8 Stück von 2-Gbyte-Speicherchips zugunsten einer Speichermenge von insgesamt 16 GB verbaut wurden. Laut Twitterer Kopite7kimi soll es sich hierbei um "Navi 21" handeln – wobei nicht klar ist, ob man dies als Vor- oder Nachteil ansehen soll. Denn normalerweise ergeben 8 Speicherchips nun einmal bestenfalls ein 256 Bit Speicherinterface, da die GDDR-Speicherchips allesamt eine eigene Interface-Breite von 32 Bit aufweisen (32 Bit x 8 Chips = 256 Bit). Der umgedrehte Weg, an ein kleineres Speicherinterface mehr Speicherchips zu hängen, wurde hingegen schon oft praktiziert – dann hängen halt mehrere Speicherchips am selben 32-Bit-Teilinterface im Grafikchip.

Im Fall dieser Radeon-RX-6000-Grafikkarte bleibt das Speicherinterface jedoch auf maximal 256 Bit stehen, wenn man nur 8 Speicherchips dranhängt – und das würde dann weder zu Navi 21 passen noch sonstwie zu einer wirklichen HighEnd-Grafikkarte. Eher vorstellbar, dass hier eine Profi-Lösung auf Basis eines Midrange-Chips der RDNA2-Klasse zu sehen ist. Dass Navi 21 nur mit einem 256-Bit-Speicherinterface antritt, erscheint hingegen außerhalb des Vorstellbaren, dies wäre für die kolportierte Anzahl an Shader-Cluster (80 CU, somit doppelt so viele wie beim Navi-10-Chip der Radeon RX 5700 Serie) doch eindeutig zu wenig. Insofern wirft dieses Engineering Sample am Ende mehr Fragen auf, als es beantwortet: Sicherlich, die Fähigkeit von AMD zu 16-GB-Grafikkarten unter der Navi-2X-Generation ist damit belegt. Aber ob dann aber auch Navi 21 und 16 GB zusammenkommen, wurde weder bewiesen noch wahrscheinlicher gemacht. Es verbleibt hier das Prinzip Hoffung, das AMD letztendlich selber kalkulieren kann, dass man einer Navi-21-Spitzenlösung in jedem Fall genügend Speicherbandbreite mitgeben muß, um deren 80 Shader-Cluster auch ausfahren zu können. Nach heutigen Erkenntnisstand kann dies nur mit einem 512 Bit GDDR6 oder gleichwertigem HBM2-Interface garantiert werden.

Einige IT-Webseiten machen derzeit auf fernöstliche Berichte aufmerksam, wonach sich asiatische Cryptominer angeblich bereits mit GeForce RTX 3080 Karten im Dutzend-Pack eingedeckt hätten. Der Hintergrund dessen soll sein, dass jene GeForce RTX 3080 unter Ethereum eine Hash-Rate von 115 Mh/s erreicht, eine GeForce RTX 2080 hingegen nur bei 30-40 Mh/s herauskommt. Zumindest die gezeigten Bilder von stapelweise GeForce RTX 3080 Karten "in Miner-Hand" sind laut Videocardz jedoch Nonsens: Die ersten beiden Bilder wurden von chinesischen Einzelhändlern aufgenommen und zeigen deren erste Lager-Zugänge an Ampere-Grafikkarten. Das letzte Bild zeigt (laut einer Bestätigung seitens Inno3D) das Testlabor von Grafikkarten-Hersteller Inno3D. Jener Teil der Meldungen passt ergo nicht – und dennoch besteht natürlich das Risiko eines gewissen Runs auf die neuen Ampere-Grafikkarten von Seiten der Cryptominer. Dies dürfte zwar weniger wegen des vorgenannten Ethereum-Wert passieren, denn eine Radeon VII schafft auch schon ihre 85-90 Mh/s, ist hiermit also keine wirklich neue Qualität unter dem ETH-Mining erreicht. Allerdings könnten andere Cryptowährungen viel besser auf die (mehr als) doppelte FP32-Power der Ampere-Grafikkarten anspringen. Für einen großflächigen Cryptomining-Hype sind aber vermutlich die Preise der Cryptowährungen (gemessen am Mining-Aufwand) nicht ausreichend hoch, ergo dürfte sich dies normalerweise auf einzelne Cryptowährungen und professionelle Miner mit Zugriff auf entsprechend niedrige Strompreise beschränken – aber (hoffentlich) kein Massenphänomen wie anno 2017/18 werden.

Von ComputerBase, GameGPU und PC Games Hardware kommen erste Grafikkarten-Benchmarks zu "Iron Harvest", der über Kickstarter finanzierten Echtzeit-Strategie des deutschen Entwicklerstudios "King Art Games" auf Basis der Unity-Engine. Trotz des gegenüber AAA-Titeln kleinen Entwicklungs-Budget ist augenscheinlich ein gutklassiges Strategie-Spiel mit einer ansprechenden Grafikqualität entstanden. Je nach subjektivem Frameraten-Anspruch läuft das Spiel unter der FullHD-Auflösung auch noch mit einer Menge an älterer Grafik-Hardware, während unter höheren Auflösungen die Grafikkarten-Anforderungen anziehen, besonders bemerkbar beim Sprung von WQHD auf UltraHD. Zwischen AMD- und nVidia-Grafikkarten gibt es bis auf eine gewisse Vega-Schwäche kaum Auffälligkeiten, die Menge an benötigtem Grafikkartenspeicher liegt auf einem mittleren Maß, wenn laut GameGPU unter FullHD ca. 3 GB, unter WQHD knapp mehr als 3 GB und unter UltraHD zwischen 4-5 GB belegt sind.

Grafikkarten-Empfehlung für "Iron Harvest"
"High"-Preset mit Ø 35 fps "High"-Preset mit Ø 60 fps
FullHD ab GeForce GTX Titan, GeForce GTX 780, GeForce GTX 970, GeForce GTX 1060 3GB, GeForce GTX 1650 oder Radeon HD 7970 "GHz", Radeon R9 280X, Radeon R9 380X, Radeon RX 470D, Radeon RX 560XT, Radeon RX 5300 ab GeForce GTX 980 Ti, GeForce GTX 1070, GeForce GTX 1660 oder Radeon RX 590, Radeon RX 5500 XT 8GB
WQHD ab GeForce GTX 980, GeForce GTX 1060 6GB, GeForce GTX 1650 Super oder Radeon RX 390X, Radeon RX 480 8GB, Radeon RX 580 4GB, Radeon RX 5500 ab GeForce GTX 1080, GeForce RTX 2060 Super oder Radeon RX Vega 64, Radeon RX 5700
UltraHD ab GeForce GTX 1080 Ti, GeForce RTX 2070 oder Radeon VII, Radeon RX 5700 XT GeForce RTX 2080 Ti @ ~55 fps
interpoliert gemäß der Benchmarks von ComputerBase, GameGPU & PC Games Hardware (Grafikkarten unterhalb von Pascal & Polaris rein geschätzt!)

Beachtbar ist dagegen die je nach Szene erhebliche CPU-Limitierung – was natürlich für einen Echtzeitstrategie-Titel nicht ungewöhnlich ist. Interessanterweise gleichen sich die UltraHD-Benchmarks aller drei Testberichte auffallend stark, unter niedrigen Auflösungen rennen jene jedoch in gänzlich unterschiedliche CPU-Limits, resultierend aus augenscheinlich unterschiedlichen gewählten Test-Sequenzen: Bei GameGPU ist schon bei ca. 60 fps Schluß, bei der PCGH dann bei ca. 93 fps und bei der ComputerBase dagegen erst bei ca. 140 fps. Dabei reagiert das Spiel leider fast überhaupt nicht auf viele CPU-Kerne, man kann ergo schon mit älteren Intel-Vierkernern oder auch einem Ryzen 3 3300X gutklassige Frameraten grob in der Nähe der Leistungsspitze sehen. Letztere wird dominiert von jenen Prozessoren mit den höchsten Taktraten, ergo gewöhnlich Intels neueste Boliden. Interesanterweise hält dieser Intel-Vorteil aber nur bei den durchschnittlichen Frameraten: Bei den Minimum-Frameraten (0,2% bei der ComputerBase, 1% bei der PCGH) brechen Ryzen 9 3900X & 3900XT beiderseits in diese Intel-Domäne ein und liefern das gleiche Ergebnis wie ein Core i9-10900K ab.