13

Hardware- und Nachrichten-Links des 13. März 2020

Beim TechSpot hat man sich das 2017er Duell "GeForce GTX 1060 vs. Radeon RX 580" erneut und unter neuen Benchmarks angesehen. Hierbei kamen die beim TechSpot üblichen werksübertakteten Karten zum Einsatz, wobei nVidia mit einer 9Gbps-Variante der GeForce GTX 1060 sicherlich einen kleinen Vorteil für sich hatte. Dennoch zog die Radeon RX 580 der GeForce GTX 1060 9Gbps sogar vergleichsweise deutlich davon: Unter der FullHD-Auflösung sind es im Schnitt der offengelegten 12 Benchmarks immerhin +9%, im Schnitt aller 32 Benchmarks dann noch +5%. Sowohl die Ergebnisse der 1%-Minimum-Frameraten als auch die Ergebnisse unter der WHQD-Auflösung fallen dann nochmals etwas besser zugunsten der Radeon RX 580 aus – letzteres war allerdings auch schon zu Launch-Zeiten der Fall. Zwar kann man wegen der Benutzung werksübertakteter Karten die exakten Prozentwerte nicht auf die Goldwaage legen, aber auch andere Tests dieser Karten aus der jüngeren Vergangenheit bestätigen selbige Tendenz, welche inzwischen die Radeon RX 580 leicht vor der GeForce GTX 1060 sieht.

FullHD FullHD (1% min fps) WQHD WQHD (1% min fps)
Gigabyte Aorus GTX 1060 6G 9Gbps 100% 100% 100% 100%
Gigabyte Aorus RX 580 XTR 8G 109,1% 114,6% 112,4% 115,3%
gemäß den Messungen des TechSpots unter 12 Spiele-Benchmarks

Dies war zu Zeiten des Launchs der Radeon RX 580 noch deutlich anders, seinerzeit gab es eher nur mit Augenzudrücken eine halbwegs gleiche Performance zur GeForce GTX 1060. Aber es war seinerzeit schon eine verbreitete Annahme, das sich die Polaris-basierten Beschleuniger im langfristigen Einsatz besser halten würden können – zum einen Architektur-bedingt, zum anderen über die größere Speichermenge. Seinerzeit konnte man über den (angenommen) vermehrten Einsatz der LowLevel-APIs DirectX 12 & Vulkan noch davon ausgehen, das selbst eine Radeon RX 480 noch langfristig an der GeForce GTX 1060 vorbeiziehen könnte. Zwar ist dieser große Schub an Spielen unter DirectX 12 & Vulkan (erstaunlicherweise) nie gekommen, das seinerzeit prognostizierte Performance-Bild hat sich aber dennoch im groben Maßstab derart eingestellt – wobei sicherlich ein neuerer Test hierzu interessant wäre, um festzustellen, ob die Radeon RX 480 tatsächlich die Performance der GeForce GTX 1060 schlagen kann.

Keine Auswirkungen hat das ganze im übrigen auf den 3DCenter Performance-Index: Selbiger soll zwar durchaus im Laufe der Zeit erreichte Verbesserungen wiederspiegeln, dies darf jedoch nicht zu Neubewertungen von jahrealten Karten am Ende ihres Lebenszyklus führen. Immerhin soll der Performance-Index vor allem die Nutzungs-Realitäten wiedergeben – und diese lagen bei der Radeon RX 580 in den Jahren 2017 bis maximal 2019, üblicherweise also nicht länger als zwei Jahre ab Launch entfernt. Schließlich würde eine jetzige Index-Änderung an dieser Stelle nicht der real stattgefundenen Situation entsprechen, das die Radeon RX 580 sich in ihren ersten zwei Nutzungsjahren (ab Launch) immer ein Duell auf Augenhöhe mit der GeForce GTX 1060 geliefert hat – ganz am Anfang noch minimal langsamer, in späteren Tests dann nachweisbar gleich schnell. Eine derartig späte Index-Änderung würde den falschen Eindruck abgeben, die Radeon RX 580 wäre zu ihren "Lebzeiten" schneller als die GeForce GTX 1060 gewesen – was nicht der Fall ist, denn dies ist ein Ergebnis, welches sich nun erst jetzt nach fast drei Jahren Nutzungsdauer einstellt.

Von Twitterer KittyCorgi kommt eine Klarstellung, das die früheren Angaben über eine verdoppelte FP32-Power in den Shader-Einheiten von Ampere eine reine "Konzeption" (aka Annahme) darstellten und das Ampere nun doch keine derartigen Änderungen in seinen Shader-Einheiten tragen soll. Alles andere passt auch wenig zur gesteigteren Anzahl an Shader-Clustern – denn wenn darauf dann noch einmal eine verdoppelte FP32-Rechenleistung pro Shader-Cluster kommen sollte, würde die insgesamte Rechenleistung irgendwo nahe des Dreifachen gegenüber Turing herauskommen. Dies erscheint nicht nur als arg übertrieben, sondern wäre auch über die zur Verfügung stehenden Speicherinterface kaum ordentlich mit Speicherbandbreite zu füttern – passt also vorn und hinten nicht zusammen. Eine Zwischen-Auflösung wäre im übrigen gewesen, wenn nVidia stattdessen die INT32-Einheiten in den Shader-Einheiten halbiert hätte – dies ergäbe genauso das kolportierte (neue) FP32/INT32-Verhältnis von 2:1. Aber da das ganze sowieso nur eine "Überlegung" gewesen sein soll, fällt wohl auch dieser Ansatz ins Wasser.

CorgiKitty Diff. 3DCenter Diff.
GA102 84 CU @ 384-bit +40% 94-102 CU +38%
GA103 60 CU @ 320-bit +25% 66-76 CU +42%
GA104 48 CU @ 256-bit +60% 46-54 CU +43%
GA106 30 CU @ 192-bit +50% 32-38 CU +46%
GA107 20 CU @ 128-bit - 22-26 CU +60%
GA108 - - 14-16 CU -

Allerdings entwertet der Twitterer mit dieser (durchaus löblichen) Korrektur auch ein wenig die zuletzt dargebrachten (angeblichen) Ampere-Spezifikationen. Jene wurden vielfach als "Gerücht" bzw. "Leak" angesehen, sind aber wahrscheinlich auch nur eine Überlegung des Twitterers – ohne dahinterstehenden Leak oder eine andere beachtbare Datenbasis. Und wäre dies tatsächlich anders, hätte man dies zumindest irgendwo notieren können – was aber ausgeblieben ist. Doch als reine Annahme kommen die Ampere-Spezifikationen von KittyCorgi nicht besonders gut weg, dafür ergeben sich zu deutliche Ungereihmtheiten – insbesondere beim sehr kleinen Sprung zwischen GA104 und GA103, welcher dann aber wieder von einem größeren Sprung zwischen GA103 zu GA102 gefolgt wird. Wenn, dann sollten diese Differenzen eher umgekehrt lauten – denn ob sich für die (angeblich) +25% mehr Shader-Cluster zwischen GA104 und GA103 ein extra Chip lohnt, wäre eher zu bezweifeln. Unsere eigene Annahmen zu den Ampere-Spezifikationen umschiffen diese Problematik dann, sind dafür allerdings vielleicht auch wieder zu gleichförmig gedacht. Und in der Praxis hat sich bisher noch immer irgendwo eine Ausnahme von der Regel ergeben, gab es kaum eine Chip-Generation mit derart perfekt gleichförmigen Portfolio-Aufbau.

Ein bißchen Aufregung gibt es derzeit um zuungunsten von AMD-Prozessoren veränderte Benchmark-Gewichtungen unter dem "Passmark" in dessen nunmehr 10. Version. Der Planet 3DNow! zeigt die sich hiermit ergebenden Differenzen auf, welche in der SingleThread-Performance die aktuellen Ryzen-Prozessoren sehr deutlich benachteiligen (-16% im Beispiel des Ryzen 9 3900X), bei TweakPC gibt es hingegen das offizielle Statement der Passmark-Macher hierzu. Danach basiert insbesondere die hohe Differenz unter der SingleThread-Performance schlicht auf einem Fehler, welcher dann in wenigen Tagen gefixt sein soll. Diese Änderung wäre ergo abzuwarten, eher man die Version 10 des Passmark gleich komplett verdammt. Es wird allerdings in Beobachtung bleiben müssen, inwiefern die Hinzunahme von AVX512 die Performance-Relationen zwischen AMD und Intel nicht doch in einem zu großen Maßstab verändern könnte. Insbesondere AVX512 ist dabei durchaus als etwas seltsame Wahl für einen allgemeinen Benchmark anzusehen, welcher über eine große Breite von Prozessoren jeglichen Alters & Bauart vernünftige Resulate ausspucken soll.