14

Hardware- und Nachrichten-Links des 14. Juni 2017

Der TechSpot hat mit einem umfangreichen Grafikkarten-Test zwischen Radeon RX 480 vs. GeForce GTX 1060 erneut die Möglichkeit aufgelegt, den alten Wettstreit dieser Grafikkarten zur Frage, wer besser mit den LowLevel-APIs DirectX 12 & Vulkan zurechtkommt, unter neuen Spielen & Benchmarks zu bewerten (der TechSpot-Artikel dreht sich primär um die Radeon RX 580, wir konzentrieren uns aus Gründen der besseren Vergleichbarkeit mit den früheren Ergebnissen allerdings auf die Benchmarks zur Radeon RX 480). Die letzten Zahlen hierzu stammen vom Jahresanfang, seinerzeit hatten Hardware.info eher starke Performancevorteile zugunsten der nVidia-Karte ausgemessen, welche dann aber trotzdem unter DirectX 12 & Vulkan arg zusammenschrumpften. Der TechSpot sieht dagegen die AMD-Karte unter DirectX 11 weitaus weniger stark hinter der nVidia-Karte zurückliegen (die Differenz beider Testberichte bei der Bewertung der Radeon RX 480 liegt unter DirectX 11 bei satten 14%), kommt aber unter DirectX 12 sinngemäß zum selben Ergebnis: Die AMD-Karte holt dort ihren Rückstand auf und liegt faktisch gleichauf zur nVidia-Karte. Insofern gibt es nunmehr genügend Testberichte, welche die ursprünglich seitens Golem aufgestellte Behauptung, das AMD unter DirectX-12-Spielen generell besser wegkommt, untermauern.

GTX1060 vs. RX480 DirectX 11 DirectX 12 Differenz
FullHD +3,8% -1,0% 4,8%
WQHD +4,6% +0,2% 4,4%
GeForce GTX 1060 6GB vs. Radeon RX 480 8GB (RX480 = 100%)
Performance-Messungen lt. TechSpot (18 Tests @ DirectX 11 & 9 Tests @ DirectX 12)

Ob man hingegen die AMD-Grafikkarten deswegen bezüglich ihrer generellen Performance-Einordnung anders bewerten sollte, ist damit noch nicht gesagt: Derzeit hat sich unsere frühere Prognose von ~45% DirectX-12-Titeln im Jahr 2017 ganz deutlich nicht erfüllt, liegt DirectX 12 zweifellos in einem größerem Loch zwischen Anfangseffekt und Übernahme in die alltägliche Spieleproduktion. Die nach wie vor vorhandene Stärke von Windows 7 bei der installierten Basis sowie das gluckenhafte Sitzen von Microsoft auf DirectX 12 zur primären Puschung des Windows-Stores macht es den Spieleentwicklern sicherlich nicht gerade schmackhafter, jetzt unbedingt und zwingend sofort auf die neuere Grafik-API umzusatteln (wobei in diesem Zusammenhang der Blick eigentlich eher zu Vulkan gehen sollte). Gleichfalls machen es wild auseinanderliegenden Testberichte wie die vorgenannten nicht gerade einfacher, ausgehend von einzelnen Hardwaretests eine generelle Performance-Neubewertung vorzunehmen. Jene wird daher eher eine Nebenaufgabe beim Release neuer Grafikkarten sein, wenn diese Midrange-Karten von einer Vielzahl an Hardwaretest-Webseiten erneut mitgebencht werden.

Videocardz & WCCF Tech berichten über die ersten Mining-Karten mit nVidia-Chips von Asus, Colorful und MSI. Hierbei kommt als erstes der GP106-100-Chip zum Einsatz, welcher nominell die volle Hardware der GeForce GTX 1060 6GB mitbringt: 1280 Shader-Einheiten an einem 192 Bit GDDR5-Speicherinterface, Taktraten von 1506/1708/4000 MHz zu 6 GB GDDR5-Speicher bei 120 Watt TDP – nur eben ohne jeden Monitorausgang. Dies überrascht etwas, denn von dieser dedizierten Mining-Hardware hätte man sich noch klarere Hardware-Abspeckungen erwartet – beispielsweise wenigstens bei der Speichermenge, eventuell auch bei den Taktraten. Hinzu kommt noch ein GP104-100-Chip, zu welchem die weiteren Hardware-Daten noch fehlen, welcher aber auch mit den von der GeForce GTX 1080 bekannten 8 GB GDDR5X-Speicher ausgerüstet werden soll. Dies überrascht um so mehr, denn beim Mining verschiedener Crypto-Coins sind Grafikkarten mit GDDR5X-Speicher (im Gegensatz zu gewöhnlichem GDDR5-Speicher) sogar regelrecht langsamer, trotz viel größerer Rohleistung. Ganz augenscheinlich verwendet nVidia hier absolute Standard-Hardware und keine dediziert fürs Mining konzipierte – wahrscheinlich mit dem Hintergrund, schneller im Markt sein zu können, um noch etwas vom aktuellen Mining-Boom mitzunehmen. Angesichts der vergleichsweise niedrigen Preispunkte (die GP106-100-Karten sollen für 200$, die GP104-100-Karten für 350$ verkauft werden) dürfte dies sogar funktionieren, denn selbst wenn nVidia-Hardware für das Crypto-Mining nicht ganz so effektiv ist – bei AMD ist mehr oder weniger weltweit alles ausverkauft.

In unserem Forum ist die Diskussion darüber, wer zwischen Core X vs. Threadripper vorn liegen mag, bereits in vollem Gange. Derzeit gibt es hierzu noch keine sinnvollen Benchmarks (Geekbenches sind wie schon erwähnt nicht zu werten, da dort keine Multicore-Skalierung oberhalb von 8 CPU-Kernen stattfindet), so das man allein auf Basis älterer Hardware und den (wenigen) bekannten technischen Eckpunkten im Nebel herumstochern kann. Dabei wird allerdings Intels Ringbus-Konzept inzwischen schon als gewisse Schwäche von Intels Vielkern-Prozessoren angesehen: Je mehr CPU-Kerne mit dabei sind, um so ineffienter arbeitet der Ringbus – was Intel auch dazu veranlaßt hatte, schon bei früheren Xeon-Vielkernern teilweise gleich mit mehreren Ringbusses zu arbeiten. Dies löst die Probleme aber auch nur teilweise, denn der Datentransfer zwischen den Ringbusses ist auch nicht gerade optimal – Intel verliert hier in jedem Fall an Multicore-Skalierung. AMDs abweichender Ansatz mit dem "Infinity Fabric" zur Verbindung der einzelnen Dies soll hingegen nahezu perfekt mit der Anzahl der verbauten CPU-Kerne skalieren – womit AMD ganz automatisch gewisse Vorteile für sich verbuchen kann, wenn die Kern-Anzahl nur hoch genug steigt. An dieser Stelle sieht man durchaus Chancen für AMD, selbst den Zweikampf AMD 16C vs. Intel 18C gewinnen zu können – wobei dem der generelle Einwand gegenübersteht, das Intel allein aus Prinzip versuchen wird, unbedingt und ungeachtet aller möglichen Nachteile ganz oben herauszukommen.