24

Hardware- und Nachrichten-Links des 24. März 2017

Videocardz haben eine Video-Präsentation von AMDs Tech Summit analysiert bzw. die dortigen Aussagen zu AMDs Vega herausgearbeitet. Das meiste hierzu wurde von AMD natürlich noch bewußt unspezifisch gehalten, um nicht all zu viele Vorabinformationen zu geben. Griffig sind somit nur die zwei Punkte, das Vega (bezogen auf die gesamte Architektur, nicht einen spezifischen Grafikchip) zum einen auch ins Notebook-Segment gehen und zum anderen sowohl mit 4 als auch mit 8 GB Speicher antreten wird. Beides dürfte sich trotz des nicht genau spezifierten Grafikchips an Ende doch auf Vega 11 beziehen, da Vega 10 für das Notebook-Segment viel zu groß (und stromfressend) ausfallen dürfte und zudem auch als zu schnell gilt, um mit Speichermengen kleiner als 8 GB ausgeliefert zu werden (eher wäre eventuell noch eine 16-GB-Variante zu erwarten, sobald HBM2 in Hi8-Ausführung verfügbar wird). Zu Vega 11 ist abgesehen von Spekulationen eigentlich noch nichts sicheres bekannt – aber diese AMD-Aussagen engen den Rahmen von Vega 11 schon ziemlich deutlich ein. Etwaige andere Deutungen wie Vega 11 als LowCost-Lösung oder als Super-HighEnd-Chip oberhalb von Vega 10 fallen damit weitgehend flach, Vega 11 dürfte letztlich doch irgendwo in der Mitte zwischen Polaris 10 und Vega 10 herauskommen.

Die PC Games Hardware bringen von der GDC bemerkenswerte Entwickler-Statements seitens Jurjen Katsman zu DirectX 12 mit, dessen Entwicklerstudio Nixxes mit Rise of the Tomb Raider und Deus Ex: Mankind Divided an zwei der bekannteren DirectX-12-Titel gearbeitet hat. Im Laufe diese Arbeit scheint jedoch die anfängliche Begeisterung bezüglich DirectX 12 einer gewissen Ernüchterung gewichen zu sein: Zwar kann man mit DirectX 12 diverse Leistungsgewinne verzeichnen und auch die Ausnutzung mehrerer Grafikkarten ist besser zu erreichen. Dafür steht jedoch ein erhöhter Aufwand für die Spieleentwickler auf der Gegenseite – und wenn man jenen nicht geht und einen eher lieblosen DirectX-12-Port erstellt, dann kann sich der avisierte Leistungsgewinn schnell in Luft auflösen bzw. die Performance unter Umständen sogar schwächer alsfallen als mit DirectX 11. Selbiges war schließlich auch schon in der Praxis bei einigen Spielen zu beobachten – die Spieleentwickler müssen sich in das Thema DirectX 12 augenscheinlich erst einmal aufwendig einarbeiten, ehe man gute Ergebnisse erzielen kann.

Dies könnte man als Anfangsschwierigkeiten abtun, allerdings sehen wir hier ein grundsätzliches Problem: Am Ende bringt DirectX 12 selbst bei guter Umsetzung nur ein wenig mehr Performance, primär einen gewissen Boost bei der CPU-Performance. Bis auf Sonderfälle wie Strategietitel mit echter Ausnutzung dieser Möglichkeiten wird ein bißchen mehr CPU-Performance unter heutigen Spielen aber kaum benötigt. Man kann es sogar krasser formulieren: Jeder Performance-Boost, der nicht gleich wirklich herausragend ist, spielt eigentlich keine Rolle, weil man mehr Performance sehr kontinuierlich über immer schnellere Hardware bekommt. Relevant für Spieleentwickler sollten eher die technologischen Möglichkeiten einer Grafik-API sein bzw. der Aufwand, jene dann auch auszunutzen. Hier lagen die großen Vorteile aller Vorgänger von DirectX 12 – es gab ständig neue Möglichkeiten zur Grafikgestaltung, gleichzeitig wurden Limits entfernt und Einzelaufgaben vereinfacht. Damit war mit jeder DirectX-Version immer auch eine bessere Grafikqualität möglich – ein Punkt, welcher bei DirectX 12 nunmehr weitgehend fehlt. In Kombination mit dem Mehraufwand, welchen die Spieleentwickler mit DirectX 12 haben, sieht dies nominell nicht gut aus für DirectX 12. Wir würden ja den Spieleentwickler, die unbedingt über DirectX 11 hinausgehen wollen, eher den Wechsel zu Vulkan empfehlen – wenn schon unbedingt etwas neues, dann kann es auch gleich Plattform- und Hersteller-unabhängig sein.

Bei Phoronix hat man sich das Duell Core i7-7700K vs. Ryzen 7 1800X bezüglich deren Spiele-Performance unter Linux mit einer GeForce GTX 1080 Ti gegeben. Einzurechen ist hierbei natürlich der Umstand, das schon unter Windows der Intel-Prozessor in dieser Frage um +16,7% vorn lag – dies allerdings unter 72p-Benchmarks, unter den von Phoronix angetretenen Messungen unter FullHD und UltraHD sollten die Differenzen eigentlich kleiner sein. Dem ist allerdings nicht wirklich so, vielmehr ermittelte man unter UltraHD einen überdimensionalen Performanceunterschied von +183% zugunsten des Intel-Prozessors – für eine Auflösung, wo CPU-Unterschiede üblicherweise im Bereich weniger Prozentpunkte liegen, ein überaus erstaunliches Ergebnis. Hier liegt beim nVidia-Treiber wohl noch so einiges im argen, anders ist das ganze nicht erklärbar. Zur Ehrenrettung des Ryzen-Prozessors sei gesagt, das in 6 von 7 Einzeltests aber trotzdem Frameraten entweder auf dem Niveau von Intel oder aber oberhalb von 100 fps erreicht wurden – nur in einem einzigen Test (Civilization VI) war die nominell schwächere CPU-Performance dann von praktischer Bedeutung (nur 25 fps wo der Intel-Prozessor 45 fps erzielte).