Gamers Nexus haben mit AMD über den Umstand gesprochen, das AMD bei der Vega-Vorstellung keinerlei Worte mehr zu "CrossFire" verloren hat – im klaren Gegensatz zur seinerzeitigen Polaris-Vorstellung, als man das ganze sogar noch recht stark betonte. AMD gab auf Nachfrage dann zu, sowohl Marketing-Bemühungen als auch Treiber-Arbeit vom Thema "CrossFire" deutlich weggeschichtet zu haben – platt gesagt läßt man das Thema auf sich beruhen. Der reine Hardware-Support bleibt zwar bestehen, aber man wird daran laut AMD keine Freude haben, wenn der Support seitens der Spieleentwickler und vom Treiberentwickler (AMD) ausbleibt. Im Endeffekt bedeutet dies einen klaren Abgesang auf CrossFire im Spiele-Einsatz, man überläßt das ganze ab sofort schlicht seinem Schicksal. Sicherlich könnte speziell unter DirectX 12 noch etwas passieren, da dort schließlich sowieso die Spieleentwickler den MultiGPU-Support selber übernehmen müssen – aber an dieser Front passiert derzeit in der Praxis leider gar nichts (AotS als Ausnahme, welche die Regel bestätigt), hier könnte also nur noch ein "Wunder" bzw. eine völlig unerwartete Entwicklung etwas ändern.
Im Überblicks-Artikel zur Vega-Architektur bei TechPowerUp befindet sich auch eine Präsentationsfolie zu den von den einzelnen Grafikchip-Architekturen unterstützten DirectX-Features. Neben der Bestätigung des bereits vorab bekannten Punkts, das AMDs Vega-Architektur derzeit den höchsten Feature-Stand unter allen Grafikchip-Architekturen besitzt, respektive den derzeit bestmöglichen Feature-Support für DirectX 12 aufweist, gibt es dabei auch eine Information zum jeweils unterstützen Shader Model von DirectX: Hierbei werden in dieser originalen AMD-Folie für die Grafikchip-Architekturen Polaris, Vega und Pascal jeweils das "Shader Model 6.0" notiert – für die beiden AMD-Architekturen sogar das "Shader Model 6.0+".
Die CPU/GPU-Tests seitens des russischen GameGPU eignen sich neben der primären Funktion der Ermittlung der Grafikkarten-Performance unter neu herausgekommenen Spieletiteln immer auch mit zur Darstellung der MultiChip-Eignung dieser neuen Spiele. Dabei wird durch die Zeitnähe der GameGPU-Artikel zum jeweiligen Spielerelease vor allem ein Urteil über jene MultiChip-Performance gefällt, welche man mit den allerersten optimierten Treibern vorfindet – so, wie es die frühen Spiele-Käufer eben auch wirklich erleben. Im Laufe der Zeit kann sich über weitere neue Treiber und eventuell auch Spielepatches dann durchaus noch einmal ein etwas anderer Stand ergeben – aber dann dürften viele Spieler (gerade bei SinglePlayer-Titeln) das Spiel schon durchgespielt haben, reduziert sich somit die Praxiswirkung von späteren MultiChip-Verbesserungen. Bezüglich den 2017er Spiele-Neuerscheinungen ist das Bild (wie allerdings auch früher schon so) weiterhin arg durchwachsen bis schlecht:
RX480 CF | Fury X CF | 980 SLI | 1080 SLI | |
---|---|---|---|---|
positiver SLI/CrossFire-Effekt | 4 von 21 | 4 von 21 | 7 von 21 | 7 von 21 |
SLI/CrossFire-Performancegewinn ab +40% | 3 von 21 | 3 von 21 | 5 von 21 | 5 von 21 |
SLI/CrossFire-Performancegewinn ab +60% | 1 von 21 | 1 von 21 | 4 von 21 | 4 von 21 |
basierend auf den Spiele-Performanceanalysen seitens GameGPU, Januar bis Juli 2017 |
Bei Babel Tech Reviews hat man sich eingehend mit der SLI-Performance der GeForce GTX 1080 Ti beschäftigt – und liefert damit gleichzeitig auch gute Daten zum Stand von SLI unter aktuellen Spielen. Von den immerhin 24 getesteten Spielen (Fallout 4 lassen wir aufgrund der Schwierigkeiten der Engine oberhalb von 60 fps mal außen vor) skalierten unter FullHD und WQHD glatt nur die Hälfte überhaupt mit SLI – kein gutes Ergebnis. Nur unter der UltraHD-Auflösung kommen dann noch GTA V sowie Far Cry Primal hinzu – 14 von 24 Spiele-Titel mit Performance-Gewinn sind aber auch dort nicht berauschend, sondern eher denn als ein Argument gegen SLI zu werten. Zugunsten der GeForce GTX 1080 Ti sind wir bei nachfolgender Benchmark-Auswertung immer dann, wenn SLI langsamer war (was unter den nicht skalierenden Spielen durchgehend passiert), von den Benchmarks der einzelnen Grafikkarte ausgegangen – setzen also voraus, daß der Nutzer in diesem Fällen SLI manuell für das jeweilige Spiel deaktiviert.
Die PC Games Hardware hat untersucht, was die LowLevel-APIs DirectX 12 & Vulkan in ihrer Kerndisziplin derzeit leisten können – und dies ist nicht die Beschleunigung der Grafiklösung, sondern natürlich die Entlastung des Prozessors (durch Verringerung des CPU-Overheads), gerade bei weniger leistungsfähigen. Hierzu hat man sich die Performance eines Systems mit FX-8350 samt Radeon R9 Nano unter verschiedenen Benchmarks angesehen, wo sowohl eine der beiden LowLevel-APIs als auch deren "HighLevel"-Vorgänger DirectX 11 & OpenGL angeboten werden. Jener Vergleich ist natürlich nicht perfekt, da manche Spieletitel für unterschiedliche APIs auch (leicht) andere Optikeffekte ansetzen bzw. die APIs von manchen Spieleentwickler nicht gleichwertig behandelt wurden. Ein besonders krasser Fall hierzu ist Doom (2016), wo man mittels der Vulkan-API derart massiv hinzugewinnt (bis zum Dreifachen der Performance), daß dies dann schon eher unrealistische Züge annimmt.
Eine Umfrage von Anfang Dezember ging der Frage nach, welche Chancen MultiChip-Lösungen (im Grafikkarten-Bereich) derzeit noch bekommen. MultiChip-Lösungen waren einstmals zumindest in der Enthusiasten-Gemeinde eine beachtbare Größe, haben zuletzt aber deutlich abgebaut und werden derzeit nur noch selten und teilweise sogar nur zu reinen Benchmark-Zwecken eingesetzt – kein Wunder angesichts des zuletzt regelrecht desaströsen SLI/CrossFire-Supports neuer Spieletitel "out of the box" (sprich mit der initialen Releaseversion). Dem entspricht auch das Ergebnis der Umfrage, welche die Umfrage-Teilnehmer erst einmal in 4,5% aktuelle MultiChip-User, immerhin 18,6% frühere MultiChip-User und satte 76,9% eiserne SingleChip-User unterteilt. Zwar verteilen sich die früheren MultiChip-User sicherlich über viele Grafikchip-Generationen, nichtsdestotrotz liegt die Tendenz nahe, das es früher einen größeren Anteil an aktiven MultiChip-Nutzern gegeben hat – gerade wenn man einrechnet, das diese Umfrage unter Grafikkarten-Enthusiasten stattfand und natürlich weit weg von den Realitäten des Massenmarkts ist.
Im Vorfeld der CES hat AMD mit "FreeSync 2" eine neue Version seiner vor drei Jahren auf der CES 2014 vorgestellten FreeSync-Technologie vorgestellt. Dabei werden beide FreeSync-Versionen nebeneinander bestehen bleiben, da FreeSync 1 auch weiterhin so etwas wie die Einsteiger-Variante mit möglichst geringen Hardware-Anforderungen darstellt, während man bei FreeSync 2 hingegen klar mehr Technik hineinpackt und daher auch deutlich höhere Hardware-Anforderungen abverlangt. Jene liegen allerdings ausschließlich auch Monitor-Seite – bei den Grafikkarten selber gilt die einfache Regel, das alles, was FreeSync 1 unterstützt, auch FreeSync 2 unterstützen wird (sprich alle AMD-Grafikkarten mit Grafikchips ab der GCN2-Generation).
Eine Umfrage von Anfang November stellte die Frage nach der aktuellen Nutzung von AMDs VSR bzw. nVidias DSR Anti-Aliasing, sprich der Downsampling-Lösungen beider Grafikchip-Entwickler. In der Hauptfrage stehen erst einmal 37,3% VSR/DSR-Nutzern den 62,7% Nichtnutzern gegenüber – für eine Technologie, die sowieso nur auf sehr schnellen Grafikkarten sinnvoll wirken kann und zudem auch weniger denn im Blickpunkt der Öffentlichkeit steht, ist dies ein starker Wert. Innerhalb der Gruppe der VSR/DSR-Nutzer dominieren im übrigen die nVidia-Nutzer mit 65,1% zu 34,9% gegenüber den AMD-Nutzern, während sich die Nutzungshäufigkeit zwischen häufiger Anwendung mit 48,4% kaum von der eher seltenen Anwendung mit 51,6% unterscheidet.
Nach einiger Zeit mal wieder zur aktualisieren sind die Übersichtslisten zum API-Support der Grafikchip-Entwickler, was dann auch integrierte Grafiklösungen umfaßt. Jene enthalten nunmehr auch extra Spalten zum Vulkan- sowie zum DirectX-11-Support – dabei kann in einigen Fällen das unter DirectX 11 erreichte Feature-Level eines Grafikchips sogar höher liegen als unter der DirectX-12-API (dies gilt dann, wenn ein Grafikchip unter DirectX 11 ein Feature-Level 11.2 beherrscht, welches jedoch unter DirectX 12 augenscheinlich nicht umgesetzt wurde). Alle getätigten Angaben beziehen sich auf den tatsächlich verfügbaren Support unter frei verfügbaren Treibern – und nicht reine Hardware-Fähigkeiten, für welche allerdings keine Treiber existieren. Ein Beispiel für eine diesbezügliche Differenz ist nVidias Fermi-Architektur der GeForce 400/500 Serien, welche technisch zu DirectX 12 in der Lage sind, für welche nVidia bislang aber keine DirectX-12-Treiber aufgelegt hat – und dies damit wohl auch nicht mehr tun wird.
Ein wenig untergegangen zur Game Developers Conference (GDC) sind Microsofts durchaus umfangreiche Ausführungen zum kommenden Shader Model 6 – 4Gamers und DualShockers berichten sowie zeigen jene Menge entsprechender Präsentationsfolien. Das Shader Model 6 ist danach primär als Erweiterung zu DirectX 12 geplant, begründet also keine neue DirectX-Version und möglicherweise noch nicht einmal eine neue Unterversion. Vielmehr geht es beim Shader Model 6 um Vereinfachungen bzw. Verbesserungen für Spieleentwickler auf Basis bestehender Hardware – teilweise Vereinfachungen der Rendering-Pipeline zur Spieleprogrammierung, teilweise Verbesserungen der Möglichkeiten zur Grafikerstellungen durch verschiedene neue Software-Features.