17

Hardware- und Nachrichten-Links des 17. Oktober 2016

Weitere Grafikkarten-Benchmarks unter Battlefield 1 kommen vom russischen GameGPU (maschinelle Übersetzung ins Deutsche): Jene gleichen generell den kürzlich genannten Resultaten von Hardware.Info, allenfalls der gewisse AMD-Vorteil kommt bei GameGPU nicht mehr ganz so deutlich heraus (ist aber rein rechnerisch trotzdem noch vorhanden). Interessanterweise haben GameGPU das ganze komplett sowohl unter DirectX 11 als auch DirectX 12 vermessen, wobei letztere Grafik-API unter Battlefield 1 derzeit nicht wirklich gut wegkommt: Die nVidia-Grafikkarten verlieren allesamt ein paar fps, bei den AMD-Grafikkarten geht es meistens glimpflicher ab, gibt es einzelne Gewinne von 1-2 fps. Hieran könnten (wie auch am Gesamtbild) neuere Grafikkarten-Treiber von AMD & nVidia natürlich noch etwas dran ändern, jene dürften wohl pünktlich zum Verkaufsstart des Spiels am 21. Oktober zur Verfügung stehen.

Die Meldung über den Einsatz von nVidias "Multi-Res Shading" Technologie bei Shadow Warrior 2 hat eine ziemliche Diskussion über Sinn und Unsinn dieser Technologie außerhalb von VR-Bedingungen aufkommen lassen. nVidia bekommt da einigen Gegenwind von Anwendern, welche auf einem 2D-Monitor und ohne Eyetracking keine solcherart Bildqualitäts-Hacks sehen wollen – weil man es auf einem gewöhnlichen Monitor eben sieht, da man auf jenem frei in seiner Blickrichtung ist. Zudem gibt es Bedenken bezüglich der Übergänge zwischen nativ gerendetem und nur hochskaliertem Teilbild, genauso auch einige Grafikeffekte betreffend, welche auf solcherart Technologien mit Fehlern reagieren dürften. Die Gegenstimmen weisen jedoch darauf hin, daß dies eine Technologie für den Einsatz unter UltraHD ist, wo also die Bildränder dann immer noch mit WQHD gerendert werden (Multi-Res Shading im Video) – oder aber bei Anwendungen wie Downsampling, wo auch nur die Bildmitte das Downsampling in vollem Umfang abbekommen soll. Ebenfalls interessante Anwendungen wären ein Triple-Monitor-Setup, wo nur auf dem mittleren Monitor die native Renderauflösung läuft – oder 21:9-Monitore, deren seitliche Ränder sicherlich ebenfalls nicht die volle native Renderauflösung benötigen.

Andererseits wird es auf (einzelnen) 2D-Monitoren immer Bedenken geben, das die Übergänge zwischen differierenden internen Renderauflösungen schwerlich sauber hinzubekommen sind, eventuell auch immer diverse Grafikeffekte dadurch gestört werden. Es gibt da unter den Anwendern also durchaus eine breite und schwerwiegenden Skepsis – welche die Spieleentwickler ausräumen müssen, ehe sie so etwas einsetzen. Dabei ging die Intention unserer ursprünglichen Meldung sogar in eine völlig andere Richtung – nämlich zum Punkt, das die Spieleentwickler sich zuletzt überhaupt für derart Rohleistung-sparende Maßnahmen interessieren. Früher gingen noch alle Grafik-Technologien in die Richtung, es qualitativ immer nur besser zu machen, nicht aber darum, Einsparungspotentiale aufzudecken – gemäß der simplen Regel "ist ein Spiel zu langsam auf aktueller Hardware, gibt es in einem halben Jahr eine neue Hardware-Generation, die das Problem komplett auflöst". Diese Regel läßt sich heutzutage nicht mehr einsetzen, es gibt faktisch nur noch einen größeren Performancesprung pro neuer Fertigungstechnologie – und jene steht bestenfalls aller zwei Jahre an, ist also kein häufiges Ereignis mehr. Dies zwingt die Spieleentwickler, welche trotzdem bessere Grafik bieten wollen, dann eben dazu, Einsparungspotentiale zu erkennen und zu aktivieren – nVidias Multi-Res Shading ist da nur ein Beispiel hierzu.

Genauso existiert auf dem PC das Problem der sehr deutlich auseinanderliegenden Auflösungen – von FullHD bis UltraHD handelt es schließlich um glatt die vierfache Pixelmenge, dies erzeugt schon fast automatisch ein Performance-Problem für die Spieleentwickler. Denn ein auf FullHD absolut sauber laufendes Spiel benötigt unter UltraHD derart viel mehr Rohleistung, das nur die wenigstens Spiele hier 60 fps unterhalb einer Titan X (Pascal) anbieten können, manchmal reicht nicht einmal mehr diese 1200-Dollar-Karte aus. Den Titel dann optisch so herunterzudrehen, das es auch unter UltraHD für 60 fps auf "normalen" Grafikkarten langt, würde unter FullHD hingegen zu extrem hohen Frameraten und natürlich Optikverlust führen – insgesamt ist wie gesagt der Sprung zu groß, um sinnvoll überbrückbar zu sein. Deswegen können solcherart Lösungen wie nVidias "Multi-Res Shading" Technologie vielleicht doch von Nutzen sein, um die großen Rohleistungsanforderungen von UltraHD- und VR-Gaming meistern zu können. Insgesamt betrachtet stehen die Spieleentwickler in Fragen der verfügbaren Hardware derzeit sicherlich vor größeren Problemen als noch in der mittleren und langfristigen Vergangenheit, wo jede noch so hohe Hardware-Anforderung sehr zuverlässig von neuen Prozessoren & Grafikkarten weggespült wurde.