Grafik-Features

20

Microsoft stellt "DirectX 12 Ultimate" mit vier verpflichtenden "neuen" Grafik-Features vor

Microsoft hat mit "DirectX 12 Ultimate" eine neue, offizielle Ausbaustufe der DirectX 12 Grafik-API mittels eines Blog-Eintrags vorgestellt, welche ab dem kommenden Windows-Update 20H1 verfügbar wird. Für jene neue Ausbaustufe wählte man keine numerische Bezeichnung wie bisher mit den Feature-Levels – was immer leicht mißverständlich war und mittels der verschiedenen Tier-Levels auch ziemlich schwammig daherkommt. Inoffiziell kann man DirectX 12 Ultimate natürlich auch als "DirectX 12 Feature-Level 12_2" bezeichnen, treffender wäre aber eher die Abkürzung "DX12U". Unter dieser hat Microsoft dann schlicht vier bereits existierende optionale DirectX-12-Feature nunmehr verpflichtend gemacht: "DirectX RayTracing" (DXR) in der neuen Version 1.1, "Variable Rate Shading" (VSR), "Mesh Shaders" & "Sampler Feedback". Sinn und Zweck der Maßnahme ist natürlich die Abgrenzung neuerer Hardware gegenüber älterer Hardware – weswegen sich AMD & nVidia auch gleich bemühten zu betonen, welche ihrer Hardware nunmehr bereits DX12U unterstützt: Bei AMD wird dies die kommende RDNA2-basierte Generation um die Navi-2X-Grafikchips sein, während nVidia in dieser Angelegenheit vorn liegt, da bereits deren aktuelle RTX-Grafikkarten der GeForce-20-Serie für DX12U (und damit das entsprechende Logo) ausgelegt sind.

DirectX 12 FL 12_0 DirectX 12 FL 12_1 DirectX 12 Ultimate
AMD GCN2/GCN3, Polaris Vega, RDNA1 RDNA2
Intel - Skylake, Kaby Lake, Coffee Lake, Comet Lake ?
nVidia - Maxwell 2, Pascal, Turing (GF16) Turing (GF20), Ampere
20

nVidia wiederbelebt MultiGPU-Rendering mittels neuem CFR-Modus

Aus unserem Forum (Dank an 'Blaire') kommt die hochinteressante Kunde über einen neuen, derzeit noch inoffiziellen wie auch undokumentierten MultiGPU-Modus in den aktuellen nVidia-Treibern – welcher allerdings durchaus das Potential hat, dem Thema "MultiGPU-Rendering" wieder neues Leben einzuhauchen. Hierbei handelt es sich augenscheinlich um ein Checkerboard-basiertes Verfahren, wo also nicht abwechselnd ein Bild von beiden Grafikkarten gerendert wird (AFR-Modus) oder das Bild platt in der Mitte zwischen zwei Grafikkarten aufgeteilt wird (SFR-Modus), sondern vielmehr das Bild in eine größere Menge an Tiles zerteilt wird und an jedem Tile dann immer nur eine der Grafikkarten arbeitet. Im Prinzip ergibt dies eine höherwertige, wahrscheinlich schlicht viel effizientere Version des SFR-Modus – interessanterweise ist der neue CFR-Modus im nVidia-Treiber unter dem alten SFR-Modus verborgen, welcher seinerseits zuletzt von nVidia überhaupt nicht mehr gepflegt wurde.

    nVidia CFR

  • "Checkered Frame Rendering" oder "Checkboard Frame Rendering", da basierend auf einem Checkerboard-Ansatz
  • verfügbar für DirectX 10/11/12 (nicht aber OpenGL & Vulkan)
  • setzt NVLink zwingend voraus
  • derzeit nur verfügbar für Turing-basierte nVidia-Grafikkarten (mit NVLink)
  • derzeit aktivierbar nur mittels Tools wie dem nvidiaProfileInspector
  • derzeit noch reichlich Kompatibilitäts-Probleme
  • wegen des Checkerboard-Ansatzes jedoch keine Mikroruckler-Probleme wie beim AFR-Modus
  • Beschreibung, Aktivierung & Spielekompatibilitäts-Liste im 3DCenter-Forum
30

Umfrage-Auswertung: Wie weit verbreitet ist Multi-GPU im Jahr 2019 noch?

Mittels einer Umfrage vom April wurde nach aktuellen wie vergangenen Verbreitungsgrad von Multi-GPU-Grafikkarten gefragt. Das Umfrage-Ergebnis gibt dabei niederschmetterende 3,2% der Umfrage-Teilnehmer als aktuelle Multi-GPU-Nutzer an, mit einer klaren Verteilung von 31:69% zugunsten von nVidia. Das es (angesichts der AMD-Absage an neue CrossFire-Treiber schon im Jahr 2017) überhaupt noch AMD-Nutzer gibt, ist dabei zuerst ein wenig erstaunlich, doch aufgrund der geringen Stimmenanzahl (20 Stimmen bei 1966 Umfrageteilnehmern) dürften sich hier vermutlich eher Nutzer älterer, einfach noch nicht ersetzter Systeme tummeln. Jene könnte es auch im nVidia-Feld geben, so das die Anzahl an Multi-GPU-Nutzern rein auf aktuellen Grafikkarten dann nochmals geringer ausfallen dürfte – vielleicht nur noch bei anderthalb Prozentpunkten. Für das 3DCenter ist dies ein wirklich schwaches Resultat, denn Multi-GPU war hier bei den absoluten Enthusiasten ein gern gepflegtes Steckenpferd mit jederzeit drastisch höherem Verbreitungsgrad als im Massenmarkt oder auf Steam.

24

Umfrage-Auswertung: G-Sync vs. FreeSync - was ist bereits im Einsatz, was zieht mehr Interesse an (2019)?

Mittels einer Umfrage vom letzten März-Tag wurde der Stand der Verbreitung zu G-Sync und FreeSync abgefragt, so wie bei ähnlichen Umfragen vom September 2017 bzw. vom Januar 2016. In der Zwischenzeit hat sich mittels "G-Sync Compatible" einiges getan, was sich auch sofort in den Umfrage-Ergebnissen zeigt, wo dieses technisch gesehen "FreeSync mit nVidia-Grafikkarten" umgehend auf eine beachtbare Nutzer-Anzahl kommt. Alle drei Sync-Standards zusammen erreichen im übrigen kumuliert 51,2% Stimmenanteil – womit die Sync-Standards erstmals eine (knappe) absolute Nutzer-Mehrheit (hier im 3DCenter) auf sich vereinigen können. Insbesondere gegenüber dem Stand von Anfang 2016 (12,6% Sync-Nutzer) ist dies eine regelrecht rasante Entwicklung, durchaus gleichzusetzen mit der seinerzeitig schnellen Durchsetzung der SSD gegenüber der HDD.

11

AMD gibt Ausblick auf die RDNA2-Architektur und RayTracing mit AMD-Grafikchips

Zur Vorstellung der Navi-basierten Radeon RX 5700 & 5700 XT Grafikkarten hat AMD leider gar nichts zum Thema von RayTracing sowie der weiteren Entwicklung der RDNA-Architektur gesagt, diese Informationen ergaben sich dann allerdings im Nachgang. So wird eine neue offizielle Grafikarchitektur-Roadmap offeriert, welche die "RDNA2"-Architektur in der 7nm+ Fertigung für den Zeitrahmen 2020/21 verspricht. Diese zeitliche Einordnung ist nicht wirklich präzise, da die Roadmap-Beschriftung in dieser Frage ziemlich ungenau ist – technisch gesehen deutet zwar alles auf das Jahr 2020 hin, aber nominell könnte es eben doch auch noch das Jahr 2021 werden. Ob damit der größere Navi-Chip "Navi 20" oder aber die nachfolgende "Arcturus"-Generation gemeint ist, bleibt offen – beide Varianten sind denkbar. Sofern es Navi 20 wird, gäbe es somit innerhalb derselben Grafikkarten-Generation erhebliche Architektur-Differenzen (was bei AMD allerdings nicht ungewöhnliches wäre) – wenn es dagegen "Arcturus" wird, könnte AMD eine komplett neue Grafikkarten-Generation gemäß dieser RDNA2-Architektur aufbauen.

8

nVidia könnte mit "G-Sync Compatible" die konkurrierenden Sync-Standards vereinen

Ein wesentlicher Punkt von nVidias CES-Pressekonferenz war neben viel Show rund um RayTracing, der (kurzen) Vorstellung der GeForce RTX 2060 sowie der Ankündigung von Turing-basierten Mobile-Beschleunigern die Neuerungen zu nVidias G-Sync. So gibt es nunmehr einen extra Standard "G-Sync Ultimate" für eine ordentliche HDR-Darstellung (mit entsprechend hohem Helligkeitswert), was das bisherige "G-Sync HDR" beerbt. Gleichfalls öffnet nVidia sich nominell dem offenen AdaptiveSync-Standard, welcher technisch auf AMDs FreeSync basiert. nVidia ordnet dies unter "G-Sync Compatible" ein und will entsprechende FreeSync-Monitore mit einem neuen Treiber ab 15. Januar dann mit G-Sync-Funktionalität beglücken. Allerdings sind nVidias Anforderungen offenbar ziemlich hoch, von 400 vorab getesteten FreeSync-Monitoren haben nur 12 die nVidia-Prüfungen bestanden und können sich zukünftig mit dem Prädikat "G-Sync Compatible" schmücken.

4

Umfrage-Auswertung: Wie häufig wird Downsampling Anti-Aliasing derzeit noch genutzt?

Eine Umfrage von Mitte August ging der Frage nach, wie breit Downsampling Anti-Aliasing derzeit überhaupt noch genutzt wird. Vor einigen Jahren waren AMDs VSR bzw. nVidias DSR Anti-Aliasing noch heiße Eisen, heuer aber hört man kaum noch etwas neues hierzu, wird auch kaum noch in diese Richtung hin getestet. Dies bestätigt sich allerdings durch die aktuelle Nutzer-Anzahl, welche mit 12,1% beachtbaren und 10,7% seltenen Nutzern (zusammengezählt 22,8%) nicht gerade hoch ausfällt – in jedem Fall weniger als vor zwei Jahren, wo die Nutzer-Anzahl kumulativ schon 37,3% erreichte. Letztlich sind somit im Laufe der Zeit sogar beachtbar Nutzer von dieser Kantenglättungs-Variante abgewandert, anstatt vielmehr neue Nutzer hinzugekommen wären.

14

Erste Detail-Berichte zu nVidias Turing-Architektur erschienen

Wir erwartet, sind Freitag Nachmittag die Architektur-Artikel zu nVidia Turing-Architektur erschienen (untenstehend verlinkt). Selbige erklären die Feinheiten jener neuen Grafikchip-Architektur, welche sich eben nicht nur auf das Thema RayTracing beschränken, sondern vor allem auch beim konventionellen Grafikrendering erhebliche Vorteile bieten – siehe schon die neuen Shader-Cluster bei Turing. Zu selbigen klären sich nun auch einige noch offene Fragen: So lassen sich die extra Integer-Einheiten zeitgleich mit den konventionellen FP32-Einheiten nutzen, was für einen erheblichen Performance-Boost sorgen soll. Denn laut nVidia kommen in modernen Spielen auf 100 FP32-Berechnungen auch schon ca. 36 Integer-Berechnungen (bei Battlefield 1 dagegen sogar 100:50) – welche bisher in den FP32-Einheiten früherer Grafikchip-Architekturen mit ausgeführt wurden, dafür aber die jeweiligen Shader-Einheiten für andere FP32-Berechnungen blockiert haben. Nun kann alles nebeneinanderher ausgeführt werden, blockieren die verschiedenen Rechenoperationen sich also nicht mehr gegenseitig. So gesehen haben die Shader-Cluster von Turing dann also doch wieder 128 Ausführungseinheiten – die stärker genutzten 64x FP32- sowie die etwas weniger genutzten 64x INT32-Einheiten (Nutzungsverhältnis grob 74:26%).

26

Die neue Kantenglättung von nVidias Turing: Deep Learning Super Sample (DLSS)

Bei der Turing-Generation bringt nVidia mittels "Deep Learning Super Sample" (DLSS) eine neue Kantenglättung daher, welche im Gegensatz zum früher schon erwähnten "Adaptive Temporal Antialiasing" bereits spruchreif ist und seiten nVidia massiv bei den Turing-Grafikkarten promoted wird. Als Post-Processing-Verfahren kann DLSS grundsätzlich von jedem Spiel benutzt werden, das Spiel muß aber dennoch darauf vorbereitet sein, es handelt sich also nicht um ein Treiber-seitig aktivierbares Kantenglättungs-Verfahren. Zwar wird es tiefergehende Details samt Bildqualitäts-Vergleichen zu DLSS sicherlich erst mit dem kommenden Turing-Launch (14. September 2018) geben, aber dennoch kann man auf Basis der bisherigen nVidia-Informationen sowie Berichten der Gamescom-Fachbesucher dennoch schon ein gewisses Bild zu DLSS zeichnen: Hierunter verbirgt sich eine adaptive Kantenglättung in einem bislang noch nicht genauer erläuterten technischen Verfahren, deren Clou primär in einem vorhergehenden Mustererkennungs-Training der zu glättenden Kanten liegt. DLSS weiss also vor der eigentlichen Kantenglättung bereits, was Kante und was nur Farbübergang ist – und ist demzufolge in der Lage, seine Kantenglättung gezielt nur auf den reinen Kanten anzusetzen.

2

nVidia stellt "Adaptive Temporal Antialiasing" als erste RayTracing-Anwendung vor

Grafikchip-Entwickler nVidia hat mittels "Adaptive Temporal Antialiasing" (ATAA) eine neue Art von Kantenglättung vorgestellt, welche für ihr Wirken unter anderem Hardware-basiertes RayTracing benutzt. Grundsätzlich handelt es sich bei "Adaptive Temporal Antialiasing" um eine Erweiterung des bekannten "Temporal Antialiasing" (TAA, nicht zu verwechseln mit "Temporal Approximate Anti Aliasing" aka TXAA), welches den Postprocessing-Weichzeichner FXAA mit einer zeitlichen (temporalen) Komponente vermischt, um besonders in Bewegung gute Ergebnisse erzielen zu können. Nichtsdestotrotz ist bei TAA weiterhin aufgrund der FXAA-Basis ein nicht unerheblicher Weichzeichner-Effekt zu sehen, welcher zudem besonders feine Details dann auch gleich ganz verschwinden lassen kann. Mittels ATAA will man nunmehr basierend auf TAA gewisse Bildteile durch ein adaptives RayTracing-Verfahren besonders exakt glätten, um gerade dieser Problematik der Vernichtung besonders feiner Details entgegenzuwirken.

Inhalt abgleichen