RayTracing

17

Sony nennt technische Eckdaten für die Playstation 5: Zen-2-CPU mit Navi-GPU samt RayTracing-Unterstützung

In einem Gespräch mit Wired hat Sonys "System Architect" Mark Cerny vergleichsweise tief zur nächsten Spielekonsole von Sony blicken lassen – der Einfachheit halber nachfolgend als "Playstation 5" bzw. PS5 bezeichnet, auch wenn Sony diese Namenswahl derzeit noch nicht bestätigen wollte. Nicht gänzlich unerwartet enthält der Konsolen-SoC eine CPU-Einheit auf Basis von Zen 2 bzw. Ryzen 3000 mit 8 CPU-Kernen sowie eine GPU-Einheit auf Basis der Navi-Architektur – exakt so wurden die NextGen-Konsolen von Sony und Microsoft bereits vorhergesagt. Wichtige fehlende Punkte sind dann natürlich noch die Anzahl der verbauten Shader-Einheiten bei der Navi-Grafik sowie die Menge des verbauten gemeinsamen Speichers – genau an diesen beiden Punkten wird sich dann die eigentliche Leistungsfähigkeit der kommenden Sony-Konsole ergeben.

Sony "Playstation 5"

  • noch kein offizieller Name, derzeit nur als "Next-Generation Konsole" bezeichnet
  • CPU auf Basis von Zen 2 bzw. Ryzen 3000 mit 8 CPU-Kernen
  • GPU der Navi-Generation (modifiziert für Sony)
  • RayTracing-Unterstützung
  • eigenes 3D-Audio
  • Unterstützung von Monitor-Auflösungen bis zu 8K
  • superschnelle SSD (mehr Bandbreite als alle bisher für den PC verfügbaren Lösungen)
  • unspezifiziertes Disk-Laufwerk
  • Abwärtskompatibilität zum aktuellen PSVR-Headset
  • Abwärtskompatibilität zu PS4-Spielen
12

DirectX 12 wird teilweise für Windows 7 nutzbar

Im MSDN-Blog berichtet Microsoft höchstselbst über die Übernahme von DirectX 12 auf Windows 7 – zumindest im Fall von World of WarCraft. Dies ist schon mit dem aktuellen Patch 8.15 nutzbar, womit Windows-7-Nutzer primär von der Prozessoren-Optimierung durch DirectX 12 profitieren können. Hardware-Features von DirectX 12 wurden augenscheinlich nicht implementiert, werden aber allem Anschein nach seitens World of WarCraft sowieso nicht genutzt. Dies hat nun aber natürlich nichts mit einem vollständigen DirectX-12-Support für Windows 7 zu tun – so wurde hierbei nur der User-Mode-Teil von Direct3D 12 implementiert, nicht aber der Kernel-Mode-Teil. Damit sind ein paar Features übernehmbar, aber nicht das komplette DirectX 12 – und es erfordert wohl trotzdem immer noch Spiel-spezifische Anpassungen, um das ganze lauffähig zu bekommen. Damit ist diese Lösung also weit davon entfernt, einfach DirectX 12 unter Windows 7 zu installieren und nachfolgend alle entsprechenden Spiele unter dieser Grafik-API laufen zu lassen.

2

RayTracing in Battlefield V läuft (mit guten Frameraten) auch auf der Titan V

Für einige Aufmerksamkeit sorgt derzeit eine Diskussion in unserem Forum, bei welcher das Funktionieren von RayTracing unter Battlefield V auf der nicht zur Turing-Architektur gehörenden (und noch ohne RT-Cores antretenden) Titan V Grafikkarte der Volta-Generation nachgewiesen wurde – zu guten und vollkommen spielbaren Frameraten. Dabei darf die eigentliche Aufregung gar nicht einmal dem Fakt gelten, das dies grundsätzlich funktioniert – denn dies sollte derart so sein, RayTracing über DirectX 12 funktioniert auch in einem Software-Modus, bedingt keine dedizierte Hardware. Zudem war die Volta-basierenden Grafikkarten sogar Entwicklungs-Plattform für RayTracing, da die Volta-Architektur der Turing-Architektur vergleichsweise nahe ist (es fehlen grob gesprochen nur die RT-Cores). Der spannende Punkt ist also vor allem, das RayTracing auf der Titan V mit derart guten Frameraten läuft – seitens des Forenuser 'TobiWahnKenobi' wurden hierzu unter der WQHD-Auflösung mit Ultra-Bildqualität sowie RayTracing auf "Hoch" im Schnitt 80 fps berichtet.

Titan V (OC) Titan RTX (OC)
Chipbasis Volta GV100 Turing TU102
RT-Cores
Battlefield V (MP) WQHD, Ultra-Bildqualität, RT=Hoch ca. 80 fps ca. 87 fps
Battlefield V (MP) @ Rotterdam WQHD, Ultra-Bildqualität, RT=Mittel ca. 67 fps ca. 97 fps
Battlefield V (MP) @ Rotterdam WQHD, Ultra-Bildqualität, RT=Hoch ca. 56 fps ca. 81 fps
Quelle: Benchmarks seitens 'TobiWahnKenobi' im 3DCenter-Forum: #1, #2 & #3
14

Umfrage-Auswertung: Wie ist der bisherige Eindruck zu RayTracing?

Mit einer Umfrage von Ende November wurde nach dem ersten Eindruck zu RayTracing gefragt, was sich primär auf das erste öffentlich einsichtbare Beispiel in Form von Battlefield V bezieht. Der Umfrage-Zeitpunkt war dabei noch vor dem letzten Patch zu Battlefield V, welcher die RayTracing-Performance sehr erheblich steigerte – insofern könnte derzeit die Bewertung auch schon wieder leicht besser ausfallen. Dies gilt insbesondere für die mit 38,7% größte Stimmengruppe, welche den Optik-Effekt von RayTracing durchaus anerkennen, den hiermit einhergehenden Performance-Verlust allerdings (auf derzeitiger Hardware) noch für zu groß halten. In dieser Gruppe dürfte es sicherlich angesichts der neuen Benchmark-Ergebnisse einige inzwischen positiver gegenüber RayTracing gestimmte Nutzer geben.

30

RayTracing unter Battlefield V: Aller Anfang ist schwer

Wie angekündigt und auch im Sinne der (noch) aktuellen Umfrage, wollen wir hiermit noch einmal zurückkommen zum (hervorragenden) RayTracing-Blindtest, welcher mittels des YouTube-Videos von Optimum Tech (ab Video-Zeitpunkt 1:17) absolviert werden kann (und sollte). Hiermit bietet sich eine gute Gelegenheit, den Stand des allerersten RayTracing-Versuchs sowohl für die Nachwelt zu dokumentieren, als auch natürlich als aktuelle Diskussions-Grundlage zu verwenden. Schließlich muß man anhand dieser Bilder klar sagen, das RayTracing im realen Gameplay von Battlefield V kaum einen beachtbaren Effekt hervorruft – im Gegensatz zu den Werbebildern seitens des Spielepublishers und von nVidia. Dies zeigt sich schon allein daran, das gemäß der Kommentare zum YouTube-Video sehr viele Anwender die RayTracing-Funktionalität regelrecht im falschen Bildteil vermutet haben: Aktives RayTracing ist jeweils links zu sehen auf (allen) diesen Vergleichsbildern unter Battlefield V (allesamt mit Copyright allein von Optimum Tech).

13

AMD wird definitiv auf RayTracing reagieren

Das japanische 4Gamer (via TechPowerUp) konnte in einem Artikel zu Vega 20 aus AMDs David Wang auch eine Aussage zu RayTracing auf AMD-Hardware herauslocken: Danach wird es (logischerweise) eine Antwort bzw. vergleichbare Technologie auch von AMD geben – wobei AMD ja letztlich nichts anderes als DXR in DirectX 12 unterstützen muß, dafür muß das Rad nicht neu erfunden werden. Die Frage ist eher, wann entsprechende AMD-Grafikchips mit RayTracing-Funktionalität (in Hardware) erscheinen – Software-Lösungen sind zwar denkbar (laufend über die Shader-Einheiten), reichen aber maximal zu Demonstrationszwecken und kaum für die Spielepraxis. Hierzu gab AMD die indirekte Angabe ab, das man eine größere Verbreitung von RayTracing-Spielen erst zu einem Zeitpunkt erwartet, wo RayTracing in Hardware von Grafikkarten aller Preisbereiche beherrscht wird – sprich von LowCost-Lösungen bis zu Enthusiasten-Boliden.

AMD wird definitiv auf DirectX RayTracing reagieren.
Es wird keine große Verbreitung von RayTracing-Spielen stattfinden, bevor nicht RayTracing-GPUs für alle Segmente vorhanden sind – vom LowEnd zum HighEnd.

Quelle:  AMDs David Wang gegenüber 4Gamers vom 6. November 2018 (freie Übersetzung anhand der automatisierten Übersetzungen ins Englische und ins Deutsche)

20

nVidia stellt GeForce RTX 2070, 2080 & 2080 Ti für eine Auslieferung ab dem 20. September vor

Mit einem Live-Event auf der beginnenden Gamescom (Replay) hat nVidia seine lange erwarteten ersten Turing-basierten Gaming-Grafikkarten in Form von GeForce RTX 2070, GeForce RTX 2080 und GeForce RTX 2080 Ti offiziell vorgestellt. Die beiden letztgenannten Grafikkarten gehen dabei (in exakt einem Monat) am 20. September 2018 in den Handel, wobei die Herstellerdesigns am selben Tag verfügbar sein werden – die kleinere GeForce RTX 2070 folgt dann zu einem noch nicht genauer genannten Termin im Oktober 2018 nach. Dabei basieren GeForce RTX 2070 & 2080 zusammen auf dem kleineren Turing-Chip TU104, zu welchem es nach wie vor nur inoffizielle Angaben gibt, die GeForce RTX 2080 Ti dagegen auf dem größeren Turing-Chip TU102, welchen nVidia bei der Vorstellung der Quadro-RTX-Karten bereits eingehend beleuchtet hatte. Die Hardware-Daten der beiden größeren RTX-Karten entsprechen dabei den zuletzt gerüchteweise verbreiteten Daten: 4352 Shader-Einheiten an einem 352 Bit GDDR6-Interface bei der GeForce RTX 2080 Ti sowie 2944 Shader-Einheiten an einem 256 Bit GDDR6-Interface bei der GeForce RTX 2080, die kleinere GeForce RTX 2070 wird dann 2304 Shader-Einheiten an einem 256 Bit GDDR6-Interface erhalten.

GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti
Chipbasis nVidia TU104, in 12nm bei TSMC (?) nVidia TU104, in 12nm bei TSMC nVidia TU102, 18,6 Mrd. Transistoren auf 754mm² Chipfläche in 12nm bei TSMC
Technik 2304 Shader-Einheiten @ 256 Bit GDDR6-Interface 2944 Shader-Einheiten @ 256 Bit GDDR6-Interface 4352 Shader-Einheiten @ 352 Bit GDDR6-Interface
Takt (Referenz) 1410/1620/3500 MHz 1515/1710/3500 MHz 1350/1545/3500 MHz
Takt (Founders Edition) 1410/1710/3500 MHz 1515/1800/3500 MHz 1350/1635/3500 MHz
Speicherausbau 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6
Stromstecker 1x 8pol. 1x 6pol. + 1x 8pol. 2x 8pol.
GCP 175W (Ref.) / 185W (FE) 215W (Ref.) / 225W (FE) 250W (Ref.) / 260W (FE)
Ausgänge DisplayPort 1.4, HDMI 2.0b, USB Type-C DisplayPort 1.4, HDMI 2.0b, USB Type-C DisplayPort 1.4, HDMI 2.0b, USB Type-C
Listenpreis (Referenz) 499$ 699$ 999$
Preis (Founders Edition) 599$ bzw. 639€ 799$ bzw. 849€ 1199$ bzw. 1259€
Release Oktober 2018 20. September 2018 20. September 2018
Die Angaben dieser Tabelle basieren ausschließlich auf offiziellen Hersteller-Aussagen (Ausnahme: Chipbasis der GeForce RTX 2070).
14

nVidia teasert die Turing-basierte "GeForce RTX 2080" für eine Vorstellung zur Gamescom an

Mittels eines Videos hinterläßt nVidia reihenweise Anspielungen auf die kommenden Turing-basierten Gaming-Lösungen. Videocardz haben alle zu sehenden Teaser zusammengetragen, wonach sich klar der Verkaufsname der nächsten Gaming-Grafikkarte als "GeForce RTX 2080" ergibt – und zudem ein Datum wie eine Location, welches auf die Gamescom in Köln am 20. August 2018 hinausläuft. Zu diesem Zeitpunkt dürfte nVidia die Turing-basierten Gaming-Lösungen also vorstellen oder wenigstens offiziell ankündigen, ab 18 Uhr an diesem Tag wird nVidia den Livestream zu einer "GeForce Gaming Celebration" senden. Ob es zu diesem Zeitpunkt bereits Launchreviews und nachfolgend eine Marktverfügbarkeit gibt, bleibt noch abzuwarten, ist aber nicht unbedingt wahrscheinlich – üblicherweise teilt man dies heutzutage etwas auf, auf eine Ankündigung folgt wenig später der echte Launch, und auch der eigentliche Markteintritt könnte dann noch um ein paar Tage zeitversetzt erfolgen. Das ganze dürfte somit eine Angelegenheit von Ende August bis Anfang September werden.

Chip Hardware 4K Perf. Release
Titan XT Turing GV102 vermtl. 4608 Shader-Einheiten @ 384 Bit Interface geschätzt ~230-260% Herbst 2018
GeForce RTX 2080 Ti Turing GV102 vermtl. 4352-4480 Shader-Einheiten @ 352-384 Bit Interface geschätzt ~210-240% Herbst 2018 (?)
GeForce RTX 2080 Turing GV104 vermtl. 3072 Shader-Einheiten @ 256 Bit Interface geschätzt ~160-180% August/Sept. 2018
GeForce RTX 2070 Turing GV104 vermtl. 2432-2560 Shader-Einheiten @ 256 Bit Interface geschätzt ~130-150% Herbst 2018
Die Angaben dieser Tabelle stellen primär ungesicherte Annahmen dar, Performance-Werte gemäß des 4K Performance-Index.
10

Gerüchteküche: Eine komplette GeForce-20-Serie tritt angeblich zwischen August und November 2018 an

Vielbeachtet werden derzeit die Aussagen von AdoredTV auf YouTube (via Videocardz), welche (angeblich) ziemlich viel Turing-Informationsmaterial haben wollen, dies sogar (angeblich) von einer Quelle direkt bei nVidia. Danach kommt es wohl tatsächlich zu einer "GeForce 20" Serie auf Basis von "Turing", ein Teil der Grafikkarten soll sich dann "GeForce RTX" anstatt "GeForce GTX" (als Hinweis auf deren RayTracing-Eignung) nennen. Die vorgelegten Codenamen der einzelnen Grafikchips klingen mit "TU104", "TU106", "TU116" und "TU117" allerdings schon etwas seltsam – noch dazu, wo GeForce RTX 2070 & 2080 auf (angeblich) unterschiedlichen Grafikchip basieren sollen. Dies ist bei nVidia in den letzten Jahren jedoch niemals derart passiert und ergibt auch ziemlich wenig Sinn. Als weitgehend unrealistisch sehen aus unserer Warte dann vor allem die (angeblichen) Speicherbestückungen aus, denn 5 GB und 7 GB sind vergleichsweise schwer zu realisieren, wenn man nur 1GByte-Speicherchips zur Verfügung hat.

2

nVidia stellt "Adaptive Temporal Antialiasing" als erste RayTracing-Anwendung vor

Grafikchip-Entwickler nVidia hat mittels "Adaptive Temporal Antialiasing" (ATAA) eine neue Art von Kantenglättung vorgestellt, welche für ihr Wirken unter anderem Hardware-basiertes RayTracing benutzt. Grundsätzlich handelt es sich bei "Adaptive Temporal Antialiasing" um eine Erweiterung des bekannten "Temporal Antialiasing" (TAA, nicht zu verwechseln mit "Temporal Approximate Anti Aliasing" aka TXAA), welches den Postprocessing-Weichzeichner FXAA mit einer zeitlichen (temporalen) Komponente vermischt, um besonders in Bewegung gute Ergebnisse erzielen zu können. Nichtsdestotrotz ist bei TAA weiterhin aufgrund der FXAA-Basis ein nicht unerheblicher Weichzeichner-Effekt zu sehen, welcher zudem besonders feine Details dann auch gleich ganz verschwinden lassen kann. Mittels ATAA will man nunmehr basierend auf TAA gewisse Bildteile durch ein adaptives RayTracing-Verfahren besonders exakt glätten, um gerade dieser Problematik der Vernichtung besonders feiner Details entgegenzuwirken.

Inhalt abgleichen