26

Hardware- und Nachrichten-Links des 25./26. August 2018

Heise thematisieren anhand des Beispiels der Northlight-Engine von Spieleentwickler Remedy (Max Payne, Alan Wake, Quantum Break) die Schwierigkeit, RayTracing zu vernüftigen Frameraten auf heutiger Hardware zu realisieren. Dafür sind zum einen erhebliche Abspeckungen an der RayTracing-Qualität vonnöten, zum anderen dann Engine-interne Tricks, um die benötigte Rechenleistung bei nicht besonders relevanten Bildteilen noch weiter zu senken. Trotzdem kommen in einer vergleichsweise statischen Demo-Szene bislang nur 30 fps unter FullHD heraus – auf einer Titan V der Volta-Generation, welcher allerdings noch der RT Core der Turing-Generation fehlt. Selbst mit den Vorteilen der Turing-Architektur wird eine echte, vollständige Spielszene sich noch für einige Zeit nicht mit RayTracing darstellen lassen – einfach weil hierfür die Rohpower (trotz aller Abspeckungen) fehlt. Derzeit kann RayTracing nur für einige zusätzliche Effekte angesetzt werden – bzw. Effekte, welche man mittels RayTracing schöner hinbekommt als mit bisherigen Möglichkeiten. Erst zukünftige RTX-Generationen werden sich langsam daran heranrobben können, größere Lasten unter RayTracing darzustellen. Doch bis zu dem Punkt, wo man dann langsam auf die Abspeckungen bei der RayTracing-Qualität (Rays pro Pixel) verzichten kann, dürften noch einige Hardware-Generationen vergehen.

An dieser Stelle liegt im übrigen auch die Erklärung, wieso die Spielekonsolen als üblicher Standardsetzer zumindest in der kommenden nächsten Spielekonsolen-Generation der Jahre 2020/21 bei RayTracing noch nicht mit dabei sein werden: Die hierfür notwendigen Konsolen-SoCs werden aktuell entwickelt und wahrscheinlich dann schon final designt sein, wenn sich im nächsten Jahr erweist, ob nVidia das Thema RayTracing überhaupt durchsetzen kann. Die Chance, das ein Konsolenhersteller ausgehend von den jetzt vorliegenden Informationen zur RayTracing-Marktdurchdringung (faktisch keine Marktdurchdringung und vor allem keinerlei belastbare Zukunftsprognose) ein derartiges Risiko eingeht, und für die nächste Konsolen-Generation schon RayTracing-Hardware plant, ist vernachläßigbar gering. Andererseits könnte es dagegen passieren, das für die übernächste Konsole-Generation (grob im Jahr 2027 angesiedelt) dann RayTracing das große Zugpferd sein könnte, weil der PC bis dahin die Pionierarbeit abgeleistet hat und das Thema dann womöglich reif für eine exklusive Zuwendung ist. Dann könnten die Spielekonsolen wiederum ihre Eigenheiten zugunsten von RayTracing ausspielen: Ein reiner RayTracing-Beschleuniger in Spielekonsolen (mit nur noch rudimentärem Rasterizer-Anteil) würde die Spieleentwickler zu ihrem Glück zwingen und somit RayTracing-Grafik zu ihrem Durchbruch verhelfen.

WCCF Tech zeigen einen (angeblichen) 3DMark13-Wert zu einer (angeblichen) GeForce RTX 2060 5GB, welcher mit 22555 Punkten im GPU-Test von FireStrike in der FullHD-Auflösung etwas besser als das Performance-Niveau einer GeForce GTX 1080 (~21500 Punkte) herauskommt. Welche Karte hier wirklich getestet wurde, konnte der Benchmark (naturgemäß) nicht erkennen und ergibt sich nur aus einer seitens des Benchmarkers selber hinzugefügten Beschreibung – womit man darauf angewiesen ist, das jener nicht zu trollen versucht. Und diese Chance ergibt sich sehr wohl, denn es ist nicht zu sehen, das sich nVidia die Blöße einer 5-GB-Grafikkarte als neuer Midrange-Lösung gibt, sofern die vorherige Midrange-Lösung in Form der GeForce GTX 1060 gleich mit 6 GB antritt. Aller Vermutung nach ist dies daher ein Fake-Versuch, welcher als Basis die Turing-Specs von AdoredTV benutzt – mit der Problematik, das jene nur bis zur GeForce RTX 2080 korrekt sind und unterhalb der GeForce RTX 2070 wahrscheinlich komplett selbsterstellt (aka geraten) wurden. Daß die GeForce RTX 2070 mit nur 7 GB Grafikkartenspeicher antreten würde, hat sich beispielsweise nicht bestätigt – es sind die gewöhnlichen 8 GB. Und auch als deren Chipbasis kommt aller Vermutung nach kein extra Grafikchip, sondern derselbe TU104 wie bei der GeForce RTX 2080 zum Einsatz.

Das aufgestellte (und damit vermutlich gefälschte) 3DMark13-Ergebnis jener (vermeintlichen) GeForce RTX 2060 könnte ironischerweise sogar halbwegs passen – zumindest sofern nVidia überhaupt eine solche GeForce RTX 2060 auflegt. Jene müsste dann auf einem dritten, noch "kleinerem" Turing-Chip basieren, einem (spekulativen) "TU106". Rechnet man das um, was zum Verhältnis GP104 zu TU104 sowie GP102 zu TU102 bekannt ist, dürfte ein solcher TU106-Chip mit 1536 Shader-Einheiten (+20%) an einem 192 Bit GDDR6-Speicherinterface antreten. Die reguläre Spiele-Performance einer solchen (hypothetischen) GeForce RTX 2060 könnte bei grob +40-50% mehr als bei der GeForce GTX 1060 herauskommen und damit irgendwo in der Nähe (oder etwas besser) als das Performance-Niveau einer GeForce GTX 1070 liegen. Das Problem an dieser Konstruktion wird der dafür notwendige Hardware-Einsatz: Der TU106-Chip wird vermutlich um die 320-350mm² groß sein, eher am oberen Ende dieser Prognose als am unteren Ende. Doch dies ist schon größer als der GP104-Chip der GeForce GTX 1070 (314mm²) – ohne das es dafür mehr Performance gäbe, im genauen wäre der GP104-Chip mittels GeForce GTX 1070 Ti und GeForce GTX 1080 sogar (etwas) schneller. Verkaufen lassen würde sich dies mittels des RayTracing-Features der (hypothetischen) GeForce RTX 2060 vermutlich trotzdem, aber dies wäre für nVidia aus geschäftlicher Sicht wenig effektiv. Denn hierbei steht ein etwas größerer Chip samt seinen Initialkosten gegenüber einem bereits vorhandenen Grafikchip, welcher mehr Performance bringt und mittels der höherwertiger klingenden Grafikkarten-Namen sogar für höhere Preise absetzbar ist.

Schließlich kann nVidia eine GeForce RTX 2060 eher schwer auf über 350 Dollar Listenpreis hiefen, dann fällt die preistreibende Wirkung der Turing-Generation doch zu sehr auf (und selbst 350 Dollar sind für eine Midrange-Lösung zu viel). So lange nVidia nicht klar niedrigere Preislagen für die Turing-Grafikkarten plant, hat eine GeForce RTX 2060 einfach keinen Platz im Angebots-Portfolio, da nVidia jene preislich viel niedriger anbieten müsste, als wie sich die Kostenlage für den dann wieder einmal sehr großen TU106-Grafikchip darstellt. Gerade aus dieser rein wirtschaftlichen Sichtweise heraus wird es um so unwahrscheinlicher, das nVidia das Turing-Portfolio zu den aktuellen Preislagen nach unten hin ausdehnt. Da nVidia nun auch wirklich nicht für Preissenkungen ohne jeden Anlaß bekannt ist, wäre auch kein Grund zu sehen, wieso sich an dieser Portfolio-Situation demnächst etwas ändert. Dies könnte nur passieren, wenn AMDs Navi-Generation dann doch ein Überraschungserfolg gelingt – aber leider ist da noch zu vieles im unklaren, läßt sich in dieser Frage keine belastbare Zukunftspekulation aufbauen. Vermutlich dürften somit GeForce GTX 1080 & 1080 Ti demnächst in den Abverkauf gehen, alles darunter (GeForce GTX 1070 Ti und kleiner) jedoch nie mit neuen Turing-Grafikkarten ersetzt werden, sondern vielmehr zusammen mit der Turing-Generation gemeinsam am Markt bestehen bleiben – bis nVidia sein ganzes Portfolio durch eine generell neue 7nm-Generation (Richtung Jahresende 2019 bis Anfang 2020) in kompletter Form ersetzt.