22

Hardware- und Nachrichten-Links des 21./22. April 2018

Von den Marktbeobachtern von Jon Peddie Research kommt die Vorhersage, das wir Realtime-RayTracing in weniger als sechs Jahren in unseren PCs haben könnten. Die Vorhersage ist sportlich, hat aber wenigstens eine gewisse Grundlage darin, welche Rechenkraft für die Realtime-RayTracing-Demo von Remedy seitens nVidia verwendet wurde: 62 TFlops für die Grafikkarte, durchgeführt von einer "DGX Station" mit vier Tesla V100 Karten. Da eine GeForce GTX 1080 Ti derzeit ihre 11 TFlops erreicht und Jon Peddie Research mit einer Rechenleistungs-Verdopplung aller drei Jahre kalkulieren, geht man vom Jahr 2024 als erreichbares Datum für diese Vorhersage aus. Die aufgestellte Rechnung klappt an dieser Stelle nicht ganz, da in 6 Jahren nach dem eigenen Ansatz nur eine Rechenleistung von 44 TFlops erreicht wäre – aber das ganze ist ja nur eine arg grobe Kalkulation unter Voraussetzung diverser Annahmen. Möglicherweise wurde einfach auch schon der Punkt einbezogen, das man sich von nVidias dieses Jahr kommender Turing-Generation bereits einen Rechenleistungs-Sprung von +50% erwartet – ausgehend davon wären erscheinen dann im Jahr 2024 tatsächlich grob 66 TFlops erreichbar.

Dies würde im übrigen dann aller Vermutung nach eine Fertigungstechnologie unterhalb von 7nm voraussetzen, da in diesem Modell ausgehend von der Turing-Generation zwei weitere Generationen mit neuer, klar verbesserter Fertigungstechnologie vonnöten wären – um jeweils die angestrebte Rechenleistungs-Verdopplung zu erreichen. Dabei müsste es sich dann um eine (echte) 5nm-Generation handeln – sprich nicht so ein Zwischenprodukt wie 12nm, sondern ein echter Vollnode im Vergleich zur 7nm-Fertigung. Gehen die Chipfertiger dagegen den (zuletzt doch sehr offensichtlichen) Weg, das neue Fertigungsverfahren zwar rechtzeitig daherkommen, aber nicht mehr den ganz großen "Bumms" gegenüber der Vorgänger-Generation aufweisen, dann werden eher zwei weitere Fullnodes nach der 7nm-Fertigung benötigt – sprich so etwas wie 3nm. Jenes steht zwar in den Roadmaps der Chipfertiger drin, aber ob dies dann so einfach (und vor allem termingerecht) realisierbar wird, steht noch in den Sternen. Davon abgesehen werden die Kostenpunkte spätestens nach der 7nm-Fertigung regelrecht extrem, da es unterhalb der 7nm-Fertigung in echte Grenzbereiche hineingeht. Eine höhere Preislage dürfte sich schon allein daran ergründen, das immer mehr Chipdesigner aus reinen Preis/Leistungs-Erwägungen heraus lieber in einer etwas älteren Fertigungsstufe produzieren lassen – was den Bedarf und damit die zu erwartenden Stückzahlen von 5nm, 3nm und nachfolgend nicht unerheblich absenken wird.

Hinzukommend könnte es natürlich starke Verbesserungen bzw. Beschleunigungen dieses Ablaufs geben, sofern Wege gefunden werden, RayTracing ressourcenschonender auf den Bildschirm zu bringen. Aber: Damit wäre in jedem Fall nur zu erreichen, das Grafikkarten-Besitzer diese Echtzeit-Demos dann eben auch zu Hause auf der eigenen Spitzen-Grafikkarte in Echtzeit rendern können. Die Übernahme dieses Ansatzes in vollwertige Spiele ist noch einmal eine ganz andere Geschichte. Dies kann man gut mit den vielen Grafikdemos von 3dfx, ATi & nVidia zur Anfangszeit der 3D-Entwicklung vergleichen: Neue Grafikkarten konnten diese Demos sicherlich in Echtzeit rendern – auf eine derart gute Grafik bei realen Spielen hat man dann aber noch mehrere Generationen warten müssen. Genau die gleiche Problematik erwartet dann auch RayTracing – und es handelt sich hierbei noch nicht einmal um bösen Willen oder eine zurückhängende Entwicklung seitens der Spiele-Entwickler. Der Punkt ist hierbei schlicht, das sobald es sich um eine dynamische Welt (wie in echten Spielen) handelt, die Performance-Anforderungen sofort (ganz grob) auf das 3-10fache explodieren. Wie werden womöglich tatsächlich im Jahr 2024 die jetzigen RayTracing-Demos mit Consumer-Grafikkarten in Echtzeit rendern können – aber die Übernahme dessen in reale Spiele dürfte noch einige Jahre mehr benötigen.

Bei Phoronix hat man sich die Grafikkarten-Performance des nun auch für Linux erschienenen "Rise of the Tomb Raider" mit immerhin 20 aktuellen wie früheren AMD- und Grafikkarten unter drei Bildqualitätssettings angesehen. Allerdings reichen auch solche (vergleichsweise) mittelprächtigen Grafikkarten wie Radeon R9 270X, Radeon HD 7950, Radeon RX 560, GeForce GTX 680 oder GeForce GTX 950 dafür aus, die "Very High" Bildqualität bei ~40 fps aktivieren zu können, die Tests unter den schwächeren Bildqualitäten werden damit eher uninteressant. Während unter "Very High" AMD am unteren Ende der Performance-Skala noch gut mithält (überall allerdings dennoch etwas weniger Performance als nVidia zeigt), gibt es dann bei den schnelleren Grafikkarten sehr augenscheinliche Differenzen pro nVidia: So erreicht eine Radeon RX Vega 64 unter der FullHD-Auflösung noch nicht einmal die Frameraten einer GeForce GTX 1070, erst unter der WQHD-Auflösungen liegen beide Grafikkarten grob gleichauf – was für AMD ein eher schlechtes Ergebnis darstellt. Zur Ehrenrettung AMDs sei erwähnt, das alle Grafikkarten unter den dafür passenden Settings vernünftige bis erstklassige Frameraten auswerfen, Rise of the Tomb Raider ergo diesbezüglich keinen echten Prüfstein darstellt.