25

News des 25. September 2023

Im weiteren Verlauf der jüngst thematisierten Diskussionsrunde der Digital Foundry @ YouTube hat nVidias Bryan Catanzaro (Vice President Applied Deep Learning Research) nochmals klarer gemacht, dass man bei allen Aktivitäten, um Pixel zukünftig effektiver und Rohpower-schonender zu rendern, DLSS einen gewichtigen Anteil nehmen wird – in dem bis zu einem (derzeit hypothetischen) DLSS 10 mit kompletten neuralen Rendering-System gedacht wurde. Natürlich wird nVidia auch jede andere Möglichkeit nutzen, um effizient zu rendern, keine Frage. Doch mit der Verbesserung der herkömmlichen Rendering-Pipeline beschäftigen sich die Grafikchip-Entwickler schon seit mehreren Dekaden, ergo sind an dieser Stelle große Sprünge inzwischen eher unwahrscheinlich. Ein vergleichsweise neuer Ansatz wie DLSS bzw. Upscaler im allgemeinen hat da durchaus größere Chancen, genau diese größeren Sprünge auch zukünftig noch bieten zu können.

I do think that let's say DLSS 10 in the far, far future is going to be a completely neural rendering system that interfaces with a game engine in different ways, and because of that, it's going to be more immersive and more beautiful.
Quelle:  nVidias Bryan Catanzaro in einer Gesprächsrunde der Digital Foundry @ YouTube, veröffentlicht am 19. September 2023

Hierzu sehr interessant ist ein diesbezügliches Posting im 3DCenter-Forum, in welchem über eine (hypothetische) Ausgestaltung eines zukünftigen Upscalers referiert wird. Generell wird hierbei auf "Frame Generation" gesetzt, allerdings soll dennoch die Kamera-Bewegung und damit die Eingabe des Spielers mit einfließen, um somit den Inputlag niedrig zu halten. Eine erweitere Form von "Frame Generation" könnte dann beispielsweise jene Bildteile erkennen, welche einfach aus dem vorherigen Frame samt der Information zur Kamera-Bewegung generiert werden können – und jene Bildteile, die zu vielen Änderungen für eine Interpolation aufweisen, somit hingegen neu gerendert werden müssen. Die Verbindung der jeweils passenden Methoden für jeden Bildbereich sollte die Grafikqualität samt Rechen-Effizienz hochhalten – und da der Frame nicht außerhalb der Engine "erfunden" wurde, sondern innerhalb der Engine mit aktueller Spieler-Eingabe erstellt wurde, ergibt sich wie gesagt auch kein Inputlag-Problem. So könnte durchaus die Zukunft der Spiele-Entwicklung aussehen, wenn stark erweitere Upscaler im generellen Maßstab das Feld übernehmen.

Ein Problem dieses (derzeit hypothetischen) Ansatzes wäre, dass man dies eigentlich Engine-seitig tun sollte, nicht als Grafikkarten-bezogenes Upscaling-Features eines einzelnen Grafikchip-Entwicklers. Natürlich will nVidia hier die Kontrolle über seine Features und damit seine Marktmacht erhalten, ergo wird man wohl versuchen, so etwas (oder zielgemäß ähnliches) im Rahmen zukünftiger DLSS-Versionen umzusetzen. Dann wird allerdings der Übergang um so schwerer, denn je umfangreicher der Upscaler in die Rendering-Pipeline eingreift, desto schwieriger ist jener nachträglich in eine vorhandene Spiel-Engine zu integrieren. Natürlich könnte dies auch Scheibchen-weise passieren, die im Foren-Posting skizzierte Upscaler-These dürfte eher nur das Endergebnis von mehreren Jahren Entwicklung samt entsprechend vielen Zwischen-Stufen sein. Und zumindest läßt sich anhand dieser These erkennen, wie viel Performance- und Effizienz-Potential noch in Upscalern steckt – womit das (starke) Interesse der Grafikchip-Entwickler an deren Weiterentwicklung gesichert sein dürfte.

Hardware Busters @ YouTube haben sich den neuen "12V-2×6" Strom-Adapter angesehen, welcher mit der ATX 3.1 Norm kommt und damit den bisherigen 12VHPWR-Adapter ersetzt. Der Test fand bei Adapter-Hersteller "Linewell" statt, welcher professionelles Gerät einsetzen konnte, womit Hardware Busters den Test allerdings nicht selber und damit nicht unabhängig durchgeführt haben. Inhaltlich sollte allerdings alles korrekt sein, denn die Belastungsprüfung bestand der neue Adapter samt Kabel problemlos: Obwohl nicht korrekt eingesteckt, konnten dennoch 640 Watt Leistungsaufnahme transportiert werden, womit das Kabel nur 46°C warm wurde. Normalerweise sollte der Adapter in nicht voll eingesteckter Form diese hohe Leistungsaufnahme sowieso verhindern (die Signal-Pins sind dann nicht verbunden, womit in einen niedrigeren Leistungsmodus geschalten wird), aber dies wurde für diesen Test überbrückt. Getestet wurde hiermit also der Fall, welcher mittels der nunmehr zurückgesetzten Signal-Pins überhaupt nicht mehr auftreten sollte. Es ist jedoch beruhigend zu wissen, dass Adapter & Kabel selbst diesen (fehlerhaften) Betriebszustand klaglos überstehen – auch wenn dies natürlich nur ein Labor-Test war.

Es gibt wohl noch einen weiteren Grund, sich von "Meteor Lake" im Desktop nicht zu viel zu versprechen: Das derzeit verfügbare I/O-Tile von Meteor Lake bietet nur 8 Lanes PCI Express 5.0, angepasst an Mobile-Bedürfnisse, wo dies als ausreichend gilt. Bei Spitzen-Modellen des Desktop-Segments braucht man sich damit sicherlich nicht blicken lassen, da sollten es schon die vollen 16 PCIe-Lanes sein. Dafür braucht Intel allerdings ein neues I/O-Tile – und wenn man jenes nicht bereits in der Hinterhand hat, dann limitiert sich Meteor Lake im Desktop automatisch auf Prozessoren unterhalb des non-Gaming-Bereichs. Dies gilt doppelt durch den Punkt, dass Meteor Lake im CPU-Tile nicht mehr als 6 Performance- und 8 Effizienz-Kerne bietet, sprich Core-i5-Niveau. Auch hier müsste Intel ein entsprechendes extra CPU-Tile in der Hinterhand haben, ansonsten kann Meteor Lake auf dem Desktop nur in Mainstream- und OEM-Gefilde gehen. Da solche extra Tiles in Entwicklung & Validierung normalerweise den Leakern auffallen und derzeit nichts außer deren explizite Streichung bekannt ist, sind die Chancen auf größere Prozessoren als einen Core i5 non-K bei Meteor Lake im Desktop somit minimal.

Denkbarerweise kann Meteor Lake im Desktop somit in Programm-Ergänzungen resultieren, wobei man insbesondere die modernere und größere iGPU in den Vordergrund stellen kann. Nicht auszuschließen ist, dass man Meteor Lake aber auch mit dem Ende 2024 anstehenden "Arrow Lake" mischt, im Sinne von größere Prozessoren-Modelle von Arrow Lake und kleinere Prozessoren-Modelle von Meteor Lake. Dagegen spricht, dass Arrow Lake klar leistungsfähiger sein sollte, diese Zusammenmischung in erheblichen Performance-Differenzen resultieren könnte (nicht wie beim nahezu identischen "Alder Lake" und "Raptor Lake"). Dafür spricht, dass Intel somit die aufgebauten Fertigungskapazitäten für Meteor Lake besser ausnutzen kann und die für Arrow Lake unter nochmals neue Fertigung anfänglich nicht die Riesenlast einer kompletten Generation tragen muß. Letztlich wird man sich an dieser Stelle überraschen lassen müssen, wie Intel Meteor Lake im Desktop eintaktet – aber wie gesagt: Größere Modelle als Core i5 non-K sind nicht zu erwarten.