Zitat:
Zitat von Relex
(Beitrag 13850952)
Der geringe Inputlag ergibt sich dann also prinzipbedingt aus der simplen Technik und bleibt für moderne Spiele damit unerreichbar, da der Renderansatz das überhaupt nicht ermöglicht.
Das stimmt natürlich.
Aber die Rendering-Technik alleine ist es ja nicht. Du kannst die Spiele mit 240 fps rendern und dein Input-Lag ist trotzdem Mist und nicht bei ~8ms (Frameraten Entkoppelung, geringere Logik Hz, etc.)
Aber darum gibt es ja nun Dinge wie Reflex. Die Dinge die Reflex so liefert hatten einige Emulatoren schon lange davor ähnlich drinnen. Ähnliches Problem, ähnliche Lösung. Besser wäre es, wenn die Engine es von alleine schon besser machen würde.
Du könntest aber natürlich wieder Spiellogik an die Framerate koppeln und den Input im Mainloop verarbeiten. Das macht dann natürlich woanders Probleme mit komplexeren Lösungen. Technisch spricht aber prinzipiell erst mal nichts dagegen, auch die Rendering Technik nicht. Du könntest auch die Logik-Hz einstellbar machen, aber da die Engines ja heutzutage eher für den 20Hz Multiplayer-Kram optimiert werden, ist das halt oft keine Option.
Zitat:
Zitat von Lurtz
(Beitrag 13850991)
Sagt derjenige, der mit einem Äpfel-Birnen-Vergleich hier reintrollt, nur um dann rumzujammern, dass er "missverstanden" wird :ugly:
Gejammert hab ich nicht, eigentlich war es nur eine lustige Anekdote. Dass das einige Leute hier hart triggert und sie sofort alle unsinnigen Gegenmaßnahmen hochfahren, war einfach nur ein amüsanter Bonus für den Tag und nicht unbedingt beabsichtigt. :ugly:
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.
Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen
Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.
Zitat:
Zitat von Gymnopédies
(Beitrag 13849362)
Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten.
Die eigene Handschrift hat 0% mit der Engine und 100% mit dem Artstyle zu tun.
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Zitat von Leonidas
(Beitrag 13832087)
Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren.
im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...
Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.
Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.
Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D
btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.