Die werben mit einem Displayport 2.1a der 80Gigs erreicht und dann schafft das Panel nur den DP 1.4 Standart@240Hz auszureizen. Yeah, ein neuer, ultrabandbreitiger Stecker, der komplett überflüssig ist. Oder: "Wir haben dir einen neuen Port eingebaut, der teuer und sinnlos ist, damit du uns cool findest." :facepalm:
Fazit:
Ja, es hat sich nichts wirklich getan. Der größte Fortschritt ist in der Beschichtung passiert, nicht in den OLEDs. Bin froh, dass ich ein Gen 3 Panel gekauft hab. Wenn ich husten oder niesen muss, drehe ich vorher den Kopf nach rechts oder links. Mal gucken, wie lange ich das durchhalte. :D
Ich habe jetzt auch mal 4k DLSS Quality mit L und M hin und her getestet in zwei Spielen einmal Baldur's Gate 3 und einmal Assassin's Creed Shadows .... die Bildruhe mit L ist schon beeindruckend, wenn ich L nehme kann ich auch den Ingame Schärferegler wieder ein bisschen anheben, so dass es eine schöne Schärfe hat ohne überschärft zu wirken. Aber das macht schon was her durch Gras, Gebüsch, Wald zu reiten ohne die kleinste Krieselei oder "Ameisenbewegung:D". Ich glaube ich werde das noch weiter testen und erst mal dabei bleiben, der 5090 sei Dank kann ich den nochmaligen fps-Verlust ja wegstecken;). Den Unterschied sieht man auf jeden Fall sofort, jetzt muss ich halt nur noch rauskriegen, ob es auch offensichtliche Nachteile gibt die mir noch nicht aufgefallen sind.
Soweit ich mich erinnere, geht das auch nicht in jedem Game/engineabhängig!? (hatte nur mal in 2-3 Games getestet, wo ich gehofft hatte, das MFG im Gamemenü drin ist,
k.A. ob die Games bei der Installation erkennen, ob ne RTX5000 da ist und z.T. nur dann MFG verfügbar machen,
müsste dann irgendwie mal rechtzeitig getäuscht werden, weil z.Bsp. das spoofing als 4090 nicht reicht)
evtl. ist da in deinem game ne dxgi, die man rausnehmen müsste
(in CP2077 hatte ich nur die asi für Oscaler und die winmm für Enabler)
bei UE/games muss der Oscaler vermutlich als dxgi installiert werden, aber sobald man den Enabler drüberbügelt geht
auch bei mir der Oscaler nicht mehr, ... abwarten und Tee trinken, ob der Enabler mal auf ne höhere passende Version
kommt
btw.
ROG Ally mit SteamOS läuft ohne Enabler 3.0.0.2 nur mit 4.0.0.7 https://www.youtube.com/watch?v=4EoJ-j221ho
(er benutzt da keinen extra Oscaler, so das man gar nicht richtig weiss, was mit Dlls-Input als Output läuft,
theoretisch wäre sogar FSR4-FP8/16 machbar, obwohl er speziell immer gerne XeSS auf dem Ally nimmt)
btw.
hab auch mal in HL reingeschaut und für Interessierte die Einstellungen in der gameuser.ini bezgl. MFG 3x:
k.A. ob man die Zeile zu X3 auch in Games reinschreiben könnte, wo es kein MFG gibt
btw.
in der Krass-engine@Outlaws gibts die Probleme mit Oscaler vs Enabler nicht, beide Overlays aktiv (da spassenshalber normal installiert als dxgi mit Reflexboost=ON im Gamemenü)
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.
Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.