Redest du jetzt von Fernsehern, Micro OLED Panels für VR Brillen oder Smartphones OLED Panels?
Und wo postet man die wohl am besten? Achja...genau...lass alles mischen in einem unübersichtlichen Sammelthread.
Zumal jeder Hersteller ein OLED Panel unterschiedlich ansteuern kann und die Unterschiede somit groß ausfallen können.
Daher ist es schon sinnvoll viele Reviews von Monitoren in den Monitor Thread zu posten und TVs können beispielsweise in den OLED-TV-Erfahrungen Thread besprochen werden.
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken
Naja während ML Upsampling / FG usw läuft, kann bereits der nächste Frame begonnen zu rendern werden. Ansonsten stünde die ganze GPU still um zu warten.
Zitat:
Zitat von kemedi
(Beitrag 13886040)
Mal so gefragt:
RR hat ja bisher kein Update bezüglich 2nd Generation Transformer bekommen - so weit, so bekannt. Mir stellt sich die Frage, ob ein solches Update überhaupt nötig ist, was mich dann zu folgendem geführt hat:
Ich habe mir mal Ultra-Performance in Dark Ages angeschaut. Native Auflösung sind 3440x1440 Pixel.
Hab ich was auf der Brille oder ist RR, egal ob mit Preset D oder E, einfach total matschig im Vergleich zu Preset M/L ohne RR? Rein auf Dark Ages bezogen. Keine Ahnung, wie es zum Beispiel in Cyberpunk o.Ä. aussieht, muss ich mir anschauen :D
Was RR im Vergleich zum Standard-Denoiser besser macht, ist in diesem Fall zum Beispiel deutlich an den Texturen zu sehen. Die sind auch mit Preset M/L ohne RR deutlich matschiger. Dafür ist aber das gesamte Bild sehr unscharf im Vergleich zu den anderen Presets ohne RR.
Grundsätzlich ist das ja nachvollziehbar - aber gibt es da Tricks, um entweder RR schärfer zu bekommen oder ohne RR bessere Texturen zu haben?
SpecialK? OptiScaler? MipMap-Bias? Irgendwas? :D
Bilder liefere ich bei Bedarf gern nach, hab nur grad spontan keine zur Hand ;)
Edit:
Mit deaktiviertem Pathtracing ist das Problem mit den Texturen @Standard Denoiser weg. Aber leider gibt's bei Dark Ages ja kein RR ohne PT X_X
Naja eines der neuen Modelle hat den Namen RR mini. Insofern ist es das normale DLSS-SR was durch 4.5 ein upgrade bekommen hat was mehr Richtung RR geht und damit auf den gleichen Stand gebracht wurde. Wenn man sich mal den overhead in ms anschaut ergibt das so auch Sinn.
Für Games muss man die Simulationen natürlich vereinfachen. Man kann weniger Vertices / Segments nehmen, da oftmals eine deutlich geringere Simulations-Auflösung ausreicht.
Der Wuschel-Afro dauerte nur 7ms zum simulieren und sah verdammt gut aus. Anstatt 1.5 Mio Segmente zu nehmen, kann man das evtl. auf 200...300k senken und schon sind wir im brauchbaren Rahmen für einen Heldencharakter. Und sowas kann man in Games via Optionsmenü skalieren. Hat man eine schlechtere GPU, reduziert man die Simulationsqualität (entweder Anzahl Vertices oder zeitliche Simulationsauflösung).
Und wer weiss was die Zukunft bringt. Der direkte Vorgänger (VBD) ist erst 1 Jahr alt und wurde mit der neuen Technologie deutlich überrundet.
Ein weiterer Ansatz:
Diese Simulationen als Input für ein DNN nehmen. Das DNN ersetzt dann den "Brute Force" Simulations-Algorithmus. Oder den Algo mittels DNN erweitern: Die zeitliche Step-Size erhöhen und die Zwischenschritte mittels DNN approximieren.
Frage:
Weiß jemand, ob die "Nachtmodus" Funktion in Win11 nur auf dem Desktop gilt oder auch in Vollbild-Anwendungen, wie Games oder nur in Fensteranwendungen, wie Browsern oder Games?
Ich stelle da gerne 15% ein, weil ich die White-Balance gerne einen Tick wärmer habe, wenn ich länger lesen muss.
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.