8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.
Zitat:
Zitat von Gorkon
(Beitrag 13880316)
Aber wenn die Optiscaler Dudes und Gals einfach jeden Commit automatisiert bauen lassen oder neuere Versionen nicht irgendwo in einer Random-Diskussion auf dem Discord verstecken würden, dann müsste man sich auch nicht extra eine Windows VM aufsetzen und den Kram selber bauen :rolleyes: Nervt mich selber am meisten...
Danke auch von mir für deine Arbeit.
@Dennis50300
Natürlich sollte man nichts einfach aus dem Netz runterladen und installieren. Aber hier im Forum hab ich mehr Vertrauen als z.B. zu goverlay, welches ein build von https://github.com/xXJSONDeruloXx/Op...-Bleeding-Edge geforkt hat und damit neue Versionen ohne irgendwelche Prüfungen lädt.
Zitat:
Zitat von Platos
(Beitrag 13880291)
Da bin ich grad ein bisschen neidisch und gehypet. Hab zwar am TV auch BFI, aber hald nich Pulsar mit VRR Support (Ich kann da schon manchmal gestocke wahrnehmen, aber das dürfte wohl mit VRR nicht der Fall sein).
Kommt darauf an.
Durch die höhere Bildschärfe braucht es natürlich auch deutlich mehr FPS für eine flüssige Wahrnehmung.
Wenn die FPS stark schwanken ruckelt es auch, da kann VRR nur bedingt weiterhelfen.
Zitat:
Zitat von Daredevil
(Beitrag 13880020)
Der Unterschied zwischen den "grünen Lemmingen" und dir ist, die Lemminge würden auch sehr gerne AMD kaufen, wenn die Performance und die Features auf gleichem/besseren Niveau sind...
Ich hole gleich mein Taschentuch. :comfort: Die sollen gefälligst die hohen Preise von Nvidia zahlen! Am besten immer den Heizofen für min. 3k! :lol:
Ich finde die Entwicklung von DLSS 2 bis heute spannend und irgendwie auch ein wenig amüsant. Jedes mal wenn eine neue Iteration rauskommt wird es besser und man denkt, es ist schon ziemlich gut (klar gab es Probleme mit Disocclusion, Ghosting, Smearing und Unschärfe). Aber wenn man dann die nächste Iteration zu Gesicht bekommt oder wie hier RR, DLSS 4.5 und Denoising zusammen anschaut und vergleicht bemerkt man, dass da doch noch ziemlich viel Luft nach oben ist :)
Und es überrascht mich jedes mal wieder aufs Neue, wie viele Details bei Geometrie und Texturen grundsätzlich vorhanden wären. Aber Temporal AA, Denoising und zum Teil Post Processing Effekte vernichten viele von den feinen Details.
3000 Std. mixed content. Die sind bei WfH inkl. privaten Gaming Session mit etwas über einem Jahr schon drinnen. :freak:
Ich sehe nach einem Tag Home Office am IPS den Afterglow für eine halbe Ewigkeit. Wie sieht das inzwischen bei euch so aus.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.
Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.