Zitat:
Zitat von masteruser
(Beitrag 13892193)
Im übrigen ist es schade, das es hier in der Großstadt
keinen einzige E-Händler gibt, wo man OLED Monitor
live betrachten kann.
Cyberport oder den MM/S wären die verbliebenen, bis auf jene wo es nur eine Theke (muss bestellt werden) oder die klassischen Systemhäuser.
Und auch der letzte Medimaxx ist verschwunden, in der näheren Umgebung.
Ich habe mich da auch mal umgeschaut, da steht wirklich nur schlimmster LCD-Gammel. Die TV-Abteilung dagegen ist bestens bestückt...
Joa, das was ich von FSR 4.1 bisher gesehen habe sieht wirklich gut aus. Grundsätzlich Verbesserungen auf allen Ebenen. Ausser das Thema Aliasing, das ist noch nicht ganz klar. Da gibt es irgendwie Verbesserungen aber zum Teil anscheinend auch Regressionen.
Zitat:
Zitat von Gouvernator
(Beitrag 13890258)
So einen der letzten 65" High-End Plasmas hätte ich wirklich gern. Beinah auch einen damals gekauft. Aber 600W Stromverbrauch hat mich letztenendes abgeschreckt. Heute wären 600W ein Klacks mit PV... konnte ja keiner ahnen.
Panasonic VT30, nicht die letzte Serie VT50, die hat höheren input lag.
Zitat:
Zitat von robbitop
(Beitrag 13890055)
Der Fakt dass FSR4.1 nicht mehr overhead zu kosten scheint (also das Modell auch nicht wesentlich mehr Parameter hat) impliziert ja auch dass Verbesserungen in der Gesamtheit potenziell limitiert sind und dann eher insgesamt bessere tradeoffs erzielt werden sollen.
Grundlegende Änderungen wird es nicht gegeben haben, ja. Die Versionierung 4.1 impliziert das ebenfalls.
Raster halt nur noch hingeschissen. Auf der normalen PS5 also viel schlechtere Grafik als in Hellblade 2, wo das Self Shadowing mit SWRT gut funktioniert.
Will jetzt die neue RE aber auch nicht zu sehr bashen, die macht mit HWRT schon diverse Dinge besser als UE5.
This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later.
https://www.patreon.com/posts/voxta-...-api-151927116
Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken
Frage:
Weiß jemand, ob die "Nachtmodus" Funktion in Win11 nur auf dem Desktop gilt oder auch in Vollbild-Anwendungen, wie Games oder nur in Fensteranwendungen, wie Browsern oder Games?
Ich stelle da gerne 15% ein, weil ich die White-Balance gerne einen Tick wärmer habe, wenn ich länger lesen muss.
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..