Zitat:
Zitat von robbitop
(Beitrag 13905894)
Sehe ich genauso. Die einzige GPU für die das relevant wäre für Upsampling (weil keine Tensor Cores) wäre Pascal. Die hat immerhin DP4a. Ich vermute aber, dass FSR4 dafür schon zu heavy ist. XeSS (ähnlichj teuer) sicherlich auch. Insofern ist dort wahrscheinlich FSR3.1.6 das praktikable Maximum. Aber unabhängig von FSR4 Usampling: Frame Generation kann man bei Geforce 2000+3000 von profitieren, weil die ja keine FG von Nvidia bekommen haben. Dort könnte man OptiFG, FSR-FG und XeSS FG ausprobieren. :)
Naja, wenn es läuft, würde ich es auf meiner Titan V schon gerne einmal testen. Wobei ich nicht weiß, ob deren Tensor Cores verwendet werden würden.
Das wird alles Teil auch bei der nächsten Ati Gen sein und generell Standard in den Games, ob Konsolen oder PC.
Wird sowieso bei der PS6 und Next Box wieder für Aufregungen sorgen wenn 4k nur 1080P als Input plus Framegen hat weil die Leistung sonst nicht reicht.
Hab gerade mal Forza Horizon 5 mit FG Preset B getestet. Die HUD Artefakte die hier mit DLSS4 FG Override sehr ausgeprägt waren und nur mit DLSS3 FG nicht auftraten sind damit jetzt komplett gefixed. :up:
Danke für den Hinweis! Da mach ich direkt drei rote Kreuze im Kalendar wenn das jetzt wirklich endlich behoben ist.
Zitat:
Zitat von Relex
(Beitrag 13905493)
Wie einem das in den Bildern gezeigte dann nicht "gut genug" sein kann und man sich lieber Rasterized Lighting wünscht krieg ich nicht in meinen Kopf.
Zitat:
Zitat von Atma
(Beitrag 13905483)
Stand jetzt ist die Hardware viel zu schwach für anständiges RT.
Er ja Recht, oder nicht? Erkennt jeder, der die Fähigkeit besitzt die eigene Bubble zu durchbrechen
Die Leute sind auch einfach alle zu dumm zum lesen, zu unfähig sich Changelogs anzuschauen oder einfach mal ihr eigenes Hirn für 5s SuFu oder Google zu nutzen...
Dieser Hinweis steht seit der ersten 0.9er Version da im Discord...mehr sage ich dazu nicht :rolleyes:
Zitat:
Zitat von Gouvernator
(Beitrag 13890258)
So einen der letzten 65" High-End Plasmas hätte ich wirklich gern. Beinah auch einen damals gekauft. Aber 600W Stromverbrauch hat mich letztenendes abgeschreckt. Heute wären 600W ein Klacks mit PV... konnte ja keiner ahnen.
Panasonic VT30, nicht die letzte Serie VT50, die hat höheren input lag.
This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later.
https://www.patreon.com/posts/voxta-...-api-151927116
Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.
Frage:
Weiß jemand, ob die "Nachtmodus" Funktion in Win11 nur auf dem Desktop gilt oder auch in Vollbild-Anwendungen, wie Games oder nur in Fensteranwendungen, wie Browsern oder Games?
Ich stelle da gerne 15% ein, weil ich die White-Balance gerne einen Tick wärmer habe, wenn ich länger lesen muss.
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.