Lego Batman braucht mit UE5 Frame Generation + Upscaling, um 60 oder 30 FPS (!!) zu erreichen. :freak:
Aber ich denke das sieht wieder deutlich schlimmer aus, als es ist.
Die GTX960 ist für heutige Maßstäbe unfassbar lahm. Ein Wunder dass es überhaupt läuft.
Und die 4070 (ohne Super) reißt jetzt auch keine Bäume aus. Logisch, dass die in 4K mit max Settings und Quality Upsampling dann auch Frame Gen braucht, um die 60 FPS zu knacken.
Ich gehe daher wieder von den üblichen UE5 Standard Anforderungen aus. Das dürfte sich wohl mit der Performance der meisten UE5 games decken, die das volle Featureset nutzen. Es wirkt nur immer besonders dramatisch, wenn man bestimmte Hardware und Auflösungskombinationen wählt.
Ich finde die Systemanforderungen trotzdem interessat. Alleine die Tatsache, dass Entwickler ernsthaft Frame Generation angeben, um damit auf 30 oder 60 FPS zu kommen, zeigt dass es den Entwicklern einfach scheiß egal ist ob das für Frame Gen sinnvoll ist oder nicht.
Ich bin mir zu 1000% sicher, dass wir künftig auch Konsolenspiele sehen werden, die mit 30 FPS laufen und mit Frame Gen dann auf 60 FPS kommen. Die PS6 Ära wird eine 30 FPS @ 60 FPS Frame Gen Ära werden. Die Systemanforderungen am PC werden dadurch förmlich explodieren.
Wer nach dem PS6 release auf eine neue GPU upgraden will, wird direkt mindestens eine Klasse höher/teurer einkaufen müssen, wenn er das gewohnte Performance Niveau beibehalten will.
Es ist einfach unvermeidlich, dass die Spieleentwickler Frame Gen genauso wie bisher das upscaling für sich einkassieren, um das übliche Performance Ziel zu erreichen. Und genauso wie sie bei Upscaling deutlich über die schmerzgrenze bei der internen Auflösung gehen, werden sie auch bei Frame Generation über die schmerzgrenze bei der basis frame gen gehen. Wir finden 720p interne Auflösung schlecht? Die Konsolenentwickler machens trotzdem. Wir finden 30 FPS oder sogar 15 FPS als basis für Frame Gen schlecht? Die Entwickler machen es trotzdem!
Genießt Frame Generation noch solange man damit dreistellige Frameraten erreichen kann, bevor es zum eingepreisten mindeststandard wird, um überhaupt ein flüssiges Bild zu erreichen.
Wenn das so weiter geht wird die 6090 oder 7090 (je nachdem wann die next-gen Games aufschlagen) wohl Pflicht für mich. Anders als mit der höchstmöglichen verfügbaren Rohleistung wird man sich diesem Unsinn kaum entziehen können.
Weiss jemand wie gut DLSS FG über Optiscaler bei The last of us part 1 injezierbar ist? Ich war ganz überrascht dass es einen Titel gibt der DLSS SR supportet, FSR und FSR FG aber kein DLSS FG.
Ich bin ein wenig besorgt, weil die FSR inputs die man dann ja nitzen muss, manchmal nicht so gut sind wie die für DLSS/XeSS. Gibt es hier Erfahrungswerte? :)
Es kommen immer mehr Serien heraus, die in Cinemascope oder ähnlich breiten Formaten gesendet werden, aber 16:9 ist imho der bessere Kompromiss. Außer der TV/Monitor/Projektorscreen ist wirklich riesig. Dann ist es egal.
21:9 ist halt geil beim Zocken und für die Arbeit.
Passend zum Video etwas Feedback zum Gigabyte MO27Q28G.
Ich hatte die letzten Wochen drei Monitore hier, alle 27 Zoll. Einen 4k Mini-LED, dessen Blickwinkelabhängikeit trotz IPS so schlecht war, das man an den Rändern schon Farbverläufe sehen konnte als ich nach Pixelfehlern geschaut habe. Der ging zurück. Den Asus XG27AQWMG mit spiegelnder Oberfläche, welcher leider hier im Raum nicht funktioniert hat. Großes Fenster rechts vom Monitor und hinter mir eine Balkontür. Am Ende weniger schlimm als erwartet, aber trotzdem wäre ich damit nicht glücklich geworden. Der Proximity Sensor hat auch nicht richtig funktioniert.
Der MO27Q28G mit der matten Oberfläche und dem schlichten Design passt hier gut rein. Funktioniert im hellen Raum mit den ganzen Fenstern sehr gut. Keine Pixelfehler und beim berüchtigten grey banding der Tandem OLEDs hatte ich ebenfalls Glück. Zwar hatte mein Monitor beim ersten Starten rechts und links zwei auffällige vertikale Streifen, welche nach einmal Pixel Cleaning aber komplett verschwunden sind. Am Ende noch ein kleiner Unterschied zum bisherigen IPS, aber bei weitem nicht so störend wie teilweise im Artikel gezeigt.
Deutlich besser als mit den 500Hz OLED Monitoren. Sehe kaum bis kein VRR Flickern, selbst in Spielen wie Spider-Man 2, wo das Framepacing absoluter Schrott ist.
Kombiniert nun mit 6x MFG macht das ein top Spieleerlebnis in dem Rahmen, den ein IPS Monitor ermöglicht.
Das sieht verdammt schlecht aus für die Gaming Division von AMD...könnte auch erklären warum kein FSR4 für ältere GPUs kommt.
Der Autor "Hassan Mujtaba" ist derjenige, der auch den Mist mit "Spiele haben mehr FSR als DLSS integriert und (AMD) FSR blockiert DLSS" verzapft hatte, indem er damals einen sehr spezifischen Zeitausschnitt gewählt hatte. Ich hatte da mit Daten gezeigt, dass dies nicht so ist sondern umgekehrt.
Das gleiche jetzt hier, er schreibt zu dem Thema was ja im Netz immer wieder gepushed wird, INT8 für alle AMD GPUs. Und seine neue These warum dies nicht kommt, ist jetzt weil Angestellte die Firma verlassen haben. Das eine muss mit den anderen gar nichts zu tun haben, noch wird betrachtet (da er eh keine Quellen hat) wie viele von NV oder Intel zu anderen Firmen wechseln.
Aber immerhin schreibt er 'May Be Due' also 'könnte sein durch', dein Post macht daraus dann ein 'verdammt schlecht aus für die Gaming Division'.
Eine 4090 erreicht im Durchschnitt in etwa die 50-60fps mit 4K DLSS-Performance bei PT-Games.
Eine PS6 wird vermutlich nicht so schnell wie eine 4090 werden, aber mit den algorithmischen Verbesserungen könnte 4K/60fps klappen, ja.
Und das mit ausgewachsenem ReSTIR. MegaLights der UE5 ist da ja eher eine leichtgewichtige Adaption von stochastischem Beleuchtungs-Rendering.
Da sowas wie MegaLights auch auf einer PS5 läuft, dürfte man in Zukunft fast nur noch Games mit volldynamischen Beleuchtungssystemen inkl. "many lights support" sehen.
MegaLights wird zudem Production Ready mit UE 5.8 (Mitte 2026). Somit ideal für Game-Releases H2/2027 und dem Start der neuen Konsolen.
Zitat:
Zitat von Lurtz
(Beitrag 13908821)
Oder man braucht das ganze Compute eben auch für KI...
Wohl nur zum Teil:
Zitat:
At Amazon, we're always looking for ways to better serve our players. Your feedback has been clear: you want easy access to great games, more social experiences, and a steady flow of new content from developers you know and love. As our library continues to grow, more of that content is available to Prime members-and that's where we're focusing our future.
Titel aus verknüpften Portalen wie Ubi, GOG usw werden jetzt schon nicht mehr extra angezeigt(aber noch in der Liste). Darum gehts halt, der Dienst an sich, bleibt bestehen. Dadurch werden die aber wohl auch die Last senken wollen. Man konnte ja quasi seine ganzen verknüpften Bibliotheken via Luna spielen. Die kostenlosen Spiele bleiben wohl auch bestehen.
Zitat:
Zitat von Gouvernator
(Beitrag 13890258)
So einen der letzten 65" High-End Plasmas hätte ich wirklich gern. Beinah auch einen damals gekauft. Aber 600W Stromverbrauch hat mich letztenendes abgeschreckt. Heute wären 600W ein Klacks mit PV... konnte ja keiner ahnen.
Panasonic VT30, nicht die letzte Serie VT50, die hat höheren input lag.
Frage:
Weiß jemand, ob die "Nachtmodus" Funktion in Win11 nur auf dem Desktop gilt oder auch in Vollbild-Anwendungen, wie Games oder nur in Fensteranwendungen, wie Browsern oder Games?
Ich stelle da gerne 15% ein, weil ich die White-Balance gerne einen Tick wärmer habe, wenn ich länger lesen muss.
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.