Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 1 Stunde 54 Minuten

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Di, 17.02.2026 22:44
Zitat: Zitat von Lurtz (Beitrag 13884034) Hab auch die 6x DLSS "getroffen". Die mir insgesamt auch am besten gefallen haben. Wobei es natürlich dennoch recht begrenzte Ausschnitte waren, insbesondere was das RT-Denoising angeht.
Aber ist schon recht eindeutig zu identifizieren, wenn man es öfter gesehen hat, allein aufgrund der Schärfe.

Finde es amüsant, dass DLSS hier so viel besser abgeschnitten hat als gegenüber dem nicht Blindtest. So viel zu "grünen Fanboys" :ulol: Ich hatte keinen der vorherigen Vergleiche zu DLSS 4.5 im Vorfeld angesehen, war also wirklich unvoreingenommen. Ich habe 4x für DLSS und je einmal für nativ und FSR gestimmt.
Ich mag Schärfe, und in den betreffenden Fällen war doch ein erkennbares plus davon zu sehen.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Di, 17.02.2026 13:41
Zitat: Zitat von Savay (Beitrag 13883609) Siehe Fußnote...



Titel mit Sternchen haben "nativen" FSR4 / "Redstone" support.
Alle anderen haben "nativ" FSR3 mit Treiberoverride für FSR4/Redstone...

OOTB dann entweder

3.1 (für SR)
oder
3.1.4 (für FG / "AMD FSR Frame Generation")

Alle anderen Redstone Features sind da m.E. nicht wirklich separat aufgeführt. Danke Dir. Heißt bei diesen nicht nativen Spielen muss ich FSR in dem jeweiligen Spiel aktivieren und dann zusätzlich im Treiber im Gaming/Grafik Menü "AMD FSR-Hochskalierung" aktivieren?

Intel Xe Super Sampling (XeSS)

Di, 17.02.2026 12:08
Als wäre das Wochenende tatsächlich Arbeitszeit: :ugly:

Dreifache Bildrate auf Knopfdruck: Intels Multi Frame Gen im Praxistest mit sieben Spielen

Jeweils auf A770 und B580 getestet, mit Latenzen und Auswertung der Skalierung.

MfG
Raff

OLED macht Fortschritte

Di, 17.02.2026 11:29
Zitat: Zitat von Dovregubben (Beitrag 13883822) Das Farbvolumen ist massiv gewachsen über die letzten Jahre. Ich würde mir da echt keine Sorgen machen und ich bin sicher, dass man höchstens im Direktvergleich einen minimalsten Unterschied sehen wird. Man muss ja auch dran denken, dass man für die Extrema Content braucht, der dafür gemastered wurde.
Grey Banding würde ich mir auch mal in der Realität anschauen. Wenn ich mit dem Handy ein graues Bild fotografiere, wird die Kamera alles dafür tun Helligkeitsunterschied darzustellen.
Meine Erfahrung mit all den Problemen ist, dass das schon immer alles massiv überdramatisiert wird. Ich tendiere deswegen auch eher zu einem Tandem WOLED. Da scheinen mir die Probleme einfach insgesamt kleiner. Der Black Level Raise by QD-OLEDs ist halt unabhängig vom Bildinhalt ein Problem.

Unreal Engine 5

Mo, 16.02.2026 11:08
Habe gestern auch kurz rein geguckt, da Gamepass.
Erwartungen waren zwar imho etwas höher zugegeben, aber ist eben unterer AA UE 5 Standard.
Ratchet auf PC habe ich mir noch nicht ansehen können, aber ist eben eines der Top PS5 Exklusivtitel und daher finde ich schon was anderes.
Mir persönlich gefallen Immortals of Aveum und Avowed richtig gut. Mafia TOC und The Outer Worlds 2 waren auch hübsch. Jusant oder Titan Quest 2 sind gute kleinere Produktionen. Life is Strange ist für ein Adventure schon gut. Gibt enorm viele Spiele schon mit UE5.
Habe mit Software RT und dem Lighting kein Problem.
Upscaling reicht auch DLSS 4.5 mit Performance für mehr fps.
FG muss möglichst drin sein.
Die Shader Geschichte und die hohe CPU Last bei Hardware RT sind schade. Deswegen ist das denke ich auch meistens draußen, da gefühlt Beta.
Ob jetzt 5.3.2, 5.4.5 oder 5.5.4 macht kaum einen Unterschied. (sind so die geläufigsten Versionen)
Ist eine Sache der Optimierung und des Budget.
Wird spannend, wie Wolverine und das neue UE Marvel Spiel dann aussehen.

Bessere Monitore?

Do, 12.02.2026 09:27
Hat er doch gezeigt. Die Unschärfe wenn man sich bewegende Inhalte mit dem Auge fixiert sowie der Stroboskopeffekt, wenn man die Bildmitte fokussiert.

Hängt natürlich stark von der Geschwindigkeit ab mit der man die maus bewegt, aber das ist so offensichtlich, dafür braucht man keine Studien oder spezielle Testcases, sondern einfach nur die Augen.

Ich nutze z.B. in einigen Spiele gerne Motion Blur, weil das für mich zumindest sauberer und natürlicher aussieht, als der Stroboskopeffekt der dafür sorgt, dass ich alle bildinhalte mehrfach sehe, sobald ich die Kamera bewege.

Man hat immer diesen Trade-off aus Mehrfachkonturen und Unschärfe.

Amazon Luna geht bald an den Start (Cloud Gaming)

Mi, 11.02.2026 13:41
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...

Gaming auf 8k

Di, 10.02.2026 08:29
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.

Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.


Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.

Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.

Filterqualität des AF-Testers erklärt

Mi, 21.01.2026 12:06
Zitat: Zitat von aths (Beitrag 13869089) interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super: Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.

OpenAI Sora - Creating video from text

Mi, 14.01.2026 02:23
Zitat: Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter. Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.

AI/Machine Learning in Gaming

Mo, 12.01.2026 17:27
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.

Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.

Real-time Raytracing

Di, 06.01.2026 14:01
Weiß immer noch nicht für was das Remix gut sein soll. Fertig wird kaum was damit und die großen Modding-Communitys haben eh ihre eigenen Tools.

Frame Generation für jede GPU (Lossless Scaling)

Sa, 27.12.2025 11:09
CapframeX ggf?

Zeigt ihn mal her, Euren Technopuff

Fr, 19.12.2025 12:38
placeholder

Qant Photonic

Do, 18.12.2025 13:02
Zitat: Zitat von Sweepi (Beitrag 13854861) Thread aus dem März mit diversen Links und Hintergrundinfo:

https://www.forum-3dcenter.org/vbull...d.php?t=621181 OK, Danke

werde nächstes mal erst die Suche bemühen:weg:

edit:
kann zu, bitte:smile:

Spintronics

Di, 09.12.2025 20:30
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

Fr, 28.11.2025 09:39
So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Di, 18.11.2025 09:12
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.

Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.

Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.

Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.

Rack 2.0

Di, 04.11.2025 09:17
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.