Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 20 Minuten 48 Sekunden

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

vor 1 Stunde 2 Minuten
Das funktioniert IMO nicht weil im Spiel ja FSR getoggelt wird bzw werden muss. Das ist was anderes.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

vor 1 Stunde 43 Minuten
Zitat: Zitat von BlackBirdSR (Beitrag 13885107) Wäre es denn für Entwickler so schwierig einen Schieberegler mit Vorschau für die Bildschärfe zu implementieren, ähnlich wie bei Helligkeit und HDR heute schon?

Dieser triggert direkt beim ersten Mal aktivieren von DLSS und Co. Und dann bei Bedarf? Die Herausforderung ist, dass Spiele irgendwann „fertig“ sind und die Entwickler aus einem zeitlich statischem Punkt eine Konfiguration ausliefern bei der sie der Ansicht (über die man diskutieren kann) dass sie für out of the box gut gewählt ist. Schärfefilter, Denoiser usw
Aber Upsampler sind hingegen ein „moving target“. Inbesondere seit 2025 ist da ja richtig viel passiert. Und jetzt injectet man die neuen Modelle in eine alte Konfiguration (so dass eine neue nicht valdidierte Konfiguation entsteht) und da gibt es dann negative Auswirkungen.
Klar wäre es vermeidbar wenn Scharfefilter und Denoiser usw alle exponiert gewesen wären. Da ist bei jedem die Philosophie anders. Ich denke einige Studios wollen einfach dass es out of the bix gut aussieht.

IMO ist es schwierig da einen „Schuldigen“ zu finden. Einfach weil es eine dynamische Situation ist.

Und klar: das lässt sich für alte Spiele sofern der Entwickler will einfach patchen (Schalter für Schärfefilter/Denoiser oder heutistik für die Erkennung welcher upsampler genau aktiv ist die dann beides parametriert). Und ab jetzz auch in neuen Spielen umsetzen.

Was wir ja immer sehen, dass viele verschiedene Studios nicht immer alles optimal machen werden. Insofern halte ich viel davon solche Sachen aus den Händen des Entwicklers zu nehmen. Das wirkt übergriffig, führt aber zu Konsistenz.

Beispiele aus der Vergangenheit:
- specular flimmern obwohl man als Entwickler das verhindern kann (high frequency content verhindern oder den shader so schreiben dass für diesen die Abtastrate höher ist) -> der user musste brustl ineffizient mit ssaa gegensteuern
- Artefakte bei Alphatests trotz MSAA (Entwickler hätten Geometrie nehmen können oder wenigstens alpha to coverage usw) -> die IHVs haben mit TSAA gegensteuern müssen und bevor es das gab mussten die user mit ssaa gegensteuern
- hohe Latenz bei FSR-FG weil Antilag2 optional und nicht verpflichtend ist (dlss fg hingegen erfordert reflex)
uswusf

Ich denke was man seitens des SDKs da mehr Kontrolle übernehmen muss. Das war mit DLSS ein wesentlicher Baustein, der zu besserer Konsistenz über die Spiele hinweg führte. Wenn man Dinge per Empfehlung im guide dem Entwickler überlässt wird es nicht immer gemacht.
Kann mir gut vorstellen, dass in zukünftigen DLSS SDKs darüber dann die Kontrolle eingefordert wird.

Bessere Monitore?

vor 2 Stunden 6 Minuten
und der AW 3225Q ist raus?

OLED macht Fortschritte

vor 2 Stunden 11 Minuten
Ich krieg eigentlich alles mit einem Mikrofasertuch recht leicht runter. Berühre ihn aber auch kaum am Bildschirm selbst..

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Mi, 18.02.2026 14:53
Kommt momentan nicht, weil die neue .bat noch nicht gemerged worden ist. Ist halt ausversehen aus der letzten pre9 vom Discord reingerutscht :redface:

Halte mich aber auch jetzt strikt an den master-Branch auf GitHub, da ich auch alles andere mitbauen kann und nur die neueren FSR-DLLs austauschen/einfügen muss

Unreal Engine 5

Mi, 18.02.2026 11:26
Zitat: Zitat von Holundermann (Beitrag 13883339) Spiel gerade High on Life 2 und was einem da geboten wird für die verlangte performance ist nicht gerade gut. Lumen ist ein Witz - überall popen Lichter auf in kürzester Entfernung, Die Reflexionen in die BVH Struktur schauen furchtbar aus und sind mit SSR überlagert - zu allem überfluss hat das Spiel zumindest in den ersten Levels überall reflektierende Oberflächen. Die Schatten sind teilweise broken (zu geringe Auflösung/verbugt?) und auch mit Screen Space Shadows überlagert - auch überall popin.

Das lightning schaut in innenräumen aus wie ein Ameisenhaufen - man erkennt die sehr grobe Probe Struktur und die temporale Instabilität - fast schlimmer als PT Cyberpunk mit Standard denoiser :).

Hab jetzt mal HW Lumen in der Config aktiviert und es schaut zwar besser aus aber immernoch meilenweit entfernt von gut. Vorallem wenn man das mit Insomniac Reflexionen vergleicht (Ratchet und Clank) ist das ein Trauerspiel - das kam vor bald 5 Jahren auf der PS 5 - und nichtmal die Qualität schafft die UE5 nach 5 Jahren! Performed dafür richtig schlecht - bin jetzt unter 60 FPS mit Q Upscaling auf einer 5080 - was gut spielbar ist aber für das gebotene ein Witz.

Die UE5 enttäuscht fasst auf allen Ebenen in dem Spiel:

* Lightning
* Reflexionen
* Schatten
* Performance

Nanite scheint weitestgehend gut zu funktionieren auch wenn man weiterhin minimales Popin erkennen kann wenn man sich darauf konzentriert - fällt aber im allgemeinen Spielgeschehen nicht auf.

Irgendwie kommt die Engine auch nach all den Jahren nicht in die Gänge - hoffentlich richtet megalights das schlechte Lightning. Du bist gleich doppelt angearscht, weil UE5 absolut miserabel auf nVidia-Hardware läuft. ;D

UE5 ist ein großartiges Beispiel, wenn Firmen mit zu viel Geld eine Marktmacht erreichen, die in ein Monopol endet. Mit der kostenlosen Verfügbarkeit hat man schlussendlich jegliche Innovation im Engine Markt abgewürgt und nun bekommt man den selben 08/15 UE5 Rotz von fast jeder Firma vorgesetzt.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Mi, 18.02.2026 07:22
Nicht ganz OT, aber ich wüsste nicht wohin.

Frage:
Weiß jemand, ob die "Nachtmodus" Funktion in Win11 nur auf dem Desktop gilt oder auch in Vollbild-Anwendungen, wie Games oder nur in Fensteranwendungen, wie Browsern oder Games?

Ich stelle da gerne 15% ein, weil ich die White-Balance gerne einen Tick wärmer habe, wenn ich länger lesen muss.

Intel Xe Super Sampling (XeSS)

Di, 17.02.2026 12:08
Als wäre das Wochenende tatsächlich Arbeitszeit: :ugly:

Dreifache Bildrate auf Knopfdruck: Intels Multi Frame Gen im Praxistest mit sieben Spielen

Jeweils auf A770 und B580 getestet, mit Latenzen und Auswertung der Skalierung.

MfG
Raff

Amazon Luna geht bald an den Start (Cloud Gaming)

Mi, 11.02.2026 13:41
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...

Gaming auf 8k

Di, 10.02.2026 08:29
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.

Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.


Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.

Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.

Filterqualität des AF-Testers erklärt

Mi, 21.01.2026 12:06
Zitat: Zitat von aths (Beitrag 13869089) interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super: Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.

OpenAI Sora - Creating video from text

Mi, 14.01.2026 02:23
Zitat: Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter. Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.

AI/Machine Learning in Gaming

Mo, 12.01.2026 17:27
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.

Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.

Real-time Raytracing

Di, 06.01.2026 14:01
Weiß immer noch nicht für was das Remix gut sein soll. Fertig wird kaum was damit und die großen Modding-Communitys haben eh ihre eigenen Tools.

Frame Generation für jede GPU (Lossless Scaling)

Sa, 27.12.2025 11:09
CapframeX ggf?

Zeigt ihn mal her, Euren Technopuff

Fr, 19.12.2025 12:38
placeholder

Qant Photonic

Do, 18.12.2025 13:02
Zitat: Zitat von Sweepi (Beitrag 13854861) Thread aus dem März mit diversen Links und Hintergrundinfo:

https://www.forum-3dcenter.org/vbull...d.php?t=621181 OK, Danke

werde nächstes mal erst die Suche bemühen:weg:

edit:
kann zu, bitte:smile:

Spintronics

Di, 09.12.2025 20:30
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

Fr, 28.11.2025 09:39
So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Rack 2.0

Di, 04.11.2025 09:17
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.