Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 2 Stunden 53 Minuten

Bessere Monitore?

So, 18.01.2026 17:51
ich finde meinen 45" schon grenzwertig zu groß und der hier wäre ~16cm breiter und ~7 höher :D
Aber nettes Gerät auch wenn es IPS Black hätte haben können.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

So, 18.01.2026 16:51
Zitat: Zitat von DrFreaK666 (Beitrag 13870604) DLSS4.5... Hat nicht sogar Nvidia gesagt, dass sie es für RTX2000/3000 nicht empfehlen? Gerade das verbesserte UP Preset ist dafür interessant wenn man zb eine 3090 an einem 4k Monitor betreibt

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

So, 18.01.2026 12:23
Zitat: Zitat von GerryB (Beitrag 13870333) Ich hab beim rumprobieren mit nem anderen alten Game das selbe Verhalten beobachtet.
Da lag die Ursache am inGame AA - Setting!
inGame AA musste da auf EPIC stehen, ... mit high wars wohl nur smaa und dadurch ging der Lumatweak auf dlss nicht, sprich
=Deine Fehlermeldung zum Hook in Oscaler, ... FSR-hook nicht verfügbar

also, wenn möglich ingame TAA anwählen bzw. EPIC Hab heute Abend wieder Zugriff auf den Rechner.
Schaue mir dann auch Minecraft Dungeons an, auch wenn der Content kein Upscaling benötigt

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Sa, 17.01.2026 21:07
Zitat: Zitat von robbitop (Beitrag 13869994) Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt. Da gebe ich dir recht, aber ich denke mit Raytracing/Pathtracing wird in Zukunft die Last auch bei geringen Auflösungen noch hoch genug bleiben.

Zitat: Zitat von robbitop (Beitrag 13869994) Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27…32“) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns. Ich träume ja auch eher von einem 37"/38" OLED für den Schreibtisch (42 sind mir zu groß), ich denke da wären 5K oder 6K schon angemessen, groß denken! :biggrin:

Filterqualität des AF-Testers erklärt

Do, 15.01.2026 18:31
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:

Das heißt, das erste Bild mit 16x, zeigt eine LOD-Berechnung schnell einigermaßen kreisförmig wird. Das zweite Bild, mit 8x, macht deutlicher dass der Kreis relativ genau aber nicht exakt getroffen wird.

Die 16x-Berechnung wird ungenau. Allerdings ist das halbwegs im Rahmen. Die widerlichen Zacken die bis 2x runtergehen trotz 16x sind zum Glück Vergangenheit. Dennoch interessant, woran es genau liegt. Textursamples sparen? Präzision bei der LOD-Formel sparen?
Miniaturansicht angehängter Grafiken    

OpenAI Sora - Creating video from text

Mi, 14.01.2026 02:23
Zitat: Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter. Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.

AI/Machine Learning in Gaming

Mo, 12.01.2026 17:27
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.

Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.

OLED macht Fortschritte

Mo, 12.01.2026 07:54
Da brauchst du zum Teil noch mehr. Hat mich auch erst gewundert. Aber am Ende hast du ja ne Reflecktion wo viel verloren geht.

Real-time Raytracing

Di, 06.01.2026 14:01
Weiß immer noch nicht für was das Remix gut sein soll. Fertig wird kaum was damit und die großen Modding-Communitys haben eh ihre eigenen Tools.

Unreal Engine 5

Mo, 05.01.2026 11:30
Das ändert den Look zu stark.
Dann lieber weiterhin so spielen

Frame Generation für jede GPU (Lossless Scaling)

Sa, 27.12.2025 11:09
CapframeX ggf?

Gaming auf 8k

Fr, 26.12.2025 12:11
Zitat: Zitat von Gouvernator (Beitrag 13858501)
Die Zukunft ist dann nur noch AI Echtzeit-Rendering. Nicht nur paar Shader und Texturen - alles. Dafür müsste man mit es erstmal schaffen mit AI pro Rechenleistung mehr darzustellen als mit klassischen Rendertechniken. Davon ist man noch meilenweit entfernt.

Die heutigen Bildgeneratoren sind extrem ineffizient und nicht viel mehr als ein Proof of Concept. Da braucht es komplett neue Algorithmen um irgendwie an Echtzeit Bildgenerierung überhaupt denken zu können, und die fallen nicht von heute auf morgen vom Himmel.

Wenn sich da algorithmisch nichts signifikantes bewegt sind wir aktuell beim AI-Rendering aktuell in etwa am Stand der 80er bis 90er beim Raytracing. Wenn wir also rein mit Rechenleistung in die Richtung Echtzeit AI-Rendering kommen wollen, sind wir mindestens 30-40 Jahre davon entfernt, realistisch eher weiter da es nicht anzunehmen ist, dass wir in den nächsten 30 Jahren ähnliche Steigerungsraten der Rechenleistung sehen werden wie seit den 90ern bis heute.

Zeigt ihn mal her, Euren Technopuff

Fr, 19.12.2025 12:38
placeholder

Qant Photonic

Do, 18.12.2025 13:02
Zitat: Zitat von Sweepi (Beitrag 13854861) Thread aus dem März mit diversen Links und Hintergrundinfo:

https://www.forum-3dcenter.org/vbull...d.php?t=621181 OK, Danke

werde nächstes mal erst die Suche bemühen:weg:

edit:
kann zu, bitte:smile:

Spintronics

Di, 09.12.2025 20:30
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

Fr, 28.11.2025 09:39
So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Di, 18.11.2025 09:12
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.

Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.

Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.

Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.

Rack 2.0

Di, 04.11.2025 09:17
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

So, 02.11.2025 15:25
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.

Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.

Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.