Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 30 Minuten 28 Sekunden

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

vor 36 Minuten 29 Sekunden
Wo gibt es Nightlies auf Github? Bei den Actions ist das letzte Build von Anfang Dezember. Wenn es Commits auf Github gibt, heißt das nicht, dass es dazu auf Github automatisch Builds gibt.
Warum das so bescheuert mit den Builds nur über Discord gemanagt ist? Kann ich dir auch nicht sagen.
Ansonsten kann sich jeder die kostenlose Version von Visual Studio installieren und sich ein simples Script für eigene Nightlies basteln, hatte ich auch schon gepostet.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

vor 1 Stunde 41 Minuten
Ich will jetzt nichts versprechen, aber mein Tool hat KCD1 mit SM bislang nicht gecrasht, Overlay flackert nur. Könnte mal schauen, ob ich die OptiScaler-DLL laden kann und ob es dann immer noch nicht crasht (falls OptiScaler so noch funktioniert).
Kann übrigens auch AF in KCD1 ohne rote Punkte auf Blackwell erzwingen. Bringt imho nur nichts, weil es selbst mit den Artefakten auf Blackwell über den Treiber klar ist, dass bestimmte Elemente (POM?) weiterhin eine komische Matsch-Welle vor sich herschieben.
Kann auch LOD-Bias in Diablo 2R für DLSS/FSR erzwingen, was OptiScaler aus irgendeinem Grund nicht erfolgreich gebacken bekommt...
/Eigenwerbung

OpenAI Sora - Creating video from text

vor 2 Stunden 32 Minuten
Zitat: Zitat von Daredevil (Beitrag 13867724) Ich weiß schon was du meinst und das Modell ist für die eingebrachte Energie auch in der Tat eindrucksvoll, aber das ist halt nichts, was Veo und Sora nicht komplett wegrocken mit Details und Glaubwürdigkeit.
Du vergleichst Äpfel mit Birnen. Veo/Sora kosten eine Stange Geld und jedes Clip den du siehst, ist quasi best case Qualität um damit Geld zu verdienen. Sprich den ganzen Müll was diese Models produzieren bekommst du gar nicht zur Gesicht.

Apropos Geld. Die Minute kostet da 30$ und ein Chatbot zum Prompten braucht völlig anderen Skill wenn du anstatt 5 Sekunden ein 20 Sekunden Clip baust. Das heißt du muss für 20 Sekunden Clips, einfach zum Lernen eine richtig große Stange Geld hinlegen. :ulol:

Ich hab mit LTX2 an die 100 Stück mit 20 Sek. Länge gemacht. Manche einfach um verschiedene Chatbots zu testen, Qwen 2b/4b/8b, GLM 4.6 Flash, Gpt-oss 20b und ihre jeweilige finetunes. Allein um überhaupt ins Multimodal Video Generierung einzusteigen, hätte ich buchstäblich 1000$ Lehrgeld bezahlt...

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

vor 3 Stunden 8 Minuten
Joar, unter DX12 hat man imo auch eher kleiner Ruckler, die man unter Vulkan nicht hat. Vor allem bei viel Geometrie, wie in Saint Denis gegen in-game 14:00 rum bei blauen Himmel. In Rhodes kann man das auch gut testen, durch die organgen Dust-Partikel, die man dort immer in der Luft hat.

Bessere Monitore?

vor 6 Stunden 45 Minuten
Zitat: Zitat von Platos (Beitrag 13867972) Ich meinte mit rumzappeln ingame wild die Kamera bewegen, weil die Empfindlichkeit zu hoch eingestellt ist.
Das macht niemand der regelmäßig spielt.

Zitat: Und nochmals: Hohe Empfindlichkeit = hohe DPI = mehr Mauszeigerbewegung bei gleich viel physischer Mausbewegung. Das, was du meinst, ist eine niedrige Empfindlichkeit. Mehr Empfindlichkeit = weniger Finger- bzw. Hand- bzw. Armbewegung nötig. Ich weiß was high bzw. low sense ist.

Deine Beobachtung ist falsch du glaubst die "Zappeln" wegen der hohen Empfindlichkeit, obwohl sie in Wirklichkeit "Zappeln" weil sie es wollen, und das in der Regel bei geringer bis sehr geringer Empfindlichkeit.

Zitat: Abgesehen davon: Selbstverständlich kommts massiv auf den Mausgriff drauf an. Je nach Mausgriff bewegt man niemals den Arm oder sogar eher die Finger. Wenn du mit den Fingern aimst ist deine Empfindlichkeit viel zu hoch. Was glaubst du wofür die ganzen Mousepads sind die quasi den halben Schreibtisch einnehmen?
Niemand der halbwegs ernsthaft Spielt verwendet die Finger, je nach Spielertyp hauptsächlich das Handgelenk oder den Arm, die Finger werden höchstens für minimale Korrekturen verwendet.

AI/Machine Learning in Gaming

Mo, 12.01.2026 17:27
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.

Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.

OLED macht Fortschritte

Mo, 12.01.2026 07:54
Da brauchst du zum Teil noch mehr. Hat mich auch erst gewundert. Aber am Ende hast du ja ne Reflecktion wo viel verloren geht.

Real-time Raytracing

Di, 06.01.2026 14:01
Weiß immer noch nicht für was das Remix gut sein soll. Fertig wird kaum was damit und die großen Modding-Communitys haben eh ihre eigenen Tools.

Unreal Engine 5

Mo, 05.01.2026 11:30
Das ändert den Look zu stark.
Dann lieber weiterhin so spielen

Frame Generation für jede GPU (Lossless Scaling)

Sa, 27.12.2025 11:09
CapframeX ggf?

Gaming auf 8k

Fr, 26.12.2025 12:11
Zitat: Zitat von Gouvernator (Beitrag 13858501)
Die Zukunft ist dann nur noch AI Echtzeit-Rendering. Nicht nur paar Shader und Texturen - alles. Dafür müsste man mit es erstmal schaffen mit AI pro Rechenleistung mehr darzustellen als mit klassischen Rendertechniken. Davon ist man noch meilenweit entfernt.

Die heutigen Bildgeneratoren sind extrem ineffizient und nicht viel mehr als ein Proof of Concept. Da braucht es komplett neue Algorithmen um irgendwie an Echtzeit Bildgenerierung überhaupt denken zu können, und die fallen nicht von heute auf morgen vom Himmel.

Wenn sich da algorithmisch nichts signifikantes bewegt sind wir aktuell beim AI-Rendering aktuell in etwa am Stand der 80er bis 90er beim Raytracing. Wenn wir also rein mit Rechenleistung in die Richtung Echtzeit AI-Rendering kommen wollen, sind wir mindestens 30-40 Jahre davon entfernt, realistisch eher weiter da es nicht anzunehmen ist, dass wir in den nächsten 30 Jahren ähnliche Steigerungsraten der Rechenleistung sehen werden wie seit den 90ern bis heute.

Zeigt ihn mal her, Euren Technopuff

Fr, 19.12.2025 12:38
placeholder

Qant Photonic

Do, 18.12.2025 13:02
Zitat: Zitat von Sweepi (Beitrag 13854861) Thread aus dem März mit diversen Links und Hintergrundinfo:

https://www.forum-3dcenter.org/vbull...d.php?t=621181 OK, Danke

werde nächstes mal erst die Suche bemühen:weg:

edit:
kann zu, bitte:smile:

Spintronics

Di, 09.12.2025 20:30
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

Fr, 28.11.2025 09:39
So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Di, 18.11.2025 09:12
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.

Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.

Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.

Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.

Rack 2.0

Di, 04.11.2025 09:17
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

So, 02.11.2025 15:25
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.

Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.

Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.

Microsofts KI lernt aus Deinem Gameplay - wenn Du es nicht abschaltest

Mo, 27.10.2025 12:26
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.