Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 32 Minuten 8 Sekunden

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

vor 57 Minuten 43 Sekunden
Was du scheinbar nicht verstehst, dass mit steigenden facke FPS bei DLSS (im Gaming geht es immer nur um facke FPS) auch die Hardware sich weiter entwickeln muss, um die Hardware Wand zu ueberwinden. DLSS bemueht ja die KI Rechenkerne, und die muessen einfach schneller werden oder mehr. Das geht auf kosten der moeglichen Transistor Menge, die dann uebrig bleibt fuer andere Aufgaben. Es kommt zu einer Schwerpunkt Verschiebung, um die Latenzen bei z.B. 10+ Zwischenbildern zu verringern, muess in die GPU mehr AI-Rechenleistung hinein und weniger GPU- Rechenleistung . So kann man die Latenzen verringern. Weil im Moment ja die GPU Rechenleistung auf AI Berechnungen warten muss, und deswegen Latenzen hoch sind. NVIDIA wir sicherlich das Problem mit Latenz so und nicht anders loesen in der naechste Architektur , also durch bessere Balance zwischen AI TOPS und normalen GPU TFLOPS, besser gesagt die naechst Generation wird beinahe reine KI GPU und dann gibt es weniger Latenzen.
Zur Erinnerung RTX 5090 hat 110 TFLOPS und nur AI 838 TOPS (FP8). Klar, das hier Latenz gross ist. Uebrigens keiner hier im Forum weiss genau Bescheid ueber die Plaene von GPU Hersteller dich inklusive, deswegen diskutieren wir hier in aller Ruhe. Aber jeder hier weiss ungefaehr wo die Reise mit den Grafikkarten hingeht, AI forever.

Bessere Monitore?

vor 1 Stunde 4 Minuten
Dir ist schon klar, dass das Feature so wie es vorgestellt wurde, heute noch überhaupt nicht funktioniert, oder? ^^
Entweder hast du eine enorme Latenz beim Gaming, weswegen man das nicht nutzt, oder es ist so schlecht, das es jede Fliegende Taube im Himmel mit Kontrast hervorhebt, das es unbrauchbar ist.
MSI hat schon letztes Jahr mit "echtem AI" gezeigt anhand eines Videos, dass die Gegner erkennung bei LOL in Büschen super gut funktioniert, siehe die Stelle hier. ;D
https://youtu.be/ySuAa_Pry2Q?si=5aMiypuWBxihPJyV&t=228

Am Ende schaut sich der Monitor "nur" das Bildsignal an und erzeugt darauf etwas. Dynamisch 100% korrekt Gegner aufhellen ist imho in Echtzeit etwas, was ein Monitor mit einem Billo Chip nicht leisten kann. Wäre dies wirklich zuverlässig, bräuchten Drohnen in der Ukraine keine Piloten mehr. Aber ich lasse mich gerne auf Basis einer Live Demo eines besseren belehren, bis dahin ist es nur quatsch. :>

Ist zudem richtig super, wenn das Display dauerhaft den Inhalt scannt. Was soll schon schief gehen?
Dazu noch das Mikrofon, was dauerhaft mithört, damit man per Voice Commands die Setting ändert. Klar, for the gamers.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

vor 1 Stunde 33 Minuten
Ich sag's immer wieder: RTG hat ein Führungsproblem. Ist aber wahrscheinlich egal weil man mit AI ohnehin mehr verdient.
Wenn man kein RDNA2 und 3 mehr neu verkaufen würde, wäre das ja irgendwie fast noch navollziehbar. Aber so?

Real-time Raytracing

Di, 06.01.2026 14:01
Weiß immer noch nicht für was das Remix gut sein soll. Fertig wird kaum was damit und die großen Modding-Communitys haben eh ihre eigenen Tools.

Unreal Engine 5

Mo, 05.01.2026 11:30
Das ändert den Look zu stark.
Dann lieber weiterhin so spielen

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Do, 01.01.2026 18:42
Zitat: Zitat von dargo (Beitrag 13861332) Danke... dir auch frohes Neues Jahr. :) Hoffe bist mittlerweile einigermaßen fit und hast das Schlimmste hinter dir? :) Ja Danke, ES lebt noch, war richtig heftig, aber z. Glück kurz

habe es gestern mit Kolleggas schon wieder gur krachen lassen
u.a. um 2:00h Nachts mit Auto durch Gegend gefahren
erstaunlich, was man da so alles zu sehen bekommt:biggrin:

Frame Generation für jede GPU (Lossless Scaling)

Sa, 27.12.2025 11:09
CapframeX ggf?

Gaming auf 8k

Fr, 26.12.2025 12:11
Zitat: Zitat von Gouvernator (Beitrag 13858501)
Die Zukunft ist dann nur noch AI Echtzeit-Rendering. Nicht nur paar Shader und Texturen - alles. Dafür müsste man mit es erstmal schaffen mit AI pro Rechenleistung mehr darzustellen als mit klassischen Rendertechniken. Davon ist man noch meilenweit entfernt.

Die heutigen Bildgeneratoren sind extrem ineffizient und nicht viel mehr als ein Proof of Concept. Da braucht es komplett neue Algorithmen um irgendwie an Echtzeit Bildgenerierung überhaupt denken zu können, und die fallen nicht von heute auf morgen vom Himmel.

Wenn sich da algorithmisch nichts signifikantes bewegt sind wir aktuell beim AI-Rendering aktuell in etwa am Stand der 80er bis 90er beim Raytracing. Wenn wir also rein mit Rechenleistung in die Richtung Echtzeit AI-Rendering kommen wollen, sind wir mindestens 30-40 Jahre davon entfernt, realistisch eher weiter da es nicht anzunehmen ist, dass wir in den nächsten 30 Jahren ähnliche Steigerungsraten der Rechenleistung sehen werden wie seit den 90ern bis heute.

OLED macht Fortschritte

Mi, 24.12.2025 14:50
Wäre ich auch dabei, wobei ich noch ein bisschen breiter und zb 6k2k noch geiler finden würde des qrbeit Willens :D

AI/Machine Learning in Gaming

Mo, 22.12.2025 20:51
Zitat: Zitat von Gouvernator (Beitrag 13856944) Ich wollte schon immer lieber jemandem beim Resident Evil spielen zusehen, anstatt selber zu schwitzen... Such bei YouTube mal nach "Let’s Play"... :whisper:

MfG
Rooter

Zeigt ihn mal her, Euren Technopuff

Fr, 19.12.2025 12:38
placeholder

Qant Photonic

Do, 18.12.2025 13:02
Zitat: Zitat von Sweepi (Beitrag 13854861) Thread aus dem März mit diversen Links und Hintergrundinfo:

https://www.forum-3dcenter.org/vbull...d.php?t=621181 OK, Danke

werde nächstes mal erst die Suche bemühen:weg:

edit:
kann zu, bitte:smile:

Spintronics

Di, 09.12.2025 20:30
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

Fr, 28.11.2025 09:39
So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Di, 18.11.2025 09:12
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.

Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.

Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.

Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.

Rack 2.0

Di, 04.11.2025 09:17
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

So, 02.11.2025 15:25
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.

Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.

Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.

Microsofts KI lernt aus Deinem Gameplay - wenn Du es nicht abschaltest

Mo, 27.10.2025 12:26
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.

»UBIOS« statt UEFI: China entwickelt eigenes BIOS

So, 26.10.2025 08:59
Zitat: Zitat von Leonidas (Beitrag 13832087) Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren. im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...

Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.