3DCenter Diskussionsforen

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Zitat: Zitat von Godrih (Beitrag 13909928) Tested with latest Opti (commit 8054fbd) and latest DE (4.6.0.11 dev) - all work fine up to x6 mode. Where can I get DE 4.6.0.11 dev?

4.6.0.10 is not recognized by Optiscaler.
Miniaturansicht angehängter Grafiken  

nVidia - NV-UV: Undervolt-Tool für RTX 50-Series (Alpha, Tester gesucht!)

Grafikchips - Mo, 13.04.2026 19:38
Gibts jetzt eigentlich mit Ada den gleichen Funktionsumfang wie bei Blackwell? Dann würde ich auch mal gerne testen :D

Intel - Arc B580 Review-Thread

Grafikchips - Mo, 13.04.2026 17:26
Zitat: Zitat von Shink (Beitrag 13909782) Ja eh. 50% mehr Recheneinheiten, 50% mehr VRAM-Bandbreite, 50% mehr VRAM sollte eigentlich 50% Speedup bringen. Es sind ja 60% mehr Recheneinheiten, aber nur 33% mehr Bandbreite (keine Ahnung wie gross der L2 geworden ist). Von daher wäre rein theoretisch schon 60% möglich (wenn in dem spezifischen Fall Bandbreite egal ist, und der Verbrauch auch so viel höher sein darf). Aber man darf auch nicht vergessen dass man nie wirklich 100% Skalierung erreicht ausser in mehr oder weniger theoretischen Benchmarks. Zumindest bestätigen die Benchmarks dass die Skalierung ordentlich ist und es da keinen Flaschenhals irgendwo gibt (es sei denn die paar Benchmarks wo die B70 kaum schneller ist als die B580 sind genau auf sowas zurückzuführen und nicht auf Treiberprobleme).

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Mo, 13.04.2026 15:38
Zitat: Zitat von Tesseract (Beitrag 13909693) was genau ist daran "schön"? der 7800X3D hat OOTB einen effizienteren betriebspunkt weil er durch den cacheaufbau dazu gezwungen ist, 98x0X3D aber nicht. wenn man will sind 98x0X3D mit ein paar klicks effizienter als der 7800X3D und dabei kühler und schneller.


Ich hab einen 9800X3D (SP111) und einen 9850X3D(SP120). Wenn beide CPUs mit gleichen Taktziel (5.425GHz) laufen. (+200 MHz für den 9800X3D & -200 MHz für dem 9850 ) ist der 9850X3D bei mir bis zu ca 20-30W sparsamer (bei Vollast).


Also Binning macht da auch schon was aus.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von aufkrawall (Beitrag 13908433) Sollte jetzt auch kein Ding der Unmöglichkeit sein, den Shadercompiler bei dem bisschen Restrisiko für Malware in eine Sandbox zu packen. Erstens ist eine Sandbox immer Overhead, den willst du gerade bei einem Shadercompiler vermeiden und zweitens sinnlos.

Es geht nicht darum dass der Shadercompiler selbst Malware ist, sondern darum dass die Compilten Shader vor dem Upload verändert und mit Malware angereichert werden.

AI/Machine Learning in Gaming

Ja, sieht ganz gut aus. Interessanterweise tankt die Performance relativ stark, wenn man gleichzeitig DLSS nutzt. Ist das wegen STF (Stochastic Texture Filtering)?

Gut ist, dass Ada und Blackwell in etwa gleich performen. Die aktuelle NTC-Implementation benutzt CoopVecFP8 und GenericInt8 fürs Inferencing. Das heisst, dass viele GPUs da draussen genug schnell sein sollten. NTC dürfte auf RDNA4 mit FP8 auch gleichwertig laufen. Und dementsprechend ist auch noch Luft für FP4 basierende Performance-Steigerungen ;) NTC "on-load" ist für alle GPUs <Ada und <RDNA4 gedacht. Ist OK. GPUs wie eine 3080 dürften mit CoopVecFP8 vermutlich aber schneller sein als GenericInt8.

Und wieder mal denke ich mir:
Cool, was man mit GPUs inkl. Matrix-Acceleration alles anstellen kann. DLSS (SR, FG, RR) ist sicher sehr schlagkräftig, aber mit NTC, Neural Materials usw. kann man ebenfalls nochmals gut was gewinnen. Dass hier auch sehr viel bei der Speichermenge gewonnen werden kann (on disk, im VRAM) ist sehr nice.
Desweiteren hoffe ich, dass auch andere Algorithmen (nicht nur ML/AI) auf FP16/FP8 Matrizen-Rechnungen umschwenken. Ich habe da so Zeugs wie Full-Screen Post-Processing Effekte im Kopf (z.B. Lanczos Filter, Depth-of-Field, u.v.m.). Mit Cooperative Vectors oder neu DX Linear Algebra sollte das ohne Probleme machbar sein, solange FP16/FP8 Präzision ausreicht.

Amazon Luna geht bald an den Start (Cloud Gaming)

Zitat: Zitat von Lurtz (Beitrag 13908821) Oder man braucht das ganze Compute eben auch für KI... Wohl nur zum Teil:
Zitat: At Amazon, we're always looking for ways to better serve our players. Your feedback has been clear: you want easy access to great games, more social experiences, and a steady flow of new content from developers you know and love. As our library continues to grow, more of that content is available to Prime members-and that's where we're focusing our future. Titel aus verknüpften Portalen wie Ubi, GOG usw werden jetzt schon nicht mehr extra angezeigt(aber noch in der Liste). Darum gehts halt, der Dienst an sich, bleibt bestehen. Dadurch werden die aber wohl auch die Last senken wollen. Man konnte ja quasi seine ganzen verknüpften Bibliotheken via Luna spielen. Die kostenlosen Spiele bleiben wohl auch bestehen.

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Fr, 10.04.2026 13:56
Die Notebook-APU-Namen sind doch schon lange Scam bei AMD. (Gut, bei Intel bin ich davon auch überfordert, dem Namen nach zuzuordnen, ob eine APU brauchbar ist oder unterste Schublade.)

Bessere Monitore?

Schon klar. Finde es Lustig wie sie einfach einen Chip für "KI upsampling" in alle ihre Monitore Packen und dann "Evo" in den Namen hinzufügen.

Intel - Panther Lake Review Thread

Prozessoren und Chipsätze - Mi, 08.04.2026 19:03
Laut den Reviews ist das deutlich besser geworden die Schwachstellen sind eher der GPU Treiber und Anti Cheat Support.
Im Video oben wird das gut erklärt Abobe Video Bearbeitung rennt besser als auf X86 da es hauptsächlich auf CPU Leistung setzt.
Sobald die GPU mher in Spiel kommt ist Intel besser.(Davinci Resolve)

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Ich spiele aktuell Death Stranding 2: On the Beach welches u.a. auch XeFG inkl. XeLL von sich aus bietet. Ich glaube das ist das erste Game was bei mir mit XeFG sauber läuft. Da muss ich schon die Frage stellen ob die anderen Studios Grütze implementieren oder warum läuft dieses Game erst bei mir mit XeFG sauber? Gabs vorher schon genug Kandidaten mit von DEVs implementierten XeFG. Was auch auffällig ist... Framepacing scheint hier sauber zu funktionieren denn das OSD von meinem OLED springt nicht wild hin und her bei der Frequenz wie bei FSR-FG mit freien Frames. Dennoch hat XeFG in diesem Spiel ganz selten mal Probleme. Dann gibt es sehr starke Ruckler in kurzen, regelmäßigen Abständen. Workaround dafür Vsync Ingame von On auf Off stellen und wieder zurück auf On. Dann läufts wieder sauber. Irgendwas scheint da mit Vsync in die Quere manchmal zu kommen. Wenn ich mich nicht gerade vertue passiert dieses Problem gelegentlich nur direkt beim Wechsel von Cutszenen zum Gameplay.

Intel Xe Super Sampling (XeSS)

XeSS Unterstützung für die Unity-Engine wird eingestellt:
https://videocardz.com/newz/intel-ar...ficial-support

Real-time Raytracing

Zitat: Zitat von ][immy (Beitrag 13906635) Es ist halt auch alles eine Sache wie Leidensfähig man ist. Nach wie vor, DLSS mit niedrigere Grundauflösung stört mich deutlich mehr als kein DLSS und dafür nah an der nativen Auflösung zu sein, selbst wenn die Performance dafür geringer ist. Sub 1080p geht überhaupt nicht mehr und viel mir immer wieder direkt ins Auge. DLSS Ultra Performance sehe ich auch den Unterschied. Das fiel mir schon in Indiana Jones auf mit Path Tracing in 4K. Das Spiel reagiert brutal und instant, wenn der VRAM überschwappt. Die 4080 Super kann locker 4K PT darstellen mit allen Details, aber sobald du da DLSS Quality gewählt hast, fällt sofort FPS auf einstellige Bereiche. Das hat auch alles bisschen rumprobieren bei dem Spiel geheißen. Letztlich hab ich es dann mit Balanced gespielt, weil es da stabil bei den FPS war, also die 16 GB VRAM gerade so ausgereicht haben und beim Texture Pool Size musste ich auf Ultra stellen glaub ich und konnte nicht das Maximum nehmen.

Da hab ich schon gemerkt und auch für mich bestätigt bekommen, dass die 4080 schon von Anfang an mehr haben sollte. Daher ist die 5080 auch ein Schlag ins Gesicht ehrlich gesagt, dass die auch wieder nur mickrige 16 GB bekommen hat.

Und der ganze Speicher war auch nicht mit Texturen gefüllt, weil so toll waren die bei Indiana Jones auch nicht. Im Gegenteil. Ich fand das Spiel sogar insgesamt eher ziemlich mau grafisch von den Texturen und der Landschaft. Das war alles sehr tot und steril. Das Path Tracing hat es dennoch geschafft, das Spiel deutlich über den "ist Mittelmaß"-Threshold zu hieven und beeindruckend aussehen zu lassen. Das Spiel... ich bin da echt nicht sicher, ob ich die Grafik wirklich gut fand oder wirklich scheiße. ^^

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - So, 05.04.2026 20:38
Fein, thx. Mach ich eh im 'Bios'. Wusst nur nicht was so möglich ist, viele Jahre keinen Intel mehr gehabt.

X86-Chinaboards und die Möglichkeiten

Prozessoren und Chipsätze - Sa, 04.04.2026 19:19
Kleines Update, hab mal ein X99 Board mit 2650v4 bestellt.
Das Layout vom µATX Board ist mega, da könnten sich die Marken mal was von abschauen, der PCIE x1 und Primäre M2 über dem x16 Slot:wink:

Bin schon gespannt ob das was kann.
Immerhin nur 70€

Unreal Engine 5

Zitat: Zitat von DrFreaK666 (Beitrag 13905710) Er ja Recht, oder nicht? Erkennt jeder, der die Fähigkeit besitzt die eigene Bubble zu durchbrechen
Meinst du jetzt mich oder Atma?

So oder so: Die gezeigten Spiele laufen alle auf den aktuellen Konsolen.
Klar, die Bildqualität ist nicht so gut, aber das Problem haben Konsolen seit Jahrzehnten.

Wer gute Bildqualität und hohe Auflösungen, früher auch anständiges AntiAliasing wollte, musste high end GPUs am PC nutzen. Wenn 4x MSAA genutzt wurde, waren dann aber selbst in 1080p oft keine 60 FPS mehr möglich, später mit Karten auf 1080ti Niveau war oft nur 4K mit FXAA bei 60 FPS drin, wenn das spiel gut optimiert war. Teilweise aber auch nur 30-40 FPS.

Heute sprechen wir von Raytracing mit extrem guter Kantenglättung, was auf einer Oberklasse GPU aus dem Jahre 2022 flüssig mit dreistelligen Frameraten auf nem 4K Bildschirm läuft. Ja, mit 2x Frame Gen, aber die Latenzen mit 120 FPS Frame Gen sind sowieso sehr viel besser und flüssiger, als 120 FPS früher, als es noch kein Reflex oder VRR gab. Vom CPU Limit ganz zu schweigen, was früher bei open world games gerne ein Problem war. Ich verweise auf Spiele wie Assassins Creed Odyssey, wo selbst die schnellsten CPUs nur 80-90 FPS AVG und 60-70 FPS bei den 99th percentile schafften. Oder ein Division was je nach CPU und Szene schon bei 60 FPS im CPU Limit war.

Schaut euch den "scheiß" gerne nochmal an, den wir vor 10 Jahren noch ertragen mussten:



https://www.computerbase.de/artikel/....53963/seite-3

Und dann gibts wirklich Leute, die behaupten, dass heutige Hardware "zu langsam" für RT sei? Soll ich jetzt lachen? WTF...
Meine 2022 GPU kann selbst Pathtracing mit (für mich) ausreichenden Frameraten bzw. besseren Framerates als vor einiger Zeit noch üblich waren. So what? Manche haben echt Probleme :D
Wer high FPS mit ultra geringen latenzen bevorzugt, soll halt die Details reduzieren. Ich hab auch gerne hohe FPS, keine Frage. Aber eben auch gute Grafik. Wenn beides nicht geht sucht man sich eben einen Kompromiss. Aber die Sinnhaftigkeit von RT anzweiflen bei den offensichtlich hervorragenden Ergebnissen ist doch lächerlich.


Avatar läuft übrigens auf aktueller hardware im Verhältnis zu damals sehr viel schneller als The Division auf damals aktueller Hardware. CPU Limit liegt irgendwo bei 200 FPS auf CPUs, die man mittlerweile als Mitteklasse bezeichnen würde und selbst die Frameraten in 4K mit Quality Upsampling (noch ohne Frame Gen) sind trotz Utra Settings besser als bei einem Division aus dem Jahre 2016 in 4K mit Medium settings. Dabei kann man heutzutage in 4K Problemlos Performance Upsampling nutzen, was die FPS nochmal deutlich erhöht und Frame Gen dazuschalten. Man könnte fast schon sagen, die GPU Anforderungen haben sich im Vergleich zu früher sogar deutlich verringert (effektiv mit den jeweils aktuellen GPUs).


Aber ich denke das führt jetzt auch zu weit. Hier soll es um die Unreal Engine gehen. Diese Diskussion würde im Raytracing Thread besser aufgehoben sein.

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Sa, 04.04.2026 08:33
ASUS Prime 5070 Ti für sehr gute 752 € bei Alternate:
https://www.alternate.de/ASUS/GeForc...duct/100122823


Wer es brauchen kann, der sollte schnell sein. Wird sicher schnell ausverkauft sein.

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mi, 01.04.2026 20:22
läuft auch auf RDNA4
(die Musik)

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Mo, 30.03.2026 09:34
Sapphire Pulse RX 9070 non XT für 533,58€ mit Shoop.
https://www.galaxus.de/de/s1/product...karte-55629522

Edit:
ASUS Prime RX 9070 non XT OC EVO für 530,82€ mit Shoop.
https://www.galaxus.de/de/s1/product...karte-60777828

AMD/ATI - Radeon HD 7970: (P)Review-Thread

Grafikchips - Sa, 28.03.2026 08:40
Ich muss das mal ausgraben,
Hat jemand solche gcn 1.0 Karten noch irgendwo im Einsatz und ggf sogar unter Windows 11?

Ich hab hier festgestellt das in Windows 11 Systemen sich die Sensoren nicht auslesen lassen oder die Lüfter unter Last nicht hoch regeln und all so Kuriositäten.

Ich hab hier 3 Karten in lan Rechnern die grundsätzlich dafür vollkommen ausreichend sind.

Dadurch das allerdings hin und wieder Internet vorhanden ist bestand die Überlegung auf Windows 11 zu wechseln bei den Rechnern
Inhalt abgleichen