3DCenter Diskussionsforen

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Mo, 20.04.2026 22:43
Zitat: Zitat von horn 12 (Beitrag 13912958) Hast deine 9800 X3D und 9850 X3D unter einer AIO Kühlung
oder Luftgekühlt
Alle, zumindest viele User meinen nämlich dass die 9800+ X3D Modelle Wassergekühlt werden sollten. Fürs Zocken ziemlich egal, da du eh weit unter 100W Verbrauch liegen wirst und erst drüber wird es wirklich relevant. Sonderfälle mit Heißluftföhnbestrahlung durch eine RTX 5090 mal außen vor - da lohnt sich dann tatsächlich eine AiO/Custom Wakü (ich hatte diesen Fall).

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Commit 8215e32 (Apr 17, 2026):
"Adapt to new dll loading
For DLSSG and streamline, the path is by default gameFolder/OptiScaler/streamline"

Now we can use separate folder and don't override original game NV files.

VRAM-Auslastung aktueller Spieletitel

Grafikchips - So, 19.04.2026 22:31
Ich kenne kein Spiel, welches von PT profitiert. Aber dies ist meine Meinung, welche wahrscheinlich exklusiv ist.

Zum Thema: 16GB sind das absolute Minimum, insbesondere wenn man alle Regler nach Rechts zieht und FG zum Einsatz bringt. Gut sind 24GB, relativ zukunftssicher sind allerdings 32GB.

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - So, 19.04.2026 18:35
Zitat: Zitat von Savay (Beitrag 13912423) BF6 spielt sich nicht wie COD...was ein Blödsinn. Naja gut magst du so sehen wenn ich mir Lets Plays ansehe sieht BF6 aus wie ein CoD MW 2019 :freak:

Real-time Raytracing

Eine 4090 erreicht im Durchschnitt in etwa die 50-60fps mit 4K DLSS-Performance bei PT-Games.

Eine PS6 wird vermutlich nicht so schnell wie eine 4090 werden, aber mit den algorithmischen Verbesserungen könnte 4K/60fps klappen, ja.
Und das mit ausgewachsenem ReSTIR. MegaLights der UE5 ist da ja eher eine leichtgewichtige Adaption von stochastischem Beleuchtungs-Rendering.
Da sowas wie MegaLights auch auf einer PS5 läuft, dürfte man in Zukunft fast nur noch Games mit volldynamischen Beleuchtungssystemen inkl. "many lights support" sehen.
MegaLights wird zudem Production Ready mit UE 5.8 (Mitte 2026). Somit ideal für Game-Releases H2/2027 und dem Start der neuen Konsolen.

AI/Machine Learning in Gaming

Ich denke die AI-Grafik ist bzw. wird schon wieder in 1-2 Jahren veraltet sein. Also nachdem man völligen Fotorealismus erreicht hat. Die nächste Stufe ist wenn du deine eigene photorealistische Welt aus einem Foto erschaffst. Quasi ein ganzes Level besteht nur aus dem Foto-Hintergrund wo dein Char gerade steht. Momentan habe ich das kurz geschmeckt in LTX2. Mit 20 Sek. 60fps interpolierten FullHD Fotos. Das ist hoch beeindruckend.

Und geht quasi in die selbe Richtung wie mit KI-Musik wo du deine eigene Top10 Chartqualität Songs erschaffst. Nur halt eben mit Games. Wo du nur ein Foto nach deiner Stimmung generierst und kannst sofort dort in fotorealitischem 3D loslegen.

Bessere Monitore?

Amazon hat gerade den MO27U2 für unglaubliche 549€ im Sortiment.
https://www.amazon.de/dp/B0F4H2LDLT?...rReviewsAnchor

X86-Chinaboards und die Möglichkeiten

Prozessoren und Chipsätze - Sa, 18.04.2026 13:33
Jetzt kam endlich das Paket und heute gleich installiert.

Funktioniert ebenso 1A diesmal aber mit 0815 Gskill Value DDR4 und der Xeon bleibt unter Last mit einem Shadow Rock bei unter 60°C:freak:


Leistung wie schon von anderen Xeon gewohnt, niedrige Taktrate aber dieser hier "nur" 12 Kerne (HT deaktiviert),
das Board gefällt mir richtig gut und daher halte ich mal nach einen 2698 v4 20 Kerne ausschau, die gibt es so um die 40€:biggrin:


Edit:
Die Xeon sind in verbindung mit den China Boards eine super Kombo,
die eine Ausstattung bei den Boards für 50 - 70€ bieten wo man bei uns gerne mal 130€+ alleine für das Board hinlegen muss.

z.B. mein 110€ Board mit dem Xeon D mit 16 Kerne bietet 2x 2,5 Gbit Ports, das günstigste Board kostet bei uns 270€


AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Fr, 17.04.2026 16:30
Asus Prime 9070XT für 639€

https://www.alternate.de/ASUS/Radeon...duct/100108572

Kein Mega Angebot aber dafür immer noch Crimson Dessert + eine Asus Maus dazu. https://www.alternate.de/ASUS/ROG-St...roduct/1902963

AMD/ATI - Radeon VII: $699 ab 07. Februar 2019 mit 16 GB HBM2

Grafikchips - Fr, 17.04.2026 12:24
Zitat: Zitat von Raff (Beitrag 13911265) Neues Spiel: Radeon VII klatscht GTX 1080 Ti und kabbelt sich stattdessen mit der (mies ausgelasteten) Titan V. :biggrin: Poor Volta

Pragmata scheint wirklich gut zu sein, die Demo hatte mir damals gefallen. Ich denke, am Wochenende werde ich es mir kaufen.

nVidia - NV-UV: Undervolt-Tool für RTX 50-Series (Alpha, Tester gesucht!)

Grafikchips - Do, 16.04.2026 00:04
Hab jetzt mal mit der 5070Ti meiner Lebensgefährtin getestet, da funktioniert alles, wie es soll. Ich dachte schon, es liegt an mir.
Bei den Stabilitätstests gibt es aber noch Optimierungsbedarf. Hab den Scanner mal ganz aggressiv mit 900mV und iirc +550Mhz probiert, das Ergebnis war nichtmal im Menü von Spielen stabil. 950mV und +475 MHz probiert und ich habe bisher ein scheinbar stabiles Ergebnis erhalten. (960mV und irgendwas über 3Ghz).
Aber bisher gefällt mir das sehr gut und würde mich freuen, wenn's vielleicht irgendwann auch mal auf meiner 4090 läuft.
Vielen Dank jedenfalls für die tolle Arbeit. :smile:
Nochmal zu deiner PN: Afterburner ist, wie bereits erwähnt, aktuell. Hab sogar Mal die Beta drauf gemacht, gleiches Verhalten. Die Kurve wird nicht übernommen und wenn ich dann per Afterburner Versuche, sie zu übernehmen, wird auf die Standardkurve zurückgesetzt.

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - Mi, 15.04.2026 13:54
lol, schaut nicht danach aus..

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von Tesseract (Beitrag 13908710) und du hast es immer noch nicht verstanden. Du vermengst hier konsequent inferenzbasierte Rekonstruktion mit freier kreativer Schöpfung. Dass DLSS 5, speziell im aktuellen corundum build mit dem NV-NGX-v5.0.x infernce modul zusätzlich in der Lage ist, den spezifischen Artstyle eines Spiels durch Neural Rendering nicht nur zu erhalten, sondern konsistent zu antizipieren, ist kein "Unfug".

Durch Techniken wie semantic injection versteht das Modell die mathematische Ästhetik und die Materialeigenschaften einer Szene weitaus tiefer, als du es einer KI zutraust.

Die Geometriedaten der Engine fungieren dabei als unbestechlicher Anker, sodass der Stil der Figuren eben nicht "verfälscht" , sondern lediglich in einer Perfektion rekonstruiert wird, die rein native Rasterisierung hardwarebedingt gar nicht mehr leisten kann. Was du dort in die Demo hineininterpretierst ist völlig irrelevant. Es ist und bleibt eine Demo.

Zitat: Zitat von Tesseract (Beitrag 13908710) es geht nicht darum ob der output "visuell glaubwürdig" ist sondern alles erzeugen kann was artists erzeugen können Die Geometriedaten und Texturen der Engine werden als Anker für DLSS5 genutzt. Aber rein grundsätzlich kann ein KI-Modell natürlich auch Stile erschaffen und "kreativ sein". KI findet sogar Verbindungen auf die ein Mensch nie kommen würde. Aber das ist nicht die Aufgabe von DLSS5 sondern deiner Torpfostenmentalität.

Zitat: Zitat von Tesseract (Beitrag 13908710) (was deine behauptung war) und das geht weit darüber hinaus ob etwas flüchtig danach aussieht als wäre es teil von etwas das ein artist gemacht hat. Deine Argumentation ist von der Angst getrieben, dass Artists keine Arbeit mehr haben. Da kann ich dir nicht weiterhelfen und dein persönliches Problem. Neural Editing ist gekommen um zu bleiben. ;)

Zitat: Zitat von Tesseract (Beitrag 13908710) tut es eben nicht wie man eindrucksvoll an den demos gesehen hat. Nur weil der Mensch am Ende den finalen Schliff gibt, heißt das nicht, dass die KI dazu nicht fähig wäre... es sichert lediglich die künstlerische Kontrolle!

Aber meine Güte, manche wollen es auch einfach nicht verstehen.
Gegen eine tiefe, fast schon ideologische Abneigung gegenüber dem technologischen Wandel kann man nicht mit Logik argumentieren.

Am Ende wird die Realität der Grafikerstellung solche Ansichten schlicht überrollen, genau wie es damals bei der Einführung von Shadern oder Raytracing war. Man kann den Fortschritt ignorieren, aber man kann nicht verhindern, dass er den Standard neu definiert.

Wir sprechen uns im November wieder...

Intel - Arc B580 Review-Thread

Grafikchips - Mo, 13.04.2026 17:26
Zitat: Zitat von Shink (Beitrag 13909782) Ja eh. 50% mehr Recheneinheiten, 50% mehr VRAM-Bandbreite, 50% mehr VRAM sollte eigentlich 50% Speedup bringen. Es sind ja 60% mehr Recheneinheiten, aber nur 33% mehr Bandbreite (keine Ahnung wie gross der L2 geworden ist). Von daher wäre rein theoretisch schon 60% möglich (wenn in dem spezifischen Fall Bandbreite egal ist, und der Verbrauch auch so viel höher sein darf). Aber man darf auch nicht vergessen dass man nie wirklich 100% Skalierung erreicht ausser in mehr oder weniger theoretischen Benchmarks. Zumindest bestätigen die Benchmarks dass die Skalierung ordentlich ist und es da keinen Flaschenhals irgendwo gibt (es sei denn die paar Benchmarks wo die B70 kaum schneller ist als die B580 sind genau auf sowas zurückzuführen und nicht auf Treiberprobleme).

Amazon Luna geht bald an den Start (Cloud Gaming)

Zitat: Zitat von Lurtz (Beitrag 13908821) Oder man braucht das ganze Compute eben auch für KI... Wohl nur zum Teil:
Zitat: At Amazon, we're always looking for ways to better serve our players. Your feedback has been clear: you want easy access to great games, more social experiences, and a steady flow of new content from developers you know and love. As our library continues to grow, more of that content is available to Prime members-and that's where we're focusing our future. Titel aus verknüpften Portalen wie Ubi, GOG usw werden jetzt schon nicht mehr extra angezeigt(aber noch in der Liste). Darum gehts halt, der Dienst an sich, bleibt bestehen. Dadurch werden die aber wohl auch die Last senken wollen. Man konnte ja quasi seine ganzen verknüpften Bibliotheken via Luna spielen. Die kostenlosen Spiele bleiben wohl auch bestehen.

Intel - Panther Lake Review Thread

Prozessoren und Chipsätze - Mi, 08.04.2026 19:03
Laut den Reviews ist das deutlich besser geworden die Schwachstellen sind eher der GPU Treiber und Anti Cheat Support.
Im Video oben wird das gut erklärt Abobe Video Bearbeitung rennt besser als auf X86 da es hauptsächlich auf CPU Leistung setzt.
Sobald die GPU mher in Spiel kommt ist Intel besser.(Davinci Resolve)

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Ich spiele aktuell Death Stranding 2: On the Beach welches u.a. auch XeFG inkl. XeLL von sich aus bietet. Ich glaube das ist das erste Game was bei mir mit XeFG sauber läuft. Da muss ich schon die Frage stellen ob die anderen Studios Grütze implementieren oder warum läuft dieses Game erst bei mir mit XeFG sauber? Gabs vorher schon genug Kandidaten mit von DEVs implementierten XeFG. Was auch auffällig ist... Framepacing scheint hier sauber zu funktionieren denn das OSD von meinem OLED springt nicht wild hin und her bei der Frequenz wie bei FSR-FG mit freien Frames. Dennoch hat XeFG in diesem Spiel ganz selten mal Probleme. Dann gibt es sehr starke Ruckler in kurzen, regelmäßigen Abständen. Workaround dafür Vsync Ingame von On auf Off stellen und wieder zurück auf On. Dann läufts wieder sauber. Irgendwas scheint da mit Vsync in die Quere manchmal zu kommen. Wenn ich mich nicht gerade vertue passiert dieses Problem gelegentlich nur direkt beim Wechsel von Cutszenen zum Gameplay.

Intel Xe Super Sampling (XeSS)

XeSS Unterstützung für die Unity-Engine wird eingestellt:
https://videocardz.com/newz/intel-ar...ficial-support

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - So, 05.04.2026 20:38
Fein, thx. Mach ich eh im 'Bios'. Wusst nur nicht was so möglich ist, viele Jahre keinen Intel mehr gehabt.

Unreal Engine 5

Zitat: Zitat von DrFreaK666 (Beitrag 13905710) Er ja Recht, oder nicht? Erkennt jeder, der die Fähigkeit besitzt die eigene Bubble zu durchbrechen
Meinst du jetzt mich oder Atma?

So oder so: Die gezeigten Spiele laufen alle auf den aktuellen Konsolen.
Klar, die Bildqualität ist nicht so gut, aber das Problem haben Konsolen seit Jahrzehnten.

Wer gute Bildqualität und hohe Auflösungen, früher auch anständiges AntiAliasing wollte, musste high end GPUs am PC nutzen. Wenn 4x MSAA genutzt wurde, waren dann aber selbst in 1080p oft keine 60 FPS mehr möglich, später mit Karten auf 1080ti Niveau war oft nur 4K mit FXAA bei 60 FPS drin, wenn das spiel gut optimiert war. Teilweise aber auch nur 30-40 FPS.

Heute sprechen wir von Raytracing mit extrem guter Kantenglättung, was auf einer Oberklasse GPU aus dem Jahre 2022 flüssig mit dreistelligen Frameraten auf nem 4K Bildschirm läuft. Ja, mit 2x Frame Gen, aber die Latenzen mit 120 FPS Frame Gen sind sowieso sehr viel besser und flüssiger, als 120 FPS früher, als es noch kein Reflex oder VRR gab. Vom CPU Limit ganz zu schweigen, was früher bei open world games gerne ein Problem war. Ich verweise auf Spiele wie Assassins Creed Odyssey, wo selbst die schnellsten CPUs nur 80-90 FPS AVG und 60-70 FPS bei den 99th percentile schafften. Oder ein Division was je nach CPU und Szene schon bei 60 FPS im CPU Limit war.

Schaut euch den "scheiß" gerne nochmal an, den wir vor 10 Jahren noch ertragen mussten:



https://www.computerbase.de/artikel/....53963/seite-3

Und dann gibts wirklich Leute, die behaupten, dass heutige Hardware "zu langsam" für RT sei? Soll ich jetzt lachen? WTF...
Meine 2022 GPU kann selbst Pathtracing mit (für mich) ausreichenden Frameraten bzw. besseren Framerates als vor einiger Zeit noch üblich waren. So what? Manche haben echt Probleme :D
Wer high FPS mit ultra geringen latenzen bevorzugt, soll halt die Details reduzieren. Ich hab auch gerne hohe FPS, keine Frage. Aber eben auch gute Grafik. Wenn beides nicht geht sucht man sich eben einen Kompromiss. Aber die Sinnhaftigkeit von RT anzweiflen bei den offensichtlich hervorragenden Ergebnissen ist doch lächerlich.


Avatar läuft übrigens auf aktueller hardware im Verhältnis zu damals sehr viel schneller als The Division auf damals aktueller Hardware. CPU Limit liegt irgendwo bei 200 FPS auf CPUs, die man mittlerweile als Mitteklasse bezeichnen würde und selbst die Frameraten in 4K mit Quality Upsampling (noch ohne Frame Gen) sind trotz Utra Settings besser als bei einem Division aus dem Jahre 2016 in 4K mit Medium settings. Dabei kann man heutzutage in 4K Problemlos Performance Upsampling nutzen, was die FPS nochmal deutlich erhöht und Frame Gen dazuschalten. Man könnte fast schon sagen, die GPU Anforderungen haben sich im Vergleich zu früher sogar deutlich verringert (effektiv mit den jeweils aktuellen GPUs).


Aber ich denke das führt jetzt auch zu weit. Hier soll es um die Unreal Engine gehen. Diese Diskussion würde im Raytracing Thread besser aufgehoben sein.
Inhalt abgleichen