3DCenter Diskussionsforen

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

auf meinem kleinen strix point, AI 370 HX @ 24Watt Spielzeug

muss ich mit RDNA3 FSR4 auf ca. 600p runter gehen. um die Leistung von 800p und FSR31 zu erreichen

sieht trotzdem, fast besser aus

muss aber auch sagen, das AMD. mit der FSR3.1.5 Version inzwischen einen ganz ordentlichen upscaler am Start hat, wenn es ordentlich implementiert ist, oder mit optiscaler aufgesetz ist:eek:

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - Do, 18.09.2025 22:13
Zitat: Zitat von Raff (Beitrag 13814346) Immer gemäß offizieller AMD- respektive Intel-Spezifikation - es sei denn, es handelt sich um einen expliziten Wert mit manueller Optimierung (dann stets gekennzeichnet).

MfG
Raff Wollt ihr davon nichtmal irgendwann abweichen? Allem Respekte eurer Arbeit und Integrität entgegen macht das imo wenig Sinn.

Gaming auf 8k

16" 4K OLED mit 16k DSR ist was geiles. Puh, das ist jetzt wirklich Pixar Qualität... insbesondere bei Games die Wert auf hochwertige Assets legen, wie Resident Evil 3.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Auf discord gab und gibt es eine aktive Community um OptiScaler ... in der Vergangenheit konnte man mit nitec (cdozdil) Versionen/Features/Bugs testen im Stunden- oder gar Minuten-Zyklus.

Auch Namen für den Scaler konnte man dort einreichen ... :D

--
Edit, mal kurz gesucht: https://discord.com/channels/9952999...76234526412882

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Do, 18.09.2025 15:05
Zitat: Zitat von Der_Korken (Beitrag 13813996) Dein Post klang so, als hätte RDNA4 besonders bei hohen Taktraten ein hohen Verbrauch, aber niedrigen Taktraten nicht. Dem würde ich mich wie gesagt nicht anschließen. Ich schaue mir das am Wochenende mal genauer mit mehreren Daten in einer Tabellenkalkulation an. :)

Intel - Alder Lake - Review-Thread

Prozessoren und Chipsätze - Do, 18.09.2025 14:12
Zitat: Zitat von Twodee (Beitrag 13813997) ähm nö: https://www.hardwaredealz.com/produk...-core-i5-14400 Kann, muss nicht. Performancetechnisch eh Jacke wie Hose. Preis ist das einzig entscheidende bei der Wahl.

Bessere Monitore?

Zitat: Zitat von x-force (Beitrag 13812375) erst wenn jemand mindestens 5 jahre ohne einschränkungen bezüglich helligkeit, statischen elementen ohne einbrennen intensiv betrieben hat, sind wir soweit. Ich nutze selber einen VA für Home Office. Aber trotzdem würde ich den VA nicht als Besser bezeichnen.

Wenn ich einen Monitor 100e Stunden pro Monat im Einsatz habe, davon sagen wir 10% zum privaten Vergnügen. Dann würde ich mir trotzdem nur noch OLED neu antun, auch wenn das beduetet dass ich nach einigen Jahren dezente Artefakte sehe, die beim genauen Hinsehen sichtbar sind, und ich mir nach 5 Jahren was neues kaufen muss. Lieber das, als 5 Jahre IPS/VA privat ertragen.

Unreal Engine 5

UE 5.7 Roadmap:
https://portal.productboard.com/epic...eal-engine-5-7

Interessant bei Nanite Foliage:
Verbessertes TSR wird auch erwähnt (thin geometry detection)

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Mi, 17.09.2025 17:29
ASUS Prime RX 9070 non XT für 564,26€ mit TopCashback.
https://www.coolblue.de/produkt/9623...m_content=2685

nVidia - GeForce RTX 5070 Review-Thread

Grafikchips - Mi, 17.09.2025 16:11
Ok... :freak: Das müsste sich wie Kaugummi anfühlen, aber gut. Wenn es für dich in dem Spiel passt, warum nicht. :tongue:

Geforce Now: Nvidia holt auf

Anscheinend kommt es mittlerweile auch gut an, letzte Woche gab es Ausfälle wegen Überlastung.

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Di, 16.09.2025 15:33
Danke für die Aufklärung, ja das Angebot ist jetzt sowieso von 770€ auf 859€ angepaßt worden.

AMD - Ryzen AI 300 Serie SoC - Strix Point Zen5+RDNA3.5 (P)Review Thread

Prozessoren und Chipsätze - Di, 16.09.2025 13:16
Mein aktueller (der mit dem Schaden) ist auch ein Ideapad 5 und ich war immer sehr zufrieden.
Ich bin mir eher unsicher, weil Glossy OLED Display und Preis etwas höher als gehofft.

Von der Leistung her scheint Krackan Point (also der AI 7 350) zu den Vorgängern mit Zen4 nicht wirklich viel draufzulegen, die Stärke scheint eher die Laufzeit zu sein?

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - Di, 16.09.2025 11:44
Meine 2080Ti hat das NT (Corsair HX 850W) ingame upschalten lassen. Hat lange gedauert, bis ich draufgekommen bin, dass ich vielleicht mal den Schalter am NT auf single geil umschalten sollte. Seit dem auch mit der octen 4090 nicht ein einziges Mal upgeschaltet. (y)

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Heftig wie viel weniger der Disocclusion-Fizzle mit 2160p Zielauflösung selbst im Performance-Preset auffällt. Gibt mit halbwegs potenter GPU echt keinen Grund mehr sich 1080 oder 1440p anzutun.

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - So, 14.09.2025 09:35
Am Rande erwähne ich es mal ... ich habe hier ne Palit GamingPro S - Finger weg imo, weil die hat definitiv bei mir Probleme im Betrieb mit PCIe 5 - deswegen muss ich das jeweils von Hand runterstellen. Erst dachte ich, das könnte am Riser liegen (B650I ITX im NR200p) - jetzt baute ich das Ding testweise in ein GA ATX Board um - gleiche Probleme - völlig unmotivierte Neustarts egal wann quasi.

Zum Verbrauch - WUXGA meine Settings aber nur 120 FPS - auch 125W, aber massiv höhere Taktrate von fast 2.5 GHz (was ne 3080 eh nie hinbekäme). Die 3080 macht eben die 144 FPS. GDDR7 zieht wohl einfach Strom.

Zitat: Zitat von MAX|HASS (Beitrag 13811861) Tippfehler? Warum sollten 55w auch jucken? Ohne jede Optimierung bin ich bei League of Legends dank V-Sync/G-Sync bei den 55W bei ner 320W TDP Karte. Da fehlt mir eben die Lust fürs Optimieren, weil kaum was zu holen ist.

Bei Fortnite irgendwo immer zwischen 80W bis 125W - zuwenig zu holen.

Witzigerweise ist die 5070 ti, mein Vergleichsgerät, nicht besser ...

Solange man also die Karten nicht "vollbelastet", bringts wenig.

Aus Spass hab ichs natürlich für Wohnzimmer PCs immer getestet, was gegen Unten geht ohne viel zu verlieren.

Bei einer 5070 ti hatte ich mal die Option mehr Leistung geben zu dürfen - das wurde fast 1zu1 in Mehrleistung umgesetzt.

Daher habe ich angefangen nicht die MHz, sondern die FPS einzudämmen/derAnwendunganzupassen. Selbstredend immer mit einer optimierten Spannungskurve.

Aber ich verstehe Jeden, der zu faul ist, das bis ans obere Limit zu machen... der Aufwand gerade bei ca 3 GHz (jetzt bei den neuen Karten) ist gross.

P.S. Auch meine CPU frisst dann weniger Heu, die Lüfter verstummen und wenn ich den Wattmeter anschliesse ... lohnt definitiv.

AMD/ATI - Radeon RX 9060 XT Review-Thread

Grafikchips - Sa, 13.09.2025 06:25
Zitat: Zitat von Micha80 (Beitrag 13810073) Das wäre dann die PowerColor Reaper mit PTM7950 für 349€.
Wer mehr Infos benötigt, die Karte ist bei mir erfolgreich im Einsatz. Ich hatte jetzt 2 Reaper - beide liefen mit +350 -120mV und 2750 Fast timing RAM ganz OK. 0 rpm wie immer draussen.

Die Karte wirkt sehr klein, aber die Kühllösung ist mit den Kupferheatpipes durchdacht.

Die Sapphire Pure kann imo schöner leuchten ... aber das ARGB Kabel in Schwarz an einer weissen Karte finde ich ... nicht durchdacht.

Real-time Raytracing

Zitat: Zitat von basix (Beitrag 13811273) Cool :)

Kann man grob abschätzen, was das für die Performance von bspw. Zorah bedeuten wird?

Ich habe mal einen Nsight Trace von Zorah NVRTX UE5.6 (Throne Room) gemacht. Dort sind die RT-Cores für ca. 30-40% der Frametime stark ausgelastet. Idealerweise wird's mehr ;) Es gibt noch eine andere Sache die in dem sample schon in der baseline ist, wobei die sich eher in Bewegung auswirkt. Allerdings weiß ich nicht was die zorah demo sonst noch alles macht pro frame und unreal ist am Ende auch komplexer als das sample. Deswegen ist es schwer zu sagen wie viel am Ende ankommt.

Auch ein großer Unterschied ist dass in dem Vulkan sample wir nur ray tracing machen und kein hybrid aus raster und ray tracing was alles deutlich verkompliziert und einige Vorteile reduziert.

Langfristig ist die Hoffnung primary raster für diese Geometrie durch ray tracing zu ersetzen.

Intel - Arc B580 Review-Thread

Grafikchips - Do, 11.09.2025 20:50
Und als ich mich mal wieder mit meiner Acer B580 Nitro beschäftigte ... lernte ich Intels verkehrte Welt kennen.

Ich versuchte mich diesmal mit den Advanced Einstellungen und der Tuning Kurve und stellte staunend fest - Intel vertauscht entgegen imo jeder Logik die X und Y Achse bei der Darstellung.

Glücklicherweise habe ich das nun doch noch begriffen und so sind die Karten mit BF6 gleich noch ne Ecke besser.

Intel Xe Super Sampling (XeSS)

War an, ja. Mit Auto Exposure off ist es zwar besser aber nicht ganz weg. XeSS bleibt eine Klasse darüber.
Inhalt abgleichen