3DCenter Diskussionsforen

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von Ex3cut3r (Beitrag 13850518) Ohne FG ist er bei 20ms. Bei rund 100-130 FPS. Und jetzt? Ist das auf einmal spielbar? Nein. Gängiger Inputlag alter Konsolen an einem CRT liegt so bei ~8ms (Bildmitte)

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Mo, 08.12.2025 18:38
Roman hatte eine Matrix auf einem Benchtable stehen und ist damit in die Top 60 gekommen. Das ist ja auch völlig in Ordnung. Ich spreche davon, 600 Watt plus Abwärme im Case zu haben über Stunden (Gaming). Natürlich besitzen viele ein Case mit gutem Airflow. Aber selbst dann bläst die GPU ihre komplette Abwärme in Richtung CPU – auch wenn eine AIO mit Radiator oben verbaut ist. Zusätzlich wird der Arbeitsspeicher heißer, was ebenfalls eher ungünstig ist, gerade auf einem Intel-System, wo man den RAM-Speed dringend benötigt. Die Komponenten altern schneller, und nicht jeder hat ein gutes Case.

Meiner Meinung nach sollten Grafikkarten mit 600 Watt oder mehr mindestens mit einer AIO ausgeliefert werden – idealerweise mit austauschbarer Pumpe, falls es zu Ausfällen kommt. 600 Watt ins Gehäuse zu pusten, halte ich für ziemlich verantwortungslos.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Mo, 08.12.2025 17:34
Dachte ich zuerst auch, ist aber mitnichten so! Die CPU mag keine hohe Spannung, des Controllers betreffend. Wo früher für VDDIO und VDDQ je 1.47v anliegen mussten, reichen nun 1.35v (vermutlich noch weniger). Hatte ich früher mal bei High-ASIC GPUs, bei ner CPU gab es dies Phänomen hier afair nicht. Alles über 1.43v führt sofort zu einem Freeze …

Intel - Arc B580 Review-Thread

Grafikchips - Mo, 08.12.2025 17:28
Ja da gibts wohl niemanden der da wiedersprechen wird, das dauert (noch immer) viel zu lang.

Die Verzögerung bei den Super Karten von NV und das AMD aktuell nichts geplant hat wäre das einzige was die Intel Karte überhaupt noch eine Chance geben könnte falls der Preis stimmt.
Die Release Politik war absolut daneben, weder kleine Karten noch große und auch die PRO haben viel zu gedauert.

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mo, 08.12.2025 15:23
Von dem was ich bisher mitbekommen habe von den ganze Billigen ist die Prime noch ganz in Ordnung, also verglichen mit Swift, Reaper, Steel legend, Challenger und Co.

Die Evo ist halt nochmals etwas Billiger (Kühler etwas kleiner) gemacht als die normale Prime, daher denke bei der 9070 ok, bei 9070XT, hm da lieber die normale Prime?

Spintronics

Es wird erstmal kein Riegel werden ;)
Ob das wirklich für was taugt... mittlerweile... 1 MRAM-Zelle ist so groß wie 6T SRAM-Zelle. Das große Problem war immer der Strombedarf. Eine MRAM-Zelle zu beschreiben kostete vor etlichen Jahren noch SECHS MAL soviel Nanojoule als beim SRAM.

Der aktuelle Hype ist dieser Arbeit hier geschuldet (Uni Jerusalem spielt mit dem Laser)
https://www.reddit.com/r/technology/...to_make/?tl=de

Frame Generation für jede GPU (Lossless Scaling)

Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.

Real-time Raytracing

Neue ReSTIR Paper von Nvidia über die letzten 6 Monate:
https://cwyman.org/papers/sig25_ReSTIR_Splatting.pdf
https://research.nvidia.com/labs/rtr...rom2025restir/
https://research.nvidia.com/labs/rtr...2025partition/
https://research.nvidia.com/labs/rtr...g2025restirpg/

Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen

Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.

Unreal Engine 5

Zitat: Zitat von Gymnopédies (Beitrag 13849362) Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten. Die „eigene Handschrift“ hat 0% mit der Engine und 100% mit dem Artstyle zu tun.

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - So, 07.12.2025 14:04
Ich würde da keine revolutionären Erkenntnisse erwarten, was da kommt, kann man ja ungefähr abschätzen. FSR4 ist jetzt schon gut genug, falls man wirklich eine Radeon in Betracht zieht.

Bessere Monitore?

Die letzten 1 1/2 Seiten habe ich doch direkt übersprungen, aber nicht, dass ich irgendwelche brandneuen Monitortechnologien verpasst habe? :tongue:

AMD/ATI - Radeon RX 9060 XT Review-Thread

Grafikchips - Fr, 05.12.2025 19:51
Zitat: Zitat von phoenix887 (Beitrag 13849029) Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie. Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - Fr, 05.12.2025 19:13
Habe gerade für mein Mädel eine 5080 bestellt. Gibt es dort optimale Betriebspunkte in Form von 0,9v bei xxx Mhz?

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - Do, 04.12.2025 11:03
Zitat: Zitat von Dorn (Beitrag 13848179) Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.

Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Zitat: Zitat von dargo (Beitrag 13847342) Danke. :)

Streamline schmiert weiterhin, Nukems sieht gut aus. danke fürs testen
streamline?
aber nukems immerhin:smile:

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - Di, 02.12.2025 11:42
Zitat: Zitat von x-force (Beitrag 13847177) das sind 0,1v mehr als nv bei den karten sonst freigibt.

bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes: Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).

Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.

AMD - Ryzen AI 300 Serie SoC - Strix Point Zen5+RDNA3.5 (P)Review Thread

Prozessoren und Chipsätze - Mo, 01.12.2025 17:45
https://gpdstore.net/de/product/gpd-win-5/

Das GPD Win 5 gibt es jetzt mit 128 GB RAM zu bestellen, und mit 4 TB SSD kostet es 3000 Euro.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Mo, 01.12.2025 14:51
Zitat: Zitat von Silvir (Beitrag 13803540) Der Liste eine (gebrauchte) 3060 TI hinzugefügt ... Spielzeug für meinen Oculink-Dock (eGPU).

Hercules monochrome (Hersteller unbekannt, falls nötig + software CGA emulator)
Paradise EGA 64KB(?)
Trident 8800 512KB
irgendeine VLB-Karte
ATI Rage II 2MB
Helios Voodoo Rush 6MB
Matrox Millenium G200 4MB + Creative Voodoo II 8MB
Hercules Geforce 2 MX400 32MB
Asus Geforce 6800 128MB
Powercolor X1900XT 512MB
Sapphire HD4870 1024MB
MSI GTX 480 1536MB
Asus Matrix HD 7970 Platinum 3072MB
MSI GTX 970 100ME 3584+512MB
Palit GTX 1080 Gamerock 8096MB
PowerColor Red Dragon RX 6800 XT 16384MB
Inno3d RTX 3060 TI GDDR6X X3 OC 8096MB

Notebook:
ATI Mobility 9000
AMD HD6310
NVIDIA GT 840M
Intel HD Graphics (Cherrytrail)
Intel HD 520
AMD 780m Black Friday FOMO ...

Hercules monochrome (Hersteller unbekannt, falls nötig + software CGA emulator)
Paradise EGA 64KB(?)
Trident 8800 512KB
irgendeine VLB-Karte
ATI Rage II 2MB
Helios Voodoo Rush 6MB
Matrox Millenium G200 4MB + Creative Voodoo II 8MB
Hercules Geforce 2 MX400 32MB
Asus Geforce 6800 128MB
Powercolor X1900XT 512MB
Sapphire HD4870 1024MB
MSI GTX 480 1536MB
Asus Matrix HD 7970 Platinum 3072MB
MSI GTX 970 100ME 3584+512MB
Palit GTX 1080 Gamerock 8096MB
PowerColor Red Dragon RX 6800 XT 16384MB
Inno3d RTX 3060 TI GDDR6X X3 OC 8096MB
ASUS Prime Radeon RX 9070 XT OC Edition 16384MB

Notebook:
ATI Mobility 9000
AMD HD6310
NVIDIA GT 840M
Intel HD Graphics (Cherrytrail)
Intel HD 520
AMD 780m

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Mo, 01.12.2025 14:39
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.

Zitat: Zitat von Badesalz (Beitrag 13846708) Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.

Auch nicht darüber, daß China nicht in der MS365-Hölle steckt. Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.
Inhalt abgleichen