3DCenter Diskussionsforen

nVidia - NV-UV: Undervolt-Tool für RTX 50-Series (Alpha, Tester gesucht!)

Grafikchips - Sa, 04.04.2026 20:49
Vielen Dank dür das geile Tool.

Hab hier ne Inno3D 5080 X3 OC geflasht zur Zotac Apocalypse 5080(wegen 450W TDP) und gleich nachdem ersten Start lief alles reibungslos.Einfach auf max. Preset gestellt und sie zieht weniger Watt als Stock bei mehr FPS. bzw. Points bei 3dmark.

So muß das.

Nächste Woche kommt der Waküblock,dann kann ich sicherlich mehr testen und Feedback geben.

Gruß

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

btw.
beim Optiscaler habe ich irgendwie das Gefühl, das FakeMichau den 2. Schritt vor dem 1. machen will, sprich er fuddelt
in den 2 kommenden Comments an dynamic MFG rum, um da irgendwie bei Spielstart schon das Fps-Limit zu setzen,
(erfordert Neustart)
Sollte er nicht erstmal den alten einfachen Fps-Limiter weiter aufziehen bis 480Fps o.ä und sicherstellen das das "einfache" MFG-Override genug Fps-Spielraum bekommt und mit Reflex zusammen passt? (Was evtl. in Version 0.7.9.1 unproblematisch war)

Zum Vergleich im DLSS-Enabler ist Dynamic MFG auch vollkommen getrennt von dem einfachen FPS-Limit und MFG Override!
dynamic MFG hat zusätzlich einen eigenen FPS-Treshold-Regler (siehe Post oben Anhang3)
Wenn mans nicht braucht/will kann man das Dynamic MFG vollkommen inaktiv lassen.(hat nen eigenen Button)

Im OS geht der Fps-Limiter bei mir erstmal nur bis 200, hängt evtl. vom 60Hz-Moni ab ? (x)
Aber im DE geht der Fps-Limiter bereits bis 360Fps, wäre quasi ready für meine 60Hz x6.
(k.A. ob die beiden Tools da in Abhängigkeit vom Moni nen Bereich bereitstellen)

(x) kann der Grund sein, warum es Freitag nur ohne Fps-Limit mal kurzzeitig funzte

Intel - Panther Lake Review Thread

Prozessoren und Chipsätze - Sa, 04.04.2026 20:38
Zitat: Zitat von dildo4u (Beitrag 13906199) Du unterschätzt doch das Packeing massiv du musst Chips aus den USA und Taiwan zusammenführen so lange Intel die IGP nicht selber fertigt.TSMC fertigt noch keine 3nm Chips in den USA. Da kenne ich mich nicht aus aber ehrlich gesagt sehe ich da nicht wieso das komplizierter sein soll? Auch Arrow Lake und Lunar Lake nutzen tsmc Chips auf einem intel base tile.
(Ich habe übrigens beim Kostenvergleich der GPU-Dies glatt vergessen dass da ja bei den Chips ohne das grosse GPU-Tile natürlich trotzdem auch noch ein GPU-Tile hinzukommt - ist dann natürlich intel 3 und wohl bloss halb so gross aber trotzdem...)

Zitat: Und Trump hat Zölle auf Chips aus dem Ausland die Intel nicht umgehen kann. Ja aber alle anderen beziehen ja auch Chips von TSMC.

AI/Machine Learning in Gaming

Zitat: What’s Working Now
  • Coding agents: Riot engineers use AI to reason about League of Legends' 18-year-old Lisp-based scripting language ("everything is implemented as minions"). Huge productivity gains.
  • AI Companions: Krafton runs entirely on-device in PUBG (ASR → LLM → TTS, no cloud latency). AI accidentally shot player, responded: Zitat: I wonder if this is what guilt feels like.
  • Live Sims: InZOI's "Smart Zoi" uses SLMs (small language models) where 50 AI agents live 24/7 in the game world; players can mod personalities via prompts.
  • AI Advisors: Creative Assembly uses LLMs to tutor players in complex strategy games, reducing churn while keeping character personality/tone.
Das ist halt, was ich endlich in Games will. Anständige, wirkliche KI, keine gescripteten NPC-Zombies. Wir haben LLMs, es wird höchste Zeit, dass wir die auch in Games bekommen, um die ganze Welt endlich lebendiger zu machen. Und das alles von Menschen machen zu lassen ist absurd unrealistisch. Wie viele Leute willst du denn da anstellen? Was kostet das? Wie lange dauert das? Absurd. Genau da kann endlich KI einspringen und wirklich mal erstmals Leben in die Spiele einhauchen. NPCs, die wirklich auf dich reagieren, einer Tätigkeit nachgehen, mit denen du dich wirklich unterhalten kannst, Stories, die sich flexibel irgendwann mal entwickeln, individueller werden vielleicht sogar.

Stell dir vor, du sagst dem Spiel, was dich generell thematisch interessiert, und die KI baut dann eine Story flexibel und auf dich abgestimmt mit Charakteren und NPCs um dich herum in der Welt, statt dass du eine starre Story vorgesetzt bekommst, mit den immer gleichen und starren Entscheidungen zu treffen. Das ist die Zukunft.

X86-Chinaboards und die Möglichkeiten

Prozessoren und Chipsätze - Sa, 04.04.2026 19:19
Kleines Update, hab mal ein X99 Board mit 2650v4 bestellt.
Das Layout vom µATX Board ist mega, da könnten sich die Marken mal was von abschauen, der PCIE x1 und Primäre M2 über dem x16 Slot:wink:

Bin schon gespannt ob das was kann.
Immerhin nur 70€

Real-time Raytracing

Zitat: Zitat von aufkrawall (Beitrag 13905922) Das sieht mit 35fps Basis halt immer noch richtig gut aus gegen FSR 3.1 und hat weniger Lag als viele Spiele ohne Reflex. Also das, was Radeon-Nutzer jahrelang als gut genug erachtet haben. Genau das. Mit Nvidia MFG kannst du auch noch SP Games mit 40 FPS Base spielen. Ist ok. Nicht weltbewegend, aber gut genug für 95% der Leute.

Unreal Engine 5

Zitat: Zitat von DrFreaK666 (Beitrag 13905710) Er ja Recht, oder nicht? Erkennt jeder, der die Fähigkeit besitzt die eigene Bubble zu durchbrechen
Meinst du jetzt mich oder Atma?

So oder so: Die gezeigten Spiele laufen alle auf den aktuellen Konsolen.
Klar, die Bildqualität ist nicht so gut, aber das Problem haben Konsolen seit Jahrzehnten.

Wer gute Bildqualität und hohe Auflösungen, früher auch anständiges AntiAliasing wollte, musste high end GPUs am PC nutzen. Wenn 4x MSAA genutzt wurde, waren dann aber selbst in 1080p oft keine 60 FPS mehr möglich, später mit Karten auf 1080ti Niveau war oft nur 4K mit FXAA bei 60 FPS drin, wenn das spiel gut optimiert war. Teilweise aber auch nur 30-40 FPS.

Heute sprechen wir von Raytracing mit extrem guter Kantenglättung, was auf einer Oberklasse GPU aus dem Jahre 2022 flüssig mit dreistelligen Frameraten auf nem 4K Bildschirm läuft. Ja, mit 2x Frame Gen, aber die Latenzen mit 120 FPS Frame Gen sind sowieso sehr viel besser und flüssiger, als 120 FPS früher, als es noch kein Reflex oder VRR gab. Vom CPU Limit ganz zu schweigen, was früher bei open world games gerne ein Problem war. Ich verweise auf Spiele wie Assassins Creed Odyssey, wo selbst die schnellsten CPUs nur 80-90 FPS AVG und 60-70 FPS bei den 99th percentile schafften. Oder ein Division was je nach CPU und Szene schon bei 60 FPS im CPU Limit war.

Schaut euch den "scheiß" gerne nochmal an, den wir vor 10 Jahren noch ertragen mussten:



https://www.computerbase.de/artikel/....53963/seite-3

Und dann gibts wirklich Leute, die behaupten, dass heutige Hardware "zu langsam" für RT sei? Soll ich jetzt lachen? WTF...
Meine 2022 GPU kann selbst Pathtracing mit (für mich) ausreichenden Frameraten bzw. besseren Framerates als vor einiger Zeit noch üblich waren. So what? Manche haben echt Probleme :D
Wer high FPS mit ultra geringen latenzen bevorzugt, soll halt die Details reduzieren. Ich hab auch gerne hohe FPS, keine Frage. Aber eben auch gute Grafik. Wenn beides nicht geht sucht man sich eben einen Kompromiss. Aber die Sinnhaftigkeit von RT anzweiflen bei den offensichtlich hervorragenden Ergebnissen ist doch lächerlich.


Avatar läuft übrigens auf aktueller hardware im Verhältnis zu damals sehr viel schneller als The Division auf damals aktueller Hardware. CPU Limit liegt irgendwo bei 200 FPS auf CPUs, die man mittlerweile als Mitteklasse bezeichnen würde und selbst die Frameraten in 4K mit Quality Upsampling (noch ohne Frame Gen) sind trotz Utra Settings besser als bei einem Division aus dem Jahre 2016 in 4K mit Medium settings. Dabei kann man heutzutage in 4K Problemlos Performance Upsampling nutzen, was die FPS nochmal deutlich erhöht und Frame Gen dazuschalten. Man könnte fast schon sagen, die GPU Anforderungen haben sich im Vergleich zu früher sogar deutlich verringert (effektiv mit den jeweils aktuellen GPUs).


Aber ich denke das führt jetzt auch zu weit. Hier soll es um die Unreal Engine gehen. Diese Diskussion würde im Raytracing Thread besser aufgehoben sein.

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Sa, 04.04.2026 08:33
ASUS Prime 5070 Ti für sehr gute 752 € bei Alternate:
https://www.alternate.de/ASUS/GeForc...duct/100122823


Wer es brauchen kann, der sollte schnell sein. Wird sicher schnell ausverkauft sein.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Leider sind die TCs von Volta für uns Consumer (im Sinne von Matritzenberechnung) nutzlos. DLSS läuft nicht auf ihnen und es gibt noch keinen Zugang für sie im Sinne einer offenen Schnittstelle. Entsprechend können sie auch nicht für XeSS oder FSR4 genutzt werden (die beide auch nur proprietäre Schnittstellen von AMD und Intels GPUs nutzen).
Jetzt kann man sagen FP16 Vektorberechnung läuft über die TCs aber eben nur Vektoren - der große Durchsatz über Matritzen ist nicht zugänglich. Die sind für uns also wie ein Kropf.
Was Volta aber trotzdem hilft ist asynchronous compute (pascal konnte das zwar auch aber sehr primitiv so dass es nichts brachte - bei Volta bringt es was). Und weiterhin hat man auch mehr SMs als GP102. Also ja kann schon sein dass FSR4/XeSS nicht ganz so schlimm auf der Titan V sind. Das Fehlen von DLSS wiegt aber lekder schwer weil massiv mehr Power über sie TCs möglich wäre. Deshalb ist Turing seit es modernes DLSS gibt einfach massiv besser.

Teste es mal und berichte gern (würde mich interessieren) wie viel es vs FSR3x kostet.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

K.a. ob das hier reinpasst, ansonsten verschieben:



AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mi, 01.04.2026 20:22
läuft auch auf RDNA4
(die Musik)

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - Mi, 01.04.2026 01:01
75w mehr sind bei 1Std Nutzung am Tag bei 30c/kWh 8,20€ im Jahr mehr. Wenn die Intel CPU also 100€ günstiger ist, kannste davon 12 Jahre den Mehrverbrauch kompensieren. Who cares?

Nichtsdestotrotz bin ich ein großer Fan von Effizienz, deswegen ist hier natürlich der AMD im Setup der bessere Wurf. Das Setup ist aber mal wieder Käse, da kannste auch einen 235 und 9950K in der Effizienz vergleichen und landest mit Abstand bei Intel. Man sollte schon die Prozessoren für den jeweiligen Zweck Vergleichen und sich keine Fabelvergleiche aus den Finger saugen.

Sowohl ein 9900X/9950X/260K/270K/285K ist im Gaming ineffizient im Vergleich zu Intels 235/245K und AMDs 9600X/9700X oder die X3D Kisten. Äpfel und Birnen.

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Mo, 30.03.2026 09:34
Sapphire Pulse RX 9070 non XT für 533,58€ mit Shoop.
https://www.galaxus.de/de/s1/product...karte-55629522

Edit:
ASUS Prime RX 9070 non XT OC EVO für 530,82€ mit Shoop.
https://www.galaxus.de/de/s1/product...karte-60777828

AMD/ATI - Radeon HD 7970: (P)Review-Thread

Grafikchips - Sa, 28.03.2026 08:40
Ich muss das mal ausgraben,
Hat jemand solche gcn 1.0 Karten noch irgendwo im Einsatz und ggf sogar unter Windows 11?

Ich hab hier festgestellt das in Windows 11 Systemen sich die Sensoren nicht auslesen lassen oder die Lüfter unter Last nicht hoch regeln und all so Kuriositäten.

Ich hab hier 3 Karten in lan Rechnern die grundsätzlich dafür vollkommen ausreichend sind.

Dadurch das allerdings hin und wieder Internet vorhanden ist bestand die Überlegung auf Windows 11 zu wechseln bei den Rechnern

Performance Efficiency Suite (PES)

Prozessoren und Chipsätze - Do, 26.03.2026 21:53
142/90/130

Irgendwas ist hier komisch, irgendwas hustet da ja offenbar rein

Muss ich wohl auch erstmal zurück auf 10 gehen, dann aber auch wieder möglich kostenfrei mit ständig an der Cloud verdengelt, Onlineaccount :rolleyes:

mfG
Miniaturansicht angehängter Grafiken   Angehängte Dateien Cb23Mt.7z (236,4 KiB) Cb23St.7z (198,1 KiB) GB5.7z (49,0 KiB)

AMD - Ryzen RAM-OC mit Google-KI-Modus

Prozessoren und Chipsätze - Do, 26.03.2026 14:27
Joa, einfach mal probiert und tatsächlich ging hier auch mal so richtig was
Die (NB) SoC säuft zwar sicherlich mehr, Cinebench R23 im Multi kriege ich trotzdem noch auf 15408 Punkte, PPT bis in die Nähe um 15000 Punkten, bei 120 und schlussendlich auf 142 aufgedreht (AMD Vorgaben).
So, limitieren tun hauptsächlich allerding auch aufgrund von Temperturende mit der Kühlung, nun TDC 90A und EDC 130A.

Der 5800X läuft bei negativen CO's von nun; von Core 0 bis 7:
22,22,18,24,15,13,21,20

Hauptsächlich kann man kaum irgendwas sagen wo ich beim RAM dran war, ich hab Google gefüttert mit dem Eingangsscreenshot von ZenTimings.
Dann kriegt der noch paar Informationen von dir getippt, wie "diese 4x16GB" sind kein Dual Rank sondern Single Rank, laut cpu-Z.
Dann rafft das Ding, ok, Zentimings hat da wie nen Anzeige oder Auslesefehler, weil 4 Single-Rank eben wie 2 Dual-Rank Module angesprochen werden können.

Ich teile "dem" dann noch mit das ich keine Spannungen erhöhen will, das die NB SoC Undervolting läuft und ich das möglichst behalten möchte, hat "er" wohl auch gerafft, zumindest auf jeden Fall erkannt.

Und dann kriegst du Informationen, was du alles probieren kannst, noch und nöcher, ab und zu korrigiert man "ihn" dann mal, so von wegen "hey guck dir ZenTimings nochmal an, das ist der Istzustand und nichts anderes" :D

Das heftigste wird mitunter wohl die "tRFC" sein von 990 auf 528 runter :eek:,
Das ist mitunter wohl einer der Werte die im Gaming dann wohl am meisten bringen.
Die "Magic-4" Regel mit der tFAW 16, tuts auch :D
SCL's von 6 runner auf 4, tCL... 18-20-20-20-20-40 und schlussendlich tRC 60, auch nicht schlecht.

Ihr könnt euch ja mal meine Screenshots anschauen, der einzelne, nur ZenTimings ist der aktuelle istzustand, der andere mit der Typhooon-Burner Auslese ist ein "Zwischenstand" den ich genutzt habe um den "neumodernen Krempel" zu Füttern.

Vielleicht kann ja einer aus Erfahrung der da deutlich tiefer aus der Materie kommt, mal drüberschauen und hat noch nen paar Magic-Tipps, so auch mit Abhängikeiten und oder so.

Die SoC säuft mehr, und ich habe eingangs mit PPT120, TDC 75 und EDC 115 gearbeitet, später dann mal EDC auf 120 und TDC 80, nun bin ich da wo ich Eingangs geschrieben hatte am Anfang.

Ich bin ja mal gespannt, was PES nun raushaut, ich hab ja schon noch was rausgekitzelt indem ich mit mit dem CO's nochmal von neuem befasst hatte, mal sehen was nun dabei herauskommt mit der Effizienz :biggrin:

mfG
Miniaturansicht angehängter Grafiken    

AMD - Ryzen AI 300 Serie SoC - Strix Point Zen5+RDNA3.5 (P)Review Thread

Prozessoren und Chipsätze - Do, 26.03.2026 01:37
Ich denke nicht mal dass die es nun unbedingt auf Apple Kunden abgesehen haben. Die Gelegenheit war nur günstig für das Vergleichsvideo auch wenn hier wortwörtlich Apples und oranges verglichen werden. :D Immerhin, die Tatsache dass ausgerechnet Apple was aufschaubbares liefert das der Framework Typ als Vergleich heran zieht ist schon ne News wert. Vor ein paar Jahren undenkbar, Apple scheint seine Hausaufgaben mittlerweile zu machen, auch beim Preis.
...und das kotzt mich bissl an! :freak:

Intel Bartlett Lake-S: Up to 12 P-cores or up to 8 P-cores + 16 E-cores

Prozessoren und Chipsätze - Di, 24.03.2026 17:33
https://www.asrockind.com/en-gb/IMB-X1314

BIOS mit Bartlett Lake support

Zitat: 1. Support Intel Bartlett Lake P-core only processor

2. Enhance platform security with Control IOMMU Pre-boot Behavior, VT-d, and the IOMMU option. Cinebench
https://x.com/GPUsAreMagic/status/2036422450880057708

Intel - Arc B580 Review-Thread

Grafikchips - Di, 24.03.2026 01:05
Persönlich ist die Pro B50 mein Favorit,
da die Preise im Gebrauchmarkt für 2060 12GB und 3060 12GB eine Frechheit sind wurde es am Schluss mangels reBAR support eine 5050 8GB um 249€.

Bessere Monitore?

Jepp. Aber fern mit genug Helligkeit. :)
Inhalt abgleichen