3DCenter Diskussionsforen

nVidia - GeForce RTX 3070 Review-Thread

Grafikchips - vor 2 Stunden 4 Minuten
Zitat: Zitat von gnomi (Beitrag 13890112) Imho waren 8GB in diesen Zeiten eher unverständlich als ein riesengroßes tatsächliches Problem. Das ist mir noch zu gnädig. Die 3070 war echt so knapp bestückt, dass es bei Benchmarks zu Release noch gerade irgendwie so hielt.

Wenn man dann mal was wie Cyberpunk 2077 auch tatsächlich spielen wollte hat man da wegen VRAM-"Slow Mode" nach spätestens einer Stunde schon Probleme bekommen und das mit Kompromissen prinzipiell nutzbare RT war effektiv unbenutzbar.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Neue Beiträge im Forum Technologie - vor 2 Stunden 39 Minuten
Zitat: Zitat von robbitop (Beitrag 13890055) Der Fakt dass FSR4.1 nicht mehr overhead zu kosten scheint (also das Modell auch nicht wesentlich mehr Parameter hat) impliziert ja auch dass Verbesserungen in der Gesamtheit potenziell limitiert sind und dann eher insgesamt bessere tradeoffs erzielt werden sollen. Grundlegende Änderungen wird es nicht gegeben haben, ja. Die Versionierung 4.1 impliziert das ebenfalls.

Sterben die Plasma-TVs aus?

Neue Beiträge im Forum Technologie - vor 4 Stunden 3 Minuten
Ich hatte letztens mal nen HDMI hickup am PS64F8590 hier... war schon kurz vorm heulen. Aber mal stromlos machen und alles ist wieder gut :)

AMD - Ryzen AI 300 Serie SoC - Strix Point Zen5+RDNA3.5 (P)Review Thread

Prozessoren und Chipsätze - vor 5 Stunden 6 Minuten
AMD hat die 400G-Serie für den Desktop gelauncht:
https://www.computerbase.de/news/pro...se-igpu.96333/

Gibt aber nur Krackan Silizium für den Sockel AM5. Auch wenn das CB offenbar nicht verstanden hat und fälschlicherweise von Strix schreibt.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Es kann auch immer mal vorkommen, dass ein Spiel eine signierte Optiscaler.dll braucht wenn wirklich alle Stricke reißen...dann müsst ihr zwingend auf die Builds vom Discord ausweichen auch wenn sie älter sind.
Den Stress bzgl. Signierung möchte ich mir persönlich nicht auch noch machen...und ganz trivial ist das auch nicht.

Real-time Raytracing

Raster halt nur noch hingeschissen. Auf der normalen PS5 also viel schlechtere Grafik als in Hellblade 2, wo das Self Shadowing mit SWRT gut funktioniert.
Will jetzt die neue RE aber auch nicht zu sehr bashen, die macht mit HWRT schon diverse Dinge besser als UE5.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - So, 01.03.2026 15:40
Also bringt nicht immer das ausloten etwas. Ich habe gesehen das zum Beispiel ein unoptimierter 9950x3d bei so um die 5 GHz Schluss ist und manchmal erst bei 5,1 auf zweite und 5 GHz auf das erste chiplet wegen dem extra Cache. Mit Optimierung und so war es dann bis zu 5,4 GHz allcore möglich. Diese hat alle Parameter genutzt aber hat ja auch eine sehe starke wasseekühlung verwendet.
Unoptimiert war also die Temperatur schon höher gewesen weil alles was geht und es nutzte kaum avx.
Sobald da mal richtig avx genutzt worden war landete diese CPU direkt auf 95 Grad und endete bei 4,7 GHz auf chiplet 1 und chiplet 2 auf 4,8 GHz.
Das ist in sofern interessant weil auch ich mit dem 265k ebenso mit Temperaturen Begrenzung auf 90 Grad ebenso auf 4,8 GHz lande und teilweise schwankend auf 5 GHz.
Es ist also normal das bei avx 1&2 Nutzung der hohe Takt ein Ende hat . Die CPU wird sonst zu heiß wie ein Backofen.
Der einzige Unterschied was noch ist ,die Person nutzt noch immer Wasserkühlung und ich nutze Luftkühlung und nicht mal einen der stärksten.
Villeicht hätte ich es mit dem Noctua nh-d15 die Temperatur auch ohne Begrenzung geschafft wer weiß.
Nun gut ,nun weiß ich wenigstens wie sich ein unoptimierter 9950x3d sich so verhält. Im Grunde genommen wie ein normaler 9950x.

Ich ging allerdings davon aus das eine Chip der eine besonders gute Chipgüte hätte automatisch kühler wäre oder besonders geringer Spannung aufweisen würde und dadurch dann auch kühler wäre. Das scheint wohl ein Irrglaube zu sein. Liegt wohl an dem extra Cache das die CPU nicht ganz optimal gekühlt werden kann.
Und wenn man dann noch Luftkühlung verwendet wird genau der extra Cache zu einem Problem.
Mir war das nicht bewusst gewesen und der starre Wunsch einen bestimmten allcore Takt zu erreichen ein wenig unrealistisch zu sein scheint. Zumindest bei den 16 kerner von AMD scheint das wohl zu gelten bzw zu richten.

Ich hätte da wohl auch ein Temperatur limit setzen müssen. Das führt dann zu einem kleinen Takt Abschlag also Verlust. Der wohl besser ist als durch Temperatur wegen eine starke Drosselung zu haben.
Ohne Temperatur Begrenzung war bei avx 1&2 Vollast mein 265k bei 4,4 GHz p Kerne Takt Schluss gewesen.
Das Verhalten habe ich genau so beobachtet. Dem 9950x3d würde es da wohl auch so ergehen.
Und es wird nachgesagt das AMD bei avx besser sei. Das gillt nur bei avx 512 aber nicht bei avx 1&2,da ist Intel und AMD gleich stark.

Nun gut ,ich hoffe das es bei Zen 6 besser laufen wird. Ich kann kein Hitze treter brauchen und wenn dieser keine 5,2 GHz packt ,wird sich die Leistung nicht wirklich vom 265k abheben können. Bei 5 GHz kann eben ein 16 Kerner nicht die Power so Richtig ausspielen. Ist schon lustig das ich von allcore Takt lebe.

AI/Machine Learning in Gaming

Zitat: Elite Dangerous Integration

This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later. https://www.patreon.com/posts/voxta-...-api-151927116

Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - So, 01.03.2026 13:23
Zitat: Zitat von Coroner (Beitrag 13888952) Ich genieße gerade meine Freiheit nach zu viel einengendem mindfuck .................. und wenn eine Frau mein PC-setup nicht akzeptiert ist sie sowieso die falsche, man muss einfach Prioritäten setzen :cool:. Dein Setup ist der absolute Trennungsgrund schlechthin. Mein innerer Monk ist gerade gestorben.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Ja macht Sinn. :)
4x INT8 gibts bei Geforce bereits seit Maxwell. Aber Nvidia ist auch schon deutlich länger auf der deep learning Schiene. :)

DirectX 12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Danke, aber hab ihn schon gefunden. Chip Online stellt ihn z.B. noch direkt auf deren Seite bereit.

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Fr, 27.02.2026 16:20
Schon witzig, dass gerade Caseking den besten Preis aktuell liefert. :tongue:

btw.
Auch bei sowas hier.
https://www.caseking.de/sapphire-pur...ccb3bd3d0c0a8a

Wenn man 45-50€ für Crimson Desert gegenrechnet sieht es gar nicht mehr so übel aus. Natürlich muss man Interesse an dem Spiel haben.

Intel - Arc B580 Review-Thread

Grafikchips - Do, 26.02.2026 15:40
Intel Arc: Wundertreiber für Resident Evil Requiem? Mal sehen!

Battlemage profitiert nur im Promillebereich – Alchemist hingegen um stolze 43 (Raster) respektive 46 Prozent (Ray).

MfG
Raff

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Do, 26.02.2026 12:43
Zitat: Zitat von Raff (Beitrag 13887366) In Resi 9 geht RDNA 4 ordentlich ab ...
Die Engine performt vorbildlich, selbst ... B570 lief wohl ganz gut

Kannst Du per Optiscaler DLSS-->XeSS und XeFG (MFG) erzwingen?
interessant wäre dann FHD@balanced mit RT, ob da die 10GB-Vram reichen

sorry für OT, passt aber gerade gut, bzw. wenn AMD keine Entry-Grakas mehr anbietet, muss man auch mal woanders schauen
https://www.techpowerup.com/346787/i...-beta-released
scheint zumindestens für Axxx in Requiem besser zu sein

OLED macht Fortschritte

Zitat: Zitat von robbitop (Beitrag 13887637) Es gibt ja schon eine kleine Weile den CRT Beamshader, der zwar kein VRR macht aber auch so ejn rolling strobe macht und der kostet auch sofort sichtbar Helligkeit. Natürlich kostet eine Softwarelösung Helligkeit, die kann ja nur auf ganzen Frames arbeiten.

In Hardware würde man aber die Helligkeit während die LEDs aktiv sind pushen um den Verlust während sie aus sind auszugleichen.

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Do, 26.02.2026 11:44
Zitat: Zitat von Gouvernator (Beitrag 13882531) Der Bestand hat sich von 8 Stück auf 26 erhöht. Und das ist auch neu... Von 26 Stück für 4300€ sind nur noch 3 Stück übrig. Immer noch nur für "Firmenkunden". Es scheint wohl ein Run auf die KI GPU's seitens Firmen zu geben.

12VHPWR-Stecker: Das Problem und mögliche Lösungen

Grafikchips - Mi, 25.02.2026 15:39
Zitat: Zitat von Hakim (Beitrag 13887274) So wie es aussieht sollte man sich nicht stur auf das Asus tool verlassen? Oder hat das Mod die Tool Sensoren irgendwie beeinträchtigt?

https://videocardz.com/newz/shunt-mo...erature-alarms Moneyquote:
Zitat: Zitat von Videocardz There are consequences because the user did not trust German engineering. :cool:

Bessere Monitore?

Vielleicht interessant für unsere HDR-Freunde zum Managen von RenoDX/HDR-Fixes:
https://github.com/RankFTW/RenoDXChecker/

Ist sowas ähnliches wie DLSS Swapper für RenoDX. Display Commander ist offenbar eine Art SpecialK lite, das besser mit RenoDX harmonisiert.

Unreal Engine 5

Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.

nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)

ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken  

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - Sa, 21.02.2026 20:18
Danke :up:
Inhalt abgleichen