Es kann auch immer mal vorkommen, dass ein Spiel eine signierte Optiscaler.dll braucht wenn wirklich alle Stricke reißen...dann müsst ihr zwingend auf die Builds vom Discord ausweichen auch wenn sie älter sind.
Den Stress bzgl. Signierung möchte ich mir persönlich nicht auch noch machen...und ganz trivial ist das auch nicht.
Sehe ich anders. Sonst müsste ich mir auch Gedanken machen wieso immer noch so viele MSAA zurück haben wollen. Komplett überflüssige Überlegungen einfach.
Raster halt nur noch hingeschissen. Auf der normalen PS5 also viel schlechtere Grafik als in Hellblade 2, wo das Self Shadowing mit SWRT gut funktioniert.
Will jetzt die neue RE aber auch nicht zu sehr bashen, die macht mit HWRT schon diverse Dinge besser als UE5.
Ich habe jetzt alle meine Plasmas im Haushalt wieder ausgegraben. Und mit 90° Wandhalterungen bestückt. Da ja dank Photovoltaik der Stromsparwahn vorbei ist.
Der letzte Panasonic GT50 3D Plasma, hat sogar noch eine funktionierende Youtube-App drauf. Allerdings für 90° Betrieb nicht sooo prall, da Blickwinkelabhängigkeit.
Der noch ältere S10 Panasonic ist absolut blickwinkelstabil. Und ist allgemein der beste Gaming-Plasma: hellster, schnellster. Ist wie ein 46" CRT an der Wand, wahlweise mit vertikal Betrieb für Arcade Games wie Mercs in MAME.
An sich beide sind bombastisch für Retro Games. Der GT50 mit 2D-->3D kann sogar sehr glaubhaft, auf knopfdruck ein PSOne Game in 3D Umwandeln. Neue Emulatoren wie Dolphin sowieso.
Ich hab jedes TV mit einem alten Steamdeck und Laptop bestückt wo Launchbox/Retroarch drauf ist.
Also bringt nicht immer das ausloten etwas. Ich habe gesehen das zum Beispiel ein unoptimierter 9950x3d bei so um die 5 GHz Schluss ist und manchmal erst bei 5,1 auf zweite und 5 GHz auf das erste chiplet wegen dem extra Cache. Mit Optimierung und so war es dann bis zu 5,4 GHz allcore möglich. Diese hat alle Parameter genutzt aber hat ja auch eine sehe starke wasseekühlung verwendet.
Unoptimiert war also die Temperatur schon höher gewesen weil alles was geht und es nutzte kaum avx.
Sobald da mal richtig avx genutzt worden war landete diese CPU direkt auf 95 Grad und endete bei 4,7 GHz auf chiplet 1 und chiplet 2 auf 4,8 GHz.
Das ist in sofern interessant weil auch ich mit dem 265k ebenso mit Temperaturen Begrenzung auf 90 Grad ebenso auf 4,8 GHz lande und teilweise schwankend auf 5 GHz.
Es ist also normal das bei avx 1&2 Nutzung der hohe Takt ein Ende hat . Die CPU wird sonst zu heiß wie ein Backofen.
Der einzige Unterschied was noch ist ,die Person nutzt noch immer Wasserkühlung und ich nutze Luftkühlung und nicht mal einen der stärksten.
Villeicht hätte ich es mit dem Noctua nh-d15 die Temperatur auch ohne Begrenzung geschafft wer weiß.
Nun gut ,nun weiß ich wenigstens wie sich ein unoptimierter 9950x3d sich so verhält. Im Grunde genommen wie ein normaler 9950x.
Ich ging allerdings davon aus das eine Chip der eine besonders gute Chipgüte hätte automatisch kühler wäre oder besonders geringer Spannung aufweisen würde und dadurch dann auch kühler wäre. Das scheint wohl ein Irrglaube zu sein. Liegt wohl an dem extra Cache das die CPU nicht ganz optimal gekühlt werden kann.
Und wenn man dann noch Luftkühlung verwendet wird genau der extra Cache zu einem Problem.
Mir war das nicht bewusst gewesen und der starre Wunsch einen bestimmten allcore Takt zu erreichen ein wenig unrealistisch zu sein scheint. Zumindest bei den 16 kerner von AMD scheint das wohl zu gelten bzw zu richten.
Ich hätte da wohl auch ein Temperatur limit setzen müssen. Das führt dann zu einem kleinen Takt Abschlag also Verlust. Der wohl besser ist als durch Temperatur wegen eine starke Drosselung zu haben.
Ohne Temperatur Begrenzung war bei avx 1&2 Vollast mein 265k bei 4,4 GHz p Kerne Takt Schluss gewesen.
Das Verhalten habe ich genau so beobachtet. Dem 9950x3d würde es da wohl auch so ergehen.
Und es wird nachgesagt das AMD bei avx besser sei. Das gillt nur bei avx 512 aber nicht bei avx 1&2,da ist Intel und AMD gleich stark.
Nun gut ,ich hoffe das es bei Zen 6 besser laufen wird. Ich kann kein Hitze treter brauchen und wenn dieser keine 5,2 GHz packt ,wird sich die Leistung nicht wirklich vom 265k abheben können. Bei 5 GHz kann eben ein 16 Kerner nicht die Power so Richtig ausspielen. Ist schon lustig das ich von allcore Takt lebe.
This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later.
https://www.patreon.com/posts/voxta-...-api-151927116
Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.
Zitat:
Zitat von Coroner
(Beitrag 13888952)
Ich genieße gerade meine Freiheit nach zu viel einengendem mindfuck .................. und wenn eine Frau mein PC-setup nicht akzeptiert ist sie sowieso die falsche, man muss einfach Prioritäten setzen :cool:.
Dein Setup ist der absolute Trennungsgrund schlechthin. Mein innerer Monk ist gerade gestorben.
Zitat:
Zitat von Raff
(Beitrag 13887366)
In Resi 9 geht RDNA 4 ordentlich ab ...
Die Engine performt vorbildlich, selbst ...
B570 lief wohl ganz gut
Kannst Du per Optiscaler DLSS-->XeSS und XeFG (MFG) erzwingen?
interessant wäre dann FHD@balanced mit RT, ob da die 10GB-Vram reichen
sorry für OT, passt aber gerade gut, bzw. wenn AMD keine Entry-Grakas mehr anbietet, muss man auch mal woanders schauen https://www.techpowerup.com/346787/i...-beta-released
scheint zumindestens für Axxx in Requiem besser zu sein
Zitat:
Zitat von robbitop
(Beitrag 13887637)
Es gibt ja schon eine kleine Weile den CRT Beamshader, der zwar kein VRR macht aber auch so ejn rolling strobe macht und der kostet auch sofort sichtbar Helligkeit.
Natürlich kostet eine Softwarelösung Helligkeit, die kann ja nur auf ganzen Frames arbeiten.
In Hardware würde man aber die Helligkeit während die LEDs aktiv sind pushen um den Verlust während sie aus sind auszugleichen.
Zitat:
Zitat von Gouvernator
(Beitrag 13882531)
Der Bestand hat sich von 8 Stück auf 26 erhöht. Und das ist auch neu...
Von 26 Stück für 4300 sind nur noch 3 Stück übrig. Immer noch nur für "Firmenkunden". Es scheint wohl ein Run auf die KI GPU's seitens Firmen zu geben.
Zitat:
Zitat von Hakim
(Beitrag 13887274)
So wie es aussieht sollte man sich nicht stur auf das Asus tool verlassen? Oder hat das Mod die Tool Sensoren irgendwie beeinträchtigt?
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken