Zitat:
Zitat von raffa
(Beitrag 13889634)
Hat REE etwa schon FSR4.1? Schadowdrops sind ja grad in Mode. : )
Vermutlich nicht, sonst würde das in der PC DLL auffallen ;)
Zitat:
Zitat von robbitop
(Beitrag 13889643)
Sehr interessant :)
[...]
Was mich ein wenig skeptisch macht: dieser grosse Sprung wurde bei L (und M) ja mit deutlich mehr compute bezahlt (also Modell mit mehr Parametern) - so wie wir es vom RR kennen. Wohingegen der Overhead von 4.1 gleich bleibt- also gibt es ggf nicht mehr Parameter was impliziert, dass der Sprung potenziell kleiner sein könnte. :)
FSR4 ist das erste DNN basiere Upscaling von AMD. Bei DLSS2 zu DLSS3 gab es auch laufend Verbesserungen. Und so wie es aussieht, geht AMD einen Kompromiss ein: Etwas geringere Stabilität & etwas mehr Aliasing, dafür bessere Detailrekonstruktion und höhere Bildschärfe.
Zitat:
Zitat von robbitop
(Beitrag 13889643)
Ist das so? Ich nahm bis dato an PSSR2 ist einfach FSR4 auf INT8 portiert und FSR4.1 ist weiterhin FP8 aber ein neues Modell. Und ggf gibt es zusätzlich einen INT8 Pfad mit dem PSSR2 Modell was ggf ein wenig schlechter als 4.1 aber auf Augenhöhe mit 4.0.x ist.
Ist eine Vermutung von mir. Zeitlich würde es ja gut zusammenpassen und auch generell Sinn machen.
PSSR2 sieht in einigen Vergleichsscreenshots und -videos besser als FSR 4.0.3 am PC aus (siehe Digital Foundry Video). Bildschärfe ist definitiv besser (Texturen, Vegetation) und dazu weniger Ghosting, auf Kosten von etwas mehr Aliasing. Video ab hier: https://youtu.be/Mk5QtqsSj8Y?t=503
Genau das selbe Verhalten sieht man ja auch mit der FSR 4.1 DLL am PC.
Ich meine AMD und Sony sollten die letzten 12 Monate hoffentlich dazu genutzt haben, um ein Portierungswerkzeug erstellt zu haben. Wenn AMD ein FSR 4.5 oder FSR 5 rausbringt, sollte man das mit einem automatischen Prozess auf die INT8 Realisierung von PS5 Pro portieren können. Das jedes mal "von Hand" zu machen wäre ja komplett unsinnig. Und zeitgleich könnte man das selbe Werkzeug auch dazu nutzen, eine INT8 Version für PC zu bringen. Win-Win ;)
Eine der am meisten durch ihre VRAM-Bestückung vergewaltigten Karten ever, sieht man wieder schön an den folgenden Benchmarks. Die Reviewer haben die aufgrund der Leistungssteigerung damals viel zu gut wegkommen lassen (inkl. vieler Spieler, die fleißig Defense Force gespielt haben).
Man hat seine Lektion insofern gelernt, dass die 4070 und 5070 die Kritik dann deutlich stärker abbekommen haben, obwohl diese bisher wesentlich besser gealtert sind. Aber ich kann mich natürlich nicht ausnehmen, ich hab sie (trotz schlechten Bauchgefühls) ja auch gekauft... Immerhin war das Upgrade auf die 4070 preislich akzeptabel, aber diese Karte hätte so niemals auf den Markt kommen sollen.
Es kann auch immer mal vorkommen, dass ein Spiel eine signierte Optiscaler.dll braucht wenn wirklich alle Stricke reißen...dann müsst ihr zwingend auf die Builds vom Discord ausweichen auch wenn sie älter sind.
Den Stress bzgl. Signierung möchte ich mir persönlich nicht auch noch machen...und ganz trivial ist das auch nicht.
Raster halt nur noch hingeschissen. Auf der normalen PS5 also viel schlechtere Grafik als in Hellblade 2, wo das Self Shadowing mit SWRT gut funktioniert.
Will jetzt die neue RE aber auch nicht zu sehr bashen, die macht mit HWRT schon diverse Dinge besser als UE5.
Ich habe jetzt alle meine Plasmas im Haushalt wieder ausgegraben. Und mit 90° Wandhalterungen bestückt. Da ja dank Photovoltaik der Stromsparwahn vorbei ist.
Der letzte Panasonic GT50 3D Plasma, hat sogar noch eine funktionierende Youtube-App drauf. Allerdings für 90° Betrieb nicht sooo prall, da Blickwinkelabhängigkeit.
Der noch ältere S10 Panasonic ist absolut blickwinkelstabil. Und ist allgemein der beste Gaming-Plasma: hellster, schnellster. Ist wie ein 46" CRT an der Wand, wahlweise mit vertikal Betrieb für Arcade Games wie Mercs in MAME.
An sich beide sind bombastisch für Retro Games. Der GT50 mit 2D-->3D kann sogar sehr glaubhaft, auf knopfdruck ein PSOne Game in 3D Umwandeln. Neue Emulatoren wie Dolphin sowieso.
Ich hab jedes TV mit einem alten Steamdeck und Laptop bestückt wo Launchbox/Retroarch drauf ist.
Also bringt nicht immer das ausloten etwas. Ich habe gesehen das zum Beispiel ein unoptimierter 9950x3d bei so um die 5 GHz Schluss ist und manchmal erst bei 5,1 auf zweite und 5 GHz auf das erste chiplet wegen dem extra Cache. Mit Optimierung und so war es dann bis zu 5,4 GHz allcore möglich. Diese hat alle Parameter genutzt aber hat ja auch eine sehe starke wasseekühlung verwendet.
Unoptimiert war also die Temperatur schon höher gewesen weil alles was geht und es nutzte kaum avx.
Sobald da mal richtig avx genutzt worden war landete diese CPU direkt auf 95 Grad und endete bei 4,7 GHz auf chiplet 1 und chiplet 2 auf 4,8 GHz.
Das ist in sofern interessant weil auch ich mit dem 265k ebenso mit Temperaturen Begrenzung auf 90 Grad ebenso auf 4,8 GHz lande und teilweise schwankend auf 5 GHz.
Es ist also normal das bei avx 1&2 Nutzung der hohe Takt ein Ende hat . Die CPU wird sonst zu heiß wie ein Backofen.
Der einzige Unterschied was noch ist ,die Person nutzt noch immer Wasserkühlung und ich nutze Luftkühlung und nicht mal einen der stärksten.
Villeicht hätte ich es mit dem Noctua nh-d15 die Temperatur auch ohne Begrenzung geschafft wer weiß.
Nun gut ,nun weiß ich wenigstens wie sich ein unoptimierter 9950x3d sich so verhält. Im Grunde genommen wie ein normaler 9950x.
Ich ging allerdings davon aus das eine Chip der eine besonders gute Chipgüte hätte automatisch kühler wäre oder besonders geringer Spannung aufweisen würde und dadurch dann auch kühler wäre. Das scheint wohl ein Irrglaube zu sein. Liegt wohl an dem extra Cache das die CPU nicht ganz optimal gekühlt werden kann.
Und wenn man dann noch Luftkühlung verwendet wird genau der extra Cache zu einem Problem.
Mir war das nicht bewusst gewesen und der starre Wunsch einen bestimmten allcore Takt zu erreichen ein wenig unrealistisch zu sein scheint. Zumindest bei den 16 kerner von AMD scheint das wohl zu gelten bzw zu richten.
Ich hätte da wohl auch ein Temperatur limit setzen müssen. Das führt dann zu einem kleinen Takt Abschlag also Verlust. Der wohl besser ist als durch Temperatur wegen eine starke Drosselung zu haben.
Ohne Temperatur Begrenzung war bei avx 1&2 Vollast mein 265k bei 4,4 GHz p Kerne Takt Schluss gewesen.
Das Verhalten habe ich genau so beobachtet. Dem 9950x3d würde es da wohl auch so ergehen.
Und es wird nachgesagt das AMD bei avx besser sei. Das gillt nur bei avx 512 aber nicht bei avx 1&2,da ist Intel und AMD gleich stark.
Nun gut ,ich hoffe das es bei Zen 6 besser laufen wird. Ich kann kein Hitze treter brauchen und wenn dieser keine 5,2 GHz packt ,wird sich die Leistung nicht wirklich vom 265k abheben können. Bei 5 GHz kann eben ein 16 Kerner nicht die Power so Richtig ausspielen. Ist schon lustig das ich von allcore Takt lebe.
This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later.
https://www.patreon.com/posts/voxta-...-api-151927116
Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.
Zitat:
Zitat von Coroner
(Beitrag 13888952)
Ich genieße gerade meine Freiheit nach zu viel einengendem mindfuck .................. und wenn eine Frau mein PC-setup nicht akzeptiert ist sie sowieso die falsche, man muss einfach Prioritäten setzen :cool:.
Dein Setup ist der absolute Trennungsgrund schlechthin. Mein innerer Monk ist gerade gestorben.
Zitat:
Zitat von Raff
(Beitrag 13887366)
In Resi 9 geht RDNA 4 ordentlich ab ...
Die Engine performt vorbildlich, selbst ...
B570 lief wohl ganz gut
Kannst Du per Optiscaler DLSS-->XeSS und XeFG (MFG) erzwingen?
interessant wäre dann FHD@balanced mit RT, ob da die 10GB-Vram reichen
sorry für OT, passt aber gerade gut, bzw. wenn AMD keine Entry-Grakas mehr anbietet, muss man auch mal woanders schauen https://www.techpowerup.com/346787/i...-beta-released
scheint zumindestens für Axxx in Requiem besser zu sein
Zitat:
Zitat von robbitop
(Beitrag 13887637)
Es gibt ja schon eine kleine Weile den CRT Beamshader, der zwar kein VRR macht aber auch so ejn rolling strobe macht und der kostet auch sofort sichtbar Helligkeit.
Natürlich kostet eine Softwarelösung Helligkeit, die kann ja nur auf ganzen Frames arbeiten.
In Hardware würde man aber die Helligkeit während die LEDs aktiv sind pushen um den Verlust während sie aus sind auszugleichen.
Zitat:
Zitat von Gouvernator
(Beitrag 13882531)
Der Bestand hat sich von 8 Stück auf 26 erhöht. Und das ist auch neu...
Von 26 Stück für 4300 sind nur noch 3 Stück übrig. Immer noch nur für "Firmenkunden". Es scheint wohl ein Run auf die KI GPU's seitens Firmen zu geben.
Zitat:
Zitat von Hakim
(Beitrag 13887274)
So wie es aussieht sollte man sich nicht stur auf das Asus tool verlassen? Oder hat das Mod die Tool Sensoren irgendwie beeinträchtigt?
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken