@hq-hq:
Das der Takt der einzelnen Kerne in Games immer schwankt ist normal , weils nicht mehr braucht, darum habe ich auch diesen 34min. Cinebench run gemacht. In Cinebencht fällt der Takt nur kurzzeitig runten zwischen den renderpasses. Aber hier nochmals für dich Cinebench und vorallem Prime95 wo die Last/Takt permanent anliegt .
Zitat:
Zitat von Coroner
(Beitrag 13888010)
Dass der AB oberhalb des Radiators sein sollte ist doch nur praktisch zur Entlüftung, ansonsten ist es doch relativ egal
Eigentlich nicht...
Solange der Loop richtig dicht ist, wäre das ok. Aber wenn nicht, hast du Spaß und die Suppe läuft raus
Zitat:
Zitat von Raff
(Beitrag 13887366)
In Resi 9 geht RDNA 4 ordentlich ab ...
Die Engine performt vorbildlich, selbst ...
B570 lief wohl ganz gut
Kannst Du per Optiscaler DLSS-->XeSS und XeFG (MFG) erzwingen?
interessant wäre dann FHD@balanced mit RT, ob da die 10GB-Vram reichen
sorry für OT, passt aber gerade gut, bzw. wenn AMD keine Entry-Grakas mehr anbietet, muss man auch mal woanders schauen https://www.techpowerup.com/346787/i...-beta-released
scheint zumindestens für Axxx in Requiem besser zu sein
Zitat:
Zitat von robbitop
(Beitrag 13887637)
Es gibt ja schon eine kleine Weile den CRT Beamshader, der zwar kein VRR macht aber auch so ejn rolling strobe macht und der kostet auch sofort sichtbar Helligkeit.
Natürlich kostet eine Softwarelösung Helligkeit, die kann ja nur auf ganzen Frames arbeiten.
In Hardware würde man aber die Helligkeit während die LEDs aktiv sind pushen um den Verlust während sie aus sind auszugleichen.
Zitat:
Zitat von Gouvernator
(Beitrag 13882531)
Der Bestand hat sich von 8 Stück auf 26 erhöht. Und das ist auch neu...
Von 26 Stück für 4300 sind nur noch 3 Stück übrig. Immer noch nur für "Firmenkunden". Es scheint wohl ein Run auf die KI GPU's seitens Firmen zu geben.
Zitat:
Zitat von Hakim
(Beitrag 13887274)
So wie es aussieht sollte man sich nicht stur auf das Asus tool verlassen? Oder hat das Mod die Tool Sensoren irgendwie beeinträchtigt?
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von kemedi
(Beitrag 13886040)
Mal so gefragt:
RR hat ja bisher kein Update bezüglich 2nd Generation Transformer bekommen - so weit, so bekannt. Mir stellt sich die Frage, ob ein solches Update überhaupt nötig ist, was mich dann zu folgendem geführt hat:
Ich habe mir mal Ultra-Performance in Dark Ages angeschaut. Native Auflösung sind 3440x1440 Pixel.
Hab ich was auf der Brille oder ist RR, egal ob mit Preset D oder E, einfach total matschig im Vergleich zu Preset M/L ohne RR? Rein auf Dark Ages bezogen. Keine Ahnung, wie es zum Beispiel in Cyberpunk o.Ä. aussieht, muss ich mir anschauen :D
Was RR im Vergleich zum Standard-Denoiser besser macht, ist in diesem Fall zum Beispiel deutlich an den Texturen zu sehen. Die sind auch mit Preset M/L ohne RR deutlich matschiger. Dafür ist aber das gesamte Bild sehr unscharf im Vergleich zu den anderen Presets ohne RR.
Grundsätzlich ist das ja nachvollziehbar - aber gibt es da Tricks, um entweder RR schärfer zu bekommen oder ohne RR bessere Texturen zu haben?
SpecialK? OptiScaler? MipMap-Bias? Irgendwas? :D
Bilder liefere ich bei Bedarf gern nach, hab nur grad spontan keine zur Hand ;)
Edit:
Mit deaktiviertem Pathtracing ist das Problem mit den Texturen @Standard Denoiser weg. Aber leider gibt's bei Dark Ages ja kein RR ohne PT X_X
Naja eines der neuen Modelle hat den Namen RR mini. Insofern ist es das normale DLSS-SR was durch 4.5 ein upgrade bekommen hat was mehr Richtung RR geht und damit auf den gleichen Stand gebracht wurde. Wenn man sich mal den overhead in ms anschaut ergibt das so auch Sinn.
Für Games muss man die Simulationen natürlich vereinfachen. Man kann weniger Vertices / Segments nehmen, da oftmals eine deutlich geringere Simulations-Auflösung ausreicht.
Der Wuschel-Afro dauerte nur 7ms zum simulieren und sah verdammt gut aus. Anstatt 1.5 Mio Segmente zu nehmen, kann man das evtl. auf 200...300k senken und schon sind wir im brauchbaren Rahmen für einen Heldencharakter. Und sowas kann man in Games via Optionsmenü skalieren. Hat man eine schlechtere GPU, reduziert man die Simulationsqualität (entweder Anzahl Vertices oder zeitliche Simulationsauflösung).
Und wer weiss was die Zukunft bringt. Der direkte Vorgänger (VBD) ist erst 1 Jahr alt und wurde mit der neuen Technologie deutlich überrundet.
Ein weiterer Ansatz:
Diese Simulationen als Input für ein DNN nehmen. Das DNN ersetzt dann den "Brute Force" Simulations-Algorithmus. Oder den Algo mittels DNN erweitern: Die zeitliche Step-Size erhöhen und die Zwischenschritte mittels DNN approximieren.