Zitat:
FSR was non-driver level FG, unlike DLSS, so interfacing with the graphics API in a way for it to be seamless-enough for devs.
Zitat:
Obviously cant speak for the FSR team any more- but when I stood up at GDC and said that frame pacing was the hardest part of FSR 3, I was not joking! It's all about tradeoffs, and it's not perfect.
Zitat:
The solution to this? Put all pacing in the driver or API extensions. That was against the FidelityFX cross-platform and open ecosystem goals at the time. Doesn't seem like that's an issue now?
https://bsky.app/profile/domipheus.b.../3ma3qii7g2c2f
Irgendwas war mit dem kürzen vom Intro weil sonst zuviele Hinweise auf den Verkäufer gegeben worden wären. Es ist naheliegend das ein YTer dahinter steckt.
Zitat:
Zitat von dargo
(Beitrag 13854171)
Deine Aktualisierungsfrequenz kannst du ruhig etwas runter schrauben. 1x die Woche reicht eigentlich auch völlig aus. Es sei denn dir ist langweilig, dann hau raus. :D
bis jetz will mich noch kein Mod an die Wand stellen, obwohl:biggrin:
Der Gedanke kam mir schon, so ist es nicht. Vielleicht ist da wirklich etwas nicht in Ordnung. Auf der anderen Seite wurden moderne Bildschirme erst in meiner Lebenszeit erfunden, also null evolutionäre Anpassung. Finde es schon plausibel, dass nicht alle Menschen damit klar kommen, zB. mit einer gewissen Art von "Flackern", was ja auch Local Dimming immer in einer gewissen Ausprägung mit sich bringt. Mit vielen Bildschirmen habe ich ja wiederum nicht die geringsten Probleme. Im Internet findet man durchaus einige Vertreter meiner Gattung, die da einfach extrem sensibel sind.
Kann mir eher nicht vorstellen, dass mich ein Arzt dafür ins CT schiebt. Könnte mich höchstens dumm stellen und behaupten auch auf der Arbeit Probleme zu haben...
Zitat:
Zitat von Sardaukar.nsn
(Beitrag 13853256)
Viel Spaß damit. Da kannst du wahrscheinlich noch 400mhz auf den core und 3000 auf den Vram packen.
Immer noch zufrieden mit der Prime - danke für den Tipp von damals.
Ist eine lautere Karte als meinen letzten beiden, aber P/L war ich diesmal nicht bereit die 1300-1500 € in den Rachen zu werfen für war wirklich ruhiges. Eine 5060 TI für den Kühler was mir diesmal echt nicht wert. Eher noch eine SSD bevor die teuer werden (was auch geworden ist).
Hab bisher mit Cyberpunk (volles PT etc) getestet 3220-40 Mhz laufen noch mit auto Lüfter (100 % muss nicht sein :freak:) auf dem Core. Bin mit dem Ergebnis ohne Wakü, oder Bios-Flash zufrieden.
Ram war ich erst bei +800. Anscheinend hab ichs da mit dem Vortasten übertrieben, da ist wohl noch ein größerer Sprung drinn.
Zitat:
Zitat von Matrix316
(Beitrag 13854095)
Wäre da eine 5070 oder 5070TI nicht billiger gewesen? :ugly:
Kommt drauf an was man will. Ich kaufe zwar auch keine Karte um dann "Strom zu sparen" aber größere Karte = Kühler für mehr TDP eingerichtet und damit leichter leise zu bekommen. Außerdem voller Chip und mehr Einheiten = effizienter bei gegebener Leistungsanforderung. Damit wären wie wieder bei Leise (oder ggf NT :freak:). Ich würde zwar eher Wakü nehmen aber evtl .......
Letztlich ist die 5080 halt voller Chip mit möglichem TDP Budget um in die Nähe der 4090 zu kommen, wenns mans braucht oder will. Das wird selbst mit 5070 TI nix, schon gar nicht mit kleinen 5070 und anderem Chip und Specs.
Umgekehrt: Vielleicht wird zB nach einer Runde Dead Space wird jetzt halt was weniger forderndes gespielt und nicht jeder will den PC Im Winter als Heizstrahler nutzen. ;)
Vielleicht besteht auch nur eine (gesunde) Angst vor dem Stromstecker. Ich frage mich ja schon wenn meine Burnswell GF 5 MX zur Blackburned wird dank 12 V high Failure Stecker. :freak:;D
Zitat:
Zitat von GerryB
(Beitrag 13853818)
sollte RDNA4 nicht in ca. 5mV-Steps arbeiten, ...+kleine Schwankungen= Rundungsfehler
Wie feingranular jede Spannungsstufe bei RDNA4 ist habe ich noch nicht rausgefunden. Bei RDNA1 und RDNA2 waren es 6,25mV. Bei RDNA3 eventuell auch noch. Bei RDNA4 womöglich die Hälfe davon oder sowas.
Ich habe übrigens ein besseres Testszenario gefunden um das mit dem 25mV Delta zu untermauern. Diesmal habe ich das Powerlimit auf max. 334W hochgeschraubt damit es nicht dazwischen grätscht und mir die Taktstufen versaut. Trotzdem ist es mir nicht ganz gelungen exakt den gleichen Takt in beiden Fällen zu treffen, ein Delta von 6Mhz liegt immer noch vor. Bei einem Delta von nur noch 6Mhz sehen wir hier schon ein Delta von 21mV.
Hier noch die Frameraten, wobei diese im Kontext hier keine Rolle spielen. Ist ja logisch, dass die Performance bei gleichen Taktraten gleich ausfallen muss. Anhang 94885
PS: bei diesem Testszenario sieht man dann auch besser die Verbrauchsersparnis. 21mV weniger ergeben immerhin 12 Wattchen weniger.
Auch hier 21mV Delta zu -45mV. Womöglich gibts noch ganz kleine Rundungsfehler oder Messfehler bzw. Schwankungen. Jedenfalls tut der Treiber beim Spannungsoffset genau das was er soll, wollte eigentlich nur das mal zeigen. Warum allerdings hier jetzt gerade keine 286xMhz rauskommen sondern nur 2848Mhz, da bin ich gerade überfragt. Performance bleibt ja gleich. Ok... 12-18Mhz weniger sind jetzt natürlich peng, bei eh schon hohen Frequenzen. Das geht dann unter Messschwankungen unter. :tongue:
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Gipsel
(Beitrag 13850215)
Speichercontroller-Lotterie
Ne, das Problem lag ganz anders! Zum Einen muss ich leider behaupten, dass ich das dümmste Schaf auf Erden bin und das Problem lag tatsächlich lediglich ausschließlich daran, dass ich mit dem x3d keine +200Mhz bei allcore -15 fahren kann. Auf 175MHz läuft alles in Butter. Ich hätte sicher auch das UV anpassen können, dies will ich aber nicht. Diesbezüglich ging mein non3d besser, aber nun gehen 8400mt/s echt easy, was der non 3d nicht geschafft hat. Bei dem war bei ~8370mt/s Ende.
Zitat:
Zitat von Lurtz
(Beitrag 13853175)
Ich hoffe jetzt eher das sind Treiberprobleme
Möglich. Wenn Blackwell crasht, crasht das offenbar gerne hart die Firmware o.ä. auf der Karte. Hab ich schon bei diversen Sachen gehabt (Ursache aber keine Treiber-Crashes/Bugs direkt): Der Treiber kam dann nach einem Reset gar nicht mehr aus den Puschen und ich musste das System erstmal komplett ausschalten.
Zitat:
Zitat von Ganon
(Beitrag 13850888)
Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.
Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Xe3 in PTL kommt vor der größeren Xe2 dGPU. Naja das wird für längere Zeit die letzte Consumer dGPU, weil Celestial in Xe3p gestrichen wurde.
Vor 2028-2029 wird man wahrscheinlich nichts Neues bekommen, weil Intel andere Prioritäten verfolgt. Zum Beispiel mit AI Chips wie Jaguar Shore, der die Xe4 Architektur vor den iGPUs bekommt. Vorher noch Crescent Island in Xe3p. Die Architekturen werden trotzdem weiterentwickelt, so könnte in ein paar Jahren Celestial noch kommen, aber dann eben nicht mit Xe3p.
Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.