ja, ich erinnere.. ist wie damals in den neunzigern, wo die fiat-turbo-fahrer versucht haben, gegen leute mit richtigen autos anzustinken - und gegen die war damals jeder golf2 ein richtiges auto.
bezogen auf das was im heimischen rechner steckt darüber zu philisophieren, ob man lieber das eine oder das andere bevorzugt ist mir zu müßig. ich habe soviele rechner unter mir.. die könnte keiner von euch zählen.
Zitat:
Zitat von Sardaukar.nsn
(Beitrag 13853256)
Viel Spaß damit. Da kannst du wahrscheinlich noch 400mhz auf den core und 3000 auf den Vram packen.
Immer noch zufrieden mit der Prime - danke für den Tipp von damals.
Ist eine lautere Karte als meinen letzten beiden, aber P/L war ich diesmal nicht bereit die 1300-1500 € in den Rachen zu werfen für war wirklich ruhiges. Eine 5060 TI für den Kühler was mir diesmal echt nicht wert. Eher noch eine SSD bevor die teuer werden (was auch geworden ist).
Hab bisher mit Cyberpunk (volles PT etc) getestet 3220-40 Mhz laufen noch mit auto Lüfter (100 % muss nicht sein :freak:) auf dem Core. Bin mit dem Ergebnis ohne Wakü, oder Bios-Flash zufrieden.
Ram war ich erst bei +800. Anscheinend hab ichs da mit dem Vortasten übertrieben, da ist wohl noch ein größerer Sprung drinn.
Zitat:
Zitat von Matrix316
(Beitrag 13854095)
Wäre da eine 5070 oder 5070TI nicht billiger gewesen? :ugly:
Kommt drauf an was man will. Ich kaufe zwar auch keine Karte um dann "Strom zu sparen" aber größere Karte = Kühler für mehr TDP eingerichtet und damit leichter leise zu bekommen. Außerdem voller Chip und mehr Einheiten = effizienter bei gegebener Leistungsanforderung. Damit wären wie wieder bei Leise (oder ggf NT :freak:). Ich würde zwar eher Wakü nehmen aber evtl .......
Letztlich ist die 5080 halt voller Chip mit möglichem TDP Budget um in die Nähe der 4090 zu kommen, wenns mans braucht oder will. Das wird selbst mit 5070 TI nix, schon gar nicht mit kleinen 5070 und anderem Chip und Specs.
Umgekehrt: Vielleicht wird zB nach einer Runde Dead Space wird jetzt halt was weniger forderndes gespielt und nicht jeder will den PC Im Winter als Heizstrahler nutzen. ;)
Vielleicht besteht auch nur eine (gesunde) Angst vor dem Stromstecker. Ich frage mich ja schon wenn meine Burnswell GF 5 MX zur Blackburned wird dank 12 V high Failure Stecker. :freak:;D
Wenn ich mich nicht bewege und sich entsprechend am Bildinhalt auch nichts ändert gibt es praktisch keine Lastdynamik. Zudem passen die Frequenzen vom Bildschirm ohne FG immer zu den angezeigten Frameraten. Nur bei FG On löst sich die Logik hier auf. :D
btw.
Ist das bei deinem System auch so, dass die Frequenzen am Bildschirm nicht mehr zu den Frameraten passen sobald FG aktiviert ist? Einfach im beliebigen Spiel sich irgendwo hinstellen, nicht bewegen und beides abgleichen. Und ich meine jetzt hier nicht mickrige Unterschiede von 1-2Hz.
FSR-FG 3.1.6 schmiert immer noch, sonst wie immer... läuft. Ok... fast wie immer, kürzlich gabs ja nach Redstone-Neuerungen Crashes mit HDR. Kann ja mal passieren wenn vieles neu kommt. :)
Zitat:
Zitat von Lurtz
(Beitrag 13853650)
Also bei den OLEDs habe ich die maximal möglichen 30 Tage eigentlich fast ausgereizt. Wobei ich bei dem letzten ja erst keine Probleme hatte, die kamen dann erst nach ein paar Tagen Pause wieder... Von daher werde ich nicht schlau draus. Falls ich den IPS jetzt behalte, kann ich es natürlich nochmal länger versuchen, falls es nicht zu unangenehm wird.
Bitte nicht bös sein, aber mit den von dir beschriebenen Symptomen würde ich mal ein CT machen lassen, das ist schon mehr als ungewöhnlich. Im besten Fall ist es nichts und du musst eben weiter mit der Unannehmlichkeit leben, aber nicht dass es doch eine ernsthafte Erkrankung ist die du damit rechtzeitig erkennst.
Zitat:
Zitat von Angiesan
(Beitrag 13853402)
Wenn ich mich recht erinnere, hat er dazu auch mal was in einem Video gesagt. Angeblich hat die Karte ihn $ 10.000,- gekostet, vergleichbar wenig und sicherlich nicht nur heute ein begehrtes Sammlerstück ;-).
Für 10.000 ist das ja ein Schnäppchen. Interessant fand ich beim Video das er penibel alle Seriennummern ab geklebt hat - er wollte also verhindern das man aufgrund der Seriennummern nachvollziehen kann um welche Karte es sich handelt.
Glaubt ihr die Karte wurde ohne das Wissen von NVidia entwendet und verhökert? Dafür finde ich 10.000 auch wieder wenig - wer begeht für den Betrag eine Straftat und riskiert seine Berufliche Laufbahn?
Zitat:
Zitat von GerryB
(Beitrag 13853818)
sollte RDNA4 nicht in ca. 5mV-Steps arbeiten, ...+kleine Schwankungen= Rundungsfehler
Wie feingranular jede Spannungsstufe bei RDNA4 ist habe ich noch nicht rausgefunden. Bei RDNA1 und RDNA2 waren es 6,25mV. Bei RDNA3 eventuell auch noch. Bei RDNA4 womöglich die Hälfe davon oder sowas.
Ich habe übrigens ein besseres Testszenario gefunden um das mit dem 25mV Delta zu untermauern. Diesmal habe ich das Powerlimit auf max. 334W hochgeschraubt damit es nicht dazwischen grätscht und mir die Taktstufen versaut. Trotzdem ist es mir nicht ganz gelungen exakt den gleichen Takt in beiden Fällen zu treffen, ein Delta von 6Mhz liegt immer noch vor. Bei einem Delta von nur noch 6Mhz sehen wir hier schon ein Delta von 21mV.
Hier noch die Frameraten, wobei diese im Kontext hier keine Rolle spielen. Ist ja logisch, dass die Performance bei gleichen Taktraten gleich ausfallen muss. Anhang 94885
PS: bei diesem Testszenario sieht man dann auch besser die Verbrauchsersparnis. 21mV weniger ergeben immerhin 12 Wattchen weniger.
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Gipsel
(Beitrag 13850215)
Speichercontroller-Lotterie
Ne, das Problem lag ganz anders! Zum Einen muss ich leider behaupten, dass ich das dümmste Schaf auf Erden bin und das Problem lag tatsächlich lediglich ausschließlich daran, dass ich mit dem x3d keine +200Mhz bei allcore -15 fahren kann. Auf 175MHz läuft alles in Butter. Ich hätte sicher auch das UV anpassen können, dies will ich aber nicht. Diesbezüglich ging mein non3d besser, aber nun gehen 8400mt/s echt easy, was der non 3d nicht geschafft hat. Bei dem war bei ~8370mt/s Ende.
Zitat:
Zitat von Lurtz
(Beitrag 13853175)
Ich hoffe jetzt eher das sind Treiberprobleme
Möglich. Wenn Blackwell crasht, crasht das offenbar gerne hart die Firmware o.ä. auf der Karte. Hab ich schon bei diversen Sachen gehabt (Ursache aber keine Treiber-Crashes/Bugs direkt): Der Treiber kam dann nach einem Reset gar nicht mehr aus den Puschen und ich musste das System erstmal komplett ausschalten.
Zitat:
Zitat von Ganon
(Beitrag 13850888)
Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.
Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Xe3 in PTL kommt vor der größeren Xe2 dGPU. Naja das wird für längere Zeit die letzte Consumer dGPU, weil Celestial in Xe3p gestrichen wurde.
Vor 2028-2029 wird man wahrscheinlich nichts Neues bekommen, weil Intel andere Prioritäten verfolgt. Zum Beispiel mit AI Chips wie Jaguar Shore, der die Xe4 Architektur vor den iGPUs bekommt. Vorher noch Crescent Island in Xe3p. Die Architekturen werden trotzdem weiterentwickelt, so könnte in ein paar Jahren Celestial noch kommen, aber dann eben nicht mit Xe3p.
Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.