Ehrlich gesagt sehe ich aber keinen optischen Unterschied zwischen FG 3.1.6 und FG 4.0.0. Ich betrachte sowas aber auch nicht mit 5% Speed im 400% Zoom. :D Das überlasse ich den Pixelzählern. ;)
Zitat:
Zitat von Taigatrommel
(Beitrag 13851812)
Die fehlende Unterstützung für Vulkan stört mich ebenfalls. Ist denn bekannt, ob zumindest dran gearbeitet wird oder lässt man das stillschweigend sein?
AMD unterstützt Vulkan nur sehr spärlich. Schon FSR3 bekam den Vulkan-Support sehr viel später.
Zitat:
Zitat von RoNsOn Xs
Hey Joseph,
könntest du sonst hier nochmal exakt auf meine Fragen eingehen, wie ich sie im Thread stellte? Werde ansonsten übers Weekend nochmal bisschen versuchen zu tunen. :smile:
Das ist meine Kurve, beim VRAM habe ich einfach AB gemaxt, +3000 das läuft fast bei jeder RTX 5080. Bringt aber nicht so viel wie die hohe Zahl suggeriert aber ein bisschen je nach Spiel. Kannst das aber auch auf 0 lassen, und dafür die GPU höher ziehen. Ich habe immer schon beides getunt. Warum dein Takt in Steel Nomad sank, weiß ich nicht, bei mir ist der Takt immer fest angetackert. Vlt. war deine Kurve anders?
9800X3D boxed für ca. 370 Effektivpreis möglich.
Hab mir mal zum Spaß einen gekauft, auch wenn ich noch keinen RAM habe. :D
Hm, ich habe Ram aber noch keine CPU. :uponder::|:biggrin:
Ich kann zu dem Shop nichts sagen, die 28 Bewertungen Bei GH sind Ordentlich aber bei Trustpilot steht der Shop sehr schlecht da (aber auch nur 11 Bewertungen), daher Vorsicht!
Zitat:
Zitat von Ganon
(Beitrag 13850888)
Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.
Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Xe3 in PTL kommt vor der größeren Xe2 dGPU. Naja das wird für längere Zeit die letzte Consumer dGPU, weil Celestial in Xe3p gestrichen wurde.
Vor 2028-2029 wird man wahrscheinlich nichts Neues bekommen, weil Intel andere Prioritäten verfolgt. Zum Beispiel mit AI Chips wie Jaguar Shore, der die Xe4 Architektur vor den iGPUs bekommt. Vorher noch Crescent Island in Xe3p. Die Architekturen werden trotzdem weiterentwickelt, so könnte in ein paar Jahren Celestial noch kommen, aber dann eben nicht mit Xe3p.
Von dem was ich bisher mitbekommen habe von den ganze Billigen ist die Prime noch ganz in Ordnung, also verglichen mit Swift, Reaper, Steel legend, Challenger und Co.
Die Evo ist halt nochmals etwas Billiger (Kühler etwas kleiner) gemacht als die normale Prime, daher denke bei der 9070 ok, bei 9070XT, hm da lieber die normale Prime?
Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.
Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen
Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.
Zitat:
Zitat von Gymnopédies
(Beitrag 13849362)
Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten.
Die eigene Handschrift hat 0% mit der Engine und 100% mit dem Artstyle zu tun.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von Dorn
(Beitrag 13848179)
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D
Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.
Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.
Zitat:
Zitat von x-force
(Beitrag 13847177)
das sind 0,1v mehr als nv bei den karten sonst freigibt.
bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:
Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).
Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.