Zitat:
Zitat von Ex3cut3r
(Beitrag 13850518)
Ohne FG ist er bei 20ms. Bei rund 100-130 FPS. Und jetzt? Ist das auf einmal spielbar?
Nein. Gängiger Inputlag alter Konsolen an einem CRT liegt so bei ~8ms (Bildmitte)
Roman hatte eine Matrix auf einem Benchtable stehen und ist damit in die Top 60 gekommen. Das ist ja auch völlig in Ordnung. Ich spreche davon, 600 Watt plus Abwärme im Case zu haben über Stunden (Gaming). Natürlich besitzen viele ein Case mit gutem Airflow. Aber selbst dann bläst die GPU ihre komplette Abwärme in Richtung CPU – auch wenn eine AIO mit Radiator oben verbaut ist. Zusätzlich wird der Arbeitsspeicher heißer, was ebenfalls eher ungünstig ist, gerade auf einem Intel-System, wo man den RAM-Speed dringend benötigt. Die Komponenten altern schneller, und nicht jeder hat ein gutes Case.
Meiner Meinung nach sollten Grafikkarten mit 600 Watt oder mehr mindestens mit einer AIO ausgeliefert werden – idealerweise mit austauschbarer Pumpe, falls es zu Ausfällen kommt. 600 Watt ins Gehäuse zu pusten, halte ich für ziemlich verantwortungslos.
Dachte ich zuerst auch, ist aber mitnichten so! Die CPU mag keine hohe Spannung, des Controllers betreffend. Wo früher für VDDIO und VDDQ je 1.47v anliegen mussten, reichen nun 1.35v (vermutlich noch weniger). Hatte ich früher mal bei High-ASIC GPUs, bei ner CPU gab es dies Phänomen hier afair nicht. Alles über 1.43v führt sofort zu einem Freeze …
Ja da gibts wohl niemanden der da wiedersprechen wird, das dauert (noch immer) viel zu lang.
Die Verzögerung bei den Super Karten von NV und das AMD aktuell nichts geplant hat wäre das einzige was die Intel Karte überhaupt noch eine Chance geben könnte falls der Preis stimmt.
Die Release Politik war absolut daneben, weder kleine Karten noch große und auch die PRO haben viel zu gedauert.
Von dem was ich bisher mitbekommen habe von den ganze Billigen ist die Prime noch ganz in Ordnung, also verglichen mit Swift, Reaper, Steel legend, Challenger und Co.
Die Evo ist halt nochmals etwas Billiger (Kühler etwas kleiner) gemacht als die normale Prime, daher denke bei der 9070 ok, bei 9070XT, hm da lieber die normale Prime?
Es wird erstmal kein Riegel werden ;)
Ob das wirklich für was taugt... mittlerweile... 1 MRAM-Zelle ist so groß wie 6T SRAM-Zelle. Das große Problem war immer der Strombedarf. Eine MRAM-Zelle zu beschreiben kostete vor etlichen Jahren noch SECHS MAL soviel Nanojoule als beim SRAM.
Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.
Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen
Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.
Zitat:
Zitat von Gymnopédies
(Beitrag 13849362)
Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten.
Die eigene Handschrift hat 0% mit der Engine und 100% mit dem Artstyle zu tun.
Ich würde da keine revolutionären Erkenntnisse erwarten, was da kommt, kann man ja ungefähr abschätzen. FSR4 ist jetzt schon gut genug, falls man wirklich eine Radeon in Betracht zieht.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von Dorn
(Beitrag 13848179)
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D
Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.
Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.
Zitat:
Zitat von x-force
(Beitrag 13847177)
das sind 0,1v mehr als nv bei den karten sonst freigibt.
bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:
Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).
Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.
Zitat:
Zitat von Badesalz
(Beitrag 13846708)
Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.
Auch nicht darüber, daß China nicht in der MS365-Hölle steckt.
Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.