Zitat:
Zitat von Lurtz
(Beitrag 13849024)
Kann es sein dass der Black Smear von VA je nach Temperatur schlimmer wird?
Üblicherweise ist LCD langsamer, wenn es kalt ist.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von dmsephiroth
(Beitrag 13848821)
Hoffe eher auf 5070ti Modelle ;p
Du suchst doch schon seit Monaten eine 5070 Ti, seitdem gabs zig Angebote. Keine Ahnung auf was du wartest.
Zitat:
Zitat von IceKillFX57
(Beitrag 13846397)
DLSS dürfte eigentlich nicht nur für Gamer interessant sein.
Sowas in 3DS MAX,Blender, Maya oder VR außerhalb des Gaming dürfte auch gewünscht sein.
Das Ultra Performance Preset mit der Qualität von Performance wär echt was feines.
kommt in den Blender viewport mit der nächsten Version, DLSS ist aber fürs rendern nicht hilfreich weil keine temporale komponente. die denoiser sind dafür auch schon drin
Ich hab mir die Venedig Demo mal geladen und den Build mit UE5.4 und 5.7 verglichen.
Im CPU Limit ist 5.7 ca 45% schneller als 5.4.
Im GPU Limit sind es 15%.
Grafisch ist die Demo aber nicht wirklich beeindruckend. Keine Ahnung an was es liegt, aber nach Indy mit Pathtracing und DLSS RR sieht das irgendwie ziemlich veraltet aus. Vielleicht bin ich einfach nur von Pathtracing versaut... Aber ich denke das liegt zum großen Teil daran dass das nur ne Asset Demo ist und man sich beim Lighting nicht allzu viel Mühe gegeben hat.
Die letzten Nvidia Zorah demos sahen auch ohne RTX irgendwie besser aus.
Zitat:
Zitat von raffa
(Beitrag 13848394)
Leider immer noch deutlich langsamer als unter Windows
Jetzt wär noch spannend, ob die CPU-Last in Linux vergleichbar ist mit Windows oder ob die Treiber generell komplett anders aufgestellt sind.
Zitat:
Zitat von Dorn
(Beitrag 13848179)
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D
Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.
Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.
Zitat:
Zitat von x-force
(Beitrag 13847177)
das sind 0,1v mehr als nv bei den karten sonst freigibt.
bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:
Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).
Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.
Zitat:
Zitat von Badesalz
(Beitrag 13846708)
Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.
Auch nicht darüber, daß China nicht in der MS365-Hölle steckt.
Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.
Zitat:
Zitat von Dant3
(Beitrag 13846999)
Grundsätzlich kotzt es mich mit der grafikkarten lotterie nur noch an.
Die hersteller können noch so tolle kühler / lüfter verbauen, wenn die spulen so ein riesige schwachstelle sind bringt das doch alles nichts und erscheint einfach nur noch absurd. Ich war und wäre ja eigentlich immer noch ein riesiger freund von optimierten silent systemen, aber man kann am restlichen system wirklich alles raus holen, die grafikkarte scheißt dir dann einfach mal quer in alles rein und es hat sich mit silent erledigt.
Früher gabs Lotterie bei Monitoren (LCDs) die mich auch nur noch angekotzt hatte, heute sind es Grafikkarten. :freak:
Zitat:
Zitat von Relex
(Beitrag 13846369)
(CoD oder Das Spiel hier)
Zwei Spiele zeigen noch keinen Trend.
Vielleicht sollten sie neue Engines entwickeln, die sofort für RT optimiert sind.
RT wurde hier ja auf vorhandene Engine angeflanscht