Ich habe mir mehr oder weniger aus Langeweile einen 9950x3d gekauft (599€ auf Amazon black Friday). Wie kann es sein, dass ich mit dem x3d lediglich schlechtere Latenzen fahren kann, als mit einem non-3d? Um dem ganzen die Krone aufzusetzen, der ist selbst mit 8500mt/s noch stabil, trotzdem geht selbst bei 8300 mt/s nicht viel mit Tuning. Sehr seltsam das Ganze.
Blablabla. Ich schau es mir car nicht erst an. Es gab schon soooooo viele Speicherrevolutione. Nur Wunderakkus gibt es noch mehr.
Vor ein paar Jahren sollte Toshiba was bringen mit RRam oder was es auch immer war recht weit gebracht. Wenn ich mich recht erinnere gab es schon kommerzielle Produkte nur eben nicht für den Massenmarkt mit den entsprechenden Volumina und Preisen um DRAM zu ersetzen. Aber am Ende kam dann doch nichts.
Und von Intels PMem mal ganz zu schweigen, dass das sogar wirklich im Massenmarkt war und dennoch gescheitert ist.
Zitat:
Zitat von DerKleineCrisu
(Beitrag 13849819)
Ich würde echt nun gerne wissen ob von blau über noch wirklich die b770 kommt.
Man hört ja überhaupt nix mehr davon , nicht mal Gerüchte weise
https://videocardz.com/newz/intel-fo...oftware-update
Ich würde da keine revolutionären Erkenntnisse erwarten, was da kommt, kann man ja ungefähr abschätzen. FSR4 ist jetzt schon gut genug, falls man wirklich eine Radeon in Betracht zieht.
Zitat:
Zitat von Gymnopédies
(Beitrag 13849362)
Ich werds nie verstehen, wie man dieses gefühlte "Monopol" gut finden kann, unabhängig von der "Grafik". Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten. Es fühlt sich schon sehr oft Gleich an, Pathtracing und bliblablub hin oder her, gut ist dieses Entwicklung definitiv nicht, wie auch die Entwicklungen im Hardware Bereich. Gaming wird Luxus in Zukunft aber so richtig....mal schauen wie weit ich noch komme mit meinem 7800X3D und 4090 und 64Gb DDR5^^
weils auch kein Monopol ist, Duo oder Oligopol wie du es magst.. natürlich ist AMD null innovativ und wenn man high end will einfach keine option aber dennoch hat der Kunde die Wahl und darum gehts.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von IceKillFX57
(Beitrag 13846397)
DLSS dürfte eigentlich nicht nur für Gamer interessant sein.
Sowas in 3DS MAX,Blender, Maya oder VR außerhalb des Gaming dürfte auch gewünscht sein.
Das Ultra Performance Preset mit der Qualität von Performance wär echt was feines.
kommt in den Blender viewport mit der nächsten Version, DLSS ist aber fürs rendern nicht hilfreich weil keine temporale komponente. die denoiser sind dafür auch schon drin
Zitat:
Zitat von Dorn
(Beitrag 13848179)
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D
Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.
Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.
Zitat:
Zitat von x-force
(Beitrag 13847177)
das sind 0,1v mehr als nv bei den karten sonst freigibt.
bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:
Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).
Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.
Zitat:
Zitat von Badesalz
(Beitrag 13846708)
Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.
Auch nicht darüber, daß China nicht in der MS365-Hölle steckt.
Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.
Zitat:
Zitat von Relex
(Beitrag 13846369)
(CoD oder Das Spiel hier)
Zwei Spiele zeigen noch keinen Trend.
Vielleicht sollten sie neue Engines entwickeln, die sofort für RT optimiert sind.
RT wurde hier ja auf vorhandene Engine angeflanscht