Zu der Pin-Abstandsgeschichte gibt es leider noch zu wenig Feedback. Und nicht vergessen... igor bezog sich explizit auf PCIe 5.0 wenn die Karte mit Riserkabel betrieben wird. Auf der anderen Seite hatten wir hier im Forum schon einen Member wo der Wechsel von PCIe 5.0 auf 4.0 Besserung brachte, und zwar ohne Riserkabel.
Zitat:
Zitat von Hakim
(Beitrag 13849514)
Freund hat sich die Acer 9070xt Bifrost geholt, ist auch Member hier. Der hat Absturz wenn er Benchen will (schwarzes Bild), wechselt jetzt den 750W MSI NT mit einem stärkeren, aber net sicher obs daran liegt. Alles Stock bei der Graka noch
Kam das schwarze Bild sofort oder lief der Benchmark ne Zeit lang? Wenn letzteres bitte die Temps. überwachen. Am NT wird das kaum liegen, es sei denn es ist defekt.
Zitat:
Zitat von Hakim
(Beitrag 13849530)
Korrektur, war ein Corsair 750W, gegen ein MSI 850W getauscht und DDU drüber laufen lassen um sicher zu gehen und hat jetzt danach kein Bild mehr. Auch keine Lust mehr heute weiter es zum laufen zu bringen
Wie darf man das nun verstehen? Jetzt hat er nicht mal ein Bild beim booten?
Zitat:
Zitat von Gymnopédies
(Beitrag 13849362)
Ich werds nie verstehen, wie man dieses gefühlte "Monopol" gut finden kann, unabhängig von der "Grafik". Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten. Es fühlt sich schon sehr oft Gleich an, Pathtracing und bliblablub hin oder her, gut ist dieses Entwicklung definitiv nicht, wie auch die Entwicklungen im Hardware Bereich. Gaming wird Luxus in Zukunft aber so richtig....mal schauen wie weit ich noch komme mit meinem 7800X3D und 4090 und 64Gb DDR5^^
weils auch kein Monopol ist, Duo oder Oligopol wie du es magst.. natürlich ist AMD null innovativ und wenn man high end will einfach keine option aber dennoch hat der Kunde die Wahl und darum gehts.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von IceKillFX57
(Beitrag 13846397)
DLSS dürfte eigentlich nicht nur für Gamer interessant sein.
Sowas in 3DS MAX,Blender, Maya oder VR außerhalb des Gaming dürfte auch gewünscht sein.
Das Ultra Performance Preset mit der Qualität von Performance wär echt was feines.
kommt in den Blender viewport mit der nächsten Version, DLSS ist aber fürs rendern nicht hilfreich weil keine temporale komponente. die denoiser sind dafür auch schon drin
Zitat:
Zitat von Dorn
(Beitrag 13848179)
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D
Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.
Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.
Zitat:
Zitat von x-force
(Beitrag 13847177)
das sind 0,1v mehr als nv bei den karten sonst freigibt.
bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:
Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).
Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.
Zitat:
Zitat von Badesalz
(Beitrag 13846708)
Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.
Auch nicht darüber, daß China nicht in der MS365-Hölle steckt.
Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.
Zitat:
Zitat von Relex
(Beitrag 13846369)
(CoD oder Das Spiel hier)
Zwei Spiele zeigen noch keinen Trend.
Vielleicht sollten sie neue Engines entwickeln, die sofort für RT optimiert sind.
RT wurde hier ja auf vorhandene Engine angeflanscht