Zitat:
Zitat von Angiesan
(Beitrag 13876022)
Wer sich das Geld für die Erkennenung dieses Problem sparen möchte, dem würde ich mit meinen Erfahrungen zu einer Vorgehensweise raten:
Auch wenn es nicht toll aussieht aber gerade die Kabelpeitsche der FE Karten ist so extrem hochwertig gefertigt ich behaupte mal das Ding kostet soviel wie bei Seasonic der komplette Müll den sie als Kabel beilegen.
Kann ich so nur unterschreiben. Als ich 2022 meine 4090 gekauft habe hab ich ein Kabel von Cablemod genutzt und hatte damit nur Probleme. Ständig Blackscreens, vermutlich weil der Stecker trotz x-maligem neu einstecken wohl nie perfekt saß, vorallem die Sense Pins.
Irgendwann habe ich dann auf Reddit gelesen dass es wohl was mit den Sense Pins zu tun hat und ich aufhören soll das Cablemod Kabel zu verwenden. Gesagt, getan, ich habe zum ersten mal den Nvidia 4x 8pin Adapter verwendet - seitdem hatte ich nie wieder ein Problem.
Der Stecker ist und bleibt einfach eine völlige Katastrophe, er ist auf so viele Arten Fehleranfällig. Wenn dann würde ich ihn nur mit dem mitgelieferten Adapter verwenden.
Zitat:
Zitat von x-force
(Beitrag 13875918)
das größte problem ist die reale gefahr, dass nv im grafikbereich ein monopol aufbaut, ohne dafür zerschlagen zu werden.
viel fehlt dazu aufgrund von amds schwäche und inkompetenz leider nicht mehr.
Solange Intel insgesamt immer noch die meisten GPUs verkauft (inkl. iGPU) und AMD in den Konsolen drin ist, wird es wohl schwer dem Rechtsstaat gegenüber ein Monopol zu argumentieren ;)
Zitat:
Zitat von basix
(Beitrag 13875352)
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).
Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.
Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.
Das wäre sehr wichtig. Gerade die kleineren Karten würden massiv davon profitieren wenn sie beim Upscaling in hohen Auflösungen weniger Overhead hätten.
Wenn man nach CB geht, sind 9950X vs 285K und 9700X vs 265K in Games jeweils auf einem Level mit leichter Tendenz zu Intel ... so gesehen wird es bei Nova Lake vs Olympic Ridge darauf ankommen was Coyote Cove vs Zen6 und bLLC vs 3DVC bringen - sehr spannend!
Zitat:
Zitat von Angiesan
(Beitrag 13875794)
Im großen und Ganzen ist das eben auch wieder nur eine vergleichbare Krise wie zu Mining und Corona und auch da hat AAA- und PC-Gaming überlebt trotz hoher HW-Preise.
Ja logisch, dafür dauern die Krisen zu kurz.
Immerhin ist die 5060 hier die schnellste 8GB Vram GPU.
Für 2016 wäre es kein Problem.
Statt da groß was anzupassen, würde ich aber aktuell auch lieber den VRAM Aufschlag zahlen, auch wenn wir damit jetzt bei 600 Einstiegspreis für Gaming sind. Bis RTX gab es dafür immer die 80er GPU.
Zitat:
Zitat von Relex
(Beitrag 13875535)
Aber was bringt die Diskussion wenn du sehr geringe Ansprüche hast und versuchst es dir schön zu reden. Bleib doch einfach dabei. Ist ne Entscheidung für dich. Darüber zu diskutieren und das offensichtlich in allen belangen bessere relativeren zu wollen führt zu keinem Mehrwert.
Für dich vielleicht, für mich bringt die Diskussion sehr wohl einen Mehrwert. Ich bin in der Lage meine Kaufentscheidung -dank der Diskussion- besser abschätzen zu können. Dass du mir geringe Ansprüche unterstellst, mit 120Hz, finde ich lustig, dann haben die Konsolen-Spieler wohl auch alle geringe Ansprüche. Wahrscheinlich eh alles Low-FPS-Casuals in deinen professionellen Fliegenaugen. :)
edit: Die Frage, die ich mir stelle, ist nicht ob +120Hz besser sind oder nicht, sondern ob mir +120Hz (240Hz) einen Aufpreis von aktuell ca. 150 Euro wert sind. Und da es mein erster OLED ist und ich noch nicht abschätzen kann wie lange er überhaupt hält, halte ich diese Abwägung für legitim und schätze auch den Gedankenweg als für andere Nutzer interessant ein.
edit2: Ich hatte auch Monitore mit Mini-LED local Dimming im Blick, die teilweise wirklich gut bewertet werden, vergleichbar mit OLED. Leider scheint es so zu sein, dass die Hersteller ihre 32er Mini-LED-Modelle in Europa nicht verkaufen, weil sie die strengen Energierichtlinien nicht erfüllen können. Hier wird eine ganze Panel-Backlighting-Technologie für Europäer, zumindest im PC-Monitor-Bereich, aus dem Spiel genommen. Ich bin unfrei in meiner Kaufentscheidung. Bevormundet. :(
Zitat:
Zitat von Aquaschaf
(Beitrag 13867815)
Kostet es nicht trotzdem etwas Performance, weil die GPU unter mehr instruction cache misses leidet?
Korrekt, die abartige Unzahl an Shadern in UE Games in einer der Gründe warum UE Engine deutlich mehr CPU Commands für Speicherzugriffe prozentuell verwendet als andere Engines. Das ist ein Punkt wo Epic dringend noch aufräumen muss.
Beim Shader Compile in manchen Games bin ich dann schon froh die 16 Kerne bei einem 9950X3D zu haben.
Zitat:
Zitat von Gast
(Beitrag 13875228)
Das ist keine Schattenberechnung, jede Schattenberechnung.
Eine vollständige Lösung braucht keine Schattenberechnung, Schatten gibts nämlich nicht es gibt nur Licht und an manchen Stellen eben mehr davon und an anderen weniger.
Ja, Schatten und AO sind einfache Beiprodukte von Pathtracing GI. Man benötigt also nicht zig verschiedene "Softwareprodukte", die jeweils für ein Effekt zuständig sind, sondern nutzt einfach Pathtracing. Deswegen ist UE5 auch so miserabel. Nichts wird wiederverwendet, alles wird hunderte mal erneut berechnet - nur eben für GI, AO, Schatten, Reflektionen etc.
Das ist ja auch grundsätzlich eine Tatsache. Wenn das Ziel ist, die CPU FPS soweit wie möglich nach oben zu boosten und zu perfektionieren, sind AMDs Marketingaussagen aber offenbar falsch. Wenn die CPU FPS nun einmal wichtig sind, weswegen man einen 9800X3D hat, dann würde man die P/L nicht steigern, indem man eben nicht das billigste Kit nimmt.
Wenn man mit 9800X3D+4800er Kit für bsp. 650€ die 100% erreichen würde.
Dann würde man mit einem 9800X3D+6000er Kit für 750€ die 114% erreichen im Schnitt.
Leistung pro Euro
4800: 0,153
6000: 0,152
Im gesamten Paket wäre die Preis/Leistung also wenn man für 200€ ein 4800er Kit und 300€ für ein 6000er Kit ausgeht, gleich. Laut AMD müsste die P/L mit dem 4800er Kit allerdings besser sein, das stimmt halt nicht. Nicht mehr und nicht weniger hat die PCGH getestet und mein Kommentar war: Es ist ein unnötiger Marketing Move von AMD, die Unterschiede mit <1% FPS zu bewerben.
Zitat:
Zitat von PCGH
Unterm Strich zeigt sich, dass der neue AMD Ryzen 7 9850X3D selbst mit DDR5-4800 noch eine hohe Grundperformance bietet. Der Abstand zu DDR5-6000 fällt jedoch spürbar größer aus, als es AMDs eigene Darstellung zeigt.
Habe jetzt mal quick and dirty mit dem CP77 Bench getestet. Die Ergebnisse sind extrem nah beieinander. Avg FPS +1 bei 2800Mhz, dafür min FPS - 1. Bei 2.750Mhz das Ganze dann umgedreht. Werde bei 2.750 bleiben, schadet dem Speicher sicherlich nicht.
Zitat:
Zitat von aceCrasher
(Beitrag 13873694)
Sagt mal, denkt ihr dass Gebrauchtpreise der 4090 noch weiter steigen könnte, jetzt wo durch die Speicherkrise die restlichen Grafikkartenpreise wieder anziehen? Sie sind ja immer noch stabil bei ~2000 auf Ebay. Werden wir da eventuell noch mehr sehen? Was denkt ihr?
Ich liebäugele immer noch mit dem Gedanken meine 4090 zu verkaufen (dann hab ich sie quasi "für lau" besessen) und mir etwas deutlich günstigeres zu kaufen, da ich mittlerweile eh nicht mehr so viel spiele.
Die Gebrauchtpreise steigen gezwungener Maßen.
Um ehrlich zu sein hatte ich das Insolvenz Thema nicht mehr auf dem Schirm und die Dezember Zahlen vergleichen. Aber ja auch wenn man auf August weit nach der Insolvenz guckt bleibt die Aussage dennoch richtig. Weihnachten ist normalerweise der beste Monat im Jahr, dieses Jahr gab es hingegen die Halbierung.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.