Zitat:
Zitat von OgrEGT
(Beitrag 13846448)
Das ist es prinzipiell wenn man vorhat bspw eines der 2 BIOSe zu flashen.
Warum sollte man das bei einer XT tun?
Dying Light ist voll von Alphatest-Geometrie. Das ist richtig ineffizient für Raytracing und kostet massiv Leistung. Am Ende gibt es einen Schnittpunkt, wo die Ineffizienz sind kaum mehr unterscheidet vom probenbasierten GI (+ Reflektions, Schatten etc.) und ReStir GI/DI wie in Indiana Jones im Dschungel. Das RTGI in Indiana Jones im Dschungel ignoriert ja fast vollständig die Geometrie.
Vergleicht man Dying Light z.B. mit UE5 und Software Lumen, dass sieht man, wie effizient das auf nVidia-Hardware läuft.
Hier z.B. Oblivion in 4k mit DLSS Balance auf einer 5080: https://www.youtube.com/watch?v=pNjxvbK4QDE
DLSS und RR gibt es afaik bereits in einigen professionellen Rendering-Tools, ja. Als Quick-Preview mit bereits hoher Rendering-Qualität kann das schon ein Workflow Game-Changer sein.
Die ACM-Funktion von Windows ist ja immer noch äußerst bescheiden. Beim Umschalten von HDR zu SDR verliert sie meist ihre Funktion, selbst wenn man es manuell nochmals toggelt.
Oder liegt das daran, dass ich ein SDR-Profil für Gamma 2,2 nutze? Die greifen aber auch nicht immer teils, muss man erst ins Displaymenü von Windows wechseln :ugly:
Glaube aber das mit dem TCL wird auch nichts. Als reiner Medienmonitor wäre der vielleicht ganz ok, als Hauptmonitor bin ich nicht begeistert. Andererseits, immerhin kann er ganz okayes HDR und an den Rest gewöhnt man sich wahrscheinlich leidlich.
Kann man novideo_srgb unter HDR benutzen? Rot ist in HDR eh ziemlich übersättigt, da soll es helfen mit novideo_srgb auf DCI-P3 zu clampen. Verliert man zwar den Rec. 2020 Farbraum, aber hat immerhin akkuratere Farben. Müsste man dann nicht zwischen einer sRGB und DCI-P3-Clamp wechseln können? Ist natürlich auch super nervig das immer manuell einzustellen, der Monitor ist halt einfach mies/gar nicht kalibriert.
Ich würde ja sogar im HDR-Modus bleiben, aber trotz gleicher SDR-Helligkeit ist der vertikale Blickwinkel in dem Modus aus irgendeinem Grund viel störender. Keine Ahnung ob das an der Ansteuerung des Backlight oder sonstwas liegt.
Beim Umschalten gibts auch gerne mal Blackscreens.
Und eben das Flackerproblem bei minimierten Spielen, was ich durchaus häufig mache...
Aber ja, halt keine Kopfschmerzen... Oder doch den MSI IPS Mini LED, der soll auch keinerlei PWM haben und sollte damit verträglich sein.
Zitat:
Zitat von Hakim
(Beitrag 13846206)
Nun die 9070XTs waren dennoch dort bis vor kurzem deutlich Teurerer als hier drüben.
Und weiter? Vor paar Monaten war es genau umgekehrt... da wurden Europäer stärker gemolken. Jetzt dürfen die da drüber halt etwas "leiden". Außer vielleicht in den BF-Wochen.
Zitat:
Zitat von Raff
(Beitrag 13845228)
Die kleine Schwester der Radeon RX 9060 XT im ersten vollumfänglichen Test:
Radeon RX 9060 vs. Geforce RTX 5050 im Test: Welche Karte für 250 Euro ist die beste?
Schlägt sich ganz wacker. Ich finde ja immer noch die hätte im Hinblick auf das Gesamtportfolio deutlich mehr Sinn gemacht als die 9060 XT 8 GB - da hat man dann im Vergleich mit der 9060 XT nicht eine Karte die nominell gleich schnell ist aber an Speichermangel leidet und etwas günstiger ist, sondern eben wirklich eine Einsteigerkarte die dafür nochmal günstiger ist. Aber man hat wohl bloss wenige teildefekte Chips, und möchte da nicht Massen davon verkaufen.
Interessanterweise wenn man sich so die Preise ansieht von der 9060 XT 8 GB und der 7600 sollte die 9060 eigentlich kaum noch teurer sein als letzere, und ist dabei natürlich deutlich besser.
Zitat:
Zitat von ChaosTM
(Beitrag 13846065)
LOL - sehen viele so...
Kann man machen, nur bedeutet das im Umkehrschluss, dass in gewissen Titeln die Regler auch mit ner 5090 ordentlich nach links verschoben werden müssen. Beispielsweise in einem Hogwarts mit RT. Wäre imho der schlechtere Kompromiss. Die Regler dürfen gerne voll aufgedreht bleiben. Dafür wird halt dezent (2x) FG dazu geschaltet. Merkst du weder optisch noch von der Latenz her in dem Titel...
Ich lasse auch FG weg wo ich kann. Aber so dogmatisch sollte man das nicht sehen. Es kann in vielen Situationen sehr gut helfen das Erlebnis zu verbessern.
Das ist nicht schlimm, sind halt zwei 120er Lüfter, Bauweise der FE von Nvidia angelehnt nur besser finde ich. Ließ dir mal den 5080 expert test bei CB dazu. Aber ist halt mit knapp 1,9 kg ein Brocken
Zitat:
Zitat von ][immy
(Beitrag 13844452)
Nvidia ist auch gerade dabei den gaming Markt quasi zu verlassen, ist ja inzwischen für die nur noch ärgerlich das man die Produkte dich in anderen Bereichen teurer verkaufen könnte.
Klar deswegen tritt man gerade voll auf Holiday Season Marketingschiene und veranstaltet sowas wie die Geforce Gamer Festival in Seaul wo sogar Jensen anwesend war. Was macht AMD schnell?
Shoop (www.shoop.de) ist eine Cashback-Seite. Da gibt es Prozente wenn man von dort aus die Webseite aufruft, von der man etwas kaufen will. 15% vom Bruttopreis wären hier 453 Euro gewesen, die man beim Kauf des HP Zbook mit 128 GB hätte erhalten können.
Thanks for the links =) I'm quite excited about the graphics card from Lisuan, since it's their own IP (MooreThreads is ImgTec) and they are targeting a higher performance segment (Glenfly is pretty low end at the moment).
Zitat:
Zitat von Daredevil
(Beitrag 13843690)
Mit Thunderbolt 5 kannst du maximal 4x M3 Ultra zusammenschalten ( MacOS 26.2 ) und kommst auf 2TB VRAM. Und wenn du Bock auf basteln hast, kannste an die Macs auch noch ne AMD/Nvidia Karte anstöpseln per USB. ( https://x.com/__tinygrad__/status/1991927844562522311 )
Gilt das als MutliGPU? :D
Ja natürlich gilt das als multiGPU. Man muss eigentlich die Macs immer im Auge behalten. Aber das ist auch nicht günstig... Wenn ich bei Idealo auf 96Gb Ram klicke , dann sind es effektiv wie meine 72Gb Vram mit 3 Karten. Für etwa den gleichen Preis. 128Gb sind schon mal deutlich günstiger und 256Gb,512Gb sind quasi Schnäppchen... :uup:
Ne, in meinem Fall nutze ich AI als Resteverwertung. Quasi jede neue Grafikkarte ist künftige neue AI Karte. Ich kaufe "KI" nur noch in Teilstückchen dazu, falls es für irgendwas signifikant nützliches reichen soll.
Wie gerade jetzt mit 800€ 2-Slot 5070Ti. Für 60Gb LLMs. Wenn man eine recht frische 100B LLM per Systemprompt jailbreaken kann, ohne sie gleichzeitig dümmer zu machen, dann kommt man an erstaunliches Wissen heran. Um mal das Gegenwert für diese teure multi-gpu Spielerei zu verdeutlichen.
PS.
Für Vibe-Coding reichen lokale Rechenkapazitäten eh nicht aus. Wie ich feststellte, brauche ich für meine Verhältnisse 200B+ Modell mit minimum 70t/s, besser 150t/s...
Wozu so viel txt um ein Netzteil, das erst vllt mit der 6090 getauscht wird.
Bis dahin hat es 8 Jahren geballert, top Netzteil, can man nix meckern. (y)
Die Kosten für das Netzteil sind aber jedenfalls auf alle Hardware umzulegen und mit den Watt des jeweiligen Verbrauchers (Mobo, RAM, CPU, Graka, Pumpe, Lüfter, Beleuchtung etc...) zu gewichten.