Problem gelöst - ich hatte nicht daran gedacht, den Spieleordner manuell zu löschen vor der Installation des Spiels mit v1.30+, und hatte in der Tat noch Leichen von der vorherigen Installation mit inoffiziellem HDR/DLSS-Patch.
Alles platt und neu gemacht, funzt sofort.
Danke für nix, Vergangenheits-Ich! :freak:
Zitat:
Zitat von Leonidas
(Beitrag 13882987)
Macht Windows 10 interessanterweise nur dann, wenn im ESU-Modus unterwegs. Ansonsten verweigert es Microsoft, das vorhandene Update einzuspielen.
Das ist mal wieder Makroslop mäßig richtig mies und schäbig.
Recap:
Win 7 PC - Läuft problemlos. War auch noch tatsächlich ein funktonierendes OS.
Selber PC auch mit Win 10 - MS IDGAF weil ich kein MS-Konto/Icloud/was auch immer habe/will. -> sollte ohnehin abgeschaltet sein, sonst abschalten/Linux statt W10.
W11 PC - nie eingeschaltet. Wozu auch? Das neue BF nie gespielt. The fuck do I know ob das jetzt aktuell ist durchs Bios update letztens, oder die W-Updates das jetzt machen.
Die Updates bleiben sowieso noch ein Weile aus, alleine schon um zu sehen was diesmal wieder im Arsch ist. Schlimmstenfalls wird es also Linux-Experience - falls ich durch Secure Boot-Mangel (und fehlendem Zertifikat) von ein paar Spielen im Vorhinein ausgeschlossen bin. Erleichtert höchstens den Wechsel auf Linux.
Was ich auch wieder mal sehe, ist das ATI zwar Karten baut die sehr lange Zeit gut laufen _sollten_ es dann aber mangels vernünftigen Treiber-Support nicht tun. Im Grunde Wegwerf-HW insbesondere(/aber nicht nur) wenn man veraltet/günstig kauft, weil ATI ja immer 3-4 Generationen am Markt hat. :freak:
Es sollte eigentlich einfach sein hier einen Sieg einzufahren, aber obwohl sie immer uralt Karten noch verkaufen und veraltete Architekturen in IGPUs und APUs pressen, bekommen GRADE DIE dann keinen vernünftigen Treibersupport.
Das ist dann umso unverständlicher da die Installationsbasis bei z.B der Playstation zwischen 4!!! und 5 gespalten ist (haben zumindest die von der Performancekatastrophe von Munter Hunter moniert) und man somit bei PS 5 + PS 5 Pro sowieso noch RDNA 2 mitschleppen muss.
Schaun wie mal was vom "Rücktritt vom Versuch" :freak: bzgl. RDNA 1 und 2 bleibt oder wann/ob das geleakte FSR 4 für die 6000er noch kommt. :freak:;D
Die Gebrauchtpreise gehen aber runter, gibt aktuell viele ebay-Auktionen, die bei 2.800-3.000 EUR landen. Das Gleiche beim RAM. Ich glaube, wir pendeln uns so langsam auf dem New Normal ein. Bei Notebooks gibt es auch langsam Schäppchen. Core 275HX + 64GB RAM + 5090 für 2.950 EUR oder 3.050 mit 9955HX.
Vermute ich eben nicht, denn die Basic FPS sinken mit höherem MFG-Faktor. MFG hat also einen Overhead, deshalb würde ich gerne wissen, wie die "originalen" FPS sind.
und habe eine 5080 FE zu verkaufen
und einer aus Germany wollte jene aber hat bei Geringer Vorauskasse Bedenken
nun geht die Karte nach Italien für immer den Preis den ich wollte und bin kein Scalper für 500+ Gewinn
noch eine Reserve 7900XT AMD MBA als Austauschkarte vom Verkäufer gekauft mit voller Garantie für 460 Euro plus Versand!
Besser als eine 9070 für NEU 670+ Euro und FRS 4.0 kommt sicherlich für RDNA 3 wenn die Presse AMD dafür zerreist.
Hat er doch gezeigt. Die Unschärfe wenn man sich bewegende Inhalte mit dem Auge fixiert sowie der Stroboskopeffekt, wenn man die Bildmitte fokussiert.
Hängt natürlich stark von der Geschwindigkeit ab mit der man die maus bewegt, aber das ist so offensichtlich, dafür braucht man keine Studien oder spezielle Testcases, sondern einfach nur die Augen.
Ich nutze z.B. in einigen Spiele gerne Motion Blur, weil das für mich zumindest sauberer und natürlicher aussieht, als der Stroboskopeffekt der dafür sorgt, dass ich alle bildinhalte mehrfach sehe, sobald ich die Kamera bewege.
Man hat immer diesen Trade-off aus Mehrfachkonturen und Unschärfe.
Zitat:
Zitat von Lurtz
(Beitrag 13881177)
Titan Quest 2 wurde gestern schon auf 5.7.2 aktualisiert, das CPU-Limit ist aber immer noch heftig :ugly: Also eine Wundertüte ist das auch nicht.
War klar, dass das nicht so schnell geht.
Aktueller Stand ist eher gerade so okay würde ich sagen
Habe unter anderem deswegen auch nochmal die DDR 4 Plattform ein wenig ausgebaut für die nächsten 2,3 Jahre.
Hätte es mir lieber gespart.
Aber fehlende Optimierung und mangelndes Budget sind gefühlt der eigentliche Endboss bei so vielen an sich schönen Games, die da sicher noch kommen werden.
Zitat:
Zitat von The_Invisible
(Beitrag 13881539)
Die typischen Käufer interessiert da eh nur der Chip und Speicher, ob da ein Kühler drauf ist oder sonst was völlig egal. Bei einem Kollegen der seine 4090 auch verkauft hat kam der Chinese persönlich vorbei und montierte noch vor Ort das ganze Zeug runter.
Wahrscheinlich wurden ihm schon Steine unter dem Kühler angedreht. (y)
Ja, man hat bei aufwändigeren Titeln wie Indy oder Hogwarts schon ab und an(aber eher selten) Lags, die imo nicht am Stream liegen. Trotz der Begrenzungen finde ich es aber besser als das Cloud Gaming aus dem Gamepass, denn das war hier qualitativ schlechter und nur via Pad spielbar. Ist aber auch schon 'ne ganze Weile her, wo man Gold noch nach Ultimate wandeln konnte ...
8k bei Gaming macht sehr wohl Sinn, wenn man gute Augen hat und sich bei ca. 2m Distanz 98" TVs hinstellen würde. Das wäre dann in etwa ein Sichtfeld wie bei IMAX. Allerdings finde ich, dass man momentan keine genug hohe Bandbreite für 8k hat. Dafür bräuchte es Displayport, was es am TV nie gibt oder eben ein HDMI 3.0 oder so, damit man auch wirklich 8k @ 120Hz RGB 10Bit haben kann und 4k 240Hz am besten. 8k 60Hz ist schon ein Witz.
Ich z.B sehe die Pixel schon bei 85" 4k sehr schnell einzeln.
Ein weiterer Anwendungsbereich wäre am Desktop mit Monitoren ab spätestens 36". Mit meinem 38" 4k bin ich zwar zufrieden, aber nur durch Kompromisse. 6k Würde mir da vermutlich zwar auch reichen. Am Desktop gibts hald auch was zwischen 4k und 8k.
Bei Filmen hingegen sehe ich da keinen Vorteil. Auch mit 8k Kameras: Bei so einer Auflösung müsste man perfekten Fokus erreichen. Das würde dann vlt. einer von 5 Filmen erreichen. Ich sehe schon bei 4k öfters bei Tierdokus, dass man gerade nicht im perfekten Fokus ist. 8k würde das nicht besser machen. Ok, im Studio gehts zugegebenermassen vlt. besser, als bei einer Tierdoku, aber einfach zur Verdeutlichung, dass es schon bei 4k sehr gute Kameraführung braucht. Bei animiertem Zeug reicht 4k m.M.n auch wegen der Einfachheit der Zeichnungen meistens, wäre aber grundsätzlich am einfachsten unzusetzen.