Zitat:
Zitat von Nightspider
(Beitrag 13892466)
Angeblich soll ja nächsten Monat der LG 39" OLED mit 5120*2160 auf den Markt kommen.
Hoffentlich kommen von ASUS und Co. auch gleich Alternativen.
Ich denke du meinst den LG UltraGear evo 39" GX9 (39GX950B) mit 165 Hz und Krümmung von 1800R?
Ich habe sehr ähnliche Hardware und den gleichen 34" Monitor wie du (als Grafikkarte "nur" RTX 4090 statt 5090) und hatte den Monitor zunächst in Betracht gezogen aber diese hohe Auflösung killt quasi die Performance selbst der schnellsten verfügbaren Grafikkarten.
Ich weiß der kann auch mit 2560 x 1080 Pixeln und 330 Hz betrieben werden, finde das aber bei 39" nicht besonders schön.
Warum gibt es den nicht 3840 x 1600x wie den alten 38 Zoll Curved UltraWide™ Monitor mit Nano IPS?
Siehe: https://www.lg.com/de/monitore/ultra...wjfdcesiiJfJJz
Zitat:
Zitat von Ex3cut3r
(Beitrag 13892456)
Alles gut, andere Meinungen sind völlig okay. Fakt ist aber, dass man mit 8 GB VRAM Kompromisse eingehen muss.
Also ich hab noch kein Game wo ich mit oder WEGEN 8 GB auf der 6600 in FullHD irgendwelche Kompromisse eingehen musste.
Ich brauch aber in der Regel auch keine 200 FPS+...mir reichts in der F-Sync range zu liegen im Bereich 30-75 Hz.
Mag sein, dass Cyberpunk in Pathtracing (hab ich selbst nicht, da mich das nicht interessiert daher keine eigene Erfahrung) auf ner 6600 mit 8GB auch in FHD nicht mehr lauffähig ist auf "Max details", aber das ist wohl verschmerzbar, und da wird ein FSR/DLSS auch nicht mehr viel retten wenn man nicht die Details trotzdem reduziert.
Aber wie gesagt alles andere was ich so zocke oder zocken wollte in den letzten 2-3 Jahren lief wunderbar mit Regler nach rechts. Dank "nur" FullHD.
Zitat:
Zitat von Cubitus
(Beitrag 13892201)
Jo, die UI ist schon etwas bunt i know.
Aber hey, ja da steckt ordentlich KI drin beim Code, klar.
Hab hier noch parallel Visual Studio am laufen weil ich mir schon auch den Code anschaue, nicht das ich so viel Durchblick habe wie nen Pest oder evtl du aber ganz auf den Kopp gefallen bin ich jetzt nun auch nicht xD
Bei mir ist das so, bin seit über 30 Jahren im Enthusiasten Game, hatte SLI noch mit ner 6800 Ultra am laufen und hab seitdem wirklich jeden Scheiß mitgemacht.
Ich weiß halt genau wo es beim Undervolting hakt und was einen nervt. Was das Tool können soll und wo die Probleme liegen das kommt alles aus meinem Kopf, die KI setzt das dann zum Großteil mit Anweisung um.
Ohne jemanden der weiß was er eigentlich will kommt da halt nur ne hübsche Oberfläche mit Bullshit und Raketen bei raus die nix taugt.
Und klar muss ich auch alles testen und prüfen was da rauskommt, einfach so übernehmen geht halt leider noch nicht..
Für mich als Enthusiast der nicht abseits von Powershell Skripten programmieren kann ist das einfach mega.
Vorallem in der heutigen Zeit. Da gehen auf einmal Türen auf von denen ich vorher nur träumen konnte, Ideen hat man immer viele aber das Umsetzen, die Expertise und das Know How joa,
KI ist quasi nen Cheat Code und das sage ich so wie es ist..
Bisschen Geduld brauchst halt und technisches Interesse und Zeit und auch sonst keine familiären Verpflichtungen xD
Top! Wer KI nicht nutzt, um die Umsetzung seiner Idee zu fördern, ist ein Idiot und kurz davor, den Code auf eine Schreibmaschine zu tippen.
Bin die Tage darüber gestolpert, dass das LoD von AC Unity komplett von den möglichen Drawcalls abhängig ist :ugly: Es gibt mittlerweile Unlocker, mit denen man das Gebäude-LoD erhöhen kann, dann fangen aber NPCs an zu glitchen :ugly:
Und offenbar limitiert da DX11, nicht die CPU-Geschwindigkeit. Weiß nicht wie viel besser das mit DXVK wird.
Zitat:
Zitat von https://www.heise.de/news/Selbst-AMD-und-Intel-haben-den-KI-Boom-unterschaetzt-11199479.html
AMD priorisiert in der Zen-6-Generation offensichtlich Serverprozessoren.
Langsam könnte AMD wirklich daran denken, die Fertigung der guten alten 7nm Finfet Zen 3 - CPUs wieder anzuwerfen.
Joa, das was ich von FSR 4.1 bisher gesehen habe sieht wirklich gut aus. Grundsätzlich Verbesserungen auf allen Ebenen. Ausser das Thema Aliasing, das ist noch nicht ganz klar. Da gibt es irgendwie Verbesserungen aber zum Teil anscheinend auch Regressionen.
Zitat:
Zitat von Timolol
(Beitrag 13889640)
Dein Setup ist der absolute Trennungsgrund schlechthin. Mein innerer Monk ist gerade gestorben.
die rosa Kühlflüssigkeit sollte aber noch einen Pluspunkt einbringen,
gehört halt alles unter den Tisch verbannt oder an die Wand,
wobei die vier vierer Monsta sicherlich schon völlig ausreichen würden wenn man alles auf einen Loop umbaut
Zitat:
Zitat von Gouvernator
(Beitrag 13890258)
So einen der letzten 65" High-End Plasmas hätte ich wirklich gern. Beinah auch einen damals gekauft. Aber 600W Stromverbrauch hat mich letztenendes abgeschreckt. Heute wären 600W ein Klacks mit PV... konnte ja keiner ahnen.
Panasonic VT30, nicht die letzte Serie VT50, die hat höheren input lag.
Habe hier ein paar MI50-32GB und die muss man erst flashen damit der MiniDisplay Port auch was ausgibt. Es gibt im Prinzip ein Radeon Pro VII Bios für die 16GB Version und ein Radeon Pro V420 für die 32GB Version der MI50.
Edit: Den Vollausbau gab es auch bei Apple (und da gibt es auch ein Bios für x86/Windows), bzgl. Kühlung muss man sich bei der MI50/60 etwas "basteln", wer handwerklich etwas begabt ist schnallt einfach eine 120er oder 240er CPU-AIO auf die GPU inkl. HBM2 Memory und einen kleinen Lüfter für die Spawas.
Weiß nicht so recht.
Cyberpunk dürfte das aufwendigste Spiel seiner Zeit gewesen sein.
Und dessen spezielle Geschichte (es wurde u.a wegen technischer Probleme aus dem PS Store genommen, wem passiert das bitte?) hat dazu geführt, dass der ganze Entwickler mit 2.0 und Addon jahrelang seinen Ruf versucht hat wieder zu erlangen.
Ich hatte mit der 2080 obwohl wiederholt 8GB wirklich kein Problem, hätte aber nochmalig 8 GB nicht akzeptiert. (die 10 der 3080 bei besserem Preis hingegen schon)
Manche der wenigen Nextgen Umsetzungen waren ein wenig problematisch AFAIR. Aber das lag auch an technischen Dingen. Meistens kamen da (verspätet) Fixes, oder man konnte eine Stufe zurück schalten. Kein Weltuntergang wie ich finde. Selbst heute wird noch RTX 5050 als Einstiegskarte verkauft.
Okay. Bisschen nachlässig sehe ich es wahrscheinlich. Hat mich nicht so betroffen. Ich habe mich dann eher über die teure 3080TI geärgert und so gedacht, man hätte das auch mit der 2080 noch aushalten können.
Ist wohl insgesamt blöde gelaufen. :freak:
Zitat:
Zitat von SpoOokY1983
(Beitrag 13887665)
Kann es einfach sein, dass RT derart "low profile" implementiert wurde, dass selbst alte AMD-Chips vernünftig performen?
Bei PT ist die gesamte Ausleuchtung deutlich besser und stimmiger im Abgleich mit Lichtquellen.
Dass eine 7900XTX quasi bei RT auf Augenhöhe mit einer 9700XT ist, stützt meine Aussage irgendwie.
Eventuell ja wirklich auf RDNA2 optimiert. (Wie auch nicht, muss ja auf den Konsolen laufen.)
Endlich ein Test mit einem Core Ultra 5 338H Notebook, vor allem die integrierte Arc B370 iGPU ist interessant. Laut Test kaum langsamer als die B390 und das in ner 5er CPU, nicht schlecht! Leider noch keine Preise aber ich bin sicher die Geräte können ein gutes Preis/Leistungsverhältnis erzielen.
Raster halt nur noch hingeschissen. Auf der normalen PS5 also viel schlechtere Grafik als in Hellblade 2, wo das Self Shadowing mit SWRT gut funktioniert.
Will jetzt die neue RE aber auch nicht zu sehr bashen, die macht mit HWRT schon diverse Dinge besser als UE5.
This is a full integration with the game Elite Dangerous. The AI has access to live ship telemetry data, reacts to critical in-game events, and can use actions to control specific ship functions. We will publish dedicated characters for Elite later.
https://www.patreon.com/posts/voxta-...-api-151927116
Wohl die erste nennenswerte AI Integration in ein Game. Wird wohl mit TTS/STT auch compatibel sein, mit den besten Audio LLMs. Multi-GPU ist dann Pflicht. Gutes LLM mit 14GB, TTS/STT 12Gb und eben noch das Game. Minimum Game 5070Ti 16Gb, minimum 4b LLM 3Gb, minimum STT+TTS ~8Gb. Also 2x 5070Ti min. Anforderung. Optimal 3x GPU 5090+3090+5070Ti.