Bitte nicht 5600 vs 6400 DDR5 vergessen. Man kann ja gerne mit CU-DIMMs testen, aber dann bitte auch den RAM in die Tests mit reinpacken der bezahlbarer ist und von 99,99% der tatsächlichen Nutzer genutzt wird.
Abseits von Hardcore-Gaming auf dem >300Hz-Monitor - der Kundenkreis wird weiter auf X3D schauen - zementiert ARL damit mMn sein herausragendes P/L. Top Anwendungsleistung, gute Effizienz inkl. Teillast, gute I/O-Features (breite Thunderbolt-Verfügbarkeit, Intel Wifi7).
Gespannt bin ich darauf, was der schnellere Speicher und die D2D-Optimierungen am Ende bringen. Könnte reichen, um beim Gaming an Zen 5 ohne X3D vorbeizuziehen?
Das MFG Modell von XeSS läuft nur auf Intel GPUs weil es im Gegensatz zum alten FG von Intel keinen dp4a Pfad gibt sondern nur den XMX Pfad. Und der braucht XMX Hardware = Intel GPUs. Keine Chance. Es sei denn jemand baut einen Emulator (was bis dato für XeSS bis heute nicht passiert ist (sonst könnte man das bessere Modell von XeSS SR nutzen). Und es wäre wahrscheinlich auch lahm.
Zitat:
Zitat von VooDoo7mx
(Beitrag 13894250)
In dem Video sieht man ab 1:34 wie es richtig eingestellt wird.
Genau. Und dann wundern warum die Karte im Idle auf einmal mit 800Mhz läuft :freak:
Will ja nicht meckern aber das gezeigte bei 1:53-1:55 sieht ja irgendwie schlecht/altbacken aus. Da erwarte ich von NV bessere Videos, bzw. Szenen.
Cool finde ich, dass man das bereits jetzt aufgleist (in Hinblick auf NextGen Konsolen). Evtl. sehen wir davon was bei der TW4 Demo im Juni am Unreal Fest (UE 5.8 + Nanite-Foliage + MegaGeometry + Pathracing/MegaLights).
Zitat:
Zitat von basix
(Beitrag 13873763)
Hier nochmals das selbe mit der Electric Dreams Demo mit UE 5.7.2 (Shipping Build):
HitLighting für detaillierte Reflexionen usw. = Aktiviert
FastGeo Streaming = Aktiviert
DLSS Plugin integriert (DLSS 4.5)
DLSS UI hinzugefügt (Einstellung von Auflösung, DLSS SR / FG / RR, Reflex, ...)[/url]
sieht auch noch ohne RTX, = software Lumen (?) noch erträglich aus, bezogen auf Vegetation fern
(k.A. wieviel der neuen Features dann noch aktiv sind)
sharpen = 0, damit bei der sehr kleinen Resi das AA nicht so sehr flimmert (eigentlich nicht wahrnehmbar)
Alles = 3, wie bei Dir voreingestellt, reicht damit die Vegetation nicht mit LOD fluktuiert
Miniaturansicht angehängter Grafiken
Hoffe Life is Strange bekommt überhaupt mal DLSS.
007 bin ich doch erleichtert, dass nvidia das Spiel anschiebt.
Selbst wenn es jetzt nur ein WE gute Unterhaltung wird, dürfte die Technik einen Boost geben. :wink:
Allgemein habe ich den Eindruck, es wird sich jetzt mit neuen Features doch mehr Mühe gegeben. Neue GPU's verzögern sich ja wahrscheinlich genau wie Konsolen. Die Enthusiasten haben gut investiert in RTX Karten oder PS5 Pro und jetzt könnte die Software mal angeschoben und Standard Konsolen Fassungen vom Aufwand her runter gefahren werden. :freak:
Bin die Tage darüber gestolpert, dass das LoD von AC Unity komplett von den möglichen Drawcalls abhängig ist :ugly: Es gibt mittlerweile Unlocker, mit denen man das Gebäude-LoD erhöhen kann, dann fangen aber NPCs an zu glitchen :ugly:
Und offenbar limitiert da DX11, nicht die CPU-Geschwindigkeit. Weiß nicht wie viel besser das mit DXVK wird.
Zitat:
Zitat von https://www.heise.de/news/Selbst-AMD-und-Intel-haben-den-KI-Boom-unterschaetzt-11199479.html
AMD priorisiert in der Zen-6-Generation offensichtlich Serverprozessoren.
Langsam könnte AMD wirklich daran denken, die Fertigung der guten alten 7nm Finfet Zen 3 - CPUs wieder anzuwerfen.
Joa, das was ich von FSR 4.1 bisher gesehen habe sieht wirklich gut aus. Grundsätzlich Verbesserungen auf allen Ebenen. Ausser das Thema Aliasing, das ist noch nicht ganz klar. Da gibt es irgendwie Verbesserungen aber zum Teil anscheinend auch Regressionen.
Zitat:
Zitat von Timolol
(Beitrag 13889640)
Dein Setup ist der absolute Trennungsgrund schlechthin. Mein innerer Monk ist gerade gestorben.
die rosa Kühlflüssigkeit sollte aber noch einen Pluspunkt einbringen,
gehört halt alles unter den Tisch verbannt oder an die Wand,
wobei die vier vierer Monsta sicherlich schon völlig ausreichen würden wenn man alles auf einen Loop umbaut
Zitat:
Zitat von Gouvernator
(Beitrag 13890258)
So einen der letzten 65" High-End Plasmas hätte ich wirklich gern. Beinah auch einen damals gekauft. Aber 600W Stromverbrauch hat mich letztenendes abgeschreckt. Heute wären 600W ein Klacks mit PV... konnte ja keiner ahnen.
Panasonic VT30, nicht die letzte Serie VT50, die hat höheren input lag.
Habe hier ein paar MI50-32GB und die muss man erst flashen damit der MiniDisplay Port auch was ausgibt. Es gibt im Prinzip ein Radeon Pro VII Bios für die 16GB Version und ein Radeon Pro V420 für die 32GB Version der MI50.
Edit: Den Vollausbau gab es auch bei Apple (und da gibt es auch ein Bios für x86/Windows), bzgl. Kühlung muss man sich bei der MI50/60 etwas "basteln", wer handwerklich etwas begabt ist schnallt einfach eine 120er oder 240er CPU-AIO auf die GPU inkl. HBM2 Memory und einen kleinen Lüfter für die Spawas.
Weiß nicht so recht.
Cyberpunk dürfte das aufwendigste Spiel seiner Zeit gewesen sein.
Und dessen spezielle Geschichte (es wurde u.a wegen technischer Probleme aus dem PS Store genommen, wem passiert das bitte?) hat dazu geführt, dass der ganze Entwickler mit 2.0 und Addon jahrelang seinen Ruf versucht hat wieder zu erlangen.
Ich hatte mit der 2080 obwohl wiederholt 8GB wirklich kein Problem, hätte aber nochmalig 8 GB nicht akzeptiert. (die 10 der 3080 bei besserem Preis hingegen schon)
Manche der wenigen Nextgen Umsetzungen waren ein wenig problematisch AFAIR. Aber das lag auch an technischen Dingen. Meistens kamen da (verspätet) Fixes, oder man konnte eine Stufe zurück schalten. Kein Weltuntergang wie ich finde. Selbst heute wird noch RTX 5050 als Einstiegskarte verkauft.
Okay. Bisschen nachlässig sehe ich es wahrscheinlich. Hat mich nicht so betroffen. Ich habe mich dann eher über die teure 3080TI geärgert und so gedacht, man hätte das auch mit der 2080 noch aushalten können.
Ist wohl insgesamt blöde gelaufen. :freak: