Jetzt kam endlich das Paket und heute gleich installiert.
Funktioniert ebenso 1A und der Xeon bleibt unter Last mit einem Shadow Rock bei unter 60°C:freak:
Leistung wie schon von anderen Xeon gewohnt, niedrige Taktrate aber dieser hier "nur" 12 Kerne (HT deaktiviert),
das Board gefällt mir richtig gut und daher halte ich mal nach einen 2698 v4 20 Kerne ausschau, die gibt es so um die 40:biggrin:
Zitat:
Zitat von rumpeLson
(Beitrag 13911650)
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Workstation-GPU-Nvidia-veroeffentlicht-RTX-5880-mit-AD102-GPU-und-48-GiB-VRAM-1437485/
Für mein Verständnis eine abgespeckte RTX 4090 mit 48GB VRAM.
Ahhh :) .. die Karte gibt es seit Anfang -2024 :O ... gut dass das geklärt ist, Ada mit 5880 im Namen :lol: ... hätte ja auch ein Tippfehler im PDF sein können :D
btw.
die PRAGMATA Sketchbook Demo wollte bei mir nicht mit OS 573d1fb laufen, DE allone ging, wenn auch nicht gut
(DLSS-->FSR lief bei Beiden nicht auf RDNA2, warum auch immer, may be dadurch DLSS-FG/MFG auch nicht)
dagegen auf dem Ally/RDNA3 scheint der OS bzw. DE supi zu funzen bis x6 im VollversionGame https://www.youtube.com/watch?v=N-XCbC4Px7M
(muss ich mal in Ruhe probieren, ob das am DE-Build+RDNA2 liegt oder nur an der DEMO, die evtl. nicht alles darf,
was im richtigen Spiel gehen soll)
btw.
Mit den neueren Builds scheint Upscaler(OptiFG) -->XeFG nicht mehr zu funzen.(auf RDNA2)
(die neuere XeFG.dll aus dem SDK ist aber nicht die Ursache)
Wenn ich nen älteren Build nehme gehts wieder!?
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Raff
(Beitrag 13911265)
Neues Spiel: Radeon VII klatscht GTX 1080 Ti und kabbelt sich stattdessen mit der (mies ausgelasteten) Titan V. :biggrin:
Poor Volta
Pragmata scheint wirklich gut zu sein, die Demo hatte mir damals gefallen. Ich denke, am Wochenende werde ich es mir kaufen.
Hab jetzt mal mit der 5070Ti meiner Lebensgefährtin getestet, da funktioniert alles, wie es soll. Ich dachte schon, es liegt an mir.
Bei den Stabilitätstests gibt es aber noch Optimierungsbedarf. Hab den Scanner mal ganz aggressiv mit 900mV und iirc +550Mhz probiert, das Ergebnis war nichtmal im Menü von Spielen stabil. 950mV und +475 MHz probiert und ich habe bisher ein scheinbar stabiles Ergebnis erhalten. (960mV und irgendwas über 3Ghz).
Aber bisher gefällt mir das sehr gut und würde mich freuen, wenn's vielleicht irgendwann auch mal auf meiner 4090 läuft.
Vielen Dank jedenfalls für die tolle Arbeit. :smile:
Nochmal zu deiner PN: Afterburner ist, wie bereits erwähnt, aktuell. Hab sogar Mal die Beta drauf gemacht, gleiches Verhalten. Die Kurve wird nicht übernommen und wenn ich dann per Afterburner Versuche, sie zu übernehmen, wird auf die Standardkurve zurückgesetzt.
Zitat:
Zitat von Tesseract
(Beitrag 13908710)
und du hast es immer noch nicht verstanden.
Du vermengst hier konsequent inferenzbasierte Rekonstruktion mit freier kreativer Schöpfung. Dass DLSS 5, speziell im aktuellen corundum build mit dem NV-NGX-v5.0.x infernce modul zusätzlich in der Lage ist, den spezifischen Artstyle eines Spiels durch Neural Rendering nicht nur zu erhalten, sondern konsistent zu antizipieren, ist kein "Unfug".
Durch Techniken wie semantic injection versteht das Modell die mathematische Ästhetik und die Materialeigenschaften einer Szene weitaus tiefer, als du es einer KI zutraust.
Die Geometriedaten der Engine fungieren dabei als unbestechlicher Anker, sodass der Stil der Figuren eben nicht "verfälscht" , sondern lediglich in einer Perfektion rekonstruiert wird, die rein native Rasterisierung hardwarebedingt gar nicht mehr leisten kann. Was du dort in die Demo hineininterpretierst ist völlig irrelevant. Es ist und bleibt eine Demo.
Zitat:
Zitat von Tesseract
(Beitrag 13908710)
es geht nicht darum ob der output "visuell glaubwürdig" ist sondern alles erzeugen kann was artists erzeugen können
Die Geometriedaten und Texturen der Engine werden als Anker für DLSS5 genutzt. Aber rein grundsätzlich kann ein KI-Modell natürlich auch Stile erschaffen und "kreativ sein". KI findet sogar Verbindungen auf die ein Mensch nie kommen würde. Aber das ist nicht die Aufgabe von DLSS5 sondern deiner Torpfostenmentalität.
Zitat:
Zitat von Tesseract
(Beitrag 13908710)
(was deine behauptung war) und das geht weit darüber hinaus ob etwas flüchtig danach aussieht als wäre es teil von etwas das ein artist gemacht hat.
Deine Argumentation ist von der Angst getrieben, dass Artists keine Arbeit mehr haben. Da kann ich dir nicht weiterhelfen und dein persönliches Problem. Neural Editing ist gekommen um zu bleiben. ;)
Zitat:
Zitat von Tesseract
(Beitrag 13908710)
tut es eben nicht wie man eindrucksvoll an den demos gesehen hat.
Nur weil der Mensch am Ende den finalen Schliff gibt, heißt das nicht, dass die KI dazu nicht fähig wäre... es sichert lediglich die künstlerische Kontrolle!
Aber meine Güte, manche wollen es auch einfach nicht verstehen.
Gegen eine tiefe, fast schon ideologische Abneigung gegenüber dem technologischen Wandel kann man nicht mit Logik argumentieren.
Am Ende wird die Realität der Grafikerstellung solche Ansichten schlicht überrollen, genau wie es damals bei der Einführung von Shadern oder Raytracing war. Man kann den Fortschritt ignorieren, aber man kann nicht verhindern, dass er den Standard neu definiert.
Zitat:
Zitat von Shink
(Beitrag 13909782)
Ja eh. 50% mehr Recheneinheiten, 50% mehr VRAM-Bandbreite, 50% mehr VRAM sollte eigentlich 50% Speedup bringen.
Es sind ja 60% mehr Recheneinheiten, aber nur 33% mehr Bandbreite (keine Ahnung wie gross der L2 geworden ist). Von daher wäre rein theoretisch schon 60% möglich (wenn in dem spezifischen Fall Bandbreite egal ist, und der Verbrauch auch so viel höher sein darf). Aber man darf auch nicht vergessen dass man nie wirklich 100% Skalierung erreicht ausser in mehr oder weniger theoretischen Benchmarks. Zumindest bestätigen die Benchmarks dass die Skalierung ordentlich ist und es da keinen Flaschenhals irgendwo gibt (es sei denn die paar Benchmarks wo die B70 kaum schneller ist als die B580 sind genau auf sowas zurückzuführen und nicht auf Treiberprobleme).
Ja, sieht ganz gut aus. Interessanterweise tankt die Performance relativ stark, wenn man gleichzeitig DLSS nutzt. Ist das wegen STF (Stochastic Texture Filtering)?
Gut ist, dass Ada und Blackwell in etwa gleich performen. Die aktuelle NTC-Implementation benutzt CoopVecFP8 und GenericInt8 fürs Inferencing. Das heisst, dass viele GPUs da draussen genug schnell sein sollten. NTC dürfte auf RDNA4 mit FP8 auch gleichwertig laufen. Und dementsprechend ist auch noch Luft für FP4 basierende Performance-Steigerungen ;) NTC "on-load" ist für alle GPUs <Ada und <RDNA4 gedacht. Ist OK. GPUs wie eine 3080 dürften mit CoopVecFP8 vermutlich aber schneller sein als GenericInt8.
Und wieder mal denke ich mir:
Cool, was man mit GPUs inkl. Matrix-Acceleration alles anstellen kann. DLSS (SR, FG, RR) ist sicher sehr schlagkräftig, aber mit NTC, Neural Materials usw. kann man ebenfalls nochmals gut was gewinnen. Dass hier auch sehr viel bei der Speichermenge gewonnen werden kann (on disk, im VRAM) ist sehr nice.
Desweiteren hoffe ich, dass auch andere Algorithmen (nicht nur ML/AI) auf FP16/FP8 Matrizen-Rechnungen umschwenken. Ich habe da so Zeugs wie Full-Screen Post-Processing Effekte im Kopf (z.B. Lanczos Filter, Depth-of-Field, u.v.m.). Mit Cooperative Vectors oder neu DX Linear Algebra sollte das ohne Probleme machbar sein, solange FP16/FP8 Präzision ausreicht.
Zitat:
Zitat von Lurtz
(Beitrag 13908821)
Oder man braucht das ganze Compute eben auch für KI...
Wohl nur zum Teil:
Zitat:
At Amazon, we're always looking for ways to better serve our players. Your feedback has been clear: you want easy access to great games, more social experiences, and a steady flow of new content from developers you know and love. As our library continues to grow, more of that content is available to Prime members-and that's where we're focusing our future.
Titel aus verknüpften Portalen wie Ubi, GOG usw werden jetzt schon nicht mehr extra angezeigt(aber noch in der Liste). Darum gehts halt, der Dienst an sich, bleibt bestehen. Dadurch werden die aber wohl auch die Last senken wollen. Man konnte ja quasi seine ganzen verknüpften Bibliotheken via Luna spielen. Die kostenlosen Spiele bleiben wohl auch bestehen.
Laut den Reviews ist das deutlich besser geworden die Schwachstellen sind eher der GPU Treiber und Anti Cheat Support.
Im Video oben wird das gut erklärt Abobe Video Bearbeitung rennt besser als auf X86 da es hauptsächlich auf CPU Leistung setzt.
Sobald die GPU mher in Spiel kommt ist Intel besser.(Davinci Resolve)
Ich spiele aktuell Death Stranding 2: On the Beach welches u.a. auch XeFG inkl. XeLL von sich aus bietet. Ich glaube das ist das erste Game was bei mir mit XeFG sauber läuft. Da muss ich schon die Frage stellen ob die anderen Studios Grütze implementieren oder warum läuft dieses Game erst bei mir mit XeFG sauber? Gabs vorher schon genug Kandidaten mit von DEVs implementierten XeFG. Was auch auffällig ist... Framepacing scheint hier sauber zu funktionieren denn das OSD von meinem OLED springt nicht wild hin und her bei der Frequenz wie bei FSR-FG mit freien Frames. Dennoch hat XeFG in diesem Spiel ganz selten mal Probleme. Dann gibt es sehr starke Ruckler in kurzen, regelmäßigen Abständen. Workaround dafür Vsync Ingame von On auf Off stellen und wieder zurück auf On. Dann läufts wieder sauber. Irgendwas scheint da mit Vsync in die Quere manchmal zu kommen. Wenn ich mich nicht gerade vertue passiert dieses Problem gelegentlich nur direkt beim Wechsel von Cutszenen zum Gameplay.
Zitat:
Zitat von DrFreaK666
(Beitrag 13905710)
Er ja Recht, oder nicht? Erkennt jeder, der die Fähigkeit besitzt die eigene Bubble zu durchbrechen
Meinst du jetzt mich oder Atma?
So oder so: Die gezeigten Spiele laufen alle auf den aktuellen Konsolen.
Klar, die Bildqualität ist nicht so gut, aber das Problem haben Konsolen seit Jahrzehnten.
Wer gute Bildqualität und hohe Auflösungen, früher auch anständiges AntiAliasing wollte, musste high end GPUs am PC nutzen. Wenn 4x MSAA genutzt wurde, waren dann aber selbst in 1080p oft keine 60 FPS mehr möglich, später mit Karten auf 1080ti Niveau war oft nur 4K mit FXAA bei 60 FPS drin, wenn das spiel gut optimiert war. Teilweise aber auch nur 30-40 FPS.
Heute sprechen wir von Raytracing mit extrem guter Kantenglättung, was auf einer Oberklasse GPU aus dem Jahre 2022 flüssig mit dreistelligen Frameraten auf nem 4K Bildschirm läuft. Ja, mit 2x Frame Gen, aber die Latenzen mit 120 FPS Frame Gen sind sowieso sehr viel besser und flüssiger, als 120 FPS früher, als es noch kein Reflex oder VRR gab. Vom CPU Limit ganz zu schweigen, was früher bei open world games gerne ein Problem war. Ich verweise auf Spiele wie Assassins Creed Odyssey, wo selbst die schnellsten CPUs nur 80-90 FPS AVG und 60-70 FPS bei den 99th percentile schafften. Oder ein Division was je nach CPU und Szene schon bei 60 FPS im CPU Limit war.
Schaut euch den "scheiß" gerne nochmal an, den wir vor 10 Jahren noch ertragen mussten:
Und dann gibts wirklich Leute, die behaupten, dass heutige Hardware "zu langsam" für RT sei? Soll ich jetzt lachen? WTF...
Meine 2022 GPU kann selbst Pathtracing mit (für mich) ausreichenden Frameraten bzw. besseren Framerates als vor einiger Zeit noch üblich waren. So what? Manche haben echt Probleme :D
Wer high FPS mit ultra geringen latenzen bevorzugt, soll halt die Details reduzieren. Ich hab auch gerne hohe FPS, keine Frage. Aber eben auch gute Grafik. Wenn beides nicht geht sucht man sich eben einen Kompromiss. Aber die Sinnhaftigkeit von RT anzweiflen bei den offensichtlich hervorragenden Ergebnissen ist doch lächerlich.
Avatar läuft übrigens auf aktueller hardware im Verhältnis zu damals sehr viel schneller als The Division auf damals aktueller Hardware. CPU Limit liegt irgendwo bei 200 FPS auf CPUs, die man mittlerweile als Mitteklasse bezeichnen würde und selbst die Frameraten in 4K mit Quality Upsampling (noch ohne Frame Gen) sind trotz Utra Settings besser als bei einem Division aus dem Jahre 2016 in 4K mit Medium settings. Dabei kann man heutzutage in 4K Problemlos Performance Upsampling nutzen, was die FPS nochmal deutlich erhöht und Frame Gen dazuschalten. Man könnte fast schon sagen, die GPU Anforderungen haben sich im Vergleich zu früher sogar deutlich verringert (effektiv mit den jeweils aktuellen GPUs).
Aber ich denke das führt jetzt auch zu weit. Hier soll es um die Unreal Engine gehen. Diese Diskussion würde im Raytracing Thread besser aufgehoben sein.