Die iGPU ist richtig gut gelungen. Das fand ich aber schon bei Arrow Lake, wo ich mit der iGPU z.B. in CoD BO7 mit XeSS auf über 40fps@1440p erreicht habe. Wenn jetzt MFG kommt, wird das >60fps
Die iGPU ist richtig gut gelungen. Das fand ich aber schon bei Arrow Lake, wo ich mit der iGPU z.B. in CoD BO7 mit XeSS auf über 40fps@1440p erreicht habe. Wenn jetzt MFG kommt, wird das >60fps
Zitat:
Zitat von DrFreaK666
(Beitrag 13876081)
Wieso wird dieser Thread regelmäßig der "AMD vs Nvidia"-Thread und nicht der DLSS-Thread?
Ganz Gallien? Nein ein kleines Dorf unbeugsamer Gallier leistet erbitterten Widerstand und muss unbedingt zum Guten bekehrt werden... Liebe Römer bitte gebt uns nicht auf!
Zitat:
Zitat von Rush
(Beitrag 13875884)
Das Kärtchen wurde heute verschickt. Ich hoffe nur, dass ich keine Backsteine bekomme. :rolleyes:
Bei mir war es ein altes Mercedes Autoradio statt der Zotac 5070 bei Amazon...
Zitat:
Zitat von MiamiNice
(Beitrag 13875802)
Es war nicht Preis Leistung. Es war Intel Frust und das AMD Logo. Wenn Du etwas anderes denkst, denkst Du halt falsch. Wie so oft ;)
Tagträumer :rolleyes:
Zitat:
Zitat von mczak
(Beitrag 13875956)
Also das mit dem Kerne spammen sehe ich nicht so dramatisch, es sind ja eigentlich gar nicht mehr als bei Arrow Lake, nämlich 8+16 pro Compute Tile (die 4 LPE Kerne lasse ich da mal aussen vor).
Sieht aus wie ein pfiffiges "Try Not to Laugh Challenge", aber ich würde mir an deiner Stelle keine Hoffnungen machen. Keine Chance gegen MiamiNice.
Apropos. Hail the King:
Zitat:
Zitat von Daredevil
(Beitrag 13875801)
Wenn eine Firma ein gutes Produkt schlechter macht mit einem „Nachfolger“, erzeugt das eine gewisse Antipathie
Es ist eine Budget-CPU gegen die Speicherkrise. Überall da wo ein 9800X3D stark bis massiv fällt, wenn er keine 6000/30 bekommt, fällt der 9850X3D nur ganz leicht ab.
Hast du es jetzt? Auf was kommst du mal von alleine drauf?
Analog zum GPT LLM Benchmark Thread hätte ich auch gerne ein Rangliste für GenAI und GPU Berechnung, daher versuche ich mal hiermit mein Glück und erhoffe mir rege teilnahme, damit wir wieder eine breite Palette an Daten bekommen. 12GB+ GPUs sollten das packen. :)
Hier ein kleines Step by Step Tutorial:
1. InvokeAI laden und starten: https://invoke.ai/ (Windows/Linux/Mac - Stable Version)
2. Links unten findet ihr hinter dem 3D Viereck den "Models" Tab
3. Wechselt oben rechts auf "Starter Models"
4. Sucht nach "Z-Image Turbo" ( 13GB ) und drückt auf Install
5. Nach dem Download wechselt ihr oben links unter "Aa" zu Generate
Folgende Einstellungen sollen getroffen werden:
( Die Steps sind unnötig hoch, es gehr hier nur ums messen. Optimal sind 9 )
6. Tippt nun unter "Prompt" folgendes ein und startet oben Links mit dem grünen "Invoke" Button
Zitat:
Create a hyper-photorealistic, lifelike depiction of a mystical elf as a captivating mythical creature from Norse and Celtic mythology, as if captured by a professional photographer in reality – ultra-detailed with fine skin textures, realistic hair strands, natural lighting, and anatomically perfect figure. The elf is a graceful, slender adult woman with alabaster flawless skin, long pointed ears (realistically proportioned), flowing silver hair with individual strands blowing in the wind, intense emerald green eyes with reflections, and delicate translucent dragonfly-like wings with fine veins. She wears a gossamer natural gown of leaves, vines, and crystals with realistic folds and dew; she hovers lightly above a moss-covered forest altar with glowing mushrooms and mist in a dense moonlit primeval forest at twilight, holding a bow of iridescent light and sprinkling healing sparks from her hands. Scene with cinematic lighting: soft moonlight filtering through leaves, volumetric mist, moist textures on bark and moss, hyperrealistic details like sweat beads, dust particles, and natural shadows. Wide-angle, 8K resolution, photorealistic, dramatic, immersive, and believable – as if she truly exists
7. Im zweiten Fenster von InvokeAI in der Konsole sehr ihr nun die IT/s, das ist die Geschwindigkeit der Berechnung eurer GPU.
Schreibt mir gerne in dem Format euer Ergebnis:
Zitat:
Speed: XXXXX
CPU: XXXXX
GPU: XXXXX
VRAM: XXXXX
Software: XXXXX
Verbrauch: XXXXX
Sowas kommt beim Prompt dann raus
Spoiler
Happy Benching! :)
Zitat:
Zitat von basix
(Beitrag 13875352)
Ja, ich erwarte auch dass Nvidia die relative Tensor Core Performance erhöhen wird. Verdoppelt hört sich mal vernüftig an, vielleicht wird es auch etwas mehr (Rubin CPX legt 8x drauf).
Neben den FLOPS vermute ich auch, dass Tensor Memory (TMEM) in Consumer-GPUs einzug hält. Dadurch sollte die Ausführungsgeschwindigkeit von DNN verbessert werden.
Und dann das Thema DLSS 5. Ich erwarte, dass Nvidia auf ein NVFP4 Modell wechseln wird. Entweder wird DLSS 5 dadurch schneller als DLSS 4.5 (auf Blackwell und Rubin) oder man spendiert nochmals mehr Parameter für ein verbessertes Modell. Oder irgendwas dazwischen.
Das wäre sehr wichtig. Gerade die kleineren Karten würden massiv davon profitieren wenn sie beim Upscaling in hohen Auflösungen weniger Overhead hätten.
Zitat:
Zitat von Angiesan
(Beitrag 13875794)
Im großen und Ganzen ist das eben auch wieder nur eine vergleichbare Krise wie zu Mining und Corona und auch da hat AAA- und PC-Gaming überlebt trotz hoher HW-Preise.
Ja logisch, dafür dauern die Krisen zu kurz.
Immerhin ist die 5060 hier die schnellste 8GB Vram GPU.
Für 2016 wäre es kein Problem.
Statt da groß was anzupassen, würde ich aber aktuell auch lieber den VRAM Aufschlag zahlen, auch wenn wir damit jetzt bei 600 Einstiegspreis für Gaming sind. Bis RTX gab es dafür immer die 80er GPU.
Zitat:
Zitat von Relex
(Beitrag 13875535)
Aber was bringt die Diskussion wenn du sehr geringe Ansprüche hast und versuchst es dir schön zu reden. Bleib doch einfach dabei. Ist ne Entscheidung für dich. Darüber zu diskutieren und das offensichtlich in allen belangen bessere relativeren zu wollen führt zu keinem Mehrwert.
Für dich vielleicht, für mich bringt die Diskussion sehr wohl einen Mehrwert. Ich bin in der Lage meine Kaufentscheidung -dank der Diskussion- besser abschätzen zu können. Dass du mir geringe Ansprüche unterstellst, mit 120Hz, finde ich lustig, dann haben die Konsolen-Spieler wohl auch alle geringe Ansprüche. Wahrscheinlich eh alles Low-FPS-Casuals in deinen professionellen Fliegenaugen. :)
edit: Die Frage, die ich mir stelle, ist nicht ob +120Hz besser sind oder nicht, sondern ob mir +120Hz (240Hz) einen Aufpreis von aktuell ca. 150 Euro wert sind. Und da es mein erster OLED ist und ich noch nicht abschätzen kann wie lange er überhaupt hält, halte ich diese Abwägung für legitim und schätze auch den Gedankenweg als für andere Nutzer interessant ein.
edit2: Ich hatte auch Monitore mit Mini-LED local Dimming im Blick, die teilweise wirklich gut bewertet werden, vergleichbar mit OLED. Leider scheint es so zu sein, dass die Hersteller ihre 32er Mini-LED-Modelle in Europa nicht verkaufen, weil sie die strengen Energierichtlinien nicht erfüllen können. Hier wird eine ganze Panel-Backlighting-Technologie für Europäer, zumindest im PC-Monitor-Bereich, aus dem Spiel genommen. Ich bin unfrei in meiner Kaufentscheidung. Bevormundet. :(
Zitat:
Zitat von Aquaschaf
(Beitrag 13867815)
Kostet es nicht trotzdem etwas Performance, weil die GPU unter mehr instruction cache misses leidet?
Korrekt, die abartige Unzahl an Shadern in UE Games in einer der Gründe warum UE Engine deutlich mehr CPU Commands für Speicherzugriffe prozentuell verwendet als andere Engines. Das ist ein Punkt wo Epic dringend noch aufräumen muss.
Beim Shader Compile in manchen Games bin ich dann schon froh die 16 Kerne bei einem 9950X3D zu haben.
Zitat:
Zitat von Gast
(Beitrag 13875228)
Das ist keine Schattenberechnung, jede Schattenberechnung.
Eine vollständige Lösung braucht keine Schattenberechnung, Schatten gibts nämlich nicht es gibt nur Licht und an manchen Stellen eben mehr davon und an anderen weniger.
Ja, Schatten und AO sind einfache Beiprodukte von Pathtracing GI. Man benötigt also nicht zig verschiedene "Softwareprodukte", die jeweils für ein Effekt zuständig sind, sondern nutzt einfach Pathtracing. Deswegen ist UE5 auch so miserabel. Nichts wird wiederverwendet, alles wird hunderte mal erneut berechnet - nur eben für GI, AO, Schatten, Reflektionen etc.