Kann mal bitte ein Mod hier mal ordentlich wieder durchwischen? Der ganze OT-Kramm mit SSAA, RR, RT und Konsorten hat mal wieder rein gar nichts mit FSR zu tun.
Zitat:
Zitat von TobiWahnKenobi
(Beitrag 13876313)
btw,
tuf vs. fe
gar nicht vergleichbar. die eine karte hat 2x hdmi_2.1 nativ - die andere nicht. brauchst du nicht? dein ding - ich schon.
(..)
mfg
tobi
Ja wenn man den braucht, gibt es nicht viele Altenativen.
Für alle, die sich das "Kind im Manne" bewahrt haben, hätte ich ein weiteres UE5 Spiel im Angebot. Am 5. Februar kommt das Adventure RPG Dragon Quest VII Reimagined (Unreal Engine 5) raus.
Kurze Frage zum Thema Zeitraffer/Timelapse/Hyperlapse bei Samsung Galaxy S22 & S24: wenn ich das richtig sehe, biete Samsung standardmäßig Einstellungen bis maximal 60-fache Geschwindigkeit.
Andere Hersteller/Modelle bieten da deutlich mehr - z. B. Oneplus 9 Pro bis zu 960-fach und Xiaomi 13T & 11 Ultra sogar bis 1800-fach.
Ist das korrekt so bei Samsung oder habe ich irgendwas übersehen?
Und hat jemand vielleicht eine Empfehlung für eine gute, alternative Zeitraffer-App, die möglichst viele Einstellmöglichkeiten bietet?
Zitat:
Zitat von AffenJack
(Beitrag 13876213)
TMEM erwarte ich auch, aber ich denke im Moment nicht, dass wir ne verdopplung der TCs sehen. Verdoppelt/vervielfachte Geschwindigkeit bei 1,58 Bit vs FP4 als neues Format. Aber man hat ja auch nur begrenzten Platz und sehe bei Consumer erstmal eher nur die verstärkte Nutzung von NVFP4 zur Geschwindigkeitserhöhung.
Verdopplung TCs seh ich nur, wenn man die Flops pro SM generell verdoppelt um damit die Skalierungsprobleme die GB202 hat zu bekämpfen. Da wird es generell spannend, wie Nvidia die Mauer angeht gegen die ihre Architektur gelaufen ist.
Rubin wird in N3P kommen, wo primär Logikdichte gegenüber N4P steigt. Und zusätzliche Tensor-FLOPS benötigen primär Logik-Transistoren.
Allem Anschein nach wird GR202 bei 192 SM bleiben. Also kann man Performance nur durch IPC und Takt gewinnen. Verbessert man das DLSS Scaling, könnte man das prinzipiell unter IPC einordnen. Nur indirekt und wenn man DLSS nutzt. Aber wenn man DLSS nutzt, sieht das für den Nutzer schlicht nach Mehrperformance aus.
Man kann sich auch überlegen: Wie viel grösser wird der Chip für +10% Performance bei DLSS SR. Oder +33% bei DLSS + 4x MFG?
Hier der alte Post von Turing: https://www.reddit.com/r/nvidia/comm..._07/?rdt=47655
Tensor Cores kosteten damals abgeschätzt ca. +13% auf ein SM gesehen oder +6% auf die gesamte Chipfläche gsehen. Mittlerweile kamm ein fetter L2$ dazu und die SMs wurden grösser (mehr shared memory, verdoppelte FP32, stärkere RT Cores). Die Tensor FLOPS pro FP32 FLOP haben sich aber halbiert. Es sind vor allem neue Datentypen dazu gekommen. Ganz grob abgeschätzt dürften die heutigen Tensor Cores etwa gleich viel Platz beanspruchen wie bei Turing (+5%). Bei einer Verdopplung kämen also nochmals +5% dazu. Das würde sich also zu 100% lohnen, wenn man DLSS nutzt. Und eben, dass N3P sehr gut mit Logik skaliert. Jetzt kommt noch TMEM dazu, was Fläche kosten wird. Sagen wir mal +5% (nur 128kByte TMEM anstat 256kByte wie bei B200). Netto steigt die Chipfläche +10% bei +10% Performance bei DLSS SR. Sobald FG und Neural Rendering ins Spiel kommt, wird es aber deutlich mehr sein. Netto also ein Gewinn: Mehrperformance steigt mehr als die zusätzlich notwendige Chipfläche.
Und dann eben auch die Nutzung dieser Chips für z.B. RTX Pro usw. wo zusätzliche Tensor Core Performance gerne gesehen wird. Mehr Tensor Core Throughput würde also gut in Nvidias generelle Strategie rein passen.
Edit:
Evtl. ist TMEM sogar günstiger, die 10% erscheinen mir aber irgendwie niedrig https://arxiv.org/pdf/2512.02189
Zitat:
The 256KB TMEM per SM (10% of SM memory) [...]
Zitat:
Zitat von dildo4u
(Beitrag 13876129)
Die Geräte werden noch nicht geliefert und die Hersteller lassen nur High-End testen ich vermute im März wird es User Reviews mit den kleinen Modellen geben.
Müsste aber eigentlich bald los gehen, der aktuelle Arc Treiber enthält schon MFG für die Ultra 3s
Die iGPU ist richtig gut gelungen. Das fand ich aber schon bei Arrow Lake, wo ich mit der iGPU z.B. in CoD BO7 mit XeSS auf über 40fps@1440p erreicht habe. Wenn jetzt MFG kommt, wird das >60fps
Analog zum GPT LLM Benchmark Thread hätte ich auch gerne ein Rangliste für GenAI und GPU Berechnung, daher versuche ich mal hiermit mein Glück und erhoffe mir rege teilnahme, damit wir wieder eine breite Palette an Daten bekommen. 12GB+ GPUs sollten das packen. :)
Hier ein kleines Step by Step Tutorial:
1. InvokeAI laden und starten: https://invoke.ai/ (Windows/Linux/Mac - Stable Version)
2. Links unten findet ihr hinter dem 3D Viereck den "Models" Tab
3. Wechselt oben rechts auf "Starter Models"
4. Sucht nach "Z-Image Turbo" ( 13GB ) und drückt auf Install
5. Nach dem Download wechselt ihr oben links unter "Aa" zu Generate
Folgende Einstellungen sollen getroffen werden:
( Die Steps sind unnötig hoch, es gehr hier nur ums messen. Optimal sind 9 )
6. Tippt nun unter "Prompt" folgendes ein und startet oben Links mit dem grünen "Invoke" Button
Zitat:
Create a hyper-photorealistic, lifelike depiction of a mystical elf as a captivating mythical creature from Norse and Celtic mythology, as if captured by a professional photographer in reality – ultra-detailed with fine skin textures, realistic hair strands, natural lighting, and anatomically perfect figure. The elf is a graceful, slender adult woman with alabaster flawless skin, long pointed ears (realistically proportioned), flowing silver hair with individual strands blowing in the wind, intense emerald green eyes with reflections, and delicate translucent dragonfly-like wings with fine veins. She wears a gossamer natural gown of leaves, vines, and crystals with realistic folds and dew; she hovers lightly above a moss-covered forest altar with glowing mushrooms and mist in a dense moonlit primeval forest at twilight, holding a bow of iridescent light and sprinkling healing sparks from her hands. Scene with cinematic lighting: soft moonlight filtering through leaves, volumetric mist, moist textures on bark and moss, hyperrealistic details like sweat beads, dust particles, and natural shadows. Wide-angle, 8K resolution, photorealistic, dramatic, immersive, and believable – as if she truly exists
7. Im zweiten Fenster von InvokeAI in der Konsole sehr ihr nun die IT/s, das ist die Geschwindigkeit der Berechnung eurer GPU.
Schreibt mir gerne in dem Format euer Ergebnis:
Zitat:
Speed: XXXXX
CPU: XXXXX
GPU: XXXXX
VRAM: XXXXX
Software: XXXXX
Verbrauch: XXXXX
Sowas kommt beim Prompt dann raus
Spoiler
Happy Benching! :)
Zitat:
Zitat von Angiesan
(Beitrag 13875794)
Im großen und Ganzen ist das eben auch wieder nur eine vergleichbare Krise wie zu Mining und Corona und auch da hat AAA- und PC-Gaming überlebt trotz hoher HW-Preise.
Ja logisch, dafür dauern die Krisen zu kurz.
Immerhin ist die 5060 hier die schnellste 8GB Vram GPU.
Für 2016 wäre es kein Problem.
Statt da groß was anzupassen, würde ich aber aktuell auch lieber den VRAM Aufschlag zahlen, auch wenn wir damit jetzt bei 600 Einstiegspreis für Gaming sind. Bis RTX gab es dafür immer die 80er GPU.
Zitat:
Zitat von Relex
(Beitrag 13875535)
Aber was bringt die Diskussion wenn du sehr geringe Ansprüche hast und versuchst es dir schön zu reden. Bleib doch einfach dabei. Ist ne Entscheidung für dich. Darüber zu diskutieren und das offensichtlich in allen belangen bessere relativeren zu wollen führt zu keinem Mehrwert.
Für dich vielleicht, für mich bringt die Diskussion sehr wohl einen Mehrwert. Ich bin in der Lage meine Kaufentscheidung -dank der Diskussion- besser abschätzen zu können. Dass du mir geringe Ansprüche unterstellst, mit 120Hz, finde ich lustig, dann haben die Konsolen-Spieler wohl auch alle geringe Ansprüche. Wahrscheinlich eh alles Low-FPS-Casuals in deinen professionellen Fliegenaugen. :)
edit: Die Frage, die ich mir stelle, ist nicht ob +120Hz besser sind oder nicht, sondern ob mir +120Hz (240Hz) einen Aufpreis von aktuell ca. 150 Euro wert sind. Und da es mein erster OLED ist und ich noch nicht abschätzen kann wie lange er überhaupt hält, halte ich diese Abwägung für legitim und schätze auch den Gedankenweg als für andere Nutzer interessant ein.
edit2: Ich hatte auch Monitore mit Mini-LED local Dimming im Blick, die teilweise wirklich gut bewertet werden, vergleichbar mit OLED. Leider scheint es so zu sein, dass die Hersteller ihre 32er Mini-LED-Modelle in Europa nicht verkaufen, weil sie die strengen Energierichtlinien nicht erfüllen können. Hier wird eine ganze Panel-Backlighting-Technologie für Europäer, zumindest im PC-Monitor-Bereich, aus dem Spiel genommen. Ich bin unfrei in meiner Kaufentscheidung. Bevormundet. :(
Zitat:
Zitat von Aquaschaf
(Beitrag 13867815)
Kostet es nicht trotzdem etwas Performance, weil die GPU unter mehr instruction cache misses leidet?
Korrekt, die abartige Unzahl an Shadern in UE Games in einer der Gründe warum UE Engine deutlich mehr CPU Commands für Speicherzugriffe prozentuell verwendet als andere Engines. Das ist ein Punkt wo Epic dringend noch aufräumen muss.
Beim Shader Compile in manchen Games bin ich dann schon froh die 16 Kerne bei einem 9950X3D zu haben.
Zitat:
Zitat von Gast
(Beitrag 13875228)
Das ist keine Schattenberechnung, jede Schattenberechnung.
Eine vollständige Lösung braucht keine Schattenberechnung, Schatten gibts nämlich nicht es gibt nur Licht und an manchen Stellen eben mehr davon und an anderen weniger.
Ja, Schatten und AO sind einfache Beiprodukte von Pathtracing GI. Man benötigt also nicht zig verschiedene "Softwareprodukte", die jeweils für ein Effekt zuständig sind, sondern nutzt einfach Pathtracing. Deswegen ist UE5 auch so miserabel. Nichts wird wiederverwendet, alles wird hunderte mal erneut berechnet - nur eben für GI, AO, Schatten, Reflektionen etc.