nVidia-Grafik

5

Umfrage-Auswertung: Wie weit verbreitet ist Grafikkarten-Undervolting?

Mittels einer Umfrage von Mitte September wurde der Frage nachgegangen, wie weit Grafikkarten-Undervolting derzeit verbreitet ist, warum dieses genutzt wird bzw. wie der Interesse-Stand der Nichtnutzer aussieht. In der hauptsächlichen Fragestellung gab es mit kumuliert 50,7% ein überraschend starkes Ergebnis pro Grafikkarten-Undervolting (UV). Dabei setzt der weitaus größere Teil jener Nutzergruppe diese Funktion primär zugunsten einer höheren Energieeffizienz an, was üblicherweise mit besserer Laufruhe durch geringere Karten-Temperaturen und damit weniger stark anziehenden Lüftern einhergeht. Nur der geringere Teil der Undervolting-Nutzer schaut diesbezüglich zuerst auf den Übertaktungsgewinn – wobei die Grenzen bekannterweise fließend sind und durchaus auch beide Effekte gleichzeitig erreicht werden können.

2

nVidia bestätigt die Hardware-Daten zur GeForce RTX 2060 12GB samt deren Marktstart am 7. Dezember

The Verge haben seitens nVidia eine Bestätigung der Existenz der GeForce RTX 2060 12GB sowie von deren Releasetermin am 7. Dezember 2021 vorliegen. Zu diesem Zeitpunkt sollen verschiedene Hersteller-Modelle jener neuen Turing-basierten Karte verfügbar werden – was somit auch andeutet, dass nVidia wahrscheinlich keine eigene "Founders Edition" ins Rennen schickt, sondern diesen Launch komplett den Grafikkarten-Herstellern überläßt. Zugleich kommt von selbigem Bericht der Hinweis auf die finalen Spezifikationen zur GeForce RTX 2060 12GB, welche nVidia nunmehr bereits auf den eigenen Webseiten offenlegt. Hiermit bestätigen sich die zuletzt in der Gerüchteküche gemeldeten Daten, neu sind (neben der offiziellen Bestätigung) allein die Taktraten.

GeForce RTX 2060 6GB GeForce RTX 2060 12GB GeForce RTX 2060 Super GeForce RTX 3060
Chipbasis nVidia TU106-300 nVidia TU106 nVidia TU106-410 nVidia GA106-300
Hardware Turing, 30 Shader-Cluster (1920 FP32-Einheiten) @ 192 Bit Interface Turing, 34 Shader-Cluster (2176 FP32-Einheiten) @ 192 Bit Interface Turing, 34 Shader-Cluster (2176 FP32-Einheiten) @ 256 Bit Interface Ampere, 28 Shader-Cluster (3584 FP32-Einheiten) @ 192 Bit Interface
Taktraten 1365/1680 MHz & 14 Gbps 1470/1650 MHz & 14 Gbps 1470/1650 MHz & 14 Gbps 1320/1777 MHz & 15 Gbps
Rohleistungen 6,5 TFlops & 336 GB/sec 7,2 TFlops & 336 GB/sec 7,2 TFlops & 448 GB/sec 12,7 TFlops & 360 GB/sec
Speicher 6 GB GDDDR6 12 GB GDDR6 8 GB GDDR6 12 GB GDDR6
TDP (GCP) 160W 185W 175W 170W
FHD Perf.Index 910% geschätzt ~1000-1050% 1050% 1130%
4K Perf.Index 123% geschätzt ~135-150% 148% 165%
Listenpreis $299 ? $399 $329
Release 7. Januar 2019 7. Dezember 2021 2. Juli 2019 25. Februar 2021
Angaben zu noch nicht veröffentlicher Hardware basieren auf Gerüchten & Annahmen
28

Gerüchteküche: GeForce RTX 3050 und GeForce RTX 2060 12GB mit veränderten Spezifikationen

Von VideoCardz kommen zwei Meldungen mit teils veränderten Spezifikationen zu den kommenden Portfolio-Auffüllungen von nVidia im Mainstream-Bereich, welche zusammen betrachtet auch ein neues Bild zu den nVidia-Plänen in diesem Segment ergeben. Die erste Meldung ergeht zur "GeForce RTX 3050" auf allerdings der Basis des "GA106-150" Chips. Selbiger wurde bislang als "GeForce RTX 3050 Ti" vermeldet, während die non-Ti-Variante auf dem GA107-Chip basieren sollte. nVidia scheint dies umgestoßen zu haben und wohl nur noch diese non-Ti-Variante auf GA106-Basis herausbringen zu wollen. Dafür erhält jene Lösung nunmehr jedoch gleich 8 GB Grafikkartenspeicher – was wiederum eine Reduzierung des Speicherinterfaces von 192 auf 128 Bit bedeutet. Trotz besserer Speicherbestückung wäre jene Karte somit grundsätzlich etwas langsamer als die ursprünglich geplante GeForce RTX 3050 Ti mit 192-Bit-Interface einzuordnen.

GeForce RTX 2060 6GB GeForce RTX 2060 12GB GeForce RTX 3050 GeForce RTX 3060
Chipbasis nVidia TU106-300 nVidia TU106 nVidia GA106-150 nVidia GA106-300
Hardware Turing, 30 Shader-Cluster (1920 FP32-Einheiten) @ 192 Bit Interface Turing, 34 Shader-Cluster (2176 FP32-Einheiten) @ 192 Bit Interface Ampere, 24 Shader-Cluster (3072 FP32-Einheiten) @ 128 Bit Interface Ampere, 28 Shader-Cluster (3584 FP32-Einheiten) @ 192 Bit Interface
Speicher 6 GB GDDDR6 12 GB GDDR6 8 GB GDDR6 12 GB GDDR6
TDP (GCP) 160W 184W ? 170W
FHD Perf.Index 910% geschätzt ~1000-1100% geschätzt ~800-950% 1130%
Listenpreis $299 ? ? $329
Release 7. Januar 2019 7. Dezember 2021 Q2/2022 25. Februar 2021
Angaben zu noch nicht veröffentlicher Hardware basieren auf Gerüchten & Annahmen
25

Die Grafikkarten-Performance unter Battlefield 2042

Von ComputerBase, GameGPU, PC Games Hardware & TechSpot kommen umfangreiche Grafikkarten-Benchmarks unter Battlefield 2042. Der 18. Teil der Battlefield-Reihe setzt auf eine wiederum verbesserte Frostbite-Engine, ist diesesmal nur noch für DirectX 12 und bringt wiederum RayTracing mit sich, allerdings weitaus dezenter gelöst als bei den direkten Vorgängern. Hinzu wird für nVidias RTX-Karten noch DLSS geboten, jedoch nicht FSR oder ein anderer, offener Upscaler. Gebencht wurde primär unter dem "Ultra"-Bildqualtätspreset, obwohl jenes noch ein paar Prozentpunkte von der maximalen Bildqualität enfernt liegt. Davon abweichend bietet allein die PCGH Benchmarks unter der maximalen Bildqualität (nachfolgend somit nur für Interpolationen fehlender Werten verwendet), hinzu bietet der TechSpot zusätzliche Messungen unter dem "Medium"-Bildqualtätspreset an.

Battlefield 2042 — FullHD/1080p @ "Ultra" Preset (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps 1080Ti → 84 R7 → 81 2080Ti → 108
2080S → 95
2080 → 91
2070S → 85
2070 → 80
5700XT → 84 3090 → 147
3080Ti → 140
3080 → 133
3070Ti → 118
3070 → 113
3060Ti → 102
3060 → 80
6900XT → 147
6800XT → 142
6800 → 123
6700XT → 101
6600XT → 87
70-79 fps 2060S → 76 5700 → 77 6600 → 76
60-69 fps 1080 → 68
1070Ti → 64
Vega64 → 65 2060 → 69
1660Ti → 60
5600XT-14 → 69
5600XT-12 → 66
50-59 fps 1070 → 58 Vega56 → 58 1660S → 58
1660 → 52
5500XT-8G → 50
40-49 fps 1060-6G → 41 590 → 44
580-8G → 40
30-39 fps 480-8G → 38
570-8G → 35
470-8G → 33
≦29 fps 1650S → <10 5500XT-4G → 23
Durchschnitt der Benchmarks von ComputerBase, GameGPU & TechSpot, fehlende Werte interpoliert (±1-2 fps)
21

Die Grafikkarten-Performance unter Call of Duty: Vanguard

Von ComputerBase, GameGPU & PC Games Hardware kommen Grafikkarten-Benchmarks zu "Call of Duty: Vanguard", welches am 5. November als 18. Titel der CoD-Serie erschienen ist. Das Spiel auf Basis der "IW 8.0" Engine von Entwickler "Sledgehammer Games" basiert auf DirectX 12, setzt jedoch im Gegensatz zu seinen Vorgängern kein RayTracing ein. Die Performance unterteilt sich zudem deutlich zwischen dem Kampagnen- und dem Multiplayer-Modus: Letzterer zeigt keine so herausragende Grafik, dafür aber auch klar höhere Frameraten, insbesondere auf leistungsschwächeren Grafikkarten. Die Performance-Ermittlung der drei genannten Quellen und damit die nachfolgenden Performance-Tabellen der gemittelten Ergebnisse beziehen sich allein auf den leistungsfressenderen Kampagnen-Modus des Spiels. Trotz wie gesagt der besseren Grafikqualität, welche für die Benchmarks maximiert wurde, erzielt Call of Duty: Vanguard zumindest unter FullHD hervorragende Performance-Ergebnisse mit allen modernen Grafikkarten:

Call of Duty: Vanguard (Campaign) — FullHD/1080p @ max Details (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps R7 → 86 2080Ti → 113
2080S → 93
2080 → 89
2070S → 83
5700XT → 92
5700 → 85
3090 → 163
3080Ti → 160
3080 → 148
3070Ti → 124
3070 → 117
3060Ti → 103
3060 → 81
6900XT → 169
6800XT → 158
6800 → 136
6700XT → 117
6600XT → 95
6600 → 82
70-79 fps 1080Ti → 77 Vega64 → 79
Vega56 → 70
2070 → 74
2060S → 72
5600XT-14 → 76
5600XT-12 → 73
60-69 fps 2060 → 64
50-59 fps 1080 → 59
1070Ti → 54
590 → 54 1660Ti → 55
1660S → 54
5500XT-8G → 56
40-49 fps 1070 → 46 580-8G → 48
480-8G → 46
1660 → 48 5500XT-4G → 45
30-39 fps 1060-6G → 33 570 → 35
470 → 33
1650S → 39
1650-D6 → 31
≦29 fps 1060-3G → 23 560 → 20 1650-D5 → 29
Durchschnitt der Benchmarks von ComputerBase, GameGPU & PC Games Hardware fehlende Werte interpoliert (±1-2 fps)
17

nVidia bringt mit "nVidia Image Scaling" einen eigenen offenen Upscaler in Konkurrenz zu AMDs FSR

Mit dem neuen GeForce-Treiber 496.76 bietet nVidia nunmehr ein weiteres Upscaling-Feature nach dem eigenen DLSS sowie AMDs FSR an: "nVidia Image Scaling" (NIS). Hierbei kopiert nVidia ein wenig AMDs FSR-Ansatz, denn bei NIS handelt es sich um nichts anderes als die grundsätzlich selbe Lösung mit grünem Anstrich: Ein spatialer Upscaler (sprich Rendering auf intern niedriger Auflösung und dann Hochskalierung auf die Zielauflösung zur Bildausgabe), ohne Verarbeitung von temporärer Komponente oder gar einer KI-Unterstützung. Allerdings peppt nVidia das ganze mittels dem Haus-eigenen Bildschärfungs-Tool "nVidia Image Sharpening" auf, welches bei NIS-Einsatz automatisch mit ins Spiel kommt und der für Upscaler typischen gewissen Weichzeichnung entgegenwirken soll. Da nVidias Schärfungstool bislang für gutklassige Ergebnisse steht und die Nachschärfung bei FSR in der Praxis als suboptimal gilt, wäre nVidias NIS somit AMDs FSR auf dem Papier überlegen – was natürlich besser den Praxisvergleich abzuwarten gilt.

AMD FSR nVidia NIS nVidia DLSS
offiziell unterstützte Grafikkarten AMD Radeon RX 400, 500, Vega, 5000 & 6000 Serien + alle AMD Ryzen APUs + nVidia GeForce 10, 16, 20 & 30 Serien nVidia GeForce 900, 10, 16, 20 & 30 Serien nVidia GeForce 20 & 30 Serien (nicht GeForce 16)
inoffiziell unterstützte Grafikkarten jede DirectX-11-Hardware derzeit nicht genau bekannt, aber sehr wahrscheinlich einige keine anderen
Spiel- oder Treiber-Feature muß von den Spielen als Option angeboten werden kann per nVidia-Treiber erzwungen oder von den Spielen als Option angeboten werden muß von den Spielen als Option angeboten werden
technische Ausgestaltung spatialer Upscaler mit Nachschärfung spatialer Upscaler mit Nachschärfung (letzteres eventuell nur auf offiziell unterstützten nVidia-Karten) Upscaler auf Basis von Deeplearning-Informationen und zusätzlich temporaler Komponente (ab v1.9)
rechtlicher Status OpenSource OpenSource proprietäres nVidia-Feature
Release 22. Juni 2021 16. November 2021 19. September 2018 (Turing-Launch)
14

Die Grafikkarten-Performance unter Forza Horizon 5

Von ComputerBase, GameGPU und PC Games Hardware kommen Testberichte, welche die Grafikkarten-Performance unter "Forza Horizon 5" beleuchten. Der fünfte Forza-Horizon-Teil und der zwölfte Hauptteil der Forza-Serie wurde am 9. November 2021 veröffentlicht und basiert auf der Haus-eigenen Forza-Tech-Engine von Entwickler "Playground Games" in einem reinen DirectX-12-Port. RayTracing wird im eigentlichen Spiel noch nicht unterstützt, dafür gibt es mittels der Option "Auflösungsskalierung" einen inoffiziellen Support für AMDs FSR – und zwar für alle Grafikkarten. Untypischerweise für ein Rennspiel werden keine extrem hohen Frameraten benötigt, da die Frametimes (zeitliche Gleichheit der erzeugten Bilder) exzellent ausfallen, sprich die durchschnittliche Framerate auch als Spiel-Gefühl auf dem Monitor ankommt.

Forza Horizon 5 — FullHD/1080p @ "Extreme" Preset + 4x MSAA (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps 2080Ti → 88 3090 → 114
3080Ti → 110
3080 → 104
3070Ti → 96
3070 → 93
3060Ti → 80
6900XT → 122
6800XT → 115
6800 → 98
6700XT → 82
70-79 fps 2080S → 79
2080 → 75
2070S → 72
60-69 fps 1080Ti → 64 R7 → 60 2070 → 60 3060 → 61
50-59 fps 1080 → 51 2060S → 56 5700XT → 53
40-49 fps 1070Ti → 47
1070 → 42
Vega64 → 45
Vega56 → 41
2060 → 44 5700 → 47 6600XT → 48
6600 → 45
30-39 fps 590 → 36
580-8G → 33
480-8G → 32
1660Ti → 38
1660S → 37
1660 → 33
5600XT-14 → 36
5600XT-12 → 35
≦29 fps 1060-6G → 28 570 → 23 1650S → 26 5500XT-8G → 28
Durchschnitt der Benchmarks von ComputerBase & PC Games Hardware, fehlende Werte interpoliert (±1-2 fps)
3

Gerüchteküche: GeForce RTX 4090 (angeblich) mit einer TDP von nicht weniger als 550 Watt

Twitterer Greymon55 @ Twitter hat sich nochmals zum (maximalen) Stromverbrauch von Lovelace & RDNA3 geäußert, bezogen natürlich auf die jeweiligen Spitzenmodelle des Angebots-Portfolios – aber augenscheinlich ausgenommen eventuelle Werksübertaktungen, jene können dann nochmals höher herauskommen. Danach ist sich der Twitterer sicher, dass es bei der Spitzen-Lösung der Lovelace-Generation (womöglich eine "GeForce RTX 4090") nicht weniger als 550 Watt TDP werden – und bezeichnet diese Angabe nachfolgend sogar als "konservativ". Primär aus diesem Grund heraus geht der Twitterer dann auch davon aus, dass es auch bei AMDs RDNA3 kaum unterhalb von 500 Watt an der Leistungspitze werden kann – dies schlicht aus der Überlegung heraus, dass beide Grafikchip-Projekte in dieselbe Performance-Region gehen und denselben Fertigungs-Unterbau (5nm TSMC) haben werden.

4090 TGP will not be less than 550W.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I'm not kidding, and I believe 550W is still conservative.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I need to change my point of view. I think it is possible for the power consumption of AMD's next-gen flagship card to reach 500W or even higher.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I don't know RDNA3, but ADA's power consumption will be very exaggerated. Based on this, I guess RDNA3's power consumption will also increase.
Quelle:  Greymon55 @ Twitter am 2. November 2021

1

Gerüchteküche: nVidias GA103-Chip soll die Grundlage für eine "GeForce RTX 3080 Ti Laptop" geben

Twitterer Matthew Smith bringt die Kunde von einer angeblichen "GeForce RTX 3080 Ti Laptop", welche auf Basis des GA103-Chips realisiert werden soll. VideoCardz zeigen hierzu die entsprechende Diskussion im Forum der "PCI Device ID Database", wo sich normalerweise nur wissende Personen aus Hersteller-Kreisen herumtreiben – sprich, dass ganze ist keineswegs nur eine Twitter-Vermutung, sondern vielmehr mit hoher Wahrscheinlichkeit kurz vor der Produktfinalisierung. Hinzu kommt, dass ähnliches bereits seit langem vermutet wurde: Da nVidia im Mobile-Segment den GA104-Chip mittels der "GeForce RTX 3080 Laptop" bereits komplett ausnutzt, ist eine stärkere Mobile-Lösung letztlich nur über die Verwendung eines größeren Ampere-Chips realisierbar.

it seems the RTX 3080 Ti Mobile will use the GA103 chip.
Quelle:  Matthew Smith @ Twitter am 30. Oktober 2021
 
Official name right now is
GeForce RTX 3080 Ti Laptop GPU
Dev ID 2420

Quelle:  Matthew Smith @ Twitter am 30. Oktober 2021

17

Neuer Artikel: Ein erster Überblick zur RayTracing-Performance

An das Thema der RayTracing-Performance wurde sich lange Zeit eher vorsichtig herangetastet. Zu Zeiten der Turing-Generation gab es generell nur vereinzelne entsprechende Benchmarks, auch derzeit bei den aktuellen Ampere- und RDNA2-Generationen sind die RayTracing-Benchmarks in vielen Hardwaretests immer noch eine Neben-Disziplin. Selbige wird zudem abgetrennt von der hauptsächlichen Performance-Ermittlung unter gewöhnlichen Rasterizer-Benchmarks durchgeführt – wobei sich an dieser Aufteilung in Rasterizer- und RayTracing-Benchmarks prinzipbedingt wohl auch nichts so schnell ändern wird. Allerdings ergeben sich inzwischen ausreichend tiefe Benchmark-Felder unter RayTracing, um den Versuch eines ersten (fehlbaren) Überblicks zur RayTracing-Performance von Turing, Ampere & RDNA2 aufstellen zu können ... zum Artikel.

Inhalt abgleichen