AMD-Grafik

25

Umfrage-Auswertung: Wird die Anschaffung einer Ampere- oder RDNA2-Karte aus Preisgründen zurückgehalten?

Mittels einer Umfrage von Mitte Oktober wurde abgefragt, ob angesichts der anhaltend hohen Grafikkarten-Preise derzeit eine Grafikkarten-Anschaffung im Rahmen der aktuellen Ampere/RDNA2-Architekturen zurückgehalten wird. Immerhin 21,0% der Umfrage-Teilnehmer konnten dieser Fragestellung durch den Umstand entgehen, dass jene doch schon eine Ampere/RDNA2-Karte erstanden haben. Weitere 16,8% wollen hingegen weiterhin mit ihrer früheren Grafikkarte durchhalten, sprich da gibt es noch keinen konkreten Bedarf. Mit immerhin 41,2% der Stimmen die einfache Mehrheit wartet allerdings tatsächlich auf bessere Preise innerhalb der aktuellen Grafikkarten-Generation.

14

Die Grafikchip- und Grafikkarten-Marktanteile im dritten Quartal 2021

Seitens der Marktforscher von Jon Peddie Research kommen mal wieder zwei Meldungen, welche Informationen zum Stand der Marktanteile im Grafikchip-Business bieten, einmal für Grafikchips für Desktop-Grafikkarten (AiB) und einmal für alle Grafikchips inkl. iGPUs. Aufgrund der teilweise preisgegebenen Mengenangaben lassen sich hieraus sogar Stückzahlen-Informationen ziehen, was in heutiger Zeit die vielleicht sogar relevante Größe darstellt. Denn bei den Grafikchips für Desktop-Grafikkarten bewegte sich von den Prozentanteilen her eigentlich nichts, AMD gewann einen Prozentpunkt und nVidia verlor einen – bei weiterhin klarstmöglicher Marktführerschaft von nVidia. Interessanter ist, dass mit 12,7 Mio. Desktop-Grafikchips im dritten Quartal 2021 so viele Chips wie lange nicht ausgeliefert wurden – dies sind immerhin gut 1,2 Mio. Stück mehr als im Vorquartal.

AiB-Grafikchips Q3/2020 Q4/2020 Q1/2021 Q2/2021 Q3/2021
AMD 23% 17% 20% 20% 21%
nVidia 77% 83% 80% 80% 79%
Auslieferungsmenge 11,5 Mio. Stück 11,0 Mio. Stück 11,8 Mio. Stück 11,47 Mio. Stück 12,72 Mio. Stück
Stückzahlen-Vergleich ~2,6 vs ~8,9 Mio. ~1,9 vs ~9,1 Mio. ~2,4 vs ~9,4 Mio. ~2,3 vs ~9,2 Mio. ~2,7 vs ~10,0 Mio.
Endverbraucher-Umsatz ~5,6 Mrd. $ ~10,6 Mrd. $ ~12,4 Mrd. $ 11,8 Mrd. $ 13,7 Mrd. $
Grafikkarten-Durchschnittspreis ca. $487 ca. $964 ca. $1051 ca. $1029 ca. $1077
Marktanteile basierend auf ausgelieferten Stückzahlen, Quelle: Jon Peddie Research
12

Die Grafikkarten-Performance unter Halo Infinite

Von ComputerBase, GameGPU, Hardware Unboxed @ YouTube und der PC Games Hardware kommen Betrachtungen zur Grafikkarten-Performance unter "Halo Infinite". Der sechste Hauptteil der Halo-Spieleserie trat am 8. Dezember 2021 an und basiert auf der nur für jenes Spiel entwickelten "Slipspace"-Engine, welche auf dem PC allein DirectX 12 als Grafik-API bietet. RayTracing, DLSS und FSR werden derzeit vom Spiel nicht unterstützt, wobei RayTracing (in unbekanntem Umfang) nachgereicht werden soll. Die nachfolgende Benchmark-Auswertung konzentriert sich auf das "Ultra" Bildqualitäts-Preset, welches die maximale Bildqualität liefert. Die hiervon abweichenden Benchmarks seitens GameGPU unter dem "VeryHigh"-Preset flossen daher nur (nach Werte-Offset wegen der höheren Bildqualität) untergewichtet in die Frameraten-Auswertung hinein.

Halo Infinite — FullHD/1080p @ "Ultra" Preset (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps 2080Ti → 80 3090 → 104
3080Ti → 102
3080 → 97
3070Ti → 83
6900XT → 110
6800XT → 104
6800 → 91
70-79 fps 2080S → 71 3070 → 79
3060Ti → 72
6700XT → 79
60-69 fps 2080 → 67
2070S → 64
50-59 fps 1080Ti → 51 R7 → 53 2070 → 56
2060S → 55
5700XT → 56
5700 → 50
3060 → 57 6600XT → 57
6600 → 54
40-49 fps 1080 → 40 Vega64 → 45
Vega56 → 41
2060 → 42
30-39 fps 1070Ti → 38
1070 → 35
1660Ti → 38
1660S → 37
1660 → 33
5600XT-14 → 36
5600XT-12 → 34
5500XT-8G → 32
≦29 fps 1060-6G → 21 590 → 23 1650S → 23 5500XT-4G → 21
Durchschnitt der Benchmarks von ComputerBase, GameGPU (Offset & untergewichtet), Hardware Unboxed @ YouTube und PC Games Hardware, fehlende Werte interpoliert (±1-2 fps)
5

Umfrage-Auswertung: Wie weit verbreitet ist Grafikkarten-Undervolting?

Mittels einer Umfrage von Mitte September wurde der Frage nachgegangen, wie weit Grafikkarten-Undervolting derzeit verbreitet ist, warum dieses genutzt wird bzw. wie der Interesse-Stand der Nichtnutzer aussieht. In der hauptsächlichen Fragestellung gab es mit kumuliert 50,7% ein überraschend starkes Ergebnis pro Grafikkarten-Undervolting (UV). Dabei setzt der weitaus größere Teil jener Nutzergruppe diese Funktion primär zugunsten einer höheren Energieeffizienz an, was üblicherweise mit besserer Laufruhe durch geringere Karten-Temperaturen und damit weniger stark anziehenden Lüftern einhergeht. Nur der geringere Teil der Undervolting-Nutzer schaut diesbezüglich zuerst auf den Übertaktungsgewinn – wobei die Grenzen bekannterweise fließend sind und durchaus auch beide Effekte gleichzeitig erreicht werden können.

25

Die Grafikkarten-Performance unter Battlefield 2042

Von ComputerBase, GameGPU, PC Games Hardware & TechSpot kommen umfangreiche Grafikkarten-Benchmarks unter Battlefield 2042. Der 18. Teil der Battlefield-Reihe setzt auf eine wiederum verbesserte Frostbite-Engine, ist diesesmal nur noch für DirectX 12 und bringt wiederum RayTracing mit sich, allerdings weitaus dezenter gelöst als bei den direkten Vorgängern. Hinzu wird für nVidias RTX-Karten noch DLSS geboten, jedoch nicht FSR oder ein anderer, offener Upscaler. Gebencht wurde primär unter dem "Ultra"-Bildqualtätspreset, obwohl jenes noch ein paar Prozentpunkte von der maximalen Bildqualität enfernt liegt. Davon abweichend bietet allein die PCGH Benchmarks unter der maximalen Bildqualität (nachfolgend somit nur für Interpolationen fehlender Werten verwendet), hinzu bietet der TechSpot zusätzliche Messungen unter dem "Medium"-Bildqualtätspreset an.

Battlefield 2042 — FullHD/1080p @ "Ultra" Preset (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps 1080Ti → 84 R7 → 81 2080Ti → 108
2080S → 95
2080 → 91
2070S → 85
2070 → 80
5700XT → 84 3090 → 147
3080Ti → 140
3080 → 133
3070Ti → 118
3070 → 113
3060Ti → 102
3060 → 80
6900XT → 147
6800XT → 142
6800 → 123
6700XT → 101
6600XT → 87
70-79 fps 2060S → 76 5700 → 77 6600 → 76
60-69 fps 1080 → 68
1070Ti → 64
Vega64 → 65 2060 → 69
1660Ti → 60
5600XT-14 → 69
5600XT-12 → 66
50-59 fps 1070 → 58 Vega56 → 58 1660S → 58
1660 → 52
5500XT-8G → 50
40-49 fps 1060-6G → 41 590 → 44
580-8G → 40
30-39 fps 480-8G → 38
570-8G → 35
470-8G → 33
≦29 fps 1650S → <10 5500XT-4G → 23
Durchschnitt der Benchmarks von ComputerBase, GameGPU & TechSpot, fehlende Werte interpoliert (±1-2 fps)
22

Gerüchteküche: Radeon RX 6400 & 6500 XT mit 12 bzw. 16 Shader-Clustern im ersten Quartal 2022

Der lange vermisste Navi-24-Chip wurde erst kürzlich wieder einmal erwähnt, nun bringen VideoCardz zu den hierauf basierenden Grafikkarten deren Hardware-Daten. Danach soll die größere "Radeon RX 6500 XT" im Vollausbau des Navi-24-Chips mit 16 Shader-Clustern (1024 FP32-Einheiten) an einem 64-Bit-Speicherinterface mit 4 GB GDDR6-Speicher auf 14 Gbps Datenrate antreten. Dies entspricht im übrigen einer glatten Halbierung des Navi-23-Chips und damit der Radeon RX 6600 XT. Die kleinere "Radeon RX 6400" erhält dann nur 12 Shader-Cluster (768 FP32-Einheiten), wobei Speicherinterface und Speicherausbau jedoch identisch bleiben. Die größere Karte wird über einen extra PCI-Express-Stromstecker verfügen, vermutlich dürfte deren Stromverbrauch irgendwo im Feld von 90-100 Watt liegen. Die kleinere Karte verzichtet dagegen auf den extra Stromstecker und wird daher mit einer TDP von maximal 75 Watt antreten (oder etwas weniger). Beide neuen AMD-Grafikkarten sollen im ersten Quartal 2022 erscheinen, mit der Radeon RX 6500 XT zuerst.

GeForce GTX 1650 GeForce GTX 1650 Super Radeon RX 5500 XT Radeon RX 6400 Radeon RX 6500 XT
Chip nVidia TU117 nVidia TU116 AMD Navi 14 AMD Navi 24 AMD Navi 24
Hardware 2 Raster-Engines, 14 Shader-Cluster, 896 FP32-Einheiten, 56 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5/6-Interface (Salvage) 3 Raster-Engines, 20 Shader-Cluster, 1280 FP32-Einheiten, 80 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR6-Interface (Salvage) 2 Raster-Engines, 22 Shader-Cluster, 1408 FP32-Einheiten, 88 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR6-Interface (Salvage) angeblich: 1 Raster-Engine, 12 Shader-Cluster, 768 FP32-Einheiten, 48 TMUs, 12 RA-Einheiten, ? MB "Infinity Cache", 64 Bit GDDR6-Interface (Salvage) angeblich: 1 Raster-Engine, 16 Shader-Cluster, 1024 FP32-Einheiten, 64 TMUs, 16 RA-Einheiten, 16 MB "Infinity Cache", 64 Bit GDDR6-Interface (Vollausbau)
Rohleistungen 3,0 TFlops & 128/192 GB/sec 4,4 TFlops & 192 GB/sec 4,8 TFlops & 224 GB/sec ? TFlops & 112 GB/sec ? TFlops & 112 GB/sec
off. Verbrauch 75W (GCP) 100W (GCP) 130W (TBP) wohl max. 75W ?
Speicherausbau 4 GB GDDR5/6 4 GB GDDR6 4/8 GB GDDR6 4 GB GDDR6 4 GB GDDR6
PCI Express 16 Lanes PCIe 3.0 16 Lanes PCIe 3.0 8 Lanes PCIe 4.0 8 Lanes PCIe 4.0 8 Lanes PCIe 4.0
FHD Perf.Index GDDR5: 450%   GDDR6: 480% 610% 4GB: 600%   8GB: 650% geschätzt ~400-500% geschätzt ~500-600%
Listenpreis $149 $159 4GB: $169   8GB: $199 ? ?
Release 23. April 2019 22. November 2019 12. Dezember 2019 angeblich Q1/2022 angeblich Q1/2022
Daten zu noch nicht veröffentlichter Hardware basieren auf Gerüchten & Annahmen
21

Die Grafikkarten-Performance unter Call of Duty: Vanguard

Von ComputerBase, GameGPU & PC Games Hardware kommen Grafikkarten-Benchmarks zu "Call of Duty: Vanguard", welches am 5. November als 18. Titel der CoD-Serie erschienen ist. Das Spiel auf Basis der "IW 8.0" Engine von Entwickler "Sledgehammer Games" basiert auf DirectX 12, setzt jedoch im Gegensatz zu seinen Vorgängern kein RayTracing ein. Die Performance unterteilt sich zudem deutlich zwischen dem Kampagnen- und dem Multiplayer-Modus: Letzterer zeigt keine so herausragende Grafik, dafür aber auch klar höhere Frameraten, insbesondere auf leistungsschwächeren Grafikkarten. Die Performance-Ermittlung der drei genannten Quellen und damit die nachfolgenden Performance-Tabellen der gemittelten Ergebnisse beziehen sich allein auf den leistungsfressenderen Kampagnen-Modus des Spiels. Trotz wie gesagt der besseren Grafikqualität, welche für die Benchmarks maximiert wurde, erzielt Call of Duty: Vanguard zumindest unter FullHD hervorragende Performance-Ergebnisse mit allen modernen Grafikkarten:

Call of Duty: Vanguard (Campaign) — FullHD/1080p @ max Details (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps R7 → 86 2080Ti → 113
2080S → 93
2080 → 89
2070S → 83
5700XT → 92
5700 → 85
3090 → 163
3080Ti → 160
3080 → 148
3070Ti → 124
3070 → 117
3060Ti → 103
3060 → 81
6900XT → 169
6800XT → 158
6800 → 136
6700XT → 117
6600XT → 95
6600 → 82
70-79 fps 1080Ti → 77 Vega64 → 79
Vega56 → 70
2070 → 74
2060S → 72
5600XT-14 → 76
5600XT-12 → 73
60-69 fps 2060 → 64
50-59 fps 1080 → 59
1070Ti → 54
590 → 54 1660Ti → 55
1660S → 54
5500XT-8G → 56
40-49 fps 1070 → 46 580-8G → 48
480-8G → 46
1660 → 48 5500XT-4G → 45
30-39 fps 1060-6G → 33 570 → 35
470 → 33
1650S → 39
1650-D6 → 31
≦29 fps 1060-3G → 23 560 → 20 1650-D5 → 29
Durchschnitt der Benchmarks von ComputerBase, GameGPU & PC Games Hardware fehlende Werte interpoliert (±1-2 fps)
17

nVidia bringt mit "nVidia Image Scaling" einen eigenen offenen Upscaler in Konkurrenz zu AMDs FSR

Mit dem neuen GeForce-Treiber 496.76 bietet nVidia nunmehr ein weiteres Upscaling-Feature nach dem eigenen DLSS sowie AMDs FSR an: "nVidia Image Scaling" (NIS). Hierbei kopiert nVidia ein wenig AMDs FSR-Ansatz, denn bei NIS handelt es sich um nichts anderes als die grundsätzlich selbe Lösung mit grünem Anstrich: Ein spatialer Upscaler (sprich Rendering auf intern niedriger Auflösung und dann Hochskalierung auf die Zielauflösung zur Bildausgabe), ohne Verarbeitung von temporärer Komponente oder gar einer KI-Unterstützung. Allerdings peppt nVidia das ganze mittels dem Haus-eigenen Bildschärfungs-Tool "nVidia Image Sharpening" auf, welches bei NIS-Einsatz automatisch mit ins Spiel kommt und der für Upscaler typischen gewissen Weichzeichnung entgegenwirken soll. Da nVidias Schärfungstool bislang für gutklassige Ergebnisse steht und die Nachschärfung bei FSR in der Praxis als suboptimal gilt, wäre nVidias NIS somit AMDs FSR auf dem Papier überlegen – was natürlich besser den Praxisvergleich abzuwarten gilt.

AMD FSR nVidia NIS nVidia DLSS
offiziell unterstützte Grafikkarten AMD Radeon RX 400, 500, Vega, 5000 & 6000 Serien + alle AMD Ryzen APUs + nVidia GeForce 10, 16, 20 & 30 Serien nVidia GeForce 900, 10, 16, 20 & 30 Serien nVidia GeForce 20 & 30 Serien (nicht GeForce 16)
inoffiziell unterstützte Grafikkarten jede DirectX-11-Hardware derzeit nicht genau bekannt, aber sehr wahrscheinlich einige keine anderen
Spiel- oder Treiber-Feature muß von den Spielen als Option angeboten werden kann per nVidia-Treiber erzwungen oder von den Spielen als Option angeboten werden muß von den Spielen als Option angeboten werden
technische Ausgestaltung spatialer Upscaler mit Nachschärfung spatialer Upscaler mit Nachschärfung (letzteres eventuell nur auf offiziell unterstützten nVidia-Karten) Upscaler auf Basis von Deeplearning-Informationen und zusätzlich temporaler Komponente (ab v1.9)
rechtlicher Status OpenSource OpenSource proprietäres nVidia-Feature
Release 22. Juni 2021 16. November 2021 19. September 2018 (Turing-Launch)
14

Die Grafikkarten-Performance unter Forza Horizon 5

Von ComputerBase, GameGPU und PC Games Hardware kommen Testberichte, welche die Grafikkarten-Performance unter "Forza Horizon 5" beleuchten. Der fünfte Forza-Horizon-Teil und der zwölfte Hauptteil der Forza-Serie wurde am 9. November 2021 veröffentlicht und basiert auf der Haus-eigenen Forza-Tech-Engine von Entwickler "Playground Games" in einem reinen DirectX-12-Port. RayTracing wird im eigentlichen Spiel noch nicht unterstützt, dafür gibt es mittels der Option "Auflösungsskalierung" einen inoffiziellen Support für AMDs FSR – und zwar für alle Grafikkarten. Untypischerweise für ein Rennspiel werden keine extrem hohen Frameraten benötigt, da die Frametimes (zeitliche Gleichheit der erzeugten Bilder) exzellent ausfallen, sprich die durchschnittliche Framerate auch als Spiel-Gefühl auf dem Monitor ankommt.

Forza Horizon 5 — FullHD/1080p @ "Extreme" Preset + 4x MSAA (no RT, no DLSS, no FSR)
1080p Pascal Polaris+Vega Turing RDNA1 Ampere RDNA2
≥80 fps 2080Ti → 88 3090 → 114
3080Ti → 110
3080 → 104
3070Ti → 96
3070 → 93
3060Ti → 80
6900XT → 122
6800XT → 115
6800 → 98
6700XT → 82
70-79 fps 2080S → 79
2080 → 75
2070S → 72
60-69 fps 1080Ti → 64 R7 → 60 2070 → 60 3060 → 61
50-59 fps 1080 → 51 2060S → 56 5700XT → 53
40-49 fps 1070Ti → 47
1070 → 42
Vega64 → 45
Vega56 → 41
2060 → 44 5700 → 47 6600XT → 48
6600 → 45
30-39 fps 590 → 36
580-8G → 33
480-8G → 32
1660Ti → 38
1660S → 37
1660 → 33
5600XT-14 → 36
5600XT-12 → 35
≦29 fps 1060-6G → 28 570 → 23 1650S → 26 5500XT-8G → 28
Durchschnitt der Benchmarks von ComputerBase & PC Games Hardware, fehlende Werte interpoliert (±1-2 fps)
3

Gerüchteküche: GeForce RTX 4090 (angeblich) mit einer TDP von nicht weniger als 550 Watt

Twitterer Greymon55 @ Twitter hat sich nochmals zum (maximalen) Stromverbrauch von Lovelace & RDNA3 geäußert, bezogen natürlich auf die jeweiligen Spitzenmodelle des Angebots-Portfolios – aber augenscheinlich ausgenommen eventuelle Werksübertaktungen, jene können dann nochmals höher herauskommen. Danach ist sich der Twitterer sicher, dass es bei der Spitzen-Lösung der Lovelace-Generation (womöglich eine "GeForce RTX 4090") nicht weniger als 550 Watt TDP werden – und bezeichnet diese Angabe nachfolgend sogar als "konservativ". Primär aus diesem Grund heraus geht der Twitterer dann auch davon aus, dass es auch bei AMDs RDNA3 kaum unterhalb von 500 Watt an der Leistungspitze werden kann – dies schlicht aus der Überlegung heraus, dass beide Grafikchip-Projekte in dieselbe Performance-Region gehen und denselben Fertigungs-Unterbau (5nm TSMC) haben werden.

4090 TGP will not be less than 550W.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I'm not kidding, and I believe 550W is still conservative.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I need to change my point of view. I think it is possible for the power consumption of AMD's next-gen flagship card to reach 500W or even higher.
Quelle:  Greymon55 @ Twitter am 2. November 2021
 
I don't know RDNA3, but ADA's power consumption will be very exaggerated. Based on this, I guess RDNA3's power consumption will also increase.
Quelle:  Greymon55 @ Twitter am 2. November 2021

Inhalt abgleichen