Die (relative) Nähe der Grafikkarten-Preisübertreibung zum Listenpreis, welche derzeit im Schnitt bei +25% auf den Listenpreis liegt, bringt wiederum das Problem von bei einigen Grafikkarten grundsätzlich überzogenen Listenpreisen ins Licht. Denn schließlich haben AMD & nVidia bereits mit den Frühlings-Releases 2021 (GeForce RTX 3060 & Radeon RX 6700 XT) angefangen, Listenpreise für neu in den Markt kommende Karten hochzuschrauben – mit den Sommer- und Herbst-Releases 2021 wurde dies dann noch deutlicher. Deswegen wurde anfänglich auch die periodisch erstellte Straßenpreis-Preisentwicklung ohne GeForce RTX 3070 Ti & 3080 Ti gezeichnet. Doch langfristig war dies nicht zu halten und daher sind dort inzwischen wieder alle Ampere/RDNA2-Karten erfasst (kleine Ausnahme: GeForce RTX 3080 12GB mangels Listenpreis).
AMD | 6500XT | 6600 | 6600XT | 6700XT | 6800 | 6800XT | 6900XT |
---|---|---|---|---|---|---|---|
US-Listenpreis | $199 | $329 | $379 | $479 | $579 | $649 | $999 |
aktueller Straßenpreis | ab 218€ | ab 395€ | ab 475€ | ab 689€ | ab 965€ | ab 1039€ | ab 1242€ |
Preis-Übertreibung vs US-Listenpreis | +1% | +11% | +15% | +32% | +53% | +47% | +14% |
3DCenter 4K Performance-Index | - | ~134% | 159% | 221% | 278% | 322% | 348% |
"realistischer" Listenpreis | $129 | $239 | $299 | $419 | $579 | $649 | $999 |
Preis-Übertr. vs realistischer Listenpreis | +56% | +52% | +46% | +51% | +53% | +47% | +14% |
durchschnittliche AMD-Preisübertreibung gegenüber dem (angenommenen) "realistischen" Listenpreis: +46% | |||||||
gemäß der Straßenpreis-Aufstellung vom 27. März 2022 sowie des seinerzeitigen Dollar/Euro-Wechselkurses |
Mit der GeForce RTX 3090 Ti setzt nVidia vergleichsweise kurz vor Schluß noch einmal einen oben drauf bei der "Ampere"-Architektur: Vollausbau des GA102-Chips und klar höhere Taktraten, nur um aus der bisherigen GeForce RTX 3090 noch einmal ein paar Prozentpunkte herauszukitzeln. Dies geht allerdings auch einher mit einer massiv von 350 auf 450 Watt steigenden Verlustleistung sowie einem neuen Spitzen-Preispunkt für non-Titan-Grafikkarten: 1999 US-Dollar oder 2249 Euro sind es in der nVidia-Liste, was der Grafikkarten-Markt sogar durchaus hergibt. Für ein Spitzenprodukt gab es vergleichsweise wenig Testberichte, in welchen sich derzeit zudem ausschließlich nochmals werksübertaktete Modelle tummeln – was somit gar nicht so einfach gegenüber einer Referenz-mäßigen GeForce RTX 3090 vergleichbar ist. Die Karte fordert sicherlich gleich auf mehreren Ebenen zur Diskussion heraus, die reine Performance-Seite wird mit einer später nachfolgenden Launch-Analyse dann erörtert werden.
GeForce RTX 3080 Ti | GeForce RTX 3090 | GeForce RTX 3090 Ti | |
---|---|---|---|
Grafikchip | GA102-225 | GA102-300 | GA102-350 |
Technik | 7 Raster-Engines, 80 Shader-Cluster, 10'240 FP32-Einheiten, 112 ROPs, 384 Bit GDDR6X-Interface (Salvage) | 7 Raster-Engines, 82 Shader-Cluster, 10'496 FP32-Einheiten, 112 ROPs, 384 Bit GDDR6X-Interface (Salvage) | 7 Raster-Engines, 84 Shader-Cluster, 10'752 FP32-Einheiten, 112 ROPs, 384 Bit GDDR6X-Interface (Vollausbau) |
Chiptakt | 1365/1665 MHz | 1400/1700 MHz | 1560/1860 MHz |
Speicher | 12 GB GDDR6X @ 19 Gbps | 24 GB GDDR6X @ 19,5 Gbps | 24 GB GDDR6X @ 21 Gbps |
Stromverbrauch | 350W (GCP) | 350W (GCP) | 450W (GCP) |
Listenpreis | $1199 / 1269€ | $1499 / 1649€ | $1999 / 2249€ |
Release | 3. Juni 2021 | 24. September 2020 | 29. März 2022 |
Eine noch auszuwertende Umfrage von Ende Dezember 2021 fragte nach einem eventuellen persönlichen Interesse-Rückgang am PC-Gaming in Folge der hohen Grafikkarten-Preise des Jahres 2021. Selbige Umfrage wurde nahezu gleichlautend bereits im Februar 2021 abgehalten – mit teilweise abweichenden und teilweise nahezu identischen Ergebnissen. So ist die Gruppe derjenigen, welche die Fragestellung der Umfrage bejahen (und damit sehr wohl von einer Veränderung der Interessenlage ausgehen), im Dezember 2021 nahezu gleich groß gegenüber dem Februar 2021, selbst die Aufteilung auf die beiden Antwortoptionen dieser Gruppe ist fast gleich. Einschränkenderweise könnte man natürlich annehmen, dass einige, welche sich inzwischen ganz aus dem PC-Gaming zurückgezogen haben, unter Umständen gar nicht mehr bei der neueren Umfrage teilgenommen haben. In dieser Frage muß man durchaus mit einer gewissen Dunkelziffer rechnen.
Von ComputerBase, GameGPU, PC Games Hardware und TechPowerUp kommen ausführliche Benchmark-Artikel zu "Elden Ring", dem hoch bewerteten und sich derzeit enorm gut verkaufenden OpenWorld-Action-RPG von Entwickler "From Software" und Publisher "Bandai Namco". Das Spiel setzt technisch auf einer Haus-eigenen Engine auf, welche auch schon bei "Dark Souls 3" und "Sekiro: Shadows Die Twice" Verwendung fand, nunmehr allerdings DirectX 12 nebst anderer optischer Verbesserungen bietet – RayTracing soll allerdings erst nachgereicht werden. Das Spiel ist jedoch nicht wirklich als Grafik-Feuerwerk gedacht, womit die Hardware-Anforderungen mittelprächtig sind und beispielsweise die als Minimal-Anforderung genannten GeForce GTX 1060 3GB und Radeon RX 580 4GB selbst auf höchstmöglicher Bildqualität die FullHD-Auflösung noch mit knapp unter 40 fps absolvieren können. Demzufolge kommt unter jener FullHD-Auflösung auch noch jede Menge anderer älterer Hardware ganz anständig mit:
Elden Ring — FullHD/1080p @ "Maximum" Preset (no RT, no DLSS, no FSR) | ||||||
---|---|---|---|---|---|---|
1080p | Pascal | Polaris+Vega | Turing | RDNA1 | Ampere | RDNA2 |
60 fps | 1080Ti → 60 | 2080Ti → 60 2080S → 60 2080 → 60 2070S → 60 2070 → 60 2060S → 60 |
3090 → 60 3080Ti → 60 3080-12G → 60 3080-10G → 60 3070Ti → 60 3070 → 60 3060Ti → 60 3060 → 60 |
6900XT → 60 6800XT → 60 6800 → 60 6700XT → 60 |
||
50-59 fps | 1080 → 59 1070Ti → 58 1070 → 54 |
R7 → 57 Vega64 → 56 Vega56 → 51 |
2060-12G → 59 2060-6G → 58 1660Ti → 57 1660S → 56 1660 → 50 |
5700XT → 59 5700 → 57 5600XT-14 → 54 5600XT-12 → 53 |
3050 → 56 | 6600XT → 59 6600 → 59 6500XT → 51 |
40-49 fps | 1060-6G → 41 | 590 → 44 580-8G → 40 |
1650S → 44 | 5500XT-8G → 46 5500XT-4G → 44 |
||
30-39 fps | 1060-3G → 36 | 480-8G → 38 570 → 35 470 → 33 |
1650-D6 → 35 1650-D5 → 33 |
|||
≦29 fps | 1050Ti → 25 | 560 → 20 | ||||
Durchschnitt der Benchmarks von ComputerBase, GameGPU, PC Games Hardware & TechPowerUp, fehlende Werte interpoliert (±1-2 fps) — "60 fps" = fps-Lock |
Chipentwickler nVidia hat mit seiner GTC-Keynote die nächste Grafikchip-Generation rund um die 5nm-Fertigung eingeläutet – durch die Vorstellung des "GH100" GPGPU/HPC-Chips auf Basis der "Hopper"-Architektur. Hierbei handelt es sich um den nächsten reinen HPC-Chip von nVidia, sprich in Fortführung des mit der "Pascal"-Architektur begonnenen Wegs reiner HPC-Chips an der Angebots-Spitze: Zuerst GP100 von "Pascal", dann GV100 von "Volta" und GA100 von "Ampere" (trotz gleichen Architektur-Namens deutlich abweichend von den Gaming-Chips dieser Architektur) – und nun eben GH100 von "Hopper". Dabei ist spätetens ab dem GA100-Chip die Zweitverwendung im Gaming-Segment effektiv verbaut, denn GA100 und nun auch GH100 verfügen über keine RayTracing-Einheiten in Hardware – womit entsprechende Gaming-Auskopplungen auf dieser Chip-Basis heutzutage nicht mehr verkaufbar wären.
|
Bedauerlicherweise liegengeblieben ist letztes Jahr noch eine Umfrage-Auswertung zur Frage der aktuellen Monitorauflösung für den Spielerechner – was hiermit nachträglich erledigt werden soll. Die Umfrage von November 2021 kann dabei auf eine Reihe an gleichlautenden Umfragen von 2008 bis 2019 zurückblicken, aus deren Werten sich somit auch eine gewisse "historische" Entwicklung ableiten läßt. Die Umfrage von letztem Winter sah dabei erstmals die WQHD-Auflösung kurz vor der absoluten Mehrheit über alle Umfrage-Teilnehmer hinweg stehen, während FullHD und UltraHD/4K sich fast paritätisch den Rest teilen und kleinere Auflösungen inzwischen weitgehend verschwunden sind. Logischerweise zeigt sich hier der langjährige Trend zu immer höheren Auflösungen – gleichzeitig aber auch, dass im Rahmen des 3DCenters die Monitor-Auflösungen jederzeit weit über dem allgemeinen Standard liegen, denn in Steam sind nach wie vor über 80% auf FullHD oder kleiner unterwegs.
Die Diskussion über die kommenden 5nm-Grafikchips läuft schon seit letztem Sommer, seinerzeit waren immerhin schon die Spezifikationen der jeweiligen Top-Chips von AMDs RDNA3-Generation und nVidias Ada-Generation (vormals "Lovelace"-Generation) bekannt. In der Zwischenzeit hat sich das Bild hierzu weiter verdichtet und ist nun erstmals mit dem Vorliegen der Chip-Spezifikationen der weiteren Ada-Grafikchips ein vollständiger Vergleich zwischen diesen beiden 5nm-Generationen möglich. Zwar liegt es derzeit noch im Feld der Spekulationen, welche konkreten Grafikkarten AMD & nVidia aus der vorhandenen Hardware ableiten, doch die grundsätzliche Hardware auf Chip-Ebene dürfte feststehen bzw. über das Design-Ende hinaus sein. Damit ist eine grobe Beurteilung dessen, was zu erwarten ist, durchaus schon möglich und soll nachfolgend auf Basis der derzeit vorliegenden Informationen angetreten werden ... zum Artikel.
Innerhalb von weniger als einem Tag haben sich neue, korrigierte und sogar deutlich umfangreicher Hardware-Spezifikationen zu den Grafikchips von nVidias Ada-Lovelace-Generation eingefunden. Augenscheinlich basierten die gestern offerierten Daten auf einem früheren Design-Entwurf nVidias, wohingegen die neuen Hardware-Daten Teil des Leaks von nVidia-Dokumenten im Zuge des nVidia-Hacks sind. Im Zuge dessen sprudelten die Informationen nur so: Zuerst hatte La Frite David @ Twitter eine Gegenüberstellung der Shader-Cluster von Turing, Ampere & Ada gepostet, No one @ Twitter ergänzte dies um Angaben zum Speicherinterface sowie Kopite7kimi @ Twitter um Angaben zu GPCs und TPCs der Ada-Chips. Und während Harukaze5719 @ Twitter ein User-erstelltes Block-Diagramm zum AD102-Chip basierend auf diesen Hardware-Daten zeigte, kam von Xino Assassin @ Twitter der Hinweis auf deutlich größere Level2-Caches bei der Ada-Generation und letztlich von HXL @ Twitter eine Aufstellung zu den Cache-Größen der einzelnen Ada-Chips.
Hardware | FP32 | Interface | L2-Cache | Speicher | Vorgänger | |
---|---|---|---|---|---|---|
AD102 | 12 GPC, 72 TPC, 144 SM | 18'432 | 384 Bit | 96 MB | 24 GB | GA102: 7 GPC, 84 SM @ 384 Bit, 6 MB L2 |
AD103 | 7 GPC, 42 TPC, 84 SM | 10'752 | 256 Bit | 64 MB | 16 GB | GA103: 6 GPC, 60 SM @ 320 Bit, 4 MB L2 |
AD104 | 5 GPC, 30 TPC, 60 SM | 7680 | 192 Bit | 48 MB | 12 GB | GA104: 6 GPC, 48 SM @ 256 Bit, 4 MB L2 |
AD106 | 3 GPC, 18 TPC, 36 SM | 4608 | 128 Bit | 32 MB | 8 GB | GA106: 3 GPC, 30 SM @ 192 Bit, 3 MB L2 |
AD107 | 3 GPC, 12 TPC, 24 SM | 3072 | 128 Bit | 32 MB | 8 GB | GA107: 2 GPC, 20 SM @ 128 Bit, 2 MB L2 |
Anmerkung: Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen |
Twitterer Kopite7kimi hat im Zuge der mit dem nVidia-Hack öffentlich gewordenen nVidia-internen Dokumente eine hochinteressante Aussage zur grundsätzlichen Hardware-Ansetzung der Grafikchips von nVidias "Ada"-Architektur (bisher bekannt als "Lovelace"-Architektur) getätigt: Danach sollen die Ada-Chips (augenscheinlich von oben nach unten gezählt) über 144, 96, 48 und 32 Shader-Cluster verfügen. Da zum "Ada"-Topchip AD102 dessen 144 Shader-Cluster bereits seit langem bekannt sind, treffen die nachfolgenden Angaben somit augenscheinlich auf die weiteren "Ada"-Chips AD103, AD104 und AD106 zu. Fehlend sind somit noch Angaben zu den "Ada"-Chips AD107 und AD10B, wobei letzterer sowieso nur in Tegra-Gefilde gehen soll.
The early configs are 144, 96, 48, 32SMs.
Quelle: Kopite7kimi @ Twitter am 1. März 2022
Hardware | Interface | Speicher | Grafikkarten | Vorgänger | |
---|---|---|---|---|---|
AD102 | 12 GPC, 144 SM (18'432 FP32) | 384 Bit | 24 GB | womögl. GeForce RTX 4080 & 4090 | GA102: 84 SM @ 384 Bit |
AD103 | 96 SM (12'288 FP32) | womögl. 320 Bit | womögl. 20 GB | womögl. GeForce RTX 4060 Ti & 4070 | GA103: 60 SM @ 320 Bit |
AD104 | 48 SM (6144 FP32) | womögl. 256 Bit | womögl. 16 GB | womögl. GeForce RTX 4060 | GA104: 48 SM @ 256 Bit |
AD106 | 32 SM (4096 FP32) | womögl. 192 Bit | womögl. 12 GB | womögl. GeForce RTX 4050 | GA106: 30 SM @ 192 Bit |
Anmerkung: Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen |
VideoCardz haben mehrere interne nVidia-Dokumente zugespielt bekommen, welche aus dem kürzlichen Hack des Grafikchip-Entwicklers stammen sollen (Hintergründe hierzu bei Heise Security). Mit den ersten nVidia-Dokumenten wurde die Verwendung des Codenamens "Blackwell" für eine kommende nVidia-Architektur bestätigt. Dies hatte Twitterer Kopite7kimi bereits letzten Sommer derart angedeutet – und nunmehr im übrigen die Veröffentlichung dieser VideoCardz-Meldung mit einem klaren Hinweis auf die 3nm-Fertigung von TSMC kommentiert. Unklar ist allerdings nach wie vor, ob man die "Blackwell"-Architektur den Segmenten HPC, Gaming oder hingegen gleich beidem zuordnen kann.
Hopper | Ada (Lovelace) | Blackwell | |
---|---|---|---|
Chipfertigung | 5nm TSMC | 5nm TSMC | 3nm TSMC |
Grafikchips | GH100, GH202 | AD102, AD103, AD104, AD106, AD107, AD10B | GB100, GB102 |
Ausrichtung | HPC (GH202 eventuell auch für Gaming) | Gaming → GeForce RTX 40 Serie (AD10B jedoch für Tegra-SoCs) | vermutlich HPC (GB102 eventuell für Gaming) |
Release | GH100-Ankündigung wohl auf der GTC im März 2022, Auslieferung irgendwann H2/2022; GH202: klar später | angeblich ab September 2022, komplettes Portfolio sicherlich erst Anfang 2023 im Markt | vermutlich 2024 |