28

News des 28. Oktober 2022

Twitterer Greymon55 berichtet über eine kleine Terminverschiebung zum AMD "Navi 31" Launch – welcher wie bekannt noch gar nicht offiziell angesetzt ist, diese Information wird AMD erst zur RDNA3-Vorstellung am 3. November mitteilen. Bisher galt der 22. November als Launch-Termin, nunmehr soll es eine Woche später werden – irgendetwas zwischen 1. und 5. Dezember steht im Raum. Die aktuelle Vermutung steht darauf, dass AMD zu diesem Termin zwei von drei Top-Modellen veröffentlicht: Die beiden "Normal-Modelle" ohne zusätzlichen Infinity Cache mit 84 bzw. 96 Shader-Clustern sowie 20 bzw. 24 GB Grafikkartenspeicher. Letzteres streicht WCCF-Tech-Mitarbeiter Hassan Mujtaba nochmals heraus. Die extra Variante mit verdoppeltem Infinity Cache (per extra "3D V-Cache") dürfte dagegen später erscheinen, laut früheren Meldungen ist jene später in der Fertigung angesetzt (das Packaging ist komplizierter).

Delay about a week.
Quelle:  Greymon55 @ Twitter am 28. Oktober 2022
 
It should be sometime between December 1-5.
Quelle:  Greymon55 @ Twitter am 28. Oktober 2022
 
The theoretical performance is 2x, but it's not necessarily reflected on the game frame.
Quelle:  Greymon55 @ Twitter am 28. Oktober 2022
 
XTX = 24 GB
XT = 20 GB

Quelle:  Hassan Mujtaba @ Twitter am 27. Oktober 2022

Wichtig ist zudem eine Klarstellung seitens Greymon55 bezüglich der Navi-31-Performance: Danach sind die bisher in der Gerüchteküche zu findenden Aussagen generell bezogen auf die theoretische Performance des Grafikchips. Sprich: Unter synthetischen Testern ist wohl eine zweifache Raster-Performance zwischen Navi 21 und Navi 31 darstellbar, unter realen Spielen wird es logischerweise weniger. Hier kann das Beispiel der GeForce RTX 4090 als Richtschnur dienen: Jene ist gegenüber der GeForce RTX 3090 um ca. +85% unter dem TimeSpy Extreme schneller, allerdings unter realen Spielen nur ca. +70% besser. Ein ähnlicher Abschlag ist auch bei AMD anzunehmen, eine Performance-Verdopplung dürfte im Spiele-Alltag also nicht erreicht werden. RayTracing ist dann natürlich eine ganz andere Geschichte, hier will und muß AMD deutlich mehr als nur eine Performance-Verdopplung hinlegen.

Chip Recheneinheiten IF$ Interface Speicher Release
"Radeon RX 7900 XTX3D" (?) Navi 31 XTX + 3DVC 96 CU (12'288 FP32) 192 MB 384 Bit 24 GB GDDR6 2023 (?)
Radeon RX 7900 XTX (?) Navi 31 XTX 96 CU (12'288 FP32) 96 MB 384 Bit 24 GB GDDR6 Anfang Dez. (?)
Radeon RX 7900 XT (?) Navi 31 XT ~84 CU (10'752 FP32) 80 MB 320 Bit 20 GB GDDR6 Anfang Dez. (?)
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen

nVidia hat derweil seine eigenen Probleme mit dem 12VHPWR-Stromstecker der GeForce RTX 4090: Inzwischen sind wohl schon mehr als 10 Fälle von verkokelten oder ähnlich beschäftigten Adaptern gemeldet worden. Dies läuft dann wohl recht sicher auf einen Ersatz der beigelegten Adapter-Kabel aus – womit nVidia abgesehen vom Gesichtsverlust sogar noch günstig aus der Angelegenheit herauskommen würde, da die eigentliche Grafikkarte hiervon nicht betroffen ist (und demzufolge nicht zurückgerufen werden muß). Allerdings zerstört sich nVidia damit den eigentlich gut angelaufenen Launch seiner NextGen-Grafikkarte, welche es trotz hohem Preispunkt und angeblich sogar überzeugender Erstliefermenge geschafft hat, in den Tagen nach Verkaufsstart die Lagerbestände der Einzelhändler aufzuzehren. Jene erholen sich derzeit langsam wieder, allerdings bleibt das aufgerufene Preisniveau mit ab 2300 Euro weiterhin hoch für die eigentlich mit einer UVP von 1949€ ausgewiesene Karte.

Wie VideoCardz ausführen, hat nVidia die beiden neuen Grafikkarten "GeForce RTX 3060 8GB" & "GeForce RTX 3060 Ti GDDR6X" nunmehr ganz offiziell gemacht, jene werden inzwischen auch auf nVidias Produkt-Webseiten gelistet. Hieraus ergibt sich, dass die Differenzen jeweils nur beim Speicher bzw. (teilweise) dem Speicherinterface liegen, während die Anzahl der Recheneinheiten, der Chiptakt und sogar das Power-Limit jeweils identisch zu den bisherigen Karten-Variante ist. Nicht extra angekündigt wurde die GA102-basierte GeForce RTX 3070 Ti, da jene augenscheinlich (bis auf die Chip-Basis) gar keine Änderungen gegenüber der regulären Version trägt. Der Zweck aller drei neuen Karten dürfte hingegen gleich sein: Besserer Abverkauf der vorhandenen Ampere-Chips, gerade auch mit Blick auf die später nachfolgenden kleineren RTX40-Karten, welche perspektivisch zumindest den GA104-Chip ersetzen können.

GeForce RTX 3060 8GB GeForce RTX 3060 12GB GeForce RTX 3060 Ti GDDR6 GeForce RTX 3060 Ti GDDR6X
Chip-Basis nVidia GA106-? nVidia GA106-300 mVidia GA104-? nVidia GA104-200
Hardware 3 Raster-Engines, 28 Shader-Cluster, 3584 FP32, 48 ROPs, 1.5 MB L2, 128 Bit GDDR6-Interface 3 Raster-Engines, 28 Shader-Cluster, 3584 FP32, 48 ROPs, 2.25 MB L2, 192 Bit GDDR6-Interface 5 Raster-Engines, 38 Shader-Cluster, 4864 FP32, 80 ROPs, 4 MB L2, 256 Bit GDDR6-Interface 5 Raster-Engines, 38 Shader-Cluster, 4864 FP32, 80 ROPs, 4 MB L2, 256 Bit GDDR6X-Interface
Taktraten 1320/1777 MHz & 15 Gbps 1320/1777 MHz & 15 Gbps 1410/1665 MHz & 14 Gbps 1410/1665 MHz & 19 Gbps
Rohleistungen 12,7 TFlops & 240 GB/sec 12,7 TFlops & 360 GB/sec 16,2 TFlops & 448 GB/sec 16,2 TFlops & 608 GB/sec
Speicherausbau 8 GB GDDR6 12 GB GDDR6 8 GB GDDR6 8 GB GDDR6X
Differenz von 3060-12G zu 3060-8G:
ein Drittel weniger Speicher, ein Drittel weniger Speicherbandbreite, Performance-Abschlag im Rahmen ca. –10% (oder etwas mehr)
von 3060Ti zu 3060Ti-GDDR6X:
+33% mehr Speicherbandbreite, ergo kleiner Performance-Boost
offizieller Verbrauch 170W 170W 200W 200W
FullHD / 4K Perf.Index ? 1130%  /  165% 1460%  /  217% ?
Listen/Straßenpreis ? $329  /  380-440€ $399  /  480-540€
Release Oktober 2022 25. Februar 2021 2. Dezember 2020 Oktober 2022

Golem und Heise berichten über eine Strategie-Änderung bei ARM, dem britischen Architektur-Entwickler, welcher mit seinen CPUs & iGPUs einen Großteil des Smartphone- und Kleingeräte-Markts beherrscht. Bisher haben hierfür andere Chip-Entwickler die reinen Design-Pläne bei ARM eingekauft (und nach Gusto verbessert), der eigentliche Chip entstand somit bei Qualcomm, Mediatek, Samsung, Apple & Co. – und wurde von dort an die Geräte-Hersteller verkauft. Zukünftig will ARM die Gerätehersteller dagegen zwingen, direkt bei ARM zu lizenzieren. Zudem soll darüber auch ein Mix von ARM- mit anderer Technik unterbunden werden, beispielsweise eine ARM-CPU mit einer Radeon-iGPU (wie bei Samsung). ARM will damit näher an die Geräte-Hersteller heranrücken und sich sicherlich einfach ein größeres Stück vom Kuchen sichern. Praktisch dürften hiervon vor allem Qualcomm & Mediatek betroffen sein, während Samsung & Apple bei ihrem ARM-Designs nur für sich selber arbeiten, für jene ändert sich nichts.

Wie die anderen Geräte-Hersteller operieren sollen, ist dagegen unklar: Jene haben bisher ihre Chips bei Qualcomm & Mediatek eingekauft. Zukünftig sollen die Geräte-Hersteller direkt bei ARM lizenzieren, bekommen damit aber nur die nackte CPU-Architektur und brauchen dann doch wieder einen echten CPU-Entwickler (zur Finalisierung des CPU-Designs, aber auch für Tape-Out & Validierung). Der damit verbundene unnötige Ärger und Aufwand an einem eigentlich funktionierenden System könnte für ARM eher kontraproduktive Auswirkungen haben: Sprich, einige Geräte-Hersteller werden bei dieser Gelegenheit die Wahl der CPU-Architektur generell in Frage stellen. Dies könnte auf alle chinesischen Abnehmer zutreffen, aber genauso auch bei Business-Anwendungen (Server-Chips), wo man kaum an eine bestimmte CPU-Architektur gebunden ist. In jedem Fall ist eine hohe Chance zu sehen, dass ARM hiermit sein Blatt überreizt – und am Ende sogar seine bislang führende Stellung abgeben muß.