18

Hardware- und Nachrichten-Links des 18. August 2020

Laut Chiphell-User 'wjm47196' soll der Listenpreis für die GeForce RTX 3090 bei 1399 Dollar für die (günstigsten) Herstellervarianten sowie 1499 Dollar für nVidias Founders Edition liegen, zudem wurde eine Speichermenge von 24 GB GDDR6X bestätigt. Dies ist preislich etwas humaner als die letzten Gerüchte vermuten lassen haben – und ergibt aber dennoch eine satte Preissteigerung, denn bei der GeForce RTX 2080 Ti lagen die Listenpreise auf 999 bzw. 1199 Dollar, sprich es sind nunmehr unter Ampere sogar +300 bzw. +200 Dollar mehr für das Gaming-Spitzenmodell der jeweiligen Generation (außerhalb der Titan-Karten). Augenscheinlich ist die Namensgebung "3090" nicht dahingehend zu verstehen, dass es nicht zu einer "3080 Ti" gereicht hat – sondern umgedreht, die höhere Nummer soll eine höhere Wertigkeit symbolisieren, was dann auch eine höhere Preislage nach sich zieht.

No 80Ti:
Starting at $1399.
The FE version is $100 more expensive.
24 GB GDDR6X confirmed.

Quelle:  'wjm47196' im Chiphell-Forum am 18. August 2020, (unperfekt) übersetzt ins Englische

Trotz dass damit die 2000-Dollar-Nachricht wahrscheinlich vom Tisch ist, kann diese Preisgestaltung dennoch nicht gefallen, denn dies dürfte dann sicherlich auch Preissteigerungen bei den nachfolgenden Ampere-Karten nach sich ziehen. Gerade da die GeForce RTX 3080 diesesmal auf demselben Grafikchip (GA102) basiert bzw. technisch näher am Spitzenmodell dran liegt, könnte auch ein dementsprechend kleinerer Preisabstand zum Spitzenmodell folgen – was die GeForce RTX 3080 gefährlich nahe an die 1000-Dollar-Grenze (oder gar darüber!) führen würde. Sofern dies bei der regulären 3080er Version mit 10 GB Speicher noch nicht der Fall ist, kann dies in jedem Fall bei deren 20-GB-Ausführung passieren. Ob dies die Grafikkarten-Käufer dann noch mittragen wollen, wenn es gleich zwei Modelle mit vierstelligem Preispunkt in nVidias Gaming-Portfolio gibt, wäre etwas zu bezweifeln.

nVidia Turing nVidia Ampere
GeForce RTX 3090 24GB     $1399 bzw. $1499
GeForce RTX 2080 Ti 11GB     $999 bzw. $1199 GeForce RTX 3080 20GB     ???
GeForce RTX 3080 10GB     ???
GeForce RTX 2080 Super 8GB     $699 GeForce RTX 3070 Ti 16GB     ???
GeForce RTX 2070 Super 8GB     $499 GeForce RTX 3070 Ti 8GB     ???

Im gegenteiligen Fall – wenn die GeForce RTX 3080 die Preismarke von 1000 Dollar deutlich unterbietet – würde dann allerdings der Topmodell-Aufschlag exorbitant ausfallen: Zwischen GeForce RTX 3080 und 3090 kann man von ca. 20-25% Mehrperformance ausgehen, bei einem Preispunkt der GeForce RTX 3080 FE auf 799 Dollar ergäbe dies jedoch einen Mehrpreis von gleich +88% (gegenüber der 20-GB-Ausführung natürlich etwas weniger). Davon abgesehen zeigt die Verwendung von 24 GB Grafikkartenspeicher bei der GeForce RTX 3090 darauf hin, dass es die GeForce RTX 3080 tatsächlich auch noch als 20-GB-Version geben sollte, nicht nur als reine 10-GB-Ausführung. Alternativ wäre es noch denkbar, dass nVidia die kleineren Speicherbestückungen generell wegläßt – aber dies steht entgegen der gestrigen Meldung, wonach die GeForce RTX 3080 in der "Founders Edition" mit "nur" 10 GB Grafikkartenspeicher antreten soll.

Videocardz WCCF Tech 3DCenter
Ampere-Titan GA102, ~84 SM @ 384 Bit, 24 GB GA102, ? SM @ 384 Bit, 48 GB GA102, 84 SM @ 384 Bit, 48 GB
GeForce RTX 3090 (alt. "3080 Ti") GA102, ~82 SM @ 320 Bit, 20 GB GA102, ? SM @ 384 Bit, 24 GB GA102, 82 SM @ 384 Bit, 24 GB
GeForce RTX 3080 GA102, ~68 SM, 320 Bit, 10 GB GA102, ? SM @ 320 Bit, 20 GB GA102, 68 SM @ 320 Bit, 10/20 GB
GeForce RTX 3070 Ti non-existent non-existent GA104, 48 SM @ 256 Bit, 8/16 GB
GeForce RTX 3070 GA104, ~46 SM @ 256 Bit, 8 GB GA104, ? SM @ 256 Bit, 16 GB GA104, 42-46 SM @ 256 Bit, 8 GB
GeForce RTX 3060 Ti non-existent non-existent GA104, 38-42 SM @ 256 Bit, 8 GB
GeForce RTX 3060 GA106, ? SM @ 192 Bit, 6 GB GA106, ? SM @ 192 Bit, 12 GB GA106, 30 SM @ 192 Bit, 6 GB

Wie Hardwareluxx von der derzeit laufenden "HotChips 32" berichten, war AMDs Renoir-APU in frühen Planungsstadien tatsächlich mit nur 6 CPU-Kernen und dafür augenscheinlich mehr Shader-Clustern geplant – so wie es die ganz frühen Vorhersagen derart angenommen hatten. Im Jahr 2016 hätte man diese APU tatsächlich derart gebaut, doch im Laufe der weiteren Entwicklung hat man dann geschaut, wie sich Chipfläche und Energiebudget möglichst effektiv verwenden lassen. Dabei kam dann wohl die Idee zu zwei mehr CPU-Kernen auf – sofern man dafür andere, verzichtbare Chipteile finden würde. Einen großen Anteil an diesen "verzichtbaren Chipteilen" dürfte dann die iGPU geleistet haben, denn jene wurde von 11 auf 8 Shader-Cluster abgespeckt. Ob Renoir ursprünglich wirklich mit gleich 11 Shader-Clustern geplant war, wurde allerdings nicht direkt gesagt, jene Zahl stammt vom APU-Vorgänger "Picasso".

In jedem Fall erfüllt dieser "Rückschritt" das Stichwort "sinnvolle Maßnahme", denn angesichts des Taktraten-Vorteils der Renoir-iGPU würden noch mehr Shader-Cluster auf selbiger gnadenlos in ein Bandbreiten-Limit laufen. Auch jetzt schon skalieren die Performance-Ergebnisse der Renoir-iGPU nicht besonders gut mit den jeweils freigeschalteten Shader-Clustern bzw. ergeben sich hingegen enorme Optimierungspotentiale im Bereich der Speichertaktung. Zusammen mit anderen Maßnahmen veränderte die Renoir-APU somit im Laufe der Planungs- und frühen Design-Phase sehr deutlich ihr Bild – wobei exakt jene Veränderungen sicherlich sehr zum aktuellen Performance-Erfolg jener APU beigetragen haben (von "Markterfolg" wäre hingegen erst zu reden, wenn AMD wirklich alle Interessenten beliefern kann). AMD konnte erst mit dem Vorhandensein von acht CPU-Kernen Intel wirklich klar unter Druck setzen, sowohl im Feld der U/H-Notebooks als auch der Office-PCs ohne extra Grafikkarte.

Raven Ridge Picasso Renoir Cezanne
Verkaufsname Ryzen 2000 U/H/G Serien Ryzen 3000 U/H/G Serien Ryzen 4000 U/H/G Serien Ryzen 5000 U/H/G Serien
Fertigung 210mm², 14nm GlobalFoundries 210mm², 12nm GlobalFoundries 156mm², 7nm TSMC 7nm TSMC
Aufbau monolithisch monolithisch monolithisch wahrschl. monolithisch
CPU Zen 1, max. 4C (+SMT, 4 MB L3) Zen+, max. 4C (+SMT, 4 MB L3) Zen 2, max. 8C (+SMT, 8 MB L3) Zen 3, max. 8C (+SMT)
iGPU Vega, max. 11 CU (@ max. 1300 MHz) Vega, max. 11 CU (@ max. 1400 MHz) Vega, max. 8 CU (@ max. 2100 MHz) Vega, max. 8 CU
Speicher max. DDR4/2933 max. DDR4/2933 max. DDR4/3200 oder LPDDR4/4266 ?
Release 26. Oktober 2017 6. Januar 2019 6. Januar 2020 2021