Videocardz zeigen Marketing-Material seitens Grafikkarten-Hersteller "Gainward", in welchem dessen GeForce RTX 3080 & 3090 Modelle beworben werden. Hiermit ergibt sich erst einmal eine weitere Bestätigung der bereits bekannten (und im übrigen seit Ewigkeiten vermuteten) Hardware-Daten zu diesen beiden GA102-basierten Grafikkarten: 68 Shader-Cluster an einem 320 Bit Interface bei der GeForce RTX 3080 sowie 82 Shader-Cluster an einem 384 Bit Interface bei der GeForce RTX 3090. Auch Speichertyp, Speichermengen, Speichertaktung und Wattage stimmen überein, womit man die zuletzt gemeldeten Daten zu GeForce RTX 3080 & 3090 somit als bestätigt ansehen kann. Die beiden Gainward-Karten unter dem Verkaufsnamen "Phoenix Golden Sample" kommen dann werksübertaktet daher, womit auf eine der letzten zu klärenden Fragen hingewiesen wird: Stellen die zuletzt genannten Taktraten die Vorgabe für die Herstellerkarten oder für die Founders Edition dar – oder gibt es eventuell bei der GeForce-30-Serie hierbei keinen Unterschied mehr?
Technik | nVidia-Referenz | Gainward Phoenix GS | |
---|---|---|---|
GeForce RTX 3090 | 82 SM @ 384 Bit, 24 GB GDDR6X @ 19.5 Gbps, 350W TGP | Boost: 1695 MHz | Boost: 1725 MHz |
GeForce RTX 3080 | 68 SM @ 320 Bit, 10 GB GDDR6X @ 19 Gbps, 320W TGP | Boost: 1710 MHz | Boost: 1740 MHz |
Eher eine technische Frage ist dann diejenige nach der wahren Fertigungstechnologie, welche für den GA102-Chip von GeForce RTX 3080 & 3090 angesetzt wurde. Die Gainward-Unterlage sagt hierzu glasklar "7nm" aus – was deutlich abweichend zu allen früheren Informationen ist, die aber natürlich auch nicht gänzlich Irrtums-befreit sein müssen. Es gibt zwar den Hinweis seitens Twitterer Moe Moe auf einen Fake-7nm-Prozeß von Samsung, welcher die technischen Daten der 8nm-Fertigung aufweist, aber aus jetziger Sicht kann man schlicht abwarten, was nVidia am 1. September diesbezüglich zu verkünden hat. Gemäß der gerüchteweiser vorliegenden Daten zu Chipfläche und Transistoren-Menge des GA102-Chips ergibt sich zumindest eine deutliche Abweichung bei der Anzahl der Transistoren pro mm² Chipfläche (65,4 vs. 55,0), welche es in dieser deutlichen Form zwischen den Vorgänger-Chips GV100 und TU102 überhaupt nicht gegeben hatte (25,9 vs. 24,7). Zumindest auf Basis dieser (noch zu bestätigenden) Daten ist die Verwendung der exakt gleichen Fertigung samt gleichem Fertiger wie beim GA100-Chip ("N7" von TSMC) auch beim GA102-Chip nicht wirklich realistisch.
Volta/Turing | Ampere | |
---|---|---|
HPC | GV100 21,1 Mrd. Transistoren 815mm² unter TSMC 12nm 25,9 Mio. Xtors/mm² 6 RE, 84 SM, 4096 Bit HBM2 |
GA100 54 Mrd. Transistoren 826mm² unter TSMC 7nm (N7) 65,4 Mio. Xtors/mm² 8 RE, 128 SM, 6144 Bit HBM2 |
Enthusiast | TU102 18,6 Mrd. Transistoren 754mm² unter TSMC 12nm 24,7 Mio. Xtors/mm² 6 RE, 72 SM, 384 Bit GDDR6 |
GA102 angebl. 34,5 Mrd. Transistoren angebl. 627mm² unter Samsung 7/8nm angebl. 55,0 Mio. Xtors/mm² angebl. 7 RE, 84 SM, 384 Bit GDDR6X |
Von Twitterer Harukaze5719 kommen einige wilde, wenngleich derzeit vielbeachtete Aussagen zur GeForce RTX 3090. Besondere Glaubwürdigkeit ist der Sache schon wegen der angeblich bis zu 500 Watt Stromverbrauch bei den Herstellerdesigns zur GeForce RTX 3090 nicht einzuräumen – dies wäre dann deutlich zu viel des guten, davon abgesehen verbraucht ja auch vorstehend erwähnte werksübertaktete Lösung von Gainward kein Stück oberhalb der Referenz-TDP. Klar kann es mittels gutklassigen Werksübertaktungen mehr als 350 Watt werden, aber deutlich mehr als 400 Watt dürfte dabei nicht herauskommen. Irgendwann hat dann auch das Chip-Design sein Limit, gerade wenn nVidia jenes augenscheinlich schon im Referenz-Zustand versucht bestmöglich auszunutzen. Insofern ist auch der Rest des ganzen Tweets in Frage zu stellen – wobei sich genauso auch die Aussage von bereits erfolgten Testsample-Lieferungen an Fachpresse & YouTube explizit anzweifeln läßt. Zumindest bis zur Wochenmitte war dies gemäß 'Raff' von der PC Games Hardware noch keineswegs der Fall. Zudem scheint es fast so, als würden die Vorhersagen eines eigentlichen Launches erst zum 21. September wahrscheinlich zutreffen – und dann wäre es derzeit noch weit zu früh für etwaige Testsamples. Der ganze Tweet ist wie gesagt stark anzuzweifeln, aber wenigstens ist die 500-Watt-Aussage noch für ein nettes Meme gut.
Neben den Spitzen-Lösungen GeForce RTX 3080 & 3090 sind zu nVidia demnächst antretenden Ampere-Grafikkarten genauso auch die kleineren Lösungen GeForce RTX 3060 & 3070 im Blickfeld vieler Grafikkarten-Käufer bzw. werden hier und da auch schon genannt. Die GeForce RTX 3070 auf Basis des GA104-Chips wird möglicherweise auch schon zur kommenden nVidia-Ankündigungsshow am 1. September (um 18 Uhr deutscher Zeit, Stream) genannt werden, scheint zudem nicht mehr all zu weit weg zu sein. Interessanter wird dieser Fall dann bei der GeForce RTX 3060: Denn sofern jene Grafikkarte auf dem GA106-Chip basieren sollte (wie dies für xx60er Grafikkarten typisch ist), dürfte da noch eine gewisse Wartezeit vonnöten sein. Ein Blick ins News-Archiv zu nVidias Ampere bringt eine Meldung vom 10. Juli ins Blickfeld, nach welcher Twitterer 'Kopite7kimi' den Tape-Out der kleineren Ampere-Chips "GA106" und "GA107" grob für Mitte Juni genannt hatte. Somit ist mit dem GA106-Chip bestenfalls knapp vor Jahresende zu rechnen, eher aber erst im ersten Quartal 2021. In diesem Jahr stehen nVidia somit im groben Maßstab nur die größeren Ampere-Chips GA102 und GA104 zur Verfügung.
Technik | Meldung vom | genannter TO-Termin | realer Tape-Out | Launch | |
---|---|---|---|---|---|
GA100 | 128 SM @ 6144 Bit HBM2 | - | - | vermtl. Mitte 2019 | 14. Mai 2020 |
GA102 | 84 SM @ 384 Bit GDDR6X | 11. März 2020 | keine Angabe | vermtl. Anfang Q1/2020 | September 2020 |
GA104 | 48 SM @ 256 Bit GDDR6 | 14. Mai 2020 | keine Angabe | vermtl. Q1/2020 | vermtl. September/Oktober 2020 |
GA106 | 30 SM @ 192 Bit GDDR6 | 8. Juli 2020 | "a few weeks ago" | = ca. Mitte Juni 2020 | vermtl. Q1/2021 |
GA107 | 20 SM @ 128 Bit GDDR6 | 8. Juli 2020 | "a few weeks ago" | = ca. Mitte Juni 2020 | vermtl. Q1/2021 |
Für das Ampere-Portfolio unterhalb von GeForce RTX 3080 & 3090 wird somit in erster Linie relevant werden, wie tief nVidia den GA104-Chip herunterbringen will. Zwei Karten-Varianten basierend auf dem GA104-Chips dürfte es sicherlich geben (abweichende Speichermengen nicht mit gezählt), dies macht sich schon aus Salvage-Gründen gut. Ergo sollte es basierend auf dem GA104-Chip mindestens eine GeForce RTX 3070 samt einer GeForce RTX 3060 Ti geben – oder alternativ eine GeForce RTX 3070 samt einer GeForce RTX 3070 Ti. Da letztere in jüngerer Zeit jedoch (überhaupt) nicht mehr erwähnt wurde, läuft es dann eher auf erstere Lösung hinaus – GeForce RTX 3060 Ti und 3070 auf GA104-Basis. Die "gewöhnliche" GeForce RTX 3060 auch gleich auf dem GA104-Chip basieren zu lassen, wäre natürlich auch denkbar und würde die Möglichkeit eröffnen, diese Karte gleich mit 8 GB Speicher antreten zu lassen – etwas, was beim GA106-Chip (nur 192 Bit Speicherinterface) nicht funktioniert. Gerade deswegen wird es spannend, wie nVidia die GA104-basierten Lösungen aufzieht – hieran wird sich u.a. ergeben, ob und wo AMD mit dem nachfolgenden Navi-2X-Portfolio eventuell mit besseren Angeboten bei der Grafikkartenspeicher-Menge kontern kann.
Ein noch erwähnenswerter Punkt zu DirectX 12_2 liegt darin, dass es für dieses Feature-Level (im Gegensatz zu früheren Ausführungen von DirectX 12) keine Entsprechung unter DirectX 11 mehr geben wird. Auch wenn dies wenig bekannt ist bzw. bislang höchstselten genutzt wird, beeinhaltet DirectX 11.3 auch die Feature-Level 12_0 und 12_1 von DirectX 12. Mittels DirectX 12_2 wird dieser Support-Weg nunmehr abgeschnitten – genauso auch wie die (unsupportete) DirectX-12-Unterstützung unter Windows 7 wohl beim Feature-Level 12_1 enden dürfte (wenngleich DirectX RayTracing tatsächlich trotzdem mit dabei ist). In beiden Fällen ist eine zukünftiger Unterstützung des DirectX 12 Feature-Levels 12_2 unwahrscheinlich, da beides schließlich nur zugunsten von Windows 7 erging – welches sich nunmehr doch deutlich einfacher verabschieden lassen hat, als dies seinerzeit bei Windows XP der Fall war. Mittels DirectX 12_2 liegt somit auch die erste DirectX-12-Version vor, welche dann (voraussichtlich) nur unter Windows 10 funktionieren wird. Bis irgendein Spieleentwickler selbiges als Mindeststandard setzt, dürfte aber noch so seine Zeit vergehen – derzeit ist selbst allein DirectX 12_0 als Mindeststandard arg selten, sofern es nicht um Xbox-Portierungen oder andere Spieleentwicklungen direkt von Microsoft handelt.