Die Vorstellung der GeForce RTX 40 Serie wurde weitgehend nicht besonders gut aufgenommen – es wurden zwar keine Feuerlöscher benötigt, besonders griffig war die neue Hardware aber dennoch nicht. So sind die drei neuen Karten trotz nunmehr offizieller Vorstellung immer noch schwer einzuordnen, die meisten der von nVidia aufgestellten Performance-Werte sind leider nichtssagend bis irreführend (da zumeist RTX30/DLSS2 gegen RT40/DLSS3 getestet wurde). Zudem kann die neue Preis- und damit Portfolio-Struktur nicht gefallen, wo der übertriebene Status der 90er Lösung schlicht dadurch "korrigiert" wurde, dass nunmehr die 80er Lösung deutlich im Preis angestiegen sind. Selbst ohne Berücksichtigung der Kartennamen ergibt sich die Situation, dass nVidia den AD104-Chip preislich höher ansetzt als die kleinste GA102-Lösung.
GeForce RTX 30 | Liste | GeForce RTX 40 |
---|---|---|
GeForce RTX 3090 Ti (GA102) | $1999 | |
$1599 | GeForce RTX 4090 (AD102) | |
GeForce RTX 3090 (GA102) | $1499 | |
GeForce RTX 3080 Ti (GA102) | $1199 | GeForce RTX 4080 16GB (AD103) |
$899 | GeForce RTX 4080 12GB (AD104) | |
GeForce RTX 3080 10GB (GA102) | $699 | |
GeForce RTX 3070 Ti (GA104) | $599 | |
GeForce RTX 3070 (GA104) | $499 | |
GeForce RTX 3060 Ti (GA104) | $399 | |
GeForce RTX 3060 (GA106) | $329 | |
GeForce RTX 3050 (GA106) | $249 |
"Ada Lovelace" kann sich dies von der Performance her vielleicht leisten, aber natürlich gibt es in dieser konkreten Konstellation dann nur noch grob dasselbe Preis/Leistungs-Niveau auf Basis neuerer Technik. Die neue Preisstruktur läßt die GeForce RTX 4090 regelrecht glänzend erscheinen, obwohl jene weiterhin einen abgehobenen Preispunkt hat, welcher ebenfalls leicht erhöht wurde. Und vor allem schließen sich hier Bedenken an, was denn dann bei GeForce RTX 4060 & 4070 passieren wird: Zeichnet man das bisher zu sehende RTX40-Portfolio gedanklich weiter, dann kommen dabei kleine Grafikchips & -karten zu hohen Listenpreisen heraus. nVidia reißt mit der RTX40-Serie zwar nicht das Preisniveau an der Spitze hoch, dafür jedoch anscheinend im gesamten restlichen Portfolio nach oben. Ob dies zum besseren Abverkauf der angehäuften Ampere-Chips dient, bleibt die Praxis abzuwarten – doch große Hoffnungen auf irgendwann auch mal wieder niedrigere Preise erscheinen inzwischen wie eine Strohhalm-Hoffnung.
Einziger großer Lichtblick der Vorstellung war dann DLSS3 – wobei es da weiterhin Bedenken gibt bezüglich optischer Korrektheit wie praktischen Spielbarkeit, wenn Zwischenbilder an der Spiel-Engine vorbei erzeugt werden. Das Wort "Zwischenbild" geht im übrigen gerade noch so in Ordnung, allerdings handelt es sich nicht um eine plumpe Interpolation zwischen zwei fertigen Bildern. Denn dafür müsste man die Erstellung des zweiten Bildes abwarten, was aus Latenz-Gründen vermieden wird. Vielmehr handelt es sich bei der Zwischenbild-Berechnung von DLSS3 eher um die Extrapolation eines kommenden Bildes – basierend auf dem vorhandenen ersten Bild sowie bereits berechneten Motionvektoren des Zwischenbildes (wie im 3DC-Forum bereits in diesem Februar beschrieben, genaueres zur DLSS3-Wirkungsweise hat die ComputerBase). Hoffentlich haben die Reviewer Zeit, sich DLSS3 auch in der Spiele-Praxis anzusehen – die Möglichkeiten hierzu schwanken zwischen Rohrkrepierer bis Königs-Feature.
Die erste Aufgabe der Hardwaretester dürfte jedoch sein, einen vernünftigen Performance-Punkt für die drei neuen Grafikkarten zu ermitteln. nVidias Werte hierzu sind maßgeblich vernebelnd, weil üblicherweise mit DLSS3 gemessen – was es allerdings wohl nur auf RTX40-Grafikkarten geben wird. Sicherlich ist auch die DLSS3-Performance relevant, aber üblicherweise will man auch den ganz simplen "Normal"-Gewinn wissen: Jenen Performance-Sprung, welcher sich außerhalb aller Sonderfeatures ergibt. Diesbezüglich haben die früheren Leaks derzeit immer noch bessere Antworten, als nVidia jene mit seiner Vorstellungs-Show geliefert hat. Aufklären lassen wird sich dies dann bis spätestens 12. Oktober als dem Marktstart-Termin zur GeForce RTX 4090. Ob die Launchreviews eventuell bereits vor diesem Termin erscheinen, ist noch nicht heraus, dürfte sich jedoch noch ergeben.
VideoCardz zeigen derweil weitere Spezifikationen zum AD102-Chip, in Ergänzung der mangelhaften nVidia-Angaben. Somit lassen sich genauere Werte zur Transistoren-Menge sowie erstmals eine konkrete Angabe zur Chipfläche in Erfahrung bringen. Beide Werte stammen von Grafikkarten-Hersteller PNY und dürften somit letztlich offizielle Angaben nVidias sein. Aus dieser Herkunft resultiert wohl auch die kleine Abweichung bei den Hardware-Daten zum AD102: PNY hat hier die für seine Profi-Karte "RTX 6000" freigeschaltete Hardware angeben (142 SM), nicht die volle Hardware des AD102-Chips (144 SM). Jene Profi-Karte zeigt im übrigen mit ihren 142 Shader-Clustern auf die noch brachliegenden Fähigkeiten des AD102-Chips hin, welche nVidia irgendwann sicherlich noch mittels einer weiteren Gaming-Karte ausnutzen wird (ob nun "GeForce RTX 4090 Ti" oder "Ada Titan" genannt).
Turing | Ampere | Ada Lovelace | |
---|---|---|---|
Spitzen-Chip | TU102 | GA102 | AD102 |
Chip-Daten | 18,6 Mrd. Transistoren auf 754mm² unter TSMC 12nm | 28,3 Mrd. Transistoren auf 628mm² unter Samsung 8nm | 76,3 Mrd. Transistoren auf 608,4mm² unter TSMC 4N |
Raster-Engines | 6 GPC | 7 GPC | 12 GPC |
Shader-Cluster | 72 SM mit 4608 FP32, 288 TMU, 72 RT-Core v1, 576 Tensor-Core v2 | 84 SM mit 10'752 FP32, 336 TMU, 84 RT-Core v2, 336 Tensor-Core v3 | 144 SM mit 18'432 FP32, 576 TMU, 144 RT-Core v3, 576 Tensor-Core v4 |
FP32/INT32 | 64 FP32 + 64 INT32 pro SM | 64 FP32 + 64 FP32/INT32 pro SM | 128 FP32 + 64 INT32 pro SM (INT32 unbestätigt!) |
ROPs | 96 | 112 | 192 oder 384 (unsicher) |
Level2-Cache | 6 MB | 6 MB | 96 MB |
Speicherinterface | 384 Bit GDDR6 | 384 Bit GDDR6X | 384 Bit GDDR6X |
PCI Express | PCIe 3.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 |
Grafikkarten | GeForce RTX 2080 Ti | GeForce RTX 3080, 3080 Ti, 3090 & 3090 Ti | GeForce RTX 4090 (128 SM), RTX 6000 (142 SM) |
Noch kurz vor der GTC-Keynote von nVidia hatte Kontrahent AMD über Twitter den RDNA3-"Launch" für 3. November 2022 angesetzt. Ob es sich hierbei wirklich um einen Launch (aka Produkttests und Marktstart) handelt, ist unklar, das Wort ist im englischen nicht derart eng besetzt. Der weitere Wortlaut "join us" deutet vielmehr eher eine Vorstellungs-Show an – und zu seinem solchen Event gibt es gewöhnlich keinerlei Produkttests, die Journalisten können sich schließlich nicht zweiteilen. Auch generell gilt: Wozu einen guten Marketing-Event verpassen und alles am selben Tag abhandeln – wenn man Vorstellung und eigentlichen Launch separat abhalten kann. Demzufolge besteht eine gute Chance auf eine reine RDNA3-Vorstellung am 3. November, mit einem Grafikkarten-Launch dann nachfolgend im weiteren Verlauf dieses Monats.
Vorstellung | Testberichte | Marktstart | |
---|---|---|---|
AMD Ryzen 7000 | 29. August | 26. September (15:00) | 27. September (15:00) |
nVidia GeForce RTX 4090 | 20. September | ? | 12. Oktober |
Intel Core i-13000 K/KF | 27. September (18:20) | angebl. 20. Oktober | angebl. 20. Oktober |
nVidia GeForce RTX 4080 | 20. September | ? | November |
AMD Navi 31 | 3. November | ? | vermtl. Mitte/Ende November |
Intel Core i-13000 non-K | angebl. CES 2023 | ? | angebl. zweite Januar-Hälfte 2023 |
AMD Navi 33 | angebl. CES 2023 | ? | vermtl. Q1/2023 |
nVidia GeForce RTX 40 Mobile | möglw. CES 2023 | ? | vermtl. Q1/2023 |
AMD Ryzen 7000 X3D | angebl. CES 2023 | ? | angebl. Februar/März 2023 |
AMD Navi 32 | unbekannt | ? | unbekannt |
nVidia GeForce RTX 4060 & 4070 | unbekannt | ? | unbekannt |
Hinweis: Alle Termin-Angaben ohne Gewähr, da oftmals aus der Gerüchteküche stammend und zudem jederzeit änderbar. Uhrzeiten: deutsche Zeit |