29

News des 29. November 2022

Hardwareluxx berichten über die Vorstellung von GDDR6W-Speicher seitens Samsung, welche selbigen entwickelt und bereits in diesem zweiten Quartal bei der JEDEC standardisieren lassen haben. Wie üblich bei Speicherherstellern, ist deren PR-Text reichlich blumig und führt gern mal auf die falsche Fährte. In der Summe handelt es sich bei GDDR6W nichts anderes als die "Zusammenpappung" zweiter GDDR6-Chips übereinander – sprich, eher denn ein Erfolg der Fertigungstechnologie als denn wirklich eine neu Speichersorte. Denn die genannte doppelte Speicherbandbreite kommt nur auf Basis der Verdopplung des Interfaces zustande – logisch, wenn man zwei GDDR6-Chips benutzt. Damit muß auch auf der Gegenseite ein doppelt so großes Speicherinterface zur Verfügung stehen, im gegenteiligen Fall steigt die Speicherbandbreite überhaupt nicht an.

GDDR6 GDDR6W
Kapazität pro Speicherchip 1/2 GB 2/4 GB
Interface pro Speicherchip 32 Bit 64 Bit
Bandbreite an 256 Bit (gleicher Takt von 16 Gbps) 512 GB/sec
8 GDDR6-Speicherchips
512 GB/sec
4 GDDR6W-Speicherchips

GDDR6W ist ergo nur die Möglichkeit, mit (räumlich) weniger Speicherchips auszukommen, weil eben jeweils zwei davon übereinander gepappt werden und sich somit der belegte Platz auf der Platine halbiert. Genau nur das – die Platzreduktion auf der Platine – ist der ganze Clou von GDDR6W, an den restlichen technischen Daten ändert sich nichts. Es ist in keinem Fall möglich, mehr Speicherbandbreite herauszuholen, eher sinkt über die Zusammenpappung der Speicherchips deren maximal erreichbarer Takt sogar minimal ab. Allenfalls würde sich im Clamshell-Modus eine einfachere Verdopplung der Speicherkapazität erreichen lassen: Für 32 GB Speicher an einem 256-Bit-Interface wären somit nicht mehr 16 GDDR6-Speicherchips und damit 16 Plätze auf der Platine notwendig, sondern nur noch 8 zusammengepappte GDDR6W-Chips. Auch hier liegt der Vorteil wiederum in der Flächenreduktion auf der Platine. Dies könnte insbesondere im Mobile- sowie Profi-Segment interessant sein, für das Gaming-Segment bietet GDDR6W hingegen keine echten Vorteile.

Eine Umfrage seitens TechPowerUp nach dem korrekten Preispunkt der GeForce RTX 4080 brachte ein ziemlich eindeutiges Ergebnis hervor: Die große Mehrheit von 58% der Stimmen liegt im Feld von 600-800 Dollar, während die hohen Preislagen nur noch auf magere Ergebnisse kommen: Nur 15% der Umfrage-Teilnehmer wären bereit, oberhalb von 800 Dollar zu akzeptieren, gerade einmal nur noch 3% gehen Preislagen oberhalb von 1000 Dollar mit. Natürlich bedeutet Umfrage nicht gleich Kaufverhalten und außerdem brauchen HighEnd-Modelle niemals die breite Zustimmung des Marktes – aber dennoch kann man hier wohl herauslesen, dass nVidia den korrekten Preispunkt bei der GeForce RTX 4080 weit verpasst hat. Die Frage ist nun, wieso man sehenden Auges bei der GeForce RTX 4070 Ti in dieselbe Falle läuft, denn auch dort passen die vermutlichen 899 Dollar Listenpreis nicht zur augenscheinlichen Performance (wie GeForce RTX 4080 12GB), jedenfalls nicht im Vergleich zu Ampere-Beschleunigern.

Insofern nVidia mit den Preislagen von GeForce RTX 4070 Ti & 4080 tatsächlich primär die Lagerbereinigung zugunsten früherer Ampere-Karten im Sinn haben sollte, wäre es eher besser, die sowieso noch nicht offiziell angekündigte GeForce RTX 4070 Ti weiter hinauszuschieben. Mit einem Januar-Termin für diese Karte würde sich nVidia mit diesem Preispunkt hingegen unnötigerweise (nochmals) in die Lage bringen, erst einen sehr negativ bewerteten Launch hinnehmen zu müssen, um dann später irgendwann zur (kräftigen) Preiskorrektur zu schreiten. All dies bedingt natürlich, dass die These von der Ampere-Lagerbereinigung korrekt ist – und nicht einfach nur wohlfeil vorgeschoben wurde, um das generell höhere Preisniveau der Ada-Beschleuniger unterhalb der GeForce RTX 4090 erst einmal im Markt unterzubringen. Alles hängt somit davon ab, ob es tatsächlich eines Tages zur großen RTX40-Preissenkung kommt – was nVidia derzeit logischerweise weder bestätigen, dementieren noch kommentieren wird.

nVidia kündigt die Verfügbarkeit von "Portal with RTX" als extra Spielversion mit reinem RayTracing-Einsatz ab dem 8. Dezember an (kostenfrei für Besitzer der Basis-Version des Spiels) und zeigt gleichzeitig die offiziellen PC-Systemanforderungen hierzu. Jene sind natürlich auf nVidia-Hardware ausgerichtet, aber immerhin werden in der Prozessoren-Spalte auch AMD-Modelle notiert. Bei den Grafikkarten gibt es dann nur Angaben zu nVidia-Modellen, welche interessanterweise durchgehend von DLSS vorangetrieben werden sollen. Da Portal kein FSR unterstützt, wird es für AMD-Hardware hier schwer bis unmöglich werden, noch mitzuhalten. Rein von der durchschnittlichen RayTracing-Performance ausgehend interpoliert könnten AMDs Spitzen-Modelle aber vielleicht noch mit der GeForce RTX 3060 auf DLSS2 unter der Minimum-Anforderung konkurrieren.

offizielle PC-Systemanforderungen für "Portal with RTX"
Minimum Empfehlung "Ultra"
gedacht für FullHD "High" @ 30 fps FullHD "High" @ 60 fps 4K "Ultra" @ 60 fps
System Windows 10/11 64-Bit, 25 GB freier Festplatten-Platz
CPU Core i7-6700 oder Ryzen 5 3600 Core i7-9700K oder Ryzen 5 3600 Core i7-12700K oder Ryzen 9 5900
Speicher 16 GB RAM 16 GB RAM 32 GB RAM
Grafik GeForce RTX 3060 (mit DLSS2) GeForce RTX 3080 (mit DLSS2) GeForce RTX 4080 (mit DLSS3)

Doch dies muß natürlich nicht stimmen, denn die Performance-Skalierung unter Portal RTX zwischen AMD und nVidia könnte letztlich auch ganz anders verlaufen als im Durchschnitt. Unwahrscheinlich in jedem Fall, dass mehr als zur Minimum-Anforderung für AMD-Grafikkarten reicht, mit der generell schlechteren RayTracing-Performance und ohne Upscaler hat man hier keine Chance. Allerdings muß auch klar sein, dass Portal RTX für nVidia letztlich ein RayTracing-Showcase darstellt, sprich wenig zu verallgemeinern ist. So wurde die RTX-Version mit von nVidia bereitgestellten Modding-Tools erstellt – welche sich sicherlich einen Teufel darum scheren, RayTracing-Effekte maßvoll bzw. allgemeingültig für jegliche Hardware einzusetzen. Auf die Kappe des Spiele-Entwicklers selber geht hingegen der Punkt, zwar DLSS zu unterstützen, dafür jedoch kein FSR.