14

Hardware- und Nachrichten-Links des 13./14. August 2018

Passend zu nVidias Turing-Vorstellung hat Speicherchip-Hersteller Samsung die Verfügbarkeit der ersten GDDR6-Speicherchips mit 2 GByte pro Chip (aka 16 Gbit pro Chip) bekanntgegeben. Anders sind die 48 GByte Speicher einer Quadro RTX 8000 auch nicht realisierbar – wollte man hierfür 1-GByte-Speicherchips ansetzen, bräuchte man ganze 48 Stück davon, was die Platine zu sehr überfrachten würde. Selbst die nun mit den 2-GByte-Speicherchips benötigten 24 Plätze für Speicherchips sind relativ viel, für die Zukunft mit noch größeren Speichermengen wird man sicherlich schon in Richtung von 4-GByte-Speicherchips denken müssen. In jedem Fall ermöglichen diese verfügbaren 2-GByte-Speicherchips nVidia nunmehr die Option, auch auf Gaming-Grafikkarten die doppelte Speichermenge ins Feld zu führen: Wenn beispielsweise eine GeForce RTX 2080 mit regulär 8 GByte Speicher und demzufolge 8 Speicherplätzen geplant ist, dann kann man durch einfach Umbestückung auf 2-GByte-Speicherchips anstatt der gewöhnlichen 1-GByte-Speicherchips ganz schnell eine (hypothetische!) "GeForce RTX 2085" mit 16 GByte Speicher herausbringen – ohne dafür eine neue Platine auflegen zu müssen. nVidia erreicht hiermit also eine ganz gute Flexibilität bei der Speicherbestückung – ob man jene im Rahmen der kommenden Gaming-Lösungen dann auch ausnutzt, steht allerdings noch auf einem ganz anderen Blatt.

GDDR5 GDDR5X GDDR6
verfügbare Taktraten bis 9 Gbps bis 12 Gbps bis 14 Gbps
Speicherbandbreite (256-Bit-SI) max. 288 GB/sec max. 384 GB/sec max. 448 GB/sec
Speicherbandbreite (384-Bit-SI) max. 432 GB/sec max. 576 GB/sec max. 672 GB/sec
Speicherchip-Größen 4 & 8 Gbit 8 Gbit 8 & 16 Gbit

WCCF Tech beschäftigen sich mit den (vorgeblichen) AotS-Werten einer Turing-Grafikkarte, welche durchaus ganz nett aussehen. Welche Grafikkarte hierbei konkret zum Einsatz kam, kann allerdings nicht gesagt werden, da seitens des AotS-Benchmarks keinerlei Angaben zu Hardware-Einheiten oder Grafikkartenspeicher erfasst werden. Das erreichte Ergebnis liegt in jedem Fall im Rahmen einer Titan Xp bzw. leicht darunter – wobei gut übertaktete GeForce GTX 1080 Ti Karten durchaus viel höher kommen können. Dies deutet in jedem Fall die Verwendung des kleineren Turing-Chips GV104 an – ob nun in Form der Quadro RTX 5000 oder aber schon der Gaming-Abwandlung GeForce RTX 2080. Das der HighEnd-Chip (104er Klasse) einer neuen Chip-Generation das Performance-Level des vorhergehenden Enthusiasten-Chips (102er Klasse) erreicht, ist vollkommen normal und wurde allgemein bereits so erwartet. Ob es etwas oder etwas weniger wird, kann mit diesen AotS-Zahlen sowieso nicht beurteilt werden, dafür sind die Vergleichswerte zu durcheinander und liegt wie gesagt keine Information darüber vor, welche konkrete GV104-Karte hierbei zum Einsatz kam. Zumindest kann man auf Basis dieser Performance-Werte allerdings sagen, das unter Gaming-Gesichtspunkten keine große Performance-Offenbarung zu erwarten ist, sondern mit der Turing-Generation wohl fast nur das Mindestmaß an Performancesteigerung angesetzt wurde, welches nVidia mindestens aufbieten muß.

An dieser Stelle liegt nVidia sicherlich am untersten Ende der Erwartungen, denn selbst in früheren Spekulationen zu Volta-basierten Gaming-Chips (seinerzeit noch ohne Tensor-Cores und RT-Core gedacht) ging man in der pessimistischen Variante von höheren Einheiten-Steigerungen bei trotzdem nur maßvoll größerer Chipfläche aus. Jene früheren Spekulationen zeigen in ihren optimistischen Varianten aber auch an, wieviel mehr Hardware-Einheiten bei stark steigender Chipfläche machbar sein könnten – was nVidia bei der Turing-Generation augenscheinlich nicht genutzt hat, sondern wie bekannt zugunsten von Tensor-Cores und RT-Core verbraucht. Sicherlich spielt hier auch mit hinein, das viel mehr gewöhnliche Shader-Einheiten nicht ins übliche Power-Budget gepasst hätten – in diesem Fall wird aus dem Nachteil von Tensor-Cores und RT-Core indirekt ein Vorteil, denn diese im Gaming-Einsatz demnächst vermutlich wenig genutzten Einheiten muß man derzeit nicht wirklich mit ins Power-Budget einbeziehen. Es dürften bei den kommenden RTX-Beschleunigern also entweder konventionelle Shader-Einheiten oder RayTracing-Einheiten laufen, aber selten beides zusammen – womit diese sehr großen Grafikchips überhaupt erst unter den bekannten TDP-Größen realisierbar werden.

Für eine durchgehende Praxisnutzung aller Einheiten-Gruppen zusammen sind diese Grafikchips hingegen schon zu groß, dies wäre nur unter einer (starken) Reduzierung der Taktraten machbar, was wenig erstrebenswert ist. Selbiges dürfte erst mit kommenden Grafikchip-Generationen unter besseren Fertigungsverfahren realisierbar werden – und vermutlich werden sich auch erst dann die Anwendungsfälle ergeben, wo dies überhaupt notwendig wird. Nichtsdestotrotz ist es reichlich erstaunlich, wieso nVidia für diese großen Grafikchips (GV104 bei ~500mm² sowie GV102 bei 754mm²) nicht doch auf die 10nm-Fertigung gesetzt hat, welche schließlich derzeit problemlos verfügbar ist (und entgegen anderslautender Meldungen technologisch einwandfrei geeignet wäre). Man hätte dieselben Grafikchips auf fast der Hälfte von deren Chipfläche herstellen können, sowie entsprechende Spielräume bei Taktbarkeit und Verlustleistung unter der 10nm-Fertigung erworben. Woran es an dieser Stelle gehangen hat, darf nVidia gern irgendwann später einmal noch offenbaren – vermutlich war es ein reines Abschätzungsproblem, wurde die Volta/Turing-Generation ursprünglich noch zu früh für die 10nm-Fertigung angesetzt und war später dann der Zeitverlust bei einem Fertigungs-Wechsel größer als die Turing-Verschiebung.

Laut HD-Tecnologia (maschinelle Übersetzung ins Deutsche) werden Intels 28-Kerner dann doch einen abweichenden Mainboard-Unterbau bekommen – welcher nicht auf dem X399-Chipsatz, sondern dem X599-Chipsatz basiert. Der X399-Chipsatz von Intel (nicht zu verwechseln mit dem gleichnamigen AMD-Chipsatz) war mal als Mainboard-Unterbau von Cascade Lake vorgesehen, wurde zuletzt in Intels Server/HEDT-Planungen aber nicht mehr erwähnt – diese Rolle dürfte nun der X599-Chipsatz übernehmen. Dessen wichtigste Änderung sind der Sockel 3647 sowie ein 6-Kanal-Speicherinterface nun auch im Consumer-Segment – was irgendwie auch besser dazu passt, das Intel gleich 28 CPU-Kerne anbieten will. Damit dürfte Intel dann sowohl "Skylake-X" betreiben, den einzelnen 28-Kerner als Vorzeigeprodukt, als auch die "Cascade Lake" HEDT-Generation nächstes Jahr, welche dann vermutlich auch in der Breite des Angebots mehr CPU-Kerne bieten wird. In irgendwelche Zeitprobleme dürfte Intel mit diesem X599-Chipsatz nicht kommen, denn im Server-Bereich steht entsprechendes mit der C620-Serie längst zur Verfügung – welche jetzt nur für das Consumer-Segment abgespeckt und neu validiert werden muß.