8

Hardware- und Nachrichten-Links des 8. Juni 2018

Gemäß der DigiTimes wird die nächste GeForce-Generation (wie schon erwähnt) gegen Ende August in den Handel gehen und weiterhin auf der 12nm-Fertigung (seitens TSMC) basieren. Interessant ist, das daneben über erste 7nm-Produkte von nVidia gesprochen wird: Jene sollen im Jahr 2019 antreten, wobei die Vorserien-Fertigung hierfür bereits im letzten Quartal des Jahres 2018 starten soll. Bislang war zu den Plänen nVidias nach der Turing-Generation mehr oder weniger noch gar nichts bekannt – wobei nicht sicher ist, ob jene DigiTimes-Wortmeldung überhaupt eine regelrecht neue Chip-Generation meint. Denkbar wäre an dieser Stelle auch, das nVidia die kleineren Chips der Turing-Generation (GT107 für Mainstream- und GT108 für LowCost-Bedürfnisse) schlicht schon in der 7nm-Fertigung auflegt, auch wenn man die größeren Chips bei der 12nm-Fertigung beläßt (in diese Richtung hin wurde früher schon spekuliert). Dies würde dann also erst einmal keine neue 7nm-Generation bei nVidia ergeben, vielmehr würde die Turing-Generation somit aus einem Mix aus 7nm- und 12nm-Chips bestehen.

Eine regelrecht neue Grafikchip-Generation, bei welcher auch die Spitzenchips in 7nm gefertigt werden, wäre dagegen eine ganz andere Hausnummer – damit würde nVidia den ersten 7nm-Grafikkarten von AMD ziemlich schnell Paroli bieten. Was nVidia in dieser Frage vorhat, ist noch weitgehend unklar – normalerweise sollte man sich nach der Turing-Generation erst einmal ein wenig Zeit lassen, neue Chip-Generationen bringt nVidia üblicherweise nicht derart schnell hintereinander. Zwar wird ganz gern mal ein Refresh eingeschoben, aber dies betrifft nur die Grafikkarten und nicht die dabei zugrundeliegenden Grafikchips. Doch andererseits lockt ein neues (verfügbares) Fertigungsverfahren natürlich zum Aufbruch zu neuen Ufern, gerade wenn die Konkurrenz (AMD) schon in diese Richtung hin unterwegs ist. Damit erscheint es nicht als undenkbar, das die Turing-Generation nur einen vergleichsweise kurzen Zeitraum bei nVidia am Drücker ist und nVidia ab Jahresende 2019 vielleicht doch schon wieder mit einer komplett neuen Grafikchip-Generation (dann in der 7nm-Fertigung) erneut die Performance-Latte nach oben setzen will.

Die PC Games Hardware notiert die Anstrengungen seitens Speicherhersteller Micron, die Taktraten von GDDR6 zu steigern. Derzeit sind bis zu 3000 MHz QDR (12 Gbps) direkt verfügbar, die Speicherhersteller können aber faktisch schon bis zu 4000 MHz QDR (16 Gbps) herstellen – und bis zu 4500 MHz QDR (18 Gbps) sind in Planung. Micron geht in seinen Laboren schon darüber hinaus, dort konnte man mit ein wenig Spannungszugabe den reinen GDDR6-Controller schon auf 5000 MHz QDR (20 Gbps) betreiben. Die I/O-Schnittstelle ist im übrigen der einzige Teil des Speicherchips, in welchem wirklich jene 5000 MHz anliegen – die reinen Speicherzellen takten deutlich niedriger. Micron hat allerdings noch keinen kompletten Speicherchip auf diesen 4500 MHz QDR betrieben, das ganze war nur eine Demonstration dessen, zu was die I/O-Schnittstelle bzw. der Speichercontroller in der Lage ist. Jener Kunstgriff wie auch die dafür notwendige Spannungserhöhung deuten schon an, das man sich hier an der Grenze des technisch machbaren bewegt – was dann also wohl erst in einiger Zeit wirklich marktreif werden wird.

GDDR5 GDDR5X GDDR6 HBM2
GPU-Interface flexibel, üblich bis zu 512 Bit flexibel, üblich bis zu 384 Bit flexibel, wahrscheinlich bis zu 384 Bit 1-4 Stacks, pro Stack 1024 Bit
Speichertakt üblich bis 4000 MHz DDR, verfügbar bis 4500 MHz DDR üblich bis 2750 MHz QDR, verfügbar bis 3000 MHz QDR, geplant bis 3500 MHz QDR geplant bis 4500 MHz QDR üblich bis ~880 MHz DDR, verfügbar bis 1200 MHz DDR
Datenübertragung DDR (= x2) QDR (= x4) QDR (= x4) DDR (= x2)
Speicherbandbreite eines Spitzenprodukts 384 GB/sec
(Radeon R9 390X)
484 GB/sec
(GeForce GTX 1080 Ti)
noch unklar 900 GB/sec
(Tesla V100)
maximale Speicherbandbreite 576 GB/sec
(4500 MHz DDR @ 512 Bit SI)
896 GB/sec
(3500 MHz QDR @ 512 Bit SI)
1152 GB/sec
(4500 MHz QDR @ 512 Bit SI)
1229 GB/sec
(1200 MHz DDR @ 4096 Bit SI)
realisierbare Speichermengen flexibel bis zu 16 GB
(Vielfache von 64 MB)
flexibel bis zu 32 GB
(Vielfache von 512 oder 768 MB)
noch unklar flexibel bis zu 32 GB
(pro Stack 4 oder 8 GB)

Bei dieser Gelegenheit ergibt sich im übrigen auch eine (vorläufige) Klarstellung, wie das Speicherinterface bei GDDR6-Chips gebaut ist, damit es seinen Prefetch von 1:16 erreicht. Für diese Verdopplung gegenüber GDDR5 wird augenscheinlich pro Pin noch ein extra DualChannel-Interface angesetzt – wie auch immer man dies technisch realisiert. Damit muß gegenüber GDDR5 nicht wahnwitzig viel geändert werden und vor allem gehen die Taktraten des Speichercontrollers nicht durch die Decke – 20 Gbps auf einem GDDR5-Interface würden schließlich Taktraten von 10.000 MHz DDR ergeben, was sich kaum mit heutiger Halbleiter-Technik realisieren lassen dürfte. Indirekt kann man das ganze dann durchaus als "QDR-Datenübertragung" bezeichnen – es ist ein DualChannel-DDR-Interface, was in der Summe eine vierfache Datenmenge (Quad Data Rate) pro Taktsignal überträgt. Das ganze wird sich hoffentlich eines Tages noch genauer erklären lassen – für den Augenblick mag es jedoch erst einmal ausreichend sein, da sich Bandbreiten und Taktraten nunmehr solide berechnen lassen.

Tom's Hardware und AnandTech bringen Intel-bestätigte Klarstellungen zu Intels 28-Kern-5-GHz-Demonstration, welche auf der Computex 2018 für einiges Aufsehen gesorgt hatte. Mittel diesen Klarstellungen gibt Intel zu, das hier ein Server-Prozessor auf einem Server-Mainboard mit Industrie-Kühlung auf (starker) Übertaktung lief – samt wahrscheinlich exorbitanter Leistungsaufnahme, in diesem Punkt schwieg sich Intel leider aus. Das benutzte Netzteil hatte in jedem Fall eine Nennleistung von 1300 Watt, das benutzte Kühlsystem (Hailea HC-1000B mit eigener Stromversorgung) ist für 1000 Watt Leistungsaufnahme spezifiziert – zusammen sind dies nominell bis zu 2300 Watt, auch wenn Intel dies kaum vollständig ausgenutzt haben dürfte. Bei diesem Aufwand ging es primär darum, die eigene Demonstration sicher über die Bühne zu bringen – mit dem einzigen Zweck, einen Cinebench-Durchlauf mit 28 CPU-Kernen auf 5 GHz in die Kameras zu zeigen. Die Fachpresse ist ob dieser nachträglichen Offenbarungen jedoch weitgehend "not amused" und wirft Intel mal mehr und mal weniger deutlich vor, selbige mit dieser Präsentation direkt hinters Licht geführt zu haben.

Dies trifft sicherlich zu – genauso auch wie die These, das hier zwei zur Show gehören. Denn vornehmlich die internationale Presse hat das ganze nur zu gern verbreitet, hat sich somit von Intel unbewußt für diesen Marketing-Stunt einspannen lassen. Dabei war von Anfang an klar, das Intel nicht mit einem kaum veränderten Stück Silizium (Cascade Lake ist nahezu Skylake-X) und ohne besseres Fertigungsverfahren nun plötzlich einen solch großen Sprung hingelegt haben konnte – die 28 CPU-Kerne auf 5 GHz mussten einfach Overclocking sein, für diese Einschätzung sollte man keinen Blick auf die genaue Hardware benötigen. Die deutschsprachige Presse hat sich in dieser Frage im übrigen wacker geschlagen und dies oftmals von Anfang an so wiedergegeben – auch wenn an der Schlagzeile mit den "28 CPU-Kernen" und der Taktrate von "5 GHz" kaum etwas vorbeiführt. Erstaunlich ist ein wenig die Reaktion der englischsprachigen Presse, welche nunmehr so tut, als würde aus Herstellermund nur die reinste Wahrheit zu erwarten sein – dies erscheint wie 20 Jahre hinter der Zeit, was für Journalisten als erklärte Mittler von Nachrichten eher denn peinlich wäre. Aber man kann das ganze natürlich auch viel gelassener sehen – und die ganze Affäre als kleinen Spaß verarbeiten.