6

Hardware- und Nachrichten-Links des 6. November 2018

Zu betonen sei bezüglich AMDs Chiplet-Ansatz bei Zen 2 nochmals der Punkt, das dies eine bislang für Ryzen und damit Consumer-CPUs unbestätigte Sache ist – und selbst im Fall des Falles etwas abweichend vom vorgestellten Server-Modell kommen dürfte. Dort setzt AMD auf eine vergleichsweise riesige I/O-Einheit, resultierend aus dem enormen Chipsatz-Kapazitäten im Server-Bereich (8-Kanal-Speicherinterface samt 128 PCI Express 4.0 Lanes) und der zugrundeliegenden 14nm-Fertigung. Im übrigen liegt genau an dieser Stelle auch ein weiterer Grund für diese Aufteilung zwischen I/O-Einheit und Core-Chiplets: Das allermeiste, was in der I/O-Einheit liegt, skaliert vergleichsweise schlecht mit kleineren Fertigungsverfahren – dies betrifft insbesondere Interface, deren Flächenvorteil unter einer kleineren Fertigung in aller Regel nur mittelprächtig ist. Dies in der teuren 7nm-Fertigung in einen monolithischen Chip zu bringen, würde selbigen vergleichsweise groß und teuer machen – so fertigt AMD nunmehr nur noch das unter 7nm, was richtig gut skaliert und auch von den Energieverbrauchs-Eigenschaften der 7nm-Fertigung bestmöglich profitiert (sprich die Core-Chiplets). Somit kommt hierbei eben nur noch ein einzelnes 7nm-Die (mit 8 CPU-Kernen) heraus, welches mit geschätzt ~73mm² vergleichsweise klein ausfällt und daher bei TSMC mit wohl exzellenter Ausbeute (selbst in den Anfängen der 7nm-Fertigung für PC-Produkte) hergestellt werden kann.

Unter Desktop-Bedingungen wird dann allerdings nicht die mit geschätzt ~430mm² regelrecht riesige I/O-Einheit benötigt, sondern etwas viel kleineres – insofern wird es nicht dazu kommen, das man im Desktop-Bereich diese riesige I/O-Einheit mit nur einem einzelnen Core-Chiplet koppelt (was etwas komisch aussehen würde). Eher denkbar wäre für den Desktop-Bereich eine separate I/O-Einheit mit DualChannel-Speicherinterface und sagen wir 24 PCI Express 3.0 Lanes (oder auch schon Version 4.0), jene kann dann bei grob einem Drittel der Fläche der I/O-Einheit der Server-Prozessoren liegen. Dazwischen dürfte AMD eine mittlere I/O-Einheit für Threadripper positionieren, denn auch dort sind die Anforderungen wiederum anders: QuadChannel-Speicherinterface samt 32 PCI Express 4.0 Lanes, was auf etwas mehr als der Hälfte der Fläche der I/O-Einheit der Server-Prozessoren als lösbar erscheint. Denkbar sind hier natürlich noch andere Rechnungen – beispielsweise den Einschluß einer kleinen Grafiklösung bei der I/O-Einheit für Desktop-Prozessoren. Denkbar ist genauso auch noch, das es im Desktop-Bereich dennoch wieder zu einem extra monolithischen Die kommt – mit wie gesagt dem Nachteil, das man dann auch schlecht skalierende Chipteile unter der teuren 7nm-Fertigung auflegt. Im APU-Bereich wird dies wahrscheinlich am Ende dennoch so gemacht werden – aber Zen-2-basierte APUs stehen wohl auch nicht mehr für das Jahr 2019 an, sondern dürften erst Anfang 2020 als Nachzügler erscheinen.

AMD Zen 2 I/O-Einheit Core-Chiplets Chipfläche Status
Epyc 64-Kern-Chip große I/O-Einheit (8Ch. DDR4, 128 PCI Express 4.0 Lanes) á ~430mm² 8x Core-Chiplets á ~73mm² ~1014mm² offiziell vorgestellt
Threadripper 32-Kern-Chip mittlere I/O-Einheit (4Ch. DDR4, 32 PCI Express 4.0 Lanes) á ~260mm² 4x Core-Chiplets á ~73mm² ~552mm² anzunehmen
Ryzen 16-Kern-Chip kleine I/O-Einheit (2Ch. DDR4, 24 PCI Express 3.0 Lanes) á ~160mm² 2x Core-Chiplets á ~73mm² ~306mm² spekulativ
Ryzen 8-Kern-Chip kleine I/O-Einheit (2Ch. DDR4, 24 PCI Express 3.0 Lanes) á ~160mm² 1x Core-Chiplet á ~73mm² ~233mm² spekulativ
APU monolithischer Ansatz mit möglicherweise 6 CPU-Kernen, Navi-iGPU, 2Ch. DDR4 & 12 PCI Express 3.0 Lanes ? spekulativ

Der insgesamte Vorteil dieses Chiplet-Ansatzes liegt in der höheren Flexibilität und damit dem geringeren Verschnitt für die einzelnen Produkte. Bislang musste AMD in seine Zen-Dies immer alles an I/O-Kapazitäten einbauen, was maximal benötigt wird – deswegen tragen die im Ryzen-Bereich verwendeten Dies auch ihre Infinity-Fabric-Verbindungen, obwohl jene dort nicht genutzt werden. Mit steigender Anzahl an benutzten Dies wird zudem viel Chipsatz-Funktionalität mehrfach (sinnlos) verbaut – und wenn man an irgendeiner Stelle nachlegen wollte, würde dies immer das gesamte Produktspektrum von Epyc bis Ryzen 3 betreffen. Mit dem neuen Ansatz kann AMD die I/O-Kapazitäten zielgenau auflegen, wäre theoretisch sogar zu Sonderlösungen in der Lage oder könnte den Support für DDR5 und PCI Express 5.0 basierend auf derselben Architektur-Stufe einfach nachreichen, ohne an den eigentlichen Core-Chiplets etwas verändern zu müssen. Der Ansatz ist sicherlich komplizierter, aber auch effektiver und flexibler – was bei größeren Stückzahlen vermutlich einfach zugunsten einer besseren Wirtschaftlichkeit geht. Zudem wird über die I/O-Einheit in der 14nm-Fertigung auch der Hausfertiger GlobalFoundries weiterhin eingebunden, was helfen wird, dessen Überleben nach dem Schritt in die (technologisch) zweite Reihe zu sichern.

Bei Gamers Nexus hat man sich mit dem Problem des hohen Stromhungers des Core i9-9900K beschäftigt – und bietet hierzu einen interessanten neuen Erklärungsansatz auf. Erst einmal wird gut erklärt, das Intel derzeit mehrere Power-Limits für denselben Prozessor pflegt, die offizielle TDP von 95 Watt stellt hierbei nur die einfachste Stufe (PL1) dar. In einer zweiten Stufe (PL2) darf das reguläre Power-Limit um bis zu +25% überschritten werden (ergibt 119 Watt), dies allerdings nur für maximal 100 Sekunden. Daneben gibt es noch weitere Power-Limits für noch kürzere Zeiträume, welche leider nicht spezifisch ausgeführt wurden – es wurde allein notiert, daß das PL4 dann nur noch für 10ms gilt, ergo für einen in der Gesamtbetrachtung unwesentlichen Zeitraum. Dies ist so weit erst einmal völlig normal und erklärt nicht dauerhaft hohe CPU-Temperaturen bzw. über einen längeren Zeitraum höher als die TDP liegende Verlustleistungen. An dieser Stelle kommen nun aber neue "Optimierungen" der Mainboard-Hersteller ins Spiel, welche sich nach den beim Launch der originalen Coffee-Lake-Generation thematisierten Boost-Optimierungen etwas neues ausgedacht haben: Je nach Mainboard und Setting kann es da passieren, das schlicht das Zeitlimit für die höheren Power-Limits nicht mehr beachtet wird.

Wenn dies "nur" das PL2 betrifft, dann darf sich also der mit 95 Watt TDP verkaufte Prozessor dauerhaft 119 Watt gönnen – nicht nur für einen kurzen Boost von maximal 100 Sekunden. Betrifft dieses Setting auch höhere Power-Limit-Stufen, dann kann da noch wesentlich mehr herauskommen – wobei es an dieser Stelle dann wirklich vonnöten wäre, mehr Details zu diesen weiteren Power-Limit-Stufen zu erfahren. In jedem Fall konnten Gamers Nexus mittels ihrer Benchmarks beweisen, das der Stromverbrauch diverser Z390-Platinen je nach anliegenden BIOS-Settings (und noch ohne Übertaktung oder Boost-Optimierungen) einmal nahe der TDP herauskam, und einmal eher in Richtung 150 Watt realen Stromverbrauchs beim Core i9-9900K ging. Ungünstigerweise wurden die hierfür verantwortlichen BIOS-Settings oftmals in die Auto-Einstellungen der entsprechenden Mainboards gepackt, auch wenn deren Auswirkungen kaum mittels irgendwelcher Hinweise kundgetan wurden. Gamers Nexus scheinen damit auf eine plausible Erklärung für den teils übermäßigen Stromverbrauch von Core i9-9900K (und Core i7-9700K) gestoßen zu sein – welcher man nunmehr seitens anderer Hardwaretester und sicherlich auch seitens Intel nachgehen sollte, denn der beschriebene Fall ist sicherlich nicht das, wofür Intel diese Prozessoren entwickelt hat.