14

Hardware- und Nachrichten-Links des 14. Juni 2019

Bei Igor's Lab hat man sich eingehend mit der kürzlich genannten nVidia-Folie mit Angaben zur Stromverbrauchs-Spezifikation von AMD- und nVidia-Grafikkarten beschäftigt. Hieraus lassen sich wichtige Detail-Informationen mitnehmen – wie das bei nVidia der Karten-Gesamtverbrauch wirklich alles einschließt, inklusive also auch Lüfter und eventuellem RGB. Die Verwendung von Stromverschwendern an dieser Stelle führt dann sogar zu der Situation, das dem nVidia-Grafikchip dann (minimal) weniger Stromverbrauch genehmigt werden kann, jener also unter Umständen tiefer taktet. In einem drastischen Fall könnte also eine nVidia-Grafikkarten mit übermäßigem RGB-Einsatz langsamer sein als eine Standard-Variante – in der Realität kann der Grafikkarten-Hersteller dieser Problematik natürlich einfach über ein höheres Power-Limit bei seinem Eigendesign begegnen. Eine interessante Auswirkung ergibt sich allerdings bei der Nutzung von Wasserkühlungen: Da hierbei der Stromverbrach der Grafikkartenlüfter wegfällt, ergibt sich für den Grafikchip eine zusätzliche Stromverbrauchs-Reserve, kann jener also durchaus höher takten. Hieraus erklärt sich, wieso wassergekühlte Grafikkarten auch mit exakt demselben Power-Limit und ohne das eine reguläre luftgekühlte Ausführung irgendwelche Temperatur-Probleme hätte, zumeist etwas schneller herauskommen.

Aus dieser Ausgangslage bei den nVidia-Grafikkarten heraus wird nunmehr auch klarer, wieso AMD davon abweichend sein Power-Limit nur auf den Grafikchip bezieht ("ASIC-Power"): Denn damit ist dann letztlich sogar besser zu regulieren, was speziell nur der Grafikchip selber verbraucht. Daneben beschäftigt man sich dann auch noch mit den von nVidia genannten Werten zur ASIC- sowie zum Kartenstromverbrauch bei AMD- und nVidia-Grafikkarten. Gemäß der Experise und den Hochrechnungen können Igor's Lab die Werte der nVidia-Grafikkarten dabei sehr gut erklären, die Werte der AMD-Grafikkarten lassen (aufgrund teilweise viel zu kleiner Differenzen) hingegen eher die Frage zurück, wer denn hier mit falschen Angaben operiert. Dabei stellt es allerdings eine Fehleinschätzung dar, das die von nVidia in jener bewußten Präsentationsfolie angegebenen Werte zur ASIC-Power von Radeon RX 5700 /XT irgendwelche "Erfindungen" sein sollen – denn jene Werte wurde bei den Vorab-Gerüchten zur Navi 10 bereits derart genannt. Aller Vermutung nach ist dies daher eine offizielle AMD-Aussage bzw. zeigt an, wo das Power-Limit im AMD-Treiber bei den beiden Navi-Grafikkarten dann liegen wird.

Chip Karte Chip/Karte offiziell Chip/Karte real
GeForce RTX 2080 Ref. nVidia-Messung Power-Limit 148W / 215W = 67W ?
GeForce RTX 2070 Ref. nVidia-Messung Power-Limit 120W / 175W = 55W 120W / ~174W = 54W
GeForce RTX 2060 nVidia-Messung Power-Limit 115W / 160W = 45W 115W / 160W = 45W
Radeon RX 5700 XT Power-Limit AMD-Festlegung 180W / 225W = 45W ?
Radeon RX 5700 Power-Limit AMD-Festlegung 150W / 180W = 30W ?
Radeon RX Vega 56 Power-Limit AMD-Festlegung 165W / 210W = 45W 165W / 223W = 58W
Radeon RX 580 8GB Power-Limit AMD-Festlegung 145W / 185W = 40W 145W / 188W = 43W

Eingerechnet wird an dieser Stelle jedoch nicht der Punkt, das AMDs Angaben zum (offiziellen) Stromverbrauch der gesamten Grafikkarte einfach nur eine Festlegung darstellen – welche fehlbar ist und sich vor allem hier und da auch einmal produktpolitischen Erwägungen beugen muß. nVidias Stromverbrauchs-Angaben zur gesamten Grafikkarte entspricht dagegen dem von der Karte selber regulierten Power-Limit, demzufolge wird der reale Kartenverbrauch maximal an dieser Marke liegen, eher denn leicht darunter (da nicht in jeder Lebenssituation die Karte voll ausgelastet wird). Insofern ergibt sich die schlichte Tendenz, das bei nVidia der reale Stromverbrauch meist minimal niedriger liegt als der offizielle, bei AMD hingegen der reale Stromverbrauch oftmals minimal höher liegt als der offizielle. Arbeitet man dann mit dem realen Stromverbrauch, geht die zuerst deutlich ins Auge fallende Differenz von Chip- zu Karten-Verbrauch zwischen AMD und nVidia erheblich zurück. Nur die Radeon RX 5700 ist damit nicht wirklich zu erklären, 30 Watt Differenz zwischen Chip- und Kartenverbrauch sind wirklich ausgesprochen niedrig. Aber vermutlich dürfte hierbei wieder die Produktpolitik bei der TBP-Festlegung eine Rolle gespielt haben – sprich, die Karte kommt tatsächlich mit 150 Watt ASIC-Power daher und zieht dann vermutlich auf die ganze Karte gesehen etwas mehr als von AMD offiziell angegeben (beispielsweise 190 anstatt 180 Watt).

Laut der gewöhnlich in solcherart Fragen gut informierten DigiTimes werden die weiteren kommenden AMD-Chipsätze A520 & B550 kein PCI Express 4.0 bieten – da der hiermit beauftragte Chipfertiger ASMedia seine ersten Controller für PCI Express 4.0 erst zum Jahresende 2019 zum Tape-Out bringen wird. Die von ASMedia kommenden Mainboard-Chipsätze A520 und B550 werden somit nur Controller für PCI Express 3.0 tragen können – PCI Express 4.0 auf Ryzen 3000 gibt es somit nur mittels AMDs X570-Chipsatz, welcher wie bekannt ein zweckentfremdetes I/O-Die von Ryzen 3000 darstellt. Dies gilt natürlich nur bezüglich der durch den Chipsatz selber bereitgestellten Kapazitäten – an den vom Prozessor selber kommenden 20 PCI Express 4.0 Lanes (16 für die Grafikkarte, 4 für eine M.2-SSD) ändert sich nichts. Da der X570-Chipsatz aufgrund seiner aktiven Chipsatz-Kühlung keine Beliebtheits-Wettbewerbe gewinnt (trotz des durchaus maßvollen Geräuschniveaus bedeutet die aktive Komponente schließlich ein zusätzliches Ausfallrisiko), ergibt sich hiermit durchaus ein kleiner Negativpunkt gegenüber Ryzen 3000: Man kann nur noch zwischen X570 mit PCIe 4 und aktiver Kühlung oder B550 mit PCIe 3 ohne aktiver Kühlung wählen. Abhilfe hierzu dürften dann erst die Mainboard-Chipsätze der 600er Generation liefern, welche aber erst für Zen 3 gut ein Jahr später aufgelegt werden. Eine kleine Chance gibt es noch mittels des von der ComputerBase vermeldeten X590-Chipsatzes – nämlich dann, wenn es sich hierbei nicht erneut um den I/O-Die von Ryzen 3000, sondern einen explizit als Mainboard-Chipsatz aufgelegten Chip handeln sollte. Aber wie gesagt ist davon die grundsätzliche Fähigkeit zu PCI Express 4.0 bei Grafikkarte sowie erster SSD unbenommen.

Zu den gestrigen Nachrichten haben sich in den Leser-Kommentaren hierzu wichtige Anmerkungen ergeben: So soll im Fall des Geekbench-Resultats zum Ryzen 9 3950X die von der Geekbench-Datenbank angegebene Taktrate auf der Auslesung des real anliegenden Chiptakts basieren. Da hierbei grob 4.3 GHz bei nominellen Taktraten von 3.5/4.7 GHz für diesen 16-Kerner angegeben wurden, könnten diese 4.3 GHz mutmaßlicherweise schlicht dem AllCore-Turbo des Ryzen 9 3950X entsprechen – womit jenes Benchmark-Ergebnis dann als "augenscheinlich auf default-Taktung durchgeführt" einzubuchen wäre. Völlig richtig ist zudem die Anmerkung, das (zumindest unter dem Geekbench) die SingleCore-Performance immer noch zugunsten des Core i9-9900K ausgeht – nur das jener bei einem Ergebnis von 6212/34027 Punkten bei der MultiCore-Performance dann vom Ryzen 9 3950X auf 5868/61072 Punkten mit ca. 80% Vorteil vollkommen überrannt wird. Ganz besonders viel sollte man allerdings auf diese Wertedifferenzen nicht geben, denn der Geekbench ist für größere Ergebnis-Varianzen (bei Benutzung unterschiedlicher PC-Systeme) bekannt – einmal abgesehen davon, das andere Benchmarks generell auch andere Tendenzen aufzeigen können und nur ein größeres Gesamtbild unter Einrechnung vieler Benchmark sich hierbei der Wahrheit wirklich annähern sollte.

Daneben wird klargestellt, das die AMD-Sockel TR4 (Threadripper) und SP3 (Epyc) generell gleich sind – bis auf die Ausführung des Speicherinterfaces, welches bei Threadripper maximal 4 Kanäle hat und bei Epyc maximal 8 Kanäle. Dies bedeutet allerdings, das unsere Bedenken, AMD könnte rein technisch eventuell keinen 64-Kern-Threadripper auf dem jetzigen Sockel TR4 realisieren, somit Nonsens sind. Die hierzu genannten früheren AMD-Pläne sind damit dann ergo nur Vorausplanungen, erzählen aber nichts über real anliegendem technischen Limits. Und Sinn würde eine Kern-Offensive auch im HEDT-Segment durchaus ergeben, denn jenes verabschiedet sich sowohl bei AMD als auch bei Intel inzwischen klar vom normalen Consumer-Markt (wenn in diesem bis zu 16-Kerner verfügbar werden), braucht demzufolge aber natürlich echte Anreize – welche ein 64-Kerner sicherlich setzen kann. Hiermit werden dann zwar wirklich nur noch die Workstation-Benutzer (möglichst unter Linux) angesprochen – aber unter dieser Benutzergruppe ist die Multiplikator-Dichte üblicherweise enorm hoch, ergibt ein Markterfolg somit vielleicht kaum beachtbare Umsatzanteile, aber dafür eine positive Stimmung gegenüber dem Hersteller.

Und letztlich gibt es noch verschiedene Erklärungen dazu, wieso der Gewinn an Transistoren-Packdichte bei AMDs Navi-10-Chip unter TSMCs 7nm-Fertigung so gering ausfällt – sei es der Hinweis darauf, das die Chipfertiger-Angaben regelmäßig nur die einfachstmöglichen Transistoren betreffen, oder auch das generell einige verschiedene Faktoren hier mit hineinspielen, u.a. die Verwendung des (flächenmäßig) dickeren GDDR6-Interfaces gegenüber dem HBM2-Interface der Vega-Chips. So oder so läuft es natürlich trotzdem auf die Folge hinaus, das die 7nm-Fertigung ohne EUV-Einsatz nicht der große Bringer (wenigstens bei Grafikchips) zu sein scheint – wovon auch alle anderen Grafikchip-Projekte unter dieser Fertigung betroffen wären. Wahrscheinlich kommt da aber nicht mehr viel, denn bei AMD denkt man schon an "7nm+", bei nVidias Ampere läuft alles auf das Abwarten auf die 7nm-EUV-Fertigung hinaus und bei den Konsolen-Herstellern Microsoft & Sony spielt deren Zeitplanung für die NextGen-Konsolen (jeweils Ende 2020 zu erwarten) ebenfalls dem Abwarten auf die 7nm-EUV-Fertigung in die Hände. Zu selbiger ist im übrigen noch anzumerken, daß das im Spätsommer antretende Samsung Galaxy Note 10 erstmals einen Smartphone-SoC unter dieser 7nm-EUV-Fertigung mitbringen soll – was letztlich die terminliche Vorhersage ermöglicht, das mit jener Fertigungsstufe für große PC-Chips nicht vor Jahresmitte 2020 zu rechnen ist.