22

Hardware- und Nachrichten-Links des 22. November 2018

Die PC Games Hardware notiert die Nennung eines neuen AMD-Prozessors in der SiSoft-Benchmarkdatenbank, welcher aufgrund seiner Konfiguration wahrscheinlich zu AMDs Zen 2 gehören dürfte: Ein Prozessor dieses 2-Sockel-Systems verfügt demnach über 64 CPU-Kerne, 64x 512 kByte Level2-Cache und 16x 16 MB Level3-Cache. Das es 64 CPU-Kerne pro Sockel sind, ergibt sich aus dem CPU-Code "2S1404E2VJUG5_20/14_N", wobei das "J" gemäß einer entsprechenden Aufschlüsselung seitens MoePC selbige 64 CPU-Kerne ergeben. Die "20/14" ergibt im übrigen die anliegende Taktrate von 1.4/2.0 GHz, was sehr niedrig klingt, für ein Engineering Sample des Server-Bereichs aber auch nicht ungewöhnlich wäre. Interessant ist daneben die Angabe zur Größe des Level3-Caches von 16x 16 MB, was insgesamt 256 MB für die 64-Kern-CPU ergibt: Zum einen würde dies auf eine Verdopplung des Level3-Caches bei Zen 2 von 2 MB pro CPU-Kern auf ganze 4 MB pro CPU-Kern hindeuten. Und zum anderen ergäbe die Aufteilung auf 16 Einzelteile, das AMD intern doch wieder mit dem CCX-System von Zen 1 arbeitet, wo also 4 CPU-Kerne samt Level3-Cache in einem "Core Cluster" zusammengefasst sind. Eines der Zen-2-Chiplets würde dann also (wie bei Zen 1) immer zwei dieser CCX enthalten, nur eben mit bei Zen 2 verdoppeltem Level-3-Cache.

Zielgebiet CPU-Kerne L2 pro Kern L3 pro Kern
AMD Zen 1 & Zen+ Desktop, HEDT & Server bis zu 32C 512 kByte 2 MByte (exklusiv)
AMD Zen 2 Desktop, HEDT & Server bis zu 64C 512 kByte 4 MByte
Intel Skylake, Kaby Lake & Coffee Lake Mobile & Desktop bis zu 8C 256 kByte 2 MByte
Intel Skylake-X/SP HEDT & Server bis zu 28C 1 MByte 1.375 MByte (exklusiv)
Intel Ice Lake Mobile & Desktop ? 512 kByte 2 MByte

Wieviel davon bei den Zen-2-basierten Desktop-Prozessoren ankommt, ist allerdings immer noch in der Schwebe – weil dato unklar ist, ob diese Desktop-Prozessoren nach demselben Baukasten- bzw. Chiplet-System wie die Server- und HEDT-Modelle von Zen 2 erstellt werden. AMD könnte dies bei den Desktop-Prozessoren ebenfalls so handhaben, allerdings verliert jenes System einiges an Effektivität, wenn man nur noch ein einzelnes Chiplet mit einer I/O-Einheit bundelt. Hier könnte es – gerade angesichts der im Desktop-Bereich höheren Stückzahlen – womöglich effektiver sein, lieber ein monolithisches Die aufzulegen. Selbiges hat dann auch den erheblichen Vorteil der niedrigeren Speicherlantenzen – was gerade im Desktop-Markt mit seiner auf die Spiele-Performance schauenden Gamer-Gemeinde relevant ist. Im Fall des Falles kann dann das monolithische Design auch eine gänzlich andere Cache-Konfiguration tragen – insofern ist vorstehende Information derzeit nur sicher für die HEDT- und Server-Modelle von Zen 2. Das monolithische Design hat im Gegenzug dann allerdings den Nachteil, nicht so flexibel wie das Baukasten-System zu sein – mittels welchem man auch umgehend mal einen 12- oder 16-Kerner für den Desktop auflegen könnte. Wie AMD dies auflöst, ist wie gesagt noch nicht bekannt – und ist so ziemlich eine der wichtigsten offenen Fragen zu Zen 2. Da AMD bezüglich Zen 2 derzeit aber am liebsten nur über Server-Lösungen spricht, wird sich die Auflösung dieser Frage sicherlich noch etwas hinziehen, sich diese wichtige Information womöglich erst nächstes Jahr ergeben.

Heise bringen Hintergrundinformationen zu den jüngsten Meltdown/Spectre-Schutzmaßnahmen unter Linux, welche wie bekannt inzwischen zu einem sehr erheblichen Performanceverlust geführt haben. So soll die hierfür hauptverantwortliche Schutzmaßnahme "Single Thread Indirect Branch Predictors" (STIBP) in zukünftigen Linux-Versionen nicht mehr automatisch aktiviert werden – eben wegen des erheblichen Performanceverlusts und der bislang nur theoretischen Art der hierüber möglichen Angriffe. Interessanterweise soll dieselbe Schutzmaßnahme unter Windows schon vor Monaten aktiviert worden sein – aus der Windows-Welt werden jedoch kaum solcherart drastische Performanceverluste vermeldet. Hier könnte natürlich auch mit hineinspielen, das die gemessenen Performanceverluste gerade unter Anwendungssoftware klar kleiner waren als im Durchschnitt oder gar direkt bei Server-Software – und Windows eben auch weiterhin vorzugsweise für Desktop-Systeme verwendet wird, Linux vorzugsweise für Server-Systeme. Sprich: Möglicherweise fällt der Effekt derselben Schutzmaßnahme unter Windows weniger auf als unter Linux – oder unter Linux ist man vielleicht diesbezüglich auch einfach ehrlicher und hat weniger Probleme damit, den CPU-Herstellern (maßgeblich in diesem Fall Intel) eine solche Katastrophennachricht ans Bein zu binden. In jedem Fall bleibt der Themenkomplex in der Schwebe und ist eben nicht mittels ein paar einfacher Patches zu erledigen.

Die gestern thematisierte Angelegenheit mit den "fallenden Grafikkarten-Preisen", welche sich nVidia zugunsten des Absatzes seines Pascal-Inventars erhofft hatte, wurde unsererseits wohl zu kurz erklärt – worauf sich logischerweise entsprechende Kritik ergeben hat. Diese "fallenden Preise" beziehen sich jedoch nicht auf den Jetzt-Zustand oder auch reguläre Preissenkungen, sondern allein auf die übertriebenen Händlerpreise direkt nach dem Mining-Boom. An jenen Straßenpreisen hatte nVidia keine direkte Schuld, jene waren einfach dem Mißverhältnis von Nachfrage zu Angebot geschuldet – und wurden von den Einzelhändlern derart festgesetzt. Nach dem Ende des Mining-Booms erschien es nVidia (nach Eigenaussage) als besser, wenn sich diese überzogenen Händlerpreise möglichst schnell beruhigen – denn der Absatz an GeForce GTX 1060 6GB Karten ist nun einmal nicht besonders hoch, wenn diese Midrange-Karten bei 350 Euro angeboten werden und es keinerlei Mining-Boom mehr gibt. In einer solchen Situation halten sich die Gafikkarten-Käufer zurück, egal ob die Einzelhändler letztlich wieder lieferbar sind. Clevere Käufer warten dann einfach ab, bis mindestens die Preissituation von vor dem Mining-Boom wieder erreicht ist – bei der GeForce GTX 1060 6GB wären dies dann 250 Euro. In exakt dieser Situation ist nVidia wohl zu zögerlich vorgegangen, in jedem Fall hat es Monate gebraucht, ehe die Straßenpreise wieder auf Normalmaß waren.

In dieser Zeitspanne lief der Grafikkarten-Absatz an Gamer demzufolge jedoch nur spärlich wieder an – kein Wunder, wenn die Preise oben sind und sich nur langsam nach unten bewegen. Dieser Zeitraum von angenommen April bis September 2018 fehlt nVidia nunmehr – in jenem Zeitraum hätte das Geschäft mit Pascal-Chips brummen müssen, damit sich das nVidia-Inventar hätte gut abbauen lassen. Nun sitzt nVidia in Umkehrung der Situation auf zu vielen Pascal-Chips, hat einige davon bereits abgeschrieben (wahrscheinlich den GP102-Chip für die GeForce GTX 1080 Ti), und wird in anderen Fällen nunmehr der Lagerberäumung den Vorrang vor dem Release weiterer Turing-Lösungen geben. Hieraus resultiert auch die Aussage, zum Jetzt-Zeitpunkt nicht noch mehr Grafikchips über den Grafikkarten-Herstellern auszuschütten – dies würde nur die (inzwischen normalen) Preise nochmals unter Druck setzen und letztlich wohl zu unrentablen Preisen führen. Daher will man lieber 1-2 Quartale Inventar-Beräumung betreiben, als seine "Alt-Ware" mittels Kampfpreisen loszuwerden. So weit zumindest die Erklärung von nVidia, welche – da hat die Kritik vollkommen recht – jederzeit auch Nebelkerzen enthalten kann, welche der Verschleierung der eigentliche Gründe dienen. Allerdings gilt anzumerken, das nVidia hierbei mit Analysten (und nicht mit Journalisten) gesprochen hat: Jedes Wort ist also justizabel, grobe Schnitzer oder echte Lügenmärchen kann man sich da eigentlich nicht leisten bzw. bringt man gewöhnlich nur dann an, wenn es wirklich nicht mehr anders gehen sollte.

Gemäß Fudzilla sind die ersten 5nm-Chips von Auftragsfertiger TSMC gegen Ende 2020 zu erwarten – wie üblich wird es sich um Smartphone-SoCs handeln, große PC-Chips folgen dem jeweils erst mit einiger Verzögerung. Derzeit sieht es so aus, als würde wieder Apple zum Jahresende 2020 den Großteil der anfänglichen 5nm-Fertigung für sich (und sein 2020er Smartphone) beanspruchen, so das "Massenware" mit 5nm-Chips dann eher erst ein Thema des Jahresanfangs 2021 sein kann. Diese Roadmap mag sich auf den ersten Blick aggressiv anhören, beinhaltet allerdings auch, das die 7nm-Klasse bei TSMC dann für ganze zwei Jahre gefahren wird – nachdem man in den letzten Jahren fast jedes Jahr einen echten Node-Sprung bieten konnte. Aber damit hat TSMC letztlich nur den bisherigen Intel-Vorsprung in der Fertigungstechnologie aufgeholt – nun aber steht man selber an der Spitze, womit jeglicher Fortschritt nur noch schwer erringbar ist. So dürfte man für das Jahr 2019 nur eine Verbesserung des 7nm-Nodes anbieten können, mutmaßlich 7nm mit EUV-Einsatz – und auch nach dem 5nm-Node im Jahr 2020 wird das Jahr 2021 kaum einen (wirklich) neuen Node sehen können, sondern nur Verbesserungen eben jener 5nm-Technologie. Im PC-Bereich dürfte dies wie bekannt üblicherweise jeweils ein Jahr später stattfinden – wobei TSMC generell nur gewisse Nodes für "HighPower"-Chips anbietet, sprich Chips mit den im PC-Bereich üblichen hohen Wattagen von 30 bis 250 Watt. Wann TSMC also die 5nm-Fertigung für PC-Chips anbieten kann, ist derzeit noch nicht wirklich abschätzbar – der frühestmögliche Zeitpunkt liegt in jedem Fall nicht vor Ende 2021.