18

Hardware- und Nachrichten-Links des 18. September 2018

Gamers Nexus haben sich in zwei YouTube-Videos – No.1 & No.2 – sehr intensiv mit der Kühllösung der Founders Edition bei den kommnenden Turing-Grafikkarten (am Beispiel einer GeForce RTX 2080 Ti) beschäftigt. Die von nVidia verbaute Kühllösung zeigt sich dabei als wohldurchdacht und somit bezüglich Performance und (geringer) Geräuschentwicklung sicherlich exzellent, allerdings aber auch vergleichsweise kompliziert aufgebaut und damit schwer zu reinigen wie zu reparieren. Ein einfacher Lüftertausch ist angesichts von über 70 Schrauben und vielen (stark) verklebten Teilen kaum von einem Normalanwender zu realisieren – allenfalls ein kompletter Austausch der gesamten Kühlkonstruktion ist mit vergleichsweise wenig Aufwand und Risiko weiterhin möglich. Irgendwelche Pluspunkte verdient sich nVidia damit natürlich nicht, da Grafikkarten-Käufer hierbei den "Apple-Effekt" fürchten, wo sich einfache Hardware-Fehler nicht mehr wirklich reparieren lassen. Andererseits müssen die Herstellerdesigns der Grafikkartenhersteller diesem Ansatz natürlich nicht folgen, sondern können (wie bisher) praxistauglichere Kühlerkonstruktionen verwenden.

Eine interessante Anekdote zur Fertigung der Turing-Grafikchips liefert der (gestern schon verlinkte) Turing-Artikel von PC Watch (maschinelle Übersetzung ins Deutsche): Hierbei gibt man an, das nVidia angeblich zuerst die 10nm-Fertigung von Samsung für diese Grafikchip-Generation ansetzen wollte. Das dem jetzt nicht so gekommen ist, erklärt man sich über die augenscheinlich bessere Ausbeute der 12nm-Fertigung von TSMC, welche allerdings auch nur eine minimale Abwandlung von TSMCs 16nm-Fertigung darstellt. Diese ursprüngliche Ansetzung macht die übergroßen Chipflächen der Turing-Chips eher erklärbar, welche bei primär für den Gaming-Einsatz gedachten Grafikchips doch sehr viel "dicker" als bei allen vorherigen nVidia-Generationen ausgefallen sind. Wieso die ursprüngliche 10nm-Planung wirklich scheiterte, bleibt dagegen unklar: Neben der Möglichkeit von technischen Problemen und der angesprochenen Frage der Fertigungsausbeute könnte hier durchaus auch mit hineinspielen, das TSMC nVidia sicherlich einen Superpreis gemacht haben dürfte, nur damit nVidia nicht zu Samsung wechselt.

Für Chipfertiger TSMC läuft es derzeit schließlich wirklich sehr gut – da wäre es eher unglücklich, den (nach dem Ausstieg von GlobalFoundries) mittelweile einzigen ersthaften Wettbewerber in Form von Samsung dadurch zu adeln, das Samsung erstmals große PC-Chips herstellt (bisher hat Samsung nur reihenweise Smartphone-SoCs sowie nVidias LowCost/Mainstream-Grafikchips gefertigt). Welche der möglichen Gründe hier letztlich das Übergewicht hatte, ist ohne Insiderwissen jedoch nahezu unmöglich feststellbar und muß damit als Frage offenbleiben. Wieso TSMCs Gegenangebot letztlich auf die 12nm-Fertigung und nicht die eigene 10nm-Fertigung lautete, wird vermutlich genauso ein Mysterium bleiben. Das die 10nm-Fertigung aus technischen Gründen ungeeignet für Grafikchips sei, war dagegen schon immer unbegründet – hierbei wurde der Zirkelschluß zur 20nm-Fertigung gezogen, was aber nicht zu den vorliegenden technischen Grunddaten passt. Daß sich nVidia mit der 10nm-Fertigung von Samsung ernsthaft beschäftigt haben soll, darf zudem als ganz praktischer Hinweis darauf verstanden werden, das 10nm sehr wohl auch für Grafikchips geeignet wäre. Natürlich ist es zum jetzigen Zeitpunkt dann schon wieder zu spät hierfür, sind die entsprechenden Entscheidungen bei nVidia schon vor einigen Quartalen gefallen und konzentrieren sich die Chipfertiger inzwischen hingegen auf die nachfolgende 7nm-Fertigung.

Seitens ComputerBase, PC Games Hardware sowie DSO Gaming hat man sich die Grafikkarten-Performance unter Shadow of the Tomb Raider angesehen. Die beiden erstgenannten Artikel sind eigentlich bereits vor dem Spiel-Release erschienen, deren Benchmarks sind somit ursprünglich ohne Day-1-Patch sowie ohne die aktuellen, auf das neue Tomb-Raider-Abenteuer abgestimmten Treiber von AMD und nVidia erstellt. Ob es großartig Sinn macht, derart Arbeiten aufzulegen, nur um unbedingt "der Erste" zu sein, darf bezweifelt werden – auch wenn sich nun mittels Ausführungen der ComputerBase zeigt, das der aktuelle Patch- & Treiber-Stand allenfalls für ein paar mehr fps sorgt, jedoch nur im geringen Maßstab für andere relative Unterschiede zwischen den einzelnen Grafikkarten erzeugt. Im Sinne dessen, das mittels solcher Betrachtungen jedoch üblicherweise auch eher kleine Unterschiede auf die Goldwaage gelegt werden, ist das ganze dennoch suboptimal – sprich, es wären jederzeit Artikel vorzuziehen, welche rein nur mit Day-1-Patch und angepassten Grafikkarten-Treibern entstanden sind.

Die große Tendenz unter Shadow of the Tomb Raider ist allerdings glücklicherweise auch so zu erkennen: Das Spiel läuft (wie seine Vorgänger) besser unter DirectX 12 – was sich sowohl bei den reinen Frameraten als auch bei den Frametimes und damit im subjektiven Flüssigkeitsgefühl jeweils deutlich zeigt. Die PCGH hat hierzu sogar einen expliziten CPU-Benchmark aufgetan, nach welcher eine Pascal-basierte Titan X auf der Auflösung von 1280x720 unter DirectX 12 glatt doppelt so schnell ist wie unter DirectX 11 – und bei 76,6 fps zu 35,4 fps geht es auch nicht um reine Theorie im dreistelligen fps-Bereich, sondern um direkt greifbare Nachteile in einem überaus erheblichen Ausmaß. Die reinen Grafikkarten-Tests betrachtend ist dagegen (auf geringem, aber bemerkbaren Niveau) eine gewisse AMD-Tendenz des Spiels zu beobachten – wobei jene nur unter den DirectX-12-Tests wirklich hervortritt, unter den DirectX-11-Tests kommt dagegen grob alles auf dem bekannten Performance-Bild heraus. Interessanter Nebenpunkt: Gemäß DSO Gaming unterstützt Shadow of the Tomb Raider vom Start weg SLI und zeigt mit einer GeForce GTX 690 (auf reduzierten Texturendetails) auch sofort eine sehr ansprechende Performance, ergo (geschätzt) eine gutklassige SLI-Skalierung.

Die seitens des Planet 3DNow! gezeigte "AMD Investor Präsentation September 2018" enthält nach wie vor eine schon zum Jahresanfang gezeigte Folie zum 2018er Vega-Portfolio, welche sowohl "Vega 7nm" (aka "Vega 20" für den HPC-Bereich) als auch "Vega Mobile" notiert. Die aktuelle Folie trägt allerdings den Zeitstempel "September 2018", insofern scheint dieses eigentlich schon für den Sommer 2018 angedachte Projekt "Vega Mobile" weiterhin bei AMD auf dem Plan zu stehen. Wie schon kürzlich ausgeführt, liegt AMD in der Vega-Generation generell hinter seinen ursprünglichen Vorstellungen zurück, hat nur 3 von 7 extra Chips (APUs nicht mitgezählt) bislang realisiert. Vega Mobile ist als leistungskräftige Mobile-Lösung für Midrange-Bedürfnisse (bis zu 1792 Shader-Einheiten an einem HBM2-Speicherinterface) gedacht, könnte sicherlich aber auch als aktualisierte Midrange-Lösung auf dem Desktop antreten. Der Problempunkt dürfte in beiden Fällen der hohe Kostenfaktor durch den HBM2-Speicher sein – womit wahrscheinlich genau deswegen der kürzliche Zen/Vega-SoC für die chinesische Subor-Spielekonsole mit ähnlicher Anzahl an Shader-Einheiten, aber einem GDDR5-Speicherinterface realisiert wurde. Da jedoch von der Turing-Generation kaum demnächst neue Mobile-Beschleuniger für Midrange-Bedürfnisse zu erwarten sind, könnte sich "Vega Mobile" doch noch lohnen – sofern AMD dieses Projekt demnächst einmal auf die Zielgerade führt.

Die PC Games Hardware berichtet über (interne) Aussagen von Analysten, welche eine Performanceführerschaft von AMD im Prozessoren-Markt des nächsten Jahres für möglich halten. Da hierzu nicht das komplette (interne) Analysten-Dokument vorliegt, läßt sich leider nicht exakt bestimmen, auf welche Teilmärkte sich dies bezieht bzw. wie die Begründung für jene Einschätzung konkret ausfällt. Allerdings dürfte sich auch für die Analysten der Punkt abzeichnen, das AMD nächstes Jahr mit seinen 7nm-Prozessoren einfach früher dran ist als Intel mit den (von der Fertigungstechnologie her vergleichbaren) 10nm-Prozessoren. Im für Analysten üblicherweise besonders interessanten Server-Segment dürfte AMD unter Umständen satte anderthalb Jahre früher als Intel dran sein, da die ersten 10nm Server-Prozessoren von Intel in Form von Ice Lake SP nicht vor Sommer 2020 zu erwarten sind. Speziell im Server-Segment kann AMD mit der besseren Fertigungstechnologie auch viel besser als im Consumer-Segment etwaige Nachteile bei Taktraten und damit der SingleCore-Performance übertünchen. Für Intel dürfte 2019 im Server-Sement ergo kein Zuckerschlecken werden, da dürfte einiges von dem vorher jahrzehntelang aufgebauten (dickem) Selbstbewußtsein Intels in Frage gestellt werden.

AMD 7nm-Prozessoren Intel 10nm-Prozessoren Zeitdifferenz
Consumer Matisse: Sommer/Herbst 2019 Ice Lake: Q4/2019 3-4 Monate für AMD
HEDT Castle Peak: Herbst 2019 Ice Lake X: Q3/2020 ~1 Jahr für AMD
Server Rome: Frühling/Sommer 2019 Ice Lake SP: Q3-Q4/2020 ~1,5 Jahre für AMD
Die Angaben dieser Tabelle beruhen auf reinen Abschätzungen gemäß des aktuellen Informations- und Gerüchtestands.