30

Hardware- und Nachrichten-Links des 29./30. Juni 2018

Videocardz notieren die nVidia-Einladung der Fachpresse zur Gamescom (21.-25. August 2018 in Köln) – offiziell, um die neuesten PC-Spiele vorzuführen, aber das muß natürlich nicht alles sein. Schon kürzlich wurde die Gamescom als möglicher Ankündigungs- oder Vorstellungstermin der GeForce GTX 1180 vermutet, an dieser These ist nach wie vor nichts verkehrt – gerade, da jener Termin ja nicht mit einem echten Launch zu tun haben muß, es könnte sich rein nur um die ersten richtigen Turing-Teaser handeln. Jener eigentliche Launch gerät nun allerdings in Gefahr, wirklich auf das vierte Quartal verschoben zu werden, denn laut der DigiTimes sollen die Läger voll an Pascal-Grafikchips sein, welche nach dem Ende des Mining-Booms nicht mehr verkauft wurden sind. Inzwischen hat man auch die Stückzahlen deutlich nach oben korrigiert: Während man zuletzt von 300.000 überzähligen Grafikchips berichtete, sollen es nun inzwischen mehrere Millionen Grafikchips sein, welche in den Lägern verstauben. Dies würde die Sachlage entscheidend ändern und die von den Industriequellen der DigiTimes erwartete Launch-Verschiebung der Turing-Generation auf das vierte Quartal eher wahrscheinlich machen. Die DigiTimes erwähnt auch erstmals den bislang nur in Foren vermuteten Mix der Turing-Generation aus 12nm- und 7nm-Grafikchips – wobei letztere wahrscheinlich nur bei den erst im Jahr 2019 zu erwartenden LowCost- und Mainstream-Lösungen zum Einsatz kommen dürften.

Chip Marktsegment Terminlage Technik Grafikkarten
GT104 HighEnd August bis Oktober 2018 12nm, 256 Bit GDDR6-Interface, max. 8 GB GeForce GTX 1170 & 1180
GT106 Midrange Ende 2018 bis Frühjahr 2019 ? GeForce GTX 1160
GT102 Enthusiast Ende 2018 bis Frühjahr 2019 12nm, 676mm², ~84-96 Shader-Cluster, 384 Bit GDDR6-Interface, max. 12 GB GeForce GTX 1180 Ti & Titan XT
GT107 Mainstream Frühling/Sommer 2019 7nm oder 12nm GeForce GTX 1150 & 1150 Ti
GT108 LowCost Frühling/Sommer 2019 7nm oder 12nm GeForce GT 1130
Die Angaben dieser Tabelle sind mehrheitlich spekulativ und damit derzeit ungesichert.

Mit der kürzlich halb-offiziell seitens Lenovo genannten GeForce GTX 1180 erübrigt sich im übrigen auch die teilweise geäußerte (durchaus verführerische) These, wonach nVidia Turing eventuell rein nur als Enthusiasten-Lösung auf Basis des kürzlich gezeigten GT102-Entwicklerboards erscheinen könnte. nVidia würde in diesem Gedankenmodell auf die Pascal-Generation nur eine GeForce GTX 1180 Ti und eventuell eine "Titan XT" oben drauf setzen, die Pascal-Grafikkarten eventuell etwas im Preis senken, aber dennoch weiterhin behalten (eventuell auch mit dem einen oder anderen Refresh-Modell). Die Turing-Generation würde in diesem Gedankenmodell allein aus dem Enthusiasten-Chip GT102 bestehen, ohne das es weitere Chips für andere Marktsegmente gäbe. Hintergrund des ganzen wäre, das Turing eventuell nur kurzzeitig Bestand hat und dann im Jahr 2019 relativ schnell durch eine 7nm-basierte Grafikkarten-Generation abgelöst werden würde. Selbige 7nm-Generation könnte sogar genauso Turing-basiert sein, würde aber natürlich durch die Vorteile der 7nm-Fertigung die vorherigen Grafikkarten spielend überbieten. So wie es derzeit aussieht, kommt es allerdings nicht zu dieser These und besteht die Turing-Generation nach derzeitigem Wissen bereits aus den Grafikchips GT104 (HighEnd, GeForce GTX 1170 & 1180) sowie GT102 (Enthusiast, GeForce GTX 1180 Ti & Titan XT) – mit zudem der Halbinformation im Hintergrund, das höchstwahrscheinlich noch weitere Turing-Grafikchips folgen werden.

Die PC Games Hardware berichtet über die AMD-Forschung an der nächsten Interposer-Generation – hierbei soll es dann aktive Interposer geben. Dabei wird die Router-Logik von den eigentlichen Prozessoren auf den Interposer ausgelagert, womit die zur Verfügung stehenden Bandbreite besser und ohne "Staus" zu regulieren ist. Zugleich ermöglichen aktive Interposer auch die Kombination verschiedener Prozessoren auf diesen Interposern – bisher muß der jeweilige Prozessor auf den jeweiligen Interposer sowie alle anderen dort sitzenden Chips vorbereitet sein, ist der Interposer mehr nur wie ein besseres Trägermaterial. Dies ist eine interessante Ausgangslage, wird damit doch perspektivisch die Zerteilung von Chips in Haupt- und Nebenchips (mit jeweils differierenden Aufgaben) ermöglicht. Als einfachstes Beispiel könnte man ein Prozessoren-Die mit integriertem Mainboard-Chipsatz mit weiteren Prozessoren-Dies ohne Mainboard-Chipsatz und PCI-Express-Interface paaren – aber natürlich könnte man dann auch weitere Zusatzchips dranpappen. Bislang funktioniert der MultiChip-Ansatz nur in dieser Form, als das alle verbauten Chips identisch sind – was bei höherer Anzahl automatisch auf unnützte Chipteile hinausläuft, welche zumeist im Noncore-Bereich (Chipsatz, Interface, Grafik- und Videoeinheit) liegen.

Ganz perspektivisch ist dies auch für MultiChip-Grafiklösungen interessant, denn diese dürften erst dann richtig effizient werden können, wenn man hierbei eben unterschiedlich aufgebaute Chips paart. Allerdings ist AMDs Forschungsarbeit davon noch weit entfernt und ist zuerst einmal auch auf Prozessoren ausgerichtet – und eben nicht auf Grafikchips. Zudem geht der Forschungszweck derzeit auch eher in Richtung einer höheren Wirtschaftlichkeit bei der Chipfertigung: Die durch das MultiChip-Konzept ermöglichten kleineren Chips sind einfach günstiger (mit höherer Fertigungsausbeute) herzustellen als in einem monolithischen Ansatz (alle CPU-Kerne in einem Chip). Die hierbei genannten Vorteile sind allerdings im eigentlich zu gering, als das man deswegen von einem existierenden monolithischen Konzept her unbedingt umsteigen müsste. Selbst AMD dürfte bei seinen Ryzen-Prozessoren zukünftig womöglich wieder zu mehreren Prozessoren-Dies pro Generation zurückkehren – ab einer gewissen Stückzahl ist der monolithische Ansatz einfach zielgerichteter. Den wirklichen Durchbruch für MultiChip-Konzepte wird es daher vermutlich erst dann geben, wenn die explodierenden Kosten zukünftiger Halbleiter-Fertigungsverfahren regelrecht dazu zwingen.

Zu exakt diesem Stichwort liefern Semiconductor Engineering beunruhigende Nachrichten: Unter der (allerdings erst im Zeitrahmen 2025-2030 zu erwartenden) 3nm-Fertigung sind (angeblich) Chip-Designkosten von bis zu einer Milliarde Dollar (pro Chipdesign) zu erwarten. Jene Summe dürfte natürlich nur auf größere Chipprojekte zutreffen – und wenn Chips im Sinne einer ganzen Chip-Serie entwickelt werden, dürfte sich dies auch noch besser verteilen lassen. Andererseits ist die genannte Kostensumme auch nicht wirklich überraschend, schon für die 20/22nm-Fertigung wurden seinerzeit Designkosten von 120-500 Mio. Dollar vorhergesagt. Egal der konkreten Summen ist hier in jedem Fall eine exponentielle Kostensteigerung seit spätetens der 14/16nm-Fertigung zu sehen – welche langfristig unmöglich gutgehen kann. Selbst wenn die 3nm-Fertigung auf dieser Preislage also noch realisiert wird, dürften nur noch die wichtigsten und gewinnträchtigsten Produkte auf dieses Fertigungsverfahren setzen. Bislang werden ja noch alle wirklich nach Leistung gierenden Chips auf den jeweils neuesten Fertigungsverfahren aufgelegt – aber diese Vorgehensweise dürfte sich ihrem Ende zuneigen.

Gut möglich, das schon in absehbarer Zeit die Smartphone-SoCs als erstes bei diesem Rennen aussteigen – mit noch mehr Performance kann man die Smartphone-Käufer derzeit sowieso nicht mehr begeistern, dagegen geht es in diesem stückzahlentechnisch eher schon gesättigten Markt klar in Richtung eines primär vom Preis getriebenen Wettbewerbs. Allein dieser Schritt würde den Markt der Auftragsfertiger gehörig umkrempeln, denn ohne diese enormen Einnahmen hätten TSMC und Samsung niemals derart fix zur einstmals klar führenden Halbleiterfertigung von Intel aufschließen können. Ein späterer Kandidat für den Verzicht auf die jeweils neueste Fertigungstechnologie könnten kleinere PC-Prozessoren sein – nicht die Spitzenmodelle, aber die LowCost- und Mainstream-Modelle. Hier sind die Abgabepreise meist recht knapp bemessen, ergo könnten irgendwann wirtschaftliche Zwänge zu dieser Entscheidung führen. Sichere Kandidaten für die weitere Benutzung der jeweils besten Fertigungstechnologie sind dagegen Server-Prozessoren (hohe Gewinnmarge) sowie Grafikchips (ohne neue Fertigung keine Fortschritt). Die interessante Frage hierzu lautet dann allerdings, ob diese Teilbereiche alleine überhaupt für ausreichend Einnahmen sorgen können, um die immer höher werdenden Entwicklungs- und Designkosten neuer Fertigungsverfahren zu finanzieren.