27

Halbleiterfertigung nach dem 10nm-Prozeß ab dem Jahr 2021 ohne weiteren Fortschritte?

Der Halbleiterhersteller-Industrieverband SIA hat eine neue, sehr umfangreiche Halbleiter-Roadmap (ITRS 2.0) vorgestellt, welche alle möglichen zukünftigen Entwicklungen rund um die Halbleiterfertigung vorzusagen versucht. Eine gewisse Kernaussage ist dabei, das man schon ab dem Jahr 2021 und noch innerhalb der 10nm-Fertigung einen Technologie-Stillstand sieht, da zwar noch kleinere Fertigungstechnologien in Form von 7nm und 5nm in Vorbereitung sind, jene aber in den meisten Anwendungsfällen keinen Kostenvorteil mehr bieten würden. Diese Vorhersage bezieht sich also nicht auf die reinen technische Möglichkeiten, sondern vielmehr auf die Wirtschaftlichkeit der verschiedenen Fertigungsverfahren. Beachtbar ist in diesem Zusammenhang auch, das selbst die 10nm-Fertigung – zu welcher hier und da schon erste TapeOuts vermeldet werden – erst im Jahr 2021 jenen Punkt erreicht haben soll, an welchem dieses Fertigungsverfahren für die meisten Anwendungsfälle wirtschaftlicher ist als vorherige Fertigungsverfahren.

Bezogen auf Prozessoren & Grafikchips muß allerdings gesagt werden, das diese Chips in der Breite dessen, was die Halbleiter-Fertigung insgesamt herausbringt, genau eben die Ausnahmen darstellen. Wirtschaftlichkeit ist auch bei diesen immer ein Punkt – aber oftmals geht es zuerst um die Grenzen des technisch möglichen, was nur durch neue Fertigungsverfahren ausgelotet werden kann. Wenn AMD und nVidia nochmals neue Enthusiasten-Chips herausbringen wollen oder Intel neue Vielkern-Serverchips bzw. GPGPU-Beschleuniger, dann geht dies eben nur über kleinere Fertigungsverfahren, egal der dabei entstehenden Kosten. Nur wenn die Kostenlage derart explodiert, das keine marktfähigen Preise mehr machbar sind, würde bei diesen "Super-Chips" nahe der Machbarkeits-Grenze von ~700mm² Chipfläche die Nutzung neuer Fertigungsverfahren keinen Sinn ergeben. Derzeit gehen neue Fertigungsverfahren zwar mit steigenden Kosten einher, der Kostensprung ist aber noch nicht derart hoch, das dies nicht über höhere Preise wieder ausgleichbar wäre – zudem normalisiert sich der Kostensprung auch mit der Zeit wieder etwas.

Eine etwas andere Betrachtungsweise kann man hingegen bei jenen Prozessoren & Grafikchips anbringen, welche noch ausreichend weit weg von dieser Machbarkeits-Grenze bei ~700mm² Chipfläche liegen – sagen wir, heutigen Intel-Prozessoren von 90-140mm² Chipfläche oder den aktuellen Midrange-Grafikchips AMD Polaris 10 (232mm²) und nVidia GP106 (200mm²). Wenn deren Nachfolgeprodukte dann eines Tages in einem neuen Fertigungsverfahren mehr als das Doppelte kosten als die jeweiligen "Altchips" – dann könnte man auch einfach beim alten Fertigungsverfahren bleiben und die gleiche Performance nur über entsprechend größere Chips aufbieten. Diese These hat ihre gewissen Schwächen bei der Frage der Leistungsaufnahme, nicht alles ist also über diesen Weg zu realisieren. Dennoch könnte es eines Tages zu einer Zukunft kommen, wo die CPU- und GPU-Entwickler nur noch die jeweiligen Spitzenmodelle in einer neuen Fertigung auflegen, große Teile des restlichen Portfolios aber bei der jeweils alten Fertigung bleibt, weil dies trotz damit ungewöhnlich groß werdenden Midrange-Chips wirtschaftlicher ist.

Dabei sind gerade AMD, Intel und nVidia diesbezüglich in einer besonders prekären Lage, weil deren Chips in aller Regel nur ca. zwei Jahre gefertigt werden – eine zu kurze Zeitspanne, um darauf zu warten, das ein neues, teures Fertigungsverfahren wirklich ausoptimiert und dann eines Tages doch noch wirtschaftlich wird. Ein (hypothetisches) Beispiel für diesen Fall, wo also nur noch Spitzenchips in einer neuen Fertigung daherkommen, bietet sich im übrigen schon bei nVidias Volta-Generation an: Will man bei nVidia die einstmals zu Volta prognostizierten großen Verbesserungen wirklich realisieren, muß der GV100-Chip zwingend unter der 10nm-Fertigung daherkommen, da die 16nm-Fertigung angesichts der schon 610mm² großen Chipfläche des GP100-Chip dafür keinen echten Spielraum mehr hat. Die anfangs schwache Wirtschaftlichkeit der 10nm-Fertigung kann nVidia gut über die satten Preise abfangen, die für Tesla-Produkte bezahlt werden. Für das weitere Portfolio der "GeForce 1100" Serie könnte man dann jedoch zu 16nm-Chips tendieren, ob nun in Form von neuen GV10x-Chips oder der Weiterverwendung der bekannten Pascal-Grafikchips zu günstigeren Preislagen – einfach weil jene bei gleicher Performance günstiger herzustellen sind als ein Äquivalent unter der 10nm-Fertigung, trotz der deutlich kleinerer Chipfläche der 10nm-Chips wohlgemerkt.

Ob es dazu kommt, das die CPU- und GPU-Entwickler ihre Portfolios derart mischen, bliebe natürlich abzuwarten – bislang gibt es dafür keine Beispiele und selbst Intels (angebliche) Roadmap-Änderung geht schließlich eher in die andere Richtung, das die kleinsten Chips in der neuen Fertigung kommen und die größten in der alten Fertigung verbleiben. Die exakten Wirtschaftlichkeits-Zahlen zukünftiger Prozessoren und Grafikchips lassen sich sowieso nicht vorhersagen – man kann allerhöchstens die Tendenzen aufzeigen, welche gewisse Entwicklungen und Entscheidungen seitens der Hersteller wahrscheinlicher oder unwahrscheinlicher machen. Die konkrete Entscheidung hängt dann aber immer an den exakten Zahlen – welche wir wiederum (wenn überhaupt) erst erfahren, wenn das darauf basierende Endkundenprodukt bereits im Markt steht und die Entscheidung zugunsten des einen oder anderen Fertigungsverfahrens dann auch schon wieder Monate oder gar Jahre zurückliegt. Die CPU- und GPU-Entwickler werden sich wie alle anderen Halbleiter-Entwickler diesen Tendenzen zu stellen haben, spruchreif ist diesbezüglich jedoch noch nichts.

Nachtrag vom 31. Juli 2016

Eine Foren-Diskussion dreht sich um die kürzliche Meldung zur (prognostiziert) kommenden Stagnation der Halbleiterfertigung: Zuerst wäre zu dieser Meldung noch anzumerken, das sich die dort genannten Fertigungsgrößen wie eben die 10nm-Fertigung tatsächlich auf die Marketing-Größen der Halbleiterhersteller beziehen – und nicht auf die physikalisch tatsächlich erreichten Strukturgrößen (die üblicherweise größer sind). Laut Vorhersage des Halbleiterhersteller-Industrieverbands SIA soll also tatsächlich für die meisten Anwendungen bei der (offiziell so benannten) 10nm-Fertigung Schluß sein. Das dafür erst das Jahr 2021 angegeben wurde, obwohl erste 10nm-Chips schon dieses Jahr erscheinen werden, spielt mit dem Aufhänger der Wirtschaftlichkeit zusammen: Wohl erst zu diesem späten Zeitpunkt wird die Halbleiterfertigung auch für Wald-und-Wiesen-Standardchips auf die 10nm-Fertigung umgeschwenkt sein – so wie derzeit die 28nm-Fertigung noch die große Standardfertigung ist, obwohl auch schon vor mehr als vier Jahren vorgestellt. Für die üblicherweise am Rande des technologisch machbaren operierenden CPUs, APUs und GPUs von AMD, Intel und nVidia haben diese Vorhersagen also die wenigste Bewandtnis – diese Chipentwickler werden aber natürlich genauso von der schlechteren Wirtschaftlichkeit zukünftiger Fertigungsverfahren betroffen sein.

Ein Vorschlag aus unserem Forum geht dabei in Richtung von MultiDie-Chips – entweder mit mehreren Dies&Packages auf einer Platine (wie bei MultiChip-Grafikkarten) oder auch mit mehreren Dies unter einem Package (wie übertragenerweise bei AMDs Fiji-Chip, wo aber nur die Speicherchips mit auf dem Package sitzen). Damit wäre es möglich, schnellere Grafiklösungen zu bieten, ohne eine neue Fertigungstechnologie bemühen zu müssen – beispielsweise, sofern jene neue Fertigungstechnologie viel zu teuer für einen wirtschaftlichen Einsatz ist. Das Problem an diesem Modell liegt natürlich in der Leistungsaufnahme, denn zwei Chips in alter Fertigungstechnologie können (idealisiert) eine Performanceverdopplung erreichen, ergeben aber auch eine Strombedarfsverdopplung – ungünstig, wenn die alte Spitzenlösung auf Basis nur eines Grafikchips bereits bei 250 Watt Strombedarf steht. Als kurzfristige Zwischenlösung, um einen gewissen Zeitraum zu überbrücken, ist dies vielleicht denkbar – aber kaum dauerhaft anwendbar. Vor allem aber funktioniert diese Idee nur exakt einmal – beim zweiten Mal hätte man dann bereits vier Dies und damit 4x 250 Watt Strombedarf. MultiDie-Lösungen sind damit nicht generell verkehrt, taugen aber nur bedingt dazu, um eine neue Fertigungstechnologie zu ersetzen.