7

News des 6./7. Mai 2023

Von Twitterer TechEpiphany kommt wieder die Grafikkarten-Verkaufsstatistik der Mindfactory für die 18. Woche. Jene sieht erneut zurückgehende Verkaufszahlen, das gewisse Absatzhoch nach dem Launch der GeForce RTX 4070 hat sich also erledigt und vermutlich setzt ein Effekt ein, welcher zum einen den kommenden wärmeren Tagen als auch einer gewissen Abwartungshaltung bezüglich der zum Monatsende anstehenden neuen Grafikkarten Tribut zollt. Bei allgemein zurückgehenden Verkaufszahlen hat sich AMD wieder etwas größere Marktanteile erobern können, allerdings unter einem klar zurückgehenden Durchschnittspreis. Jener stieg bei nVidia sogar an, was auf einen größeren Anteil von Ada-Lovelace-Beschleunigern schließen läßt – zuungunsten der bisherigen Ampere-Beschleuniger, womöglich sogar wegen deren (aus heutiger Sicht) unzureichenden Speichermengen.

Grafikkarten-Verkäufe der Mindfactory im Jahr 2023
Absatz Absatz-Anteile Umsatz Umsatz-Anteile ASPs
3. Woche 2023 3940 Stück 42,3%   57,2%   0,5% 2,92M € 37,5%   62,3%   0,2% 656€   807€   270€
4. Woche 2023 3750 Stück 40,8%   58,4%   0,8% 2,83M € 34,5%   65,3%   0,2% 639€   845€   210€
6. Woche 2023 3955 Stück 43,6%   56,1%   0,3% 2,48M € 39,5%   60,3%   0,2% 568€   673€   354€
7. Woche 2023 3975 Stück 43,0%   56,2%   0,8% 2,88M € 35,6%   64,1%   0,3% 600€   825€   270€
8. Woche 2023 3285 Stück 42,3%   57,7%    0%  2,34M € 37,1%   62,9%    0%  624€   811€   ——
9. Woche 2023 4075 Stück 52,4%   47,6%    0%  2,86M € 47,9%   52,1%    0%  641€   766€   ——
11. Woche 2023 3810 Stück 55,4%   44,3%   0,3% 2,86M € 47,6%   52,3%   0,1% 645€   886€   282€
12. Woche 2023 3350 Stück 57,3%   42,1%   0,6% 2,40M € 48,9%   50,9%   0,2% 611€   867€   254€
13. Woche 2023 2375 Stück 61,9%   38,1%    0%  1,68M € 57,7%   42,3%    0%  658€   784€   ——
14. Woche 2023 2945 Stück 58,4%   40,6%   1,0% 2,00M € 49,9%   49,8%   0,3% 579€   833€   183€
15. Woche 2023 4510 Stück 59,0%   40,6%   0,4% 2,96M € 50,4%   49,4%   0,2% 559€   798€   289€
16. Woche 2023 4115 Stück 50,3%   49,2%   0,5% 2,95M € 43,5%   56,4%   0,1% 619€   821€   201€
17. Woche 2023 3390 Stück 48,4%   51,3%   0,3% 2,39M € 40,8%   59,1%   0,1% 595€   811€   284€
18. Woche 2023 3045 Stück 56,2%   43,2%   0,6% 2,05M € 45,3%   54,5%   0,2% 543€   850€   202€
alle Daten basierend auf den Erhebungen von @TechEpiphany auf Twitter; Wochenkonvention: Sonntag zu Samstag

Twitterer Kopite7kimi ist von seiner früheren Aussage zurückgetreten und somit wird nVidias "Blackwell" nun doch in der 3nm-Fertigung erscheinen. Die Benutzung einer früheren Fertigung wäre zwar nicht unmöglich gewesen, würde aber zu viele Probleme nach sich ziehen – gerade im HPC-Segment, wo man größere Leistungssprünge zwischen den Generationen gewohnt ist. Und natürlich ist das ganze mitnichten eine abschließende Aussage zu den Gaming-Grafikchips der zukünftigen RTX50-Serie, jene könnten durchaus doch noch eine andere Fertigung als eben TSMCs 3nm-Node benutzen. Bislang ist zu "Blackwell" mehr oder weniger nur ein entsprechender HPC-Chip ("GB100") sicher – ob unter diesem Codenamen dann auch Gaming-Chips erscheinen, bleibt noch eine klare Bestätigung abzuwarten.

I'm afraid it won't use 3nm.
Quelle:  Kopite7kimi @ Twitter am 10. April 2023
 
I was wrong.
Quelle:  Kopite7kimi @ Twitter am 6. Mai 2023

Stichwort "nVidia Blackwell": Hierzu gab es Mitte April mal Diskussionen über vermeintliche Leaks zur GB102-Technik, Aufhänger war hierbei insbesondere die angeblich 2,0-2,6fache Performance, ohne aber einer Ausweitung der Anzahl der Shader-Cluster. Normalerweise sollte dies ein No-Go sein, allerdings zeigt ein Post im 3DCenter-Forum, wie man auf eine ähnliche Rohleistungs-Steigerung allein mit einer (massiven) Umgestaltung der Shader-Einheiten kommen könnte. Das ganze ist natürlich als Hypothese formuliert und auch so anzusehen, derzeit weiss niemand, was nVidia bei seiner nächsten Gaming-Architektur an Änderungen einbaut. Jene Hypothese geht bei "Gaming-Blackwell" von einer weiteren FP32- sowie einer weiteren (exklusiven) INT32-Einheit pro Shader-Einheit aus, insgesamt gäbe es dann sogar 4 Recheneinheiten pro Shader-Einheit.

pro Shader-Einheit Turing Ampere Ada Blackwell
FP32-Einheiten 1 1 1 2
INT32-Einheiten 1 0 0 1
FP32/INT32-Einheiten 0 1 1 1
max. FP32/INT32-Durchsatz 1.36 2.00 2.00 4.00
Status Fakt Fakt Fakt Hypothese
gemäß der Ausführungen von 'basix' im 3DCenter-Forum

Damit ist nominell eine verdoppelte Rechenpower möglich, es lassen sich je nach Auslastung sogar Rechenmodelle finden, wo die FP32-Rechenkraft leicht besser als "nur" verdoppelt wegkommt. Für eine 2,6fache Performance reicht dies nicht ganz aus, aber mit kleineren Architektur-Verbesserungen an anderer Stelle und etwas mehr Takt könnte dies schon passend werden. Dies würde dann allerdings nur die synthetische Performance unter Mikro-Benchmarks betreffen, welche so etwas wie einen maximalen FP32- bzw. maximalen INT32-Durchsatz unter bestmöglicher Ausnutzung der Recheneinheiten und ohne TDP-Sorgen ermitteln können. Unter realen Spielen ist hingegen von einem sehr erheblichen Performance-Abschlag ausgehend von dieser (bis zu) 2,6fachen Performance-Vorhersage auszugehen, bei einem Boost der nominellen Rechenkraft auf das 2,6fache ist eher etwas in Richtung 1,5-1,8fache Real-Performance zu erwarten.

Das Grundproblem dieser Hypothese wurde dabei sogar noch ausgeklammert: Üblicherweise zieht eine derartige Verbreiterung der Shader-Einheiten und damit Shader-Cluster einen wesentlich höheren Aufwand nach sich, um alle diese Recheneinheiten dann auch mit Daten zu füttern und die Ergebnisse abnehmen zu können. Wegen des steigenden Verwaltungsaufwands der Shader-Cluster moderner Grafikchip-Architekturen sind eben jene Shader-Cluster im Laufe der letzten Dekade auch eher kleiner geworden bzw. geringer in der Anzahl an enthaltenen Shader-Einheiten. Damit erhöhte sich automatisch der Anteil an Verwaltungs-Logik pro Shader-Einheit bzw. haben einzelne Grafikchip-Architekturen jenen Anteil sogar noch bewußt nach oben getrieben. Wollte man die Shader-Cluster also (wie in dieser Hypothese) wieder mit mehr Shader-Einheiten ausrüsten, müsste die Verwaltungslogik dick mitwachsen, um eine halbwegs vernünftige Auslastung der Rechenwerke garantieren zu können.

Nur weil es in der letzten Dekade eher in die andere Richtung ging, ist dies allerdings kein undenkbarer Weg. Unter Umständen kostet es inzwischen zu viel an Silizium, einfach nur mehr Shader-Cluster zu verbauen bzw. führt deren pure Anzahl (inzwischen dreistellig bei Spitzenchips) auch wieder zu eigenen Auslastungs- und Verwaltungsproblemen. Die Lösungen der Vergangenheit müssen demzufolge mitnichten für die aktuelle Situation die besten sein – aber genau können dies nur die Chip-Entwickler sagen, jene sitzen vor den Simulations-Tools und haben zudem die exakten Kostenpunkte jeder Baugruppe im Hinterkopf. Mitzunehmen wäre hiermit nur, dass man letztlich auch über dickere Shader-Einheiten ein enormes Plus an Rechenleistung erzielen kann – es nicht zwingend allein nur über eine Steigerung der Anzahl der Shader-Cluster geht. Welchen Weg nVidia letztlich wählt, läßt sich damit (natürlich) nicht ermitteln, da kann man sich nur überraschen lassen.