8

News des 8. April 2022

Twitterer & Leaker Kopite7kimi hat sich in den letzten Tagen in einigen indirekten und direkten Andeutungen über den Tape-Out des AD102-Chips ergangen. Spätetens die Umfrage nach der Transistoren-Menge zeigt dann darauf hin, dass hier etwas im Busch sein sollte. Dabei überrascht vielleicht, dass jener Tape-Out des AD102-Chips aus nVidias kommender "Ada"-Generation für die GeForce RTX 40 Serie nicht schon längst erfolgt ist, immerhin steht der Release kauffertiger Produkte bereits im September an. Allerdings wird nVidia zugeschrieben, die Validierungs- & Marktvorbereitung-Phase schneller als andere Chipentwickler über die Bühne bringen zu können, selbst für große Grafikchips teilweise nur ein halbes Jahr zwischen Tape-Out und Marktstart zu benötigen (ansonsten gilt für GPUs: drei bis fünf Quartale).

OK, something is going to come out of the roaster this month.
Quelle:  Kopite7kimi @ Twitter am 6. April 2022
 
Poll: How many xtors does AD102 have?
Quelle:  Kopite7kimi @ Twitter am 7. April 2022
 
AD102 is NOT a simple "GA112". When GH202 is cancelled, AD102 has integrated Hopper's new technology.
Never underrate your Jensen.

Quelle:  Kopite7kimi @ Twitter am 8. April 2022

Zugleich gilt einzurechnen, dass ein Tape-Out immer mindestens drei Termine hat: Die Anlieferung der Konstruktions-"Zeichnungen" beim Chipfertiger (regelkonform "Tape-Out" zu nennen, weil hiermit früher das finale "Tape" zum Chipfertiger gesandt wurde), die Rücklieferung erster fertiger Silizium-Chips (einige Wochen später) – und letztlich der Tag, an dem dies inoffiziellerweise bekannt wird. Dabei ist üblicherweise nur letzteres Datum sicher – sprich, zu welchem Zeitpunkt vorher das Tape-Out oder/und die erste Sample-Lieferung exakt stattfanden, bleibt meistens offen. Insofern könnte eine jetzige Tape-Out-Meldung zum AD102-Chip auch bedeuten, dass selbiger Tape-Out bereits schon gelaufen ist – nur dass dieser Umstand einfach etwas später bekannt wird. Sofern der Chipentwickler hierzu nichts offizielles sagt, wird zudem meistens erst das Datum erster Sample-Lieferungen vom Chiphersteller zum Chipentwickler bekannt, weil selbiges breiter auffällt als die Übermittlung hochgeheimer Chipdesign-Pläne.

Daneben gibt der letzte Tweet den Hinweis auf eine gewisse Plan-Änderung bei nVidia: So wurde der ursprünglich wohl als HPC/Gaming-Zwitter geplante GH202-Chip aus der "Hopper"-Generation gestrichen, welcher so etwas wie einen AD102-Refresh hätte geben sollen. Mittels jenem Chip wollte sich nVidia dem Ansturm von AMDs MCM-Kontrukten erwehren, ganz besonders wenn jene kräftiger als der AD102 ausfallen sollten. Dafür soll der AD102-Chip nunmehr einiges von der "Hopper"-Technologie mitbekommen haben – was das genau ist, bleibt abzuwarten. In jedem Fall hat dies das Potential, die Transistorenmenge des AD102-Chips (weiter) aufzublähen. Dass nVidia von dem ursprünglichen Plan mit dem GH202 als Refresh-Lösung abrückt, bedeutet dann wohl, dass nVidia den AD102 als ausreichend stark einschätzt, um auch mit "Navi 31" konkurrieren zu können. Gut denkbar, dass man eventuell bestehende Performance-Unterschiede schlicht mit (sehr) hohen Taktraten überbrückt – und genau daraus die zuletzt oft genannten hohen Wattzahlen bei GeForce RTX 4080 & 4090 resultieren.

VideoCardz berichten über einen ersten fernöstlichen Test einer Arc-Grafiklösung in einem Samsung-Notebook. Die dort verbaute "Arc A350M" ist nicht die schnellste Mobile-Lösung auf Basis des ACM-G11-Chips, womit die erreichte Performance etwas unterhalb einer (auf höherer TDP) laufenden GeForce GTX 1650 Laptop im groben Maßstab "normal" ist. Auf gleicher TDP wäre durchaus der Performance-Abstand zu überbrücken, zudem bietet der Vollausbau des zugrundeliegenden Intel-Grafikchips dann noch einige Reserven an: 8 anstatt 6 Xe-Cores, ein 96-Bit- anstatt eines 64-Bit-Speicherinterface. Damit besteht weiterhin die Chance, dass eine "Arc A380" für den Desktop-Bereich an die Performance einer GeForce GTX 1650 Super (FHD Perf.Index 610%) herankommt, damit die Radeon RX 6500 XT (FHD Perf.Index 580%) knapp schlägt.

Sehr viel mehr darf man allerdings auch nicht erwarten, dafür ist das hiermit gezeigte Performance-Bild bereits zu niedrig angesetzt. Sicherlich können insbesondere Mobile-Benchmarks etwas täuschen, weil hierzu weniger Erfahrungswerte als zu Desktop-Grafikkarten vorliegen. Dennoch geht die hiermit getätigte Hochrechnung schon durchgehend von zugunsten Intel laufender Annahmen aus, was also schwer durch die Realität zu toppen sein wird. Vermutlich das größere Problem der Arc-Grafiklösungen dürfte jedoch darin liegen, dass Intel seine Grafikkarten-Treiber noch nicht wirklich im Griff hat: Berichtet wird über Stotter-Effekte in PUBG, Grafikfehler in weiteren Spielen sowie generell nicht startenden Spieletiteln in Form von Forza Horizon 5 and COD Cold War. Letzteres darf natürlich überhaupt nicht passieren – und ist auch etwas verwunderlich, schließlich arbeitet Intel über seine iGPU-Grafiktreiber nicht erst seit diesem Jahr an Grafikkarten-Treibern.

Schon im März hatte sich die ComputerBase den Core i9-12900 ohne "K" angesehen – sprich das Prozessorenmodell mit der besten Technik der non-K-Modelle im Alder-Lake-Portfolio, aber eben regulär nur auf 65 Watt TDP laufend. Doch dessen PL2 reicht immerhin bis 202 Watt hinauf, was die Frage offenläßt, wie nahe dieser Prozessor dem K-Modell kommen kann – zum einen im regulären Betrieb unter Beachtung der PL1/PL2-Werte und zum anderen im Betrieb ohne Power-Limits. Wie üblich zeigen sich im Spiele-Einsatz nur arg schwache Differenzen zwischen den verschiedenen Stromverbrauchs-Modi, in dieser Disziplin kann man den Core i9-12900 ganz problemlos als günstigeren Ersatz eines Core i7-12700K oder Core i9-12900K heranziehen. Das Ausschalten der Power-Limits ist dabei (bei allen diesen Prozessoren) im Spiele-Einsatz unnötig, die damit erzielbare Performance-Differenz marginal.

Hardware Anwend. @ def/unlim Spiele @ def/unlim
Core i9-12900K ADL, 8C+8c/24T, 3.2/5.2 GHz, 241W, $589 141%   /     –         –     /   106%
Core i9-12900 ADL, 8C+8c/24T, 2.4/5.1 GHz, 65/202W, $489 100%   /   137% 100%   /   104%
Core i7-12700K ADL, 8C+4c/20T, 3.6/5.0 GHz, 190W, $409 119%   /   120%     –     /   100%
Core i5-12600K ADL, 6C+4c/16T, 3.7/4.9 GHz, 150W, $289 93%   /   94%     –     /   95% 
def/unlim = default/unlimitiert = "default" entspricht der PL1/PL2-Vorgabe bei non-K-Modellen sowie der vollen Pl2-Vorgabe bei K/KF-Modelle; "unlimitiert" bedeutet ohne jedes wirksame PL1/PL2-Limit; gemäß der Benchmarks der ComputerBase unter 8 Anwendungen und 9 Spielen

Die großen Unterschiede gibt es allein bei den Anwendungs-Benchmarks: Im default-Betrieb muß sich der Core i9-12900 dem Core i7-12700K recht deutlich geschlagen geben, kommt nur etwas besser als der Core i5-12600K heraus. Ohne TDP-Limit kommt der Core i9-12900 hingegen fast an die Performance eines auf 241 Watt laufenden Core i9-12900K heran (dessen vollkommen unlimitierte Performance dürfte bestenfalls einen Prozentpunkt besser liegen). So gesehen kann man den Core i9-12900 in diesem Powerlimit-losen Zustand durchaus als Spar-Variante zum Core i9-12900K benutzen, die Preisdifferenz beider Prozessoren liegt bei immerhin 100 Dollar (gemäß Listenpreis). Die kleine restliche Performance-Differenz basiert wahrscheinlich auf dem besseren Binning der K-Modelle sowie deren minimal höherer Spitzentaktraten. Für den Dauereinsatz wäre dann allerdings doch irgendein eingestelltes Power-Limit zweckmäßig – seien es 202 oder 241 Watt, was nur marginal an Performance kosten wird.