23

News des 23. Mai 2024

VideoCardz geben fernöstliche Gerüchte (seitens des bekannten Leakers "Panzerlied") wieder, nachdem die FE-Ausführung zur GeForce RTX 5090 tatsächlich für die Verwendung von 16 Speicherchips und damit die Nutzung des vollen 512-Bit-Interfaces des GB202-Chips vorbereitet werden soll. Gänzlich darauf verlassen, dass dies tatsächlich in dieser Form den Markt erreicht, sollte man sich allerdings nicht: Es könnte sich um ein Probier-Design für spätere Grafiklösungen handeln. Es könnte für nVidia auch einfach günstiger sein, dieses PCB bereits jetzt vollständig zu entwerfen, ohne aber die Möglichkeit zur höheren Speicherbestückung anfänglich zu nutzen. Sprich, die Karte könnte für 16 Speicherchips ausgerüstet sein, aber im finalen Produkt nur mit 12 Speicherchips bestückt sein. Die höhere Kapazität des Boards würde dann erst beim RTX50-Refresh voll genutzt werden.

Raster-Engines Shader-Cluster Speicherinterface max. Speicher Ada-Vorgänger SM vs Vorg.
GB202 angbl. 12 angbl. 192 angbl. 512 Bit 32 GB AD102: 12 GPC, 144 SM, 384 Bit, 24 GB GDDR6X +33%
GB203 angbl. 6 angbl. 96 angbl. 256 Bit 16 GB AD103: 7 GPC, 80 SM, 256 Bit, 16 GB GDDR6X +20%
GB205 whrschl. 4 whrschl. 64 angbl. 192 Bit 12 GB AD104: 5 GPC, 60 SM, 192 Bit, 12 GB GDDR6X +7%
GB206 whrschl. 3 möglw. 42 oder 48 whrschl. 128 Bit 8/16 GB AD106: 3 GPC, 36 SM, 128 Bit, 8 GB GDDR6 +17/33%
GB207 whrschl. 2 möglw. 28 oder 32 96 oder 128 Bit 6-16 GB AD107: 3 GPC, 24 SM, 128 Bit, 8 GB GDDR6 +17/33%
Hinweis: Angaben zu noch nicht offiziell vorgestellter Hardware basieren auf Gerüchten & Annahmen ... "max. Speicher" bezogen auf 2GByte-Chips

Dies sind denkbare Auflösungen – und genauso denkbar ist natürlich, dass nVidia die GeForce RTX 5090 wirklich gleich mit 32 GB Grafikkartenspeicher in den Markt schickt. Ein beachtbarer Schritt vorwärts bei den Speichermengen wird nVidia schließlich von der Nutzer-Gemeinde sehr wohl angeraten – wenngleich sich dies eher auf die mittleren nVidia-Lösungen beziehen dürfte. Leider sagen 32 GB VRAM bei der GeForce RTX 5090 wenig darüber aus, ob nVidia auch bei den anderen RTX50-Lösungen mit mehr Grafikkartenspeicher anrückt. nVidia könnte mit der GeForce RTX 5090 auch einfach nur versuchen, möglichst viel an gutem Eindruck zu schinden, welcher erfahrungsgemäß dann auf die kleineren RTX50-Modelle abfärbt. Bei der Ada-Lovelace-Generation hat dieses Prinzip mit der GeForce RTX 4090 sehr gut funktioniert, denn trotz vorhandener Chip-Daten und damit absehbarer Schwächen des restlichen Portfolios hat es einige Zeit gedauert, ehe dieser Marketing-Coup nVidia breit erkannt wurde.

Laut Twitterer AGF sollen nVidias Anstregungen bezüglich des KI-PCs angeblich in einem nVidia-eigenem SoC "BlackHawk" mit ARM-CPU samt Blackwell-Grafiklösung resultieren. Dies widerspricht etwas anderen Gerüchten, nVidia würde in dieser Frage mit Mediatek zusammenarbeiten (oder macht man beides gleichzeitig?), denn hiermit würde nVidia wiederum ein eigener CPU-Anbieter für PCs werden. Die derzeit in den Markt kommenden ARM-basierten PCs liefern hierfür die Pionierarbeit, an welche nVidia sich dann dranhängen würde. Denkbarerweise geht es nVidia dabei nicht nur um die CPU-Seite, sondern man will auch seine GPU-Lösungen mit ARM kompatibel machen. Bislang sind schließlich noch keine Qualcomm-basierten Notebooks mit dGPU aufgetaucht – was auch daran hängt, dass weder AMD noch nVidia entsprechende Treiber anbieten. Mittels des eigenen SoCs und/oder der kolportierten Zusammenarbeit mit Mediatek würde nVidia dieses Thema automatisch angehen müssen und wäre dann auch mittelfristig in der Lage, dGPUs für andere SoC-Anbieter mit ARM-Basis zu liefern.

nVidia is coming next year in the Windows ARM arena with new SoCs to compete with Qualcomm.
What I can say: TSMC N3P, Cortex X5 BlackHawk CPU cluster, Blackwell GPU and LPDDR6 on package. And MS is porting all Win11 AI stuff to NV HW.

Quelle:  AGF @ X am 23. Mai 2024
 
Intel 3nm
Quelle:  Kepler_L2 @ X am 23. Mai 2024

Twitterer Kepler_L2 hat hingegen in aktualisierter ROCm-Dokumentation einen Existenz-Nachweis für die RDNA4-Chips Navi 44 & 48 gefunden. Die dort notierten technischen Daten zeigen nur auf die grundsätzlichen Relationen zwischen den (nicht in der Höhe genannten) Hardware-Einheiten hin, deswegen sind die Angaben auch vollkommen identisch bei allen gelisteten Grafikchips. Zumindest kann man hieraus die Bestätigung mitnehmen, dass die Gerüchteküche bislang Recht behalten hat, sprich dass die einstmals geplanten HighEnd-Chips Navi 41 & 42 zugunsten des Navi-48-Chips nicht mehr realisiert werden (ansonsten würde dort zuerst auftauchen). Die letzten Hardware-Gerüchte zu Navi 44 & 48 beschreiben jene als rein monolithische Grafikchips mit 32 Shader-Cluster an einem 128-Bit-Interface bzw. 64 Shader-Cluster an einem 256-Bit-Interface. Damit ist ein Performance-Level bestenfalls wie bei der Radeon RX 7900 XT möglich, allenfalls das mittels RDNA4 technisch verbesserte RayTracing sollte schneller laufen.

Navi 33 Navi 44 Navi 32 Navi 48
Fertigung TSMC N6 TSMC N4P TSMC N5 (GCD) + N6 (MCDs) TSMC N4P
Chipfläche 204mm² ~130mm² 348mm² ~240mm²
Architektur RDNA3 RDNA4 RDNA3 RDNA4
Raster-Engines (SE) 2 2 3 4
Shader-Cluster (CU) 32 32 60 64
Chiptakt (real) 2.7 GHz (7600XT) ? 2.4 GHz (7800XT) angbl. 3.0 GHz
FP32-Rechenleistung 22 TFlops ? 37 TFlops angbl. 50 TFlops
Infinity Cache 32 MB 32 MB 64 MB 64 MB
Speicherinterface 128 Bit GDDR6 128 Bit GDDR6 256 Bit GDDR6 256 Bit GDDR6
PCI Express PCIe 4.0 x8 whrschl. PCIe 4.0 x8 PCIe 4.0 x16 PCIe 4.0 x16
Hinweis: Angaben zu noch nicht offiziell vorgestellter Hardware basieren auf Gerüchten & Annahmen

Bezüglich des kürzlich notierten Blender-Werts zu "Strix Point" gab es auch andere Stimmen, welche das gezeigte Ergebnis nicht wirklich positiv einschätzen – u.a. bei Fudzilla. Hierbei verweist man auf die (besseren) Ergebnisse von Intel-Prozessoren, so des Core i7-12700F als auch des Core i7-13850HX. Ob der Vergleich fair ist, darf allerdings bezweifelt werden, beide Intel-Prozessoren genehmigen sich deutlich mehr TDP als bei AMD im Mobile-Segment üblich. Sicherlich ist die TDP-Skalierung dieser Ergebnisse sowieso nicht besonders hoch, dies könnte allerdings auch an der Kürze der Aufgabe liegen, welche vielleicht noch im (zeitlich beschränkten) PL2 der Intel-Prozessoren abläuft. Wirkliche Mobile-Prozessoren von Intel zeigen jedenfalls ausreichend niedrigere Werte, so bei Core i7-13800H oder Core Ultra 9 185H. Deren PL2 ist zudem auch noch weit über dem, was AMD üblicherweise seinen Mobile-Prozessoren an Saft mitgibt.

Hardware TDP/PPT Blender
Ryzen 9 7900 Zen 4, 12C/24T 65/88W 371,08
Core i7-13850HX RPL, 8P+12E/28T nominell 55W/157W 278,26
Core i7-12700F ADL, 8P+4E/20T 65/180W 274,51
Strix Point (ES) Zen 5, 4C+8D/24T ? 270,92
Ryzen 7 7700 Zen 4, 8C/16T 65/88W 259,34
Ryzen 9 8945HS Zen 4, 8C/16T nominell 45W 220,53
Core i7-13800H RPL, 6C+8c/20T nominell 45/115W 195,23
Core Ultra 9 185H MTL, 6P+8E+2LP/22T nominell 45/115W 184,48
Benchmark-Werte gemäß der Blender Benchmark-Datenbank

Der nächste gute Einwand gegenüber Microsofts Copilot+ kommt von Golem – und dreht sich mitnichten um die Sicherheits-Abspekte, sondern darüber, wer wirklich die Kontrolle über die "lokale" KI hat. Dies dürfte nämlich weiterhin Microsoft sein, denn alles was der Benutzer mit der KI anfängt, muß im Rahmen von Microsofts Nutzungsbedingungen stattfinden – und wird auch durch Microsoft dahingehend geprüft. Inwiefern dies auch auf lokale Suchanfragen mittels Recall zutrifft, ist unsicher, doch zumindest die lokale Bildbearbeitungs- und Bildkreierungs-Funktionen prüft jede Anforderung des Nutzers mit der Microsoft-Cloud ab. Dies wird dort selbstverständlich über eine KI realisiert, mit der damit einhergehenden Quote an haarsträubenden Fehleinschätzungen. Der Nutzer geht hiermit also das verstärkte Risiko ein, seinen Microsoft-Account samt Zugriff auf seinen PC zu verlieren, wenn Microsofts Überprüfungs-KI irgendetwas nicht in den Kram passen sollte (sofern Copilot+ einen Microsoft-Account voraussetzt, was allerdings naheliegend ist).