6

News des 6. Juni 2022

Twitterer Kopite7kimi liefert eine neue Wasserstandsmeldung zur Entwicklung der GeForce RTX 4080 ab. Die Karte ist bei nVidia augenscheinlich noch nicht final (da dies nicht einmal auf die vorher erscheinende GeForce RTX 4090 zutrifft), somit kann es derzeit auch nur einen Zwischenstand geben, wie die Karte aussehen könnte. Genannt wird hierzu wieder das Referenz-Board "PG139-SKU360" – welches bis auf den Suffix das gleiche ist wie bei der GeForce RTX 4090 ("PG139-SKU330") und damit den Verdacht nährt, beide Grafikkarten würden Hardware-technisch recht nahe beieinander liegen. Die TDP wurde mit 420 Watt deutlich präziser als zuletzt angegeben, bisher gab es hierzu nur Vermutungen von in Richtung 400 Watt (der Twitterer benutzt im übrigen den Begriff "TGP", meint allerdings den vollen Grafikkarten-Stromverbrauch). Und letztlich geht der Twitterer weiterhin vom AD103-Chip als der Grundlage der GeForce RTX 4080 aus – was eine der wenigen konkreten Nennungen dieses Grafikchips darstellt.

Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
Quelle:  Kopite7kimi @ Twitter am 6. Juni 2022

Sicherlich war dies von Anfang an so prognostiziert worden, aber fehlenden Meldungen zu Tape-Out und Test-Phase zum AD103-Chip sowie das gleiche Grafikboard wie bei der GeForce RTX 4090 haben eben die Möglichkeit eines AD102-Unterbaus bei der GeForce RTX 4080 offengelassen. AD103-basiert sind dann maximal 84 Shader-Cluster sowie ein 256-Bit-Speicherinterface mit 16 GB VRAM drin – wovon nVidia wahrscheinlich nicht alle Shader-Cluster nutzen wird, 80-82 sind eine wahrscheinlichere Auflösung für die GeForce RTX 4080. Sofern der Stromverbrauchs-Wert von 420 Watt hierfür nicht völliger Nonsens ist, dürfte damit auch eine GeForce RTX 4090 auf nur 450 Watt außerhalb der Möglichkeiten liegen – und geht es bei dieser größeren Karte eher in Richtung der maximal genannten Werte. Ganz auf 600 Watt dürfte nVidia kaum gehen, da man eine Übertaktungs-Reserve benötigt, aber 500-550 Watt sind somit eine solide Schätzung für die GeForce RTX 4090. Jene größte Karte des Ada-Portfolios dürfte vermutlich etwas mit den Taktraten heruntergehen, um selbst diesen (hohen) Stromverbrauchs-Wert noch halten zu können.

GeForce RTX 4070 GeForce RTX 4080 GeForce RTX 4090
Chip-Basis nVidia AD104-400 nVidia AD103-? nVidia AD102-300
Raster-Engines 5 GPC 7 GPC vermtl. 11 GPC
Recheneinheiten 58-60 Shader-Cluster 80-84 Shader-Cluster 126 Shader-Cluster, 16'128 FP32 + 8064 INT32 (24'192 Recheneinheiten insgesamt)
ROPs vermtl. 160 vermtl. 224 vermtl. 352
Level2-Cache 48 MB 64 MB 96 MB
Speicherinterface 192 Bit GDDR6 256 Bit GDDR6X 384 Bit GDDR6X
Speicher 12 GB GDDR6 @ 18 Gbps 16 GB GDDR6X 24 GB GDDR6X @ 21 Gbps
Stromverbrauch ~300W TDP 420W TDP ca. 500-550W TDP
Performance-Level 3070→4070: ca. 1,6-2,0fache 3080→4080: ca. 1,6-2,0fache 3090→4090: ca. 1,9-2,5fache
Vorgänger GeForce RTX 3070: GA104, 6 GPC, 46 SM @ 256 Bit, 96 ROPs, 8 GB GDDR6, $499 GeForce RTX 3080: GA102, 6 GPC, 68 SM @ 320 Bit, 96 ROPs, 10 GB GDDR6X, $699 GeForce RTX 3090: GA102, 7 GPC, 82 SM @ 384 Bit, 112 ROPs, 24 GB GDDR6X, $1499
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen

VideoCardz berichten über (teilweise) interessant klingende Testresultate von Intel Arc Mobile-Grafiklösungen im 3DMark13-Benchmark mit fernöstlicher Quelle: So konnte eine "Arc A730M" mit 24 Xe-Kernen (Abspeckung des ACM-G10 mit physikalisch 32 Xe-Kernen) im TimeSpy-Test eine GeForce RTX 3070 Laptop überrunden und kam sogar an einige Resultate der GeForce RTX 3070 Ti Laptop (auf niedrigen TDP-Werten) heran. Eine andere "Arc A730M" lief im FireStrike-Test dann allerdings beachtbar schlechter, zwischen GeForce RTX 3060 Laptop und 3070 Laptop liegend. Normalerweise wäre dies trotzdem eine extra Betrachtung wert, denn wie gesagt handelt es sich bei dieser Mobile-Grafiklösung immerhin um eine klare Abspeckung des größeren Alchemist-Grafikchips. Allerdings lohnt diese extra Betrachtung so lange nicht, wie unklar bleibt, ob Intels Benchmark-Optimierungen speziell für den 3DMark immer noch in den benutzten Intel-Treibern aktiv sind. Als Intel nur iGPUs vermarktet hat, konnte man über diesen Punkt hinwegsehen – aber nun, wo es um ernsthafte Grafikchips geht, muß Intel diese Alt-Sünde bestätigerweise hinter sich bringen.

Heise & ComputerBase berichten über die Vorstellung von Apples M2 SoC. Dabei ist Apple nicht in die Vollen gegangen, sondern hat einen reinen Refresh des M1-SoCs hingelegt – sicherlich auch begründet auf dem Umstand, dass kein besseres Fertigungsverfahren spruchreif war (wie bisher wurde 5nm TSMC genutzt). Daher gibt es nur eine gewisse Ausweitung der GPU-Kerne von 8 auf 10 und ansonsten kleinere interne Verbesserungen. Damit will Apple in der Summe aber trotzdem +18% mehr CPU-Power und +35% mehr GPU-Power erzielen – und dies dann ganz ohne höhere Verbrauchswerte, eine wohltuende Abwechselung in der heutigen Zeit. Sicherlich hatten manche ein höheres Performance-Plus von Apple erwartet, aber auf diesem hohen Niveau ist jener Anspruch ohne deutlich besseres Fertigungsverfahren kaum zu realisieren. Abzuwarten bleibt zudem, inwiefern Apple die größeren M1-SoCs nun auch noch im M2-Stil neu auflegt.

Apple M1 Apple M2 Apple M1 Pro Apple M1 Max Apple M1 Ulltra
Chipfertigung 5nm TSMC 5nm TSMC 5nm TSMC 5nm TSMC 5nm TSMC
Chipgröße 120,5mm² ~145mm² ~245mm² ~429mm² 2x ~429mm²
Transistoren 16 Milliarden 20 Milliarden 33,7 Milliarden 57 Milliarden 114 Milliarden
CPU-Kerne 4 Performance + 4 Effizienz 4 Performance + 4 Effizienz 8 Performance + 2 Effizienz 8 Performance + 2 Effizienz 16 Performance + 4 Effizienz
GPU-Kerne 8  (2,6 TFlops) 10  (3,6 TFlops) 16  (5,2 TFlops) 32  (10,4 TFlops) 64  (20,8 TFlops)
Interface 128 Bit LPDDR4X/4266  (68 GB/s) 128 Bit LPDDR5/6400  (102 GB/s) 256 Bit LPDDR5/6400  (205 GB/s) 512 Bit LPDDR5/6400  (410 GB/s) 1024 Bit LPDDR5/6400  (820 GB/s)
Geekbench 5 1740 / 7590 ? ? 1749 / 11542 1793 / 24055
Anmerkungen: Angaben zur Chipfläche von M1 Pro/Max/Ultra gemäß Locuza @ Twitter, Geekbench-Werte von Notebookcheck & Geekbench

Daneben hat sich nach dem aufsehenerregenden Release der M1-SoCs inzwischen die Erkenntnis verbreitet, dass Apples technologischer Vorteil letztlich gar nichts für den allgemeinen PC-Markt bedeutet. Mittels seiner Technologie-Führerschaft – welche zum Teil natürlich über die Benutzung der jeweils neuesten Fertigungstechnologien als erster Kunde von Chipfertiger TSMC teuer erkauft ist – hat Apple letztlich AMD & Intel nie tatsächlich unter Druck gesetzt. Dafür sind die jeweiligen Märkte zu deutlich voneinander abgeteilt: Hier die PC/Windows-Welt, dort die Apple-Welt mit eigener Hardware und eigenem Betriebsssystem. Und auch wenn man teilweise auf die M1/M2-SoCs von Apple neidisch sein kann, die generellen Nachteile der Apple-Plattform in Fragen Preis, Software-Kompatibilität, Hardware-Auswahl und Aufrüstbarkeit wiegt das nur in seltenen Fällen auf. Demzufolge kann es AMD & Intel so ziemlich egal sein, was Apple da macht – man bedient im Endeffekt grundverschiedene Märkte, in welchen die Kunden auch nicht so einfach hin- und herwechseln können.