Twitterer Kopite7kimi liefert eine neue Wasserstandsmeldung zur Entwicklung der GeForce RTX 4080 ab. Die Karte ist bei nVidia augenscheinlich noch nicht final (da dies nicht einmal auf die vorher erscheinende GeForce RTX 4090 zutrifft), somit kann es derzeit auch nur einen Zwischenstand geben, wie die Karte aussehen könnte. Genannt wird hierzu wieder das Referenz-Board "PG139-SKU360" – welches bis auf den Suffix das gleiche ist wie bei der GeForce RTX 4090 ("PG139-SKU330") und damit den Verdacht nährt, beide Grafikkarten würden Hardware-technisch recht nahe beieinander liegen. Die TDP wurde mit 420 Watt deutlich präziser als zuletzt angegeben, bisher gab es hierzu nur Vermutungen von in Richtung 400 Watt (der Twitterer benutzt im übrigen den Begriff "TGP", meint allerdings den vollen Grafikkarten-Stromverbrauch). Und letztlich geht der Twitterer weiterhin vom AD103-Chip als der Grundlage der GeForce RTX 4080 aus – was eine der wenigen konkreten Nennungen dieses Grafikchips darstellt.
Possible RTX 4080, PG139-SKU360, has a 420W TGP, still uses AD103.
Quelle: Kopite7kimi @ Twitter am 6. Juni 2022
Sicherlich war dies von Anfang an so prognostiziert worden, aber fehlenden Meldungen zu Tape-Out und Test-Phase zum AD103-Chip sowie das gleiche Grafikboard wie bei der GeForce RTX 4090 haben eben die Möglichkeit eines AD102-Unterbaus bei der GeForce RTX 4080 offengelassen. AD103-basiert sind dann maximal 84 Shader-Cluster sowie ein 256-Bit-Speicherinterface mit 16 GB VRAM drin – wovon nVidia wahrscheinlich nicht alle Shader-Cluster nutzen wird, 80-82 sind eine wahrscheinlichere Auflösung für die GeForce RTX 4080. Sofern der Stromverbrauchs-Wert von 420 Watt hierfür nicht völliger Nonsens ist, dürfte damit auch eine GeForce RTX 4090 auf nur 450 Watt außerhalb der Möglichkeiten liegen – und geht es bei dieser größeren Karte eher in Richtung der maximal genannten Werte. Ganz auf 600 Watt dürfte nVidia kaum gehen, da man eine Übertaktungs-Reserve benötigt, aber 500-550 Watt sind somit eine solide Schätzung für die GeForce RTX 4090. Jene größte Karte des Ada-Portfolios dürfte vermutlich etwas mit den Taktraten heruntergehen, um selbst diesen (hohen) Stromverbrauchs-Wert noch halten zu können.
GeForce RTX 4070 | GeForce RTX 4080 | GeForce RTX 4090 | |
---|---|---|---|
Chip-Basis | nVidia AD104-400 | nVidia AD103-? | nVidia AD102-300 |
Raster-Engines | 5 GPC | 7 GPC | vermtl. 11 GPC |
Recheneinheiten | 58-60 Shader-Cluster | 80-84 Shader-Cluster | 126 Shader-Cluster, 16'128 FP32 + 8064 INT32 (24'192 Recheneinheiten insgesamt) |
ROPs | vermtl. 160 | vermtl. 224 | vermtl. 352 |
Level2-Cache | 48 MB | 64 MB | 96 MB |
Speicherinterface | 192 Bit GDDR6 | 256 Bit GDDR6X | 384 Bit GDDR6X |
Speicher | 12 GB GDDR6 @ 18 Gbps | 16 GB GDDR6X | 24 GB GDDR6X @ 21 Gbps |
Stromverbrauch | ~300W TDP | 420W TDP | ca. 500-550W TDP |
Performance-Level | 3070→4070: ca. 1,6-2,0fache | 3080→4080: ca. 1,6-2,0fache | 3090→4090: ca. 1,9-2,5fache |
Vorgänger | GeForce RTX 3070: GA104, 6 GPC, 46 SM @ 256 Bit, 96 ROPs, 8 GB GDDR6, $499 | GeForce RTX 3080: GA102, 6 GPC, 68 SM @ 320 Bit, 96 ROPs, 10 GB GDDR6X, $699 | GeForce RTX 3090: GA102, 7 GPC, 82 SM @ 384 Bit, 112 ROPs, 24 GB GDDR6X, $1499 |
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen |
VideoCardz berichten über (teilweise) interessant klingende Testresultate von Intel Arc Mobile-Grafiklösungen im 3DMark13-Benchmark mit fernöstlicher Quelle: So konnte eine "Arc A730M" mit 24 Xe-Kernen (Abspeckung des ACM-G10 mit physikalisch 32 Xe-Kernen) im TimeSpy-Test eine GeForce RTX 3070 Laptop überrunden und kam sogar an einige Resultate der GeForce RTX 3070 Ti Laptop (auf niedrigen TDP-Werten) heran. Eine andere "Arc A730M" lief im FireStrike-Test dann allerdings beachtbar schlechter, zwischen GeForce RTX 3060 Laptop und 3070 Laptop liegend. Normalerweise wäre dies trotzdem eine extra Betrachtung wert, denn wie gesagt handelt es sich bei dieser Mobile-Grafiklösung immerhin um eine klare Abspeckung des größeren Alchemist-Grafikchips. Allerdings lohnt diese extra Betrachtung so lange nicht, wie unklar bleibt, ob Intels Benchmark-Optimierungen speziell für den 3DMark immer noch in den benutzten Intel-Treibern aktiv sind. Als Intel nur iGPUs vermarktet hat, konnte man über diesen Punkt hinwegsehen – aber nun, wo es um ernsthafte Grafikchips geht, muß Intel diese Alt-Sünde bestätigerweise hinter sich bringen.
Heise & ComputerBase berichten über die Vorstellung von Apples M2 SoC. Dabei ist Apple nicht in die Vollen gegangen, sondern hat einen reinen Refresh des M1-SoCs hingelegt – sicherlich auch begründet auf dem Umstand, dass kein besseres Fertigungsverfahren spruchreif war (wie bisher wurde 5nm TSMC genutzt). Daher gibt es nur eine gewisse Ausweitung der GPU-Kerne von 8 auf 10 und ansonsten kleinere interne Verbesserungen. Damit will Apple in der Summe aber trotzdem +18% mehr CPU-Power und +35% mehr GPU-Power erzielen – und dies dann ganz ohne höhere Verbrauchswerte, eine wohltuende Abwechselung in der heutigen Zeit. Sicherlich hatten manche ein höheres Performance-Plus von Apple erwartet, aber auf diesem hohen Niveau ist jener Anspruch ohne deutlich besseres Fertigungsverfahren kaum zu realisieren. Abzuwarten bleibt zudem, inwiefern Apple die größeren M1-SoCs nun auch noch im M2-Stil neu auflegt.
Apple M1 | Apple M2 | Apple M1 Pro | Apple M1 Max | Apple M1 Ulltra | |
---|---|---|---|---|---|
Chipfertigung | 5nm TSMC | 5nm TSMC | 5nm TSMC | 5nm TSMC | 5nm TSMC |
Chipgröße | 120,5mm² | ~145mm² | ~245mm² | ~429mm² | 2x ~429mm² |
Transistoren | 16 Milliarden | 20 Milliarden | 33,7 Milliarden | 57 Milliarden | 114 Milliarden |
CPU-Kerne | 4 Performance + 4 Effizienz | 4 Performance + 4 Effizienz | 8 Performance + 2 Effizienz | 8 Performance + 2 Effizienz | 16 Performance + 4 Effizienz |
GPU-Kerne | 8 (2,6 TFlops) | 10 (3,6 TFlops) | 16 (5,2 TFlops) | 32 (10,4 TFlops) | 64 (20,8 TFlops) |
Interface | 128 Bit LPDDR4X/4266 (68 GB/s) | 128 Bit LPDDR5/6400 (102 GB/s) | 256 Bit LPDDR5/6400 (205 GB/s) | 512 Bit LPDDR5/6400 (410 GB/s) | 1024 Bit LPDDR5/6400 (820 GB/s) |
Geekbench 5 | 1740 / 7590 | ? | ? | 1749 / 11542 | 1793 / 24055 |
Anmerkungen: Angaben zur Chipfläche von M1 Pro/Max/Ultra gemäß Locuza @ Twitter, Geekbench-Werte von Notebookcheck & Geekbench |
Daneben hat sich nach dem aufsehenerregenden Release der M1-SoCs inzwischen die Erkenntnis verbreitet, dass Apples technologischer Vorteil letztlich gar nichts für den allgemeinen PC-Markt bedeutet. Mittels seiner Technologie-Führerschaft – welche zum Teil natürlich über die Benutzung der jeweils neuesten Fertigungstechnologien als erster Kunde von Chipfertiger TSMC teuer erkauft ist – hat Apple letztlich AMD & Intel nie tatsächlich unter Druck gesetzt. Dafür sind die jeweiligen Märkte zu deutlich voneinander abgeteilt: Hier die PC/Windows-Welt, dort die Apple-Welt mit eigener Hardware und eigenem Betriebsssystem. Und auch wenn man teilweise auf die M1/M2-SoCs von Apple neidisch sein kann, die generellen Nachteile der Apple-Plattform in Fragen Preis, Software-Kompatibilität, Hardware-Auswahl und Aufrüstbarkeit wiegt das nur in seltenen Fällen auf. Demzufolge kann es AMD & Intel so ziemlich egal sein, was Apple da macht – man bedient im Endeffekt grundverschiedene Märkte, in welchen die Kunden auch nicht so einfach hin- und herwechseln können.