Gemäß BenchLife (maschinelle Übersetzung ins Deutsche, via VideoCardz) werden die Intel Prozessoren-Generationen "Meteor Lake" und "Arrow Lake" im Desktop nicht den Sockel LGA2551 benutzen – sondern den Sockel LGA1851 (2551 scheint hingegen die Kontakte-Anzahl für das BGA im Mobile-Bereich zu sein). Gleichfalls gibt es beachtbare Hinweise darauf, dass die genannten beiden Prozessoren-Generationen gemeinsam eine Verkaufs-Generation bilden könnten – da Meteor Lake nur für LowEnd- und Midrange-Produkte gedacht sein soll, sowie Arrow Lake nur für HighEnd-Produkte. Da Intel inzwischen pro Prozessoren-Generation locker 4 verschiedene Dies auflegt bzw. dies mit dem zukünftigen Tile/Chiplet-Ansatz bei Intel noch einfacher wird, wäre diese Auftrennung der Aufgabengebiete durchaus denkbar.
In the MSDT platform, Meteor lake maybe is the mid and low-end product, and Arrow lake act as the high-end product.
About Lunar lake, it is the codename of one low-voltage product.
Quelle: OneRaichu @ Twitter am 6. Juni 2022
For desktop,
High end, ARL-S,
mainstream, MTL-S.
Quelle: Kopite7kimi @ Twitter am 6. Juni 2022
They will be all replaced by Panther Lake.
Quelle: Kopite7kimi @ Twitter am 6. Juni 2022
Dies würde dann (nachträglich) auch erklären, wieso manche frühere Termin-Angaben Arrow Lake so vergleichsweise schnell nach Meteor Lake sahen (beide noch im Jahr 2023). In jedem Fall ergibt dies eine zusätzliche Unsicherheit ob des kommenden Prozessoren-Portfolios von Intel: Denn damit ist nicht klar, ob Meteor Lake überhaupt das "große Ding" ist und ob man nicht aus Desktop-Sicht heraus eher auf Arrow Lake warten muß. Dies geht dann allerdings durchaus entgegen der kürzlich erst von "Moore's Law Is Dead" dargelegten Intel-Gerüchte, welche eher von einem konventionellen Ablauf der Dinge bei diesen beiden Intel-Generationen ausgehen. Bezüglich der nachfolgenden Intel-Generation bestätigt OneRaichu @ Twitter zudem noch das kürzliche Gerücht, wonach "Lunar Lake" nur für einzelne Produkte des LowEnd-Segments gedacht sein soll.
Währenddessen spricht Kopite7kimi @ Twitter interessanterweise von "Panther Lake" als dem Nachfolger der Dreierbande Meteor, Arrow & Lunar Lake. Dies steht wieder entgegen früheren Informationen, wonach nach Lunar Lake dann "Nova Lake" folgen soll – auf Basis von "Panther Cove" CPU-Kernen. Da Intel für seine "Lakes" (CPU-Generationen) oftmals einen Astro-Bezug nimmt, für die "Coves" (Performance-Kerne) hingegen oftmals einen Tier-Bezug (jedoch: nicht immer!), erscheint diese ältere Namens-Nennung auf den ersten Blick naheliegender. Aber da dies noch einigermaßen weit in der Zukunft liegt und sich bis dahin auch durchaus noch einiges an diesen Intel-Plänen ändern kann, ist es wohl besser, die Intel-Roadmap derzeit noch nicht weiter als bis zu Lunar Lake zu zeichnen.
Serie | Fertigung | Kerne | CPU-Architektur | iGPU-Arch. | Speicher | PCIe | Sockel | Release | |
---|---|---|---|---|---|---|---|---|---|
Rocket Lake | Core i-11000 | Intel 14nm | 8C/16T | Cypress Cove | Gen 12.1 (Xe) | DDR4/3200 | 4.0 | LGA1200 | 30. März 2021 |
Alder Lake | Core i-12000 | Intel 7 | 8C+8c/24T | Golden Cove + Gracemont | Gen 12.2 (Xe) | D4/32 + D5/48 | 5.0 | LGA1700 | 4. Nov. 2021 |
Raptor Lake | Core i-13000 | Intel 7 | 8C+16c/32T | Raptor Cove + Gracemont | Gen 12.2 (Xe) | D4/32 + D5/56 | 5.0 | LGA1800 | Q4/2022 |
Meteor Lake | Core i-14000 | Intel 4 + TSMC N3 | ? | Redwood Cove + Crestmont | Gen 12.7 (Xe) | DDR5/6400 | ? | LGA1851 | H2/2023 |
Arrow Lake | ? | Intel 20A + TSMC N3 | 8C+32c/48T | Lion Cove + Skymont | ? | DDR5/? | ? | LGA1851 | 2023/24 |
Lunar Lake | - | Intel 18A + ? | ? | Lion Cove + Skymont | Gen 12.9 (Xe2) | DDR5/? | ? | ? | 2025 |
bezogen auf Desktop-Prozessoren des Consumer-Segments (non HEDT) — Angaben zu zukünftiger Hardware basierend auf Gerüchten & Annahmen |
VideoCardz berichten über weitere Tests mit der Intel-Mobilelösung "Arc A730M" aus dem chinesischen Weibo-Forum. Hierbei wurde dann echte Spiele auf die Alchemist-Grafiklösung angesetzt, welche jene allerdings mit einer Performance zwischen GeForce RTX 3050 Laptop und 3060 Laptop absolvierte – und somit klar schlechter als die synthetischen 3DMark-Tests. Nochmals negativer fällt der Blick auf die dabei erreichten Frametimes (Gleichmäßigkeit der fps-Zahlen) aus – da liefert die Alchemist-Grafiklösung teilweise katastrophales ab. Dass eines der Testspiele gar nicht mit Arc A730M starten wollte, rundet den schlechten Eindruck ab. Augenscheinlich ist Intels Treiber-Arbeit noch nicht so weit vorangeschritten, dass dieses Produkt tatsächlich Release-fertig wäre. Ob dies auch der Grund ist, wieso keine Intel-Grafikchips ausgeliefert werden, bleibt mangels irgendwelcher genauer Informationen hierzu allerdings offen.
Zur gestrigen Meldung zu den Stromverbrauchswerten von GeForce RTX 4080 & 4090 gab es die interessante Anmerkung in der Foren-Diskussion, dass man einen vergleichsweise nahe aneinander liegenden Stromverbrauch dieser beiden NextGen-Grafikkarten gar nicht ausschließen muß, wie frühere Beispiele belegen. Dabei sind GeForce RTX 2080 Super und 2080 Ti (246W vs. 272W, aber auch Refresh gegen Original) sowie GeForce RTX 3080 und 3090 (325W vs. 359W, aber Chip-gleich) nicht einmal gute Beispiele, ein selbiges läßt sich allerdings mittels Radeon RX 6700 XT und 6800 finden: Beide Karten entstammen dem originalen RDNA2-Portfolio, basieren auf unterschiedlichen Chips, haben eine gute Performance-Differenz (+26%) – und trotzdem liegt der Stromverbrauch fast auf demselben Niveau: 219W gegenüber 231W.
Denn die Radeon RX 6700 XT wurde faktisch voll ausgefahren, die Radeon RX 6800 hingegen deutlich gegenüber dem Vollausbau des Navi-21-Grafikchips abgespeckt und auch mit vergleichsweise moderaten Taktraten betrieben. Nun wird die GeForce RTX 4090 näher am Vollausbau des AD102-Chips (87,5%) zu liegen als die Radeon RX 6800 am Vollausbau des Navi-31-Chips (75%), aber im Prinzip dürfte dieser Vergleich passend sein. Und damit kann es – je nach gewählter Taktrate – dann durchaus doch passieren, dass die GeForce RTX 4080 mit 420 Watt TDP antritt – und die GeForce RTX 4090 mit "nur" 450 Watt TDP. Zumindest diese Möglichkeit ist auf Basis des dargelegten Beispiels nicht mehr ausschließlich – womit der geschätzte TDP-Rahmen zur GeForce RTX 4090 in der nachfolgenden Tabelle der vorläufigen Spezifikationen zur GeForce RTX 40 Serie nunmehr wieder auf "ca. 450-550 Watt" korrigiert wurde.
GeForce RTX 4070 | GeForce RTX 4080 | GeForce RTX 4090 | |
---|---|---|---|
Chip-Basis | nVidia AD104-400 | nVidia AD103-? | nVidia AD102-300 |
Raster-Engines | 5 GPC | 7 GPC | vermtl. 11 GPC |
Recheneinheiten | 58-60 Shader-Cluster | 80-84 Shader-Cluster | 126 Shader-Cluster, 16'128 FP32 + 8064 INT32 (24'192 Recheneinheiten insgesamt) |
ROPs | vermtl. 160 | vermtl. 224 | vermtl. 352 |
Level2-Cache | 48 MB | 64 MB | 96 MB |
Speicherinterface | 192 Bit GDDR6 | 256 Bit GDDR6X | 384 Bit GDDR6X |
Speicher | 12 GB GDDR6 @ 18 Gbps | 16 GB GDDR6X | 24 GB GDDR6X @ 21 Gbps |
Stromverbrauch | ~300W TDP | 420W TDP | ca. 450-550W TDP |
Performance-Level | 3070→4070: ca. 1,6-2,0fache | 3080→4080: ca. 1,6-2,0fache | 3090→4090: ca. 1,9-2,5fache |
Vorgänger | GeForce RTX 3070: GA104, 6 GPC, 46 SM @ 256 Bit, 96 ROPs, 8 GB GDDR6, $499 | GeForce RTX 3080: GA102, 6 GPC, 68 SM @ 320 Bit, 96 ROPs, 10 GB GDDR6X, $699 | GeForce RTX 3090: GA102, 7 GPC, 82 SM @ 384 Bit, 112 ROPs, 24 GB GDDR6X, $1499 |
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen |