24

News des 24. Juni 2022

Von der chinesischen Seite Expreview (via VideoCardz) kommt ein Benchmark-Preview zu Intels "Raptor Lake" auf Basis eines Engineering Samples des Core i9-13900 – sprich im Vollausbau, aber nur auf 3.8 GHz Maximaltakt. Jener Prozessor wurde dann gegen einen entsprechend bei der Taktrate limitierten Core i9-12900K getestet. Die Singlethread-Benchmarks zeigen jedoch gleich darauf hin, dass hier noch hier gewisse Unstimmigkeiten beim Raptor-Lake-ES existieren – denn weniger Singlethread-Performance ist auf (nominell) gleicher Taktrate sicherlich nicht zu erwarten. Das erwartbare Ergebnis sollte eher exakt umgedreht ausfallen: Nicht –7%, sondern eher +7% ST-Performance. Doch andererseits ist hierin somit noch einiges an Potential nach oben hin zu sehen, welches ganz automatisch beim Release mittels Verkaufs-Taktraten, passendem Mainboard und korrektem BIOS ausgeschöpft werden kann.

Core i9-12900K Core i9-13900 ES
Hardware ADL, 8C+8c/24T, 14+30MB L2/L3 RTL, 8C+16c/32T, 32+36MB L2/L3
Taktraten limitiert auf 3.8 GHz ES auf 3.8 GHz
Singlethread-Tests (4) 100% 93,9%
Multithread-Tests (11) 100% 121,2%
Benchmark-Werte gemäß Expreview (MT-Tests gerechnet ohne SiSoft Sandra)

Dies könnte dann auch die bereits jetzt gutklassige Multithread-Performance weiter beflügeln, zu welcher derzeit (unter durchgehend gut skalierenden Benchmarks) immerhin schon +21% Mehrperformance vermessen wurde. Allerdings gibt es auch hier eine Gegenanzeige zu beachten: Auf 3.8 GHz läuft der Prozessor wahrscheinlich nirgendwo in Power-Limits hinein, kann seine Hardware somit voll ausspielen – sprich vor allem die doppelte Anzahl an E-Kernen. Unter Verkaufs-Taktraten wird dieser Ansatz dann allerdings vom Power-Limit ausgebremst, sofern Intel jenes nicht erhöhen wollte (derzeit wohl nicht geplant). Gut möglich also, dass sich beide Effekte (ES-Nachteil & Power-Limitierung im Verkaufszustand) nahezu ausgleichen und die Multithread-Performance der Retail-Modelle von Raptor Lake nur noch maßvoll besser ausfällt, als hiermit bereits gezeigt.

YouTuber Moore's Law Is Dead zeigt das Render-Bild einer (angeblichen) GeForce RTX 4090 Ti. Jene trägt wohl die Abmaße der GeForce RTX 3090 Ti, benötigt somit wie jene etwas mehr als 3 Slots. Zudem soll auch die vorher antretende GeForce RTX 4090 dasselbige Grafikkarten-Layout benutzen – was schon von anderen Stellen im groben Sinn bestätigt wurde. Während somit jene Information zur GeForce RTX 4090 vergleichsweise glaubwürdig ist, erscheint selbige zur GeForce RTX 4090 Ti als eher denn unglaubwürdig: Denn wenn nVidia beim Ti-Modell den AD102-Chip wirklich ausfährt, dann geht es schnell mit der Verlustleistung in Richtung 600 Watt – und dann würde sicherlich ein nochmals größeres oder/und dickeres Grafikkarte-Layout benötigt werden. So oder so würde es verwundern, wenn nVidia derzeit schon so konkret an der GeForce RTX 4090 Ti arbeitet, denn selbige Grafikkarte dürfte eher einen Ada-Lovelace-Refresh anführen.

inititale RTX40 Serie möglicher RTX40-Refresh
Termin-Lage Herbst 2022 unbekannt
AD102 GeForce RTX 4090
angeblich: 128 SM @ 384 Bit, 24 GB GDDR6X, 450W
GeForce RTX 4090 Ti
möglicherweise: 140-144 SM @ 384 Bit, 24 GB GDDR6X, ca. 600W
AD103 GeForce RTX 4080
angeblich: 80 SM @ 256 Bit, 16 GB GDDR6X, 420W
GeForce RTX 4080 Ti
möglicherweise: 84 SM @ 256 Bit, 16 GB GDDR6X, ca. 450W
AD104 GeForce RTX 4070
angeblich: 56 SM @ 160 Bit, 10 GB GDDR6, 300W
GeForce RTX 4070 Ti
möglicherweise: 60 SM @ 192 Bit, 12 GB GDDR6X, ca. 350W
Anmerkung: alle Angaben zu noch nicht vorgestellter Hardware basieren auf Gerüchten & Annahmen

Dessen Terminlage ist zwar nicht bekannt, aber sofern nVidia hier eine wirkliche Refresh-Generation bringt, sollte dies eigentlich mit einigem Zeitabstand zum initialen RTX40-Portfolio passieren – um die üblicherweise zwei Jahre Zeitspanne bis zur nächsten Grafikkarten-Generation bestmöglich zu überbrücken. Nur sofern nVidia tatsächlich die GeForce RTX 4090 Ti früher schon benötigt, um gegenüber den besten Lösungen von AMDs RDNA3-Generation bestehen zu können, wäre ein früherer Start dieser Ti-Karte denkbar. Wahrscheinlich dürfte nVidia dafür aber lieber abwarten, was von AMD konkret kommt – erst dann kann man die GeForce RTX 4090 Ti wirklich zielgerichtet aufbauen. Insofern besteht eine gute Chance, dass jenes Renderbild für die GeForce RTX 4090 Ti nicht der Wahrheit entspricht – während selbiges für die GeForce RTX 4090 (non-Ti) sogar durchaus korrekt sein könnte.

Zum Thema der Intel-eigenen Alchemist Mobile-Benchmarks kommt aus unserem Forum der Hinweis auf recht unterschiedliche Benchmark-Bedingungen für diesen Test. So hat Intel seine eigenen Mobile-Grafiklösungen jeweils mit Alder-Lake-Prozessoren samt DDR5 gepaart, während die nVidia-Lösungen nur mit Rocket-Lake-Prozessoren samt DDR4-Speicher liefen. Vor allem aber kann man annehmen, dass die TGP-Werte der einzelnen Mobile-Lösungen überhaupt nicht zusammenpassen. Intel hat zwar nur für die nVidia-Lösungen die benutzten TGP-Werte angegeben, sich um selbige Angabe für die eigenen Mobile-Lösungen gedrückt. Allerdings haben jene ganz regulär eine TGP-Spanne, welche deutlich oberhalb der Vergleichs-Modelle liegt: So stand also Arc A730M mit irgendwo zwischen 80-120W gegen eine GeForce RTX 3050 Ti Laptop auf 60W TGP – und eine Arc A770M mit irgendwo zwischen 120-150W gegen eine GeForce RTX 3060 Laptop mit 85W TGP.

Mobile-Lösungen 3050Ti-L A730M 3060-L A770M
Hardware GA107, 20 SM @ 128 Bit ACM-G10, 24 Xe @ 192 Bit GA106, 30 SM @ 192 Bit ACM-G10, 32 Xe @ 256 Bit
Testsystem Core i7-11800H, 16 GB DDR4/3200 Core i7-12700H, 16 GB DDR5/4800 Core i7-11800H, 16 GB DDR4/3200 Core i9-12900HK, 16 GB DDR5/4800
benutzte TGP 60W unbekannt (80-120W) 85W unbekannt (120-150W)
Intel-eigene Benchmarks  (17 Spiele) 64,8% 73,2% 89,2% 100%
Differenz nVidia → Intel –11,4% bzw. +12,9% –10,8% bzw. +12,1%
gemäß der Ausführungen von Tom's Hardware

Insofern hat Intel in diesem Vergleich einen erheblich höheren Stromverbrauch für seine Mobile-Grafiklösungen für sich in Anspruch genommen – oder anders formuliert: Die nVidia-Lösungen auf gegenüber Intel gleichwertiger TGP hätten die Intel-Performance ganz sicher erreicht und mit höherer Wahrscheinlichkeit sogar geschlagen. Intel hat sich hiermit also den einzigen Vergleich herausgesucht, welchen man noch hat gewinnen können – einen auf deutlich dickerem Stromverbrauch. Und dies hat dann zwei Auswirkungen: Im Mobile-Segment gehen solcherart (deutlich) mehr verbrauchende Grafiklösungen umgehend in eine ganz andere (größere) Notebook-Kategorie – weil kein Notebook-Hersteller mal eben so 30-50 Watt Mehrverbrauch abfangen kann, dafür ist ein grundsätzlich anderes Notebook-Design vonnöten. In dieser höheren Notebook- und Watt-Kategorie müsste sich Intel dann allerdings gegen GeForce RTX 3080 Laptop und ähnliche Boliden beweisen – was man dann deutlich verlieren wird.

Und zum anderen zeigt dies ein grundsätzliches Effizienz-Problem der aktuellen "Alchemist"-Grafiklösungen an, welche ihre beste Performance nur unter (für diese Performance-Klasse) ungängigen Stromverbrauchswerten erreichen können. Selbige Problematik weisst schließlich auch schon die Arc A380 auf, welche von Grafikkarten-Hersteller Gunnir von 75W TDP (Intel-default) auf 92W TDP hochgeschraubt wurde, damit Taktraten-mäßig anstatt 2000 MHz dann 2450 MHz Boost-Takt möglich wurde. Möglicherweise ergibt sich selbiges Problem auch bei einer Arc A780, welche sich erst auf deutlich hochgezogener TDP ausreichend gut von der GeForce RTX 3060 absetzen kann. Nur wäre dies dann ein doppelt schlechtes Ergebnis: Denn das Performance-Ziel der Alchemist-Grafikkarten lag mal in Richtung der GeForce RTX 3070, doch aktuell dürfte man die GeForce RTX 3060 (170W TDP) wohl erst mit über 250 Watt Stromverbrauch schlagen können. Da ist es wohl besser für Intel, überhaupt nicht mehr mit einer Arc A780 anzutreten und die Arc A770 nur noch zu den OEMs zu geben.