13

News des 13. April 2022

Laut Twitterer Greymon55 soll der AD103-Chip aus nVidias "Ada"-Chipgeneration für die GeForce RTX 40 Grafikkarten-Serie wiederum (wie der GA103 in der Ampere-Serie) wahrscheinlich für das Mobile-Segment gedacht sein. Dies hört sich angesichts der technischen Ansetzung von bekannterweise 84 Shader-Clustern (wie GA102) nach ziemlich viel an, immerhin kommt hierbei auch noch ein erheblicher Taktraten-Boost wegen des Sprungs von Samsungs 8nm-Fertigung auf TSMCs 5nm-Fertigung oben drauf. Allerdings deutete schon ein kürzlicher Tweet von Kopite7kimi in dieselbe Richtung, wo erstaunlicherweise für das Desktop-Portfolio von GeForce RTX 4070 bis 4090 nur AD102 & AD104 zum Einsatz kommen sollen – aber eben kein AD103.

AD103 probably belongs to laptop
Quelle:  Greymon55 @ Twitter am 13. April 2022
 
**90 PG139-SKU310, AD102-300, 24G 24Gbps, 600W
**80 PG139-SKU330, AD102-200, 20G 24Gbps, 500W
**70 PG141-SKU310, AD104-400, 12G 24Gbps, 400W

Quelle:  Kopite7kimi @ Twitter am 1. April 2022

Jene Auslegung passt allerdings nur schwer zu der vorhandenen Konstellation an Ada-Chips: Denn während GA104 immerhin 57% der Shader-Cluster von GA102 aufbot, wären dies bei der Ada-Generation deutlich weniger: AD104 bietet nur 42% der Shader-Cluster von AD102. Vielmehr steht mit der Ada-Generation der AD103-Chip genau an derselben Stelle, wo der GA104 innerhalb der Ampere-Generation stand: 58% der Shader-Cluster von AD102. Während man innerhalb der Ampere-Generation also durchaus auf den GA103-Chip verzichten konnte (und jener letztlich nur verspätet und rein für Mobile antrat), geht dies innerhalb der Ada-Generation eigentlich nicht mehr, der zu überwindende Performance-Abstand zwischen AD104 und AD102 wäre deutlich zu groß. Dies gilt um so mehr, als dass AMD mit "Navi 32" einen sehr potent aussehenden zweitbesten Chip im RDNA3-Portfolio hat – für welchen AD102 zu groß und AD104 (deutlich) zu klein wäre.

nVidia Ampere nVidia Ada
AD102
144 SM @ 384 Bit
GA102
84 SM @ 384 Bit
AD103
84 SM @ 256 Bit
58% Shader-Cluster
67% Speicherinterface
GA104
48 SM @ 256 Bit
57% Shader-Cluster
67% Speicherinterface
AD104
60 SM @ 192 Bit
71% Shader-Cluster
75% Speicherinterface
GA106
30 SM @ 192 Bit
63% Shader-Cluster
75% Speicherinterface
AD106
36 SM @ 128 Bit
60% Shader-Cluster
67% Speicherinterface
GA107
20 SM @ 128 Bit
67% Shader-Cluster
67% Speicherinterface
AD107
24 SM @ 128 Bit
67% Shader-Cluster
100% Speicherinterface
Vergleich jeweils mit dem nächsthöheren Chip

Genauso deutet auch die Abstufung der Speicherinterfaces darauf hin, dass nVidia mit der "Ada"-Generation den AD103 durchaus auch im Desktop-Segment nutzen dürfte: Während GA103 diesbezüglich eine "krumme" Zwischengröße benutzte (320 Bit zwischen 256 und 384 Bit), sind es bei AD103 mit 256 Bit zwischen 192 und 384 Bit ganz reguläre Verhältnisse. Insofern ist kaum zu sehen, wieso nVidia nicht den AD103-Chip auch für das Desktop-Segment verwenden sollte bzw. wie man ein Desktop-Segment regelrecht ohne AD104 aufbauen kann. Um diese Lücke zu füllen, müsste nVidia den AD102-Chip massiv auf unter 100 (oder gar unter 90) Shader-Cluster herunterbrechen – womit es fast automatisch günstiger werden würde, diese extreme Salvage-Lösung als extra Chip aufzulegen. Insofern bleibt scharf abzuwarten, ob der AD103 tatsächlich nur ins Mobile-Segment geht, die technischen Anzeichen deuten eher in die umgekehrte Richtung.

Twitterer SkatterBencher zeigt einen Übertaktungs-Erfolg beim Ryzen 7 5800X3D – von welchem AMD sagt, dass jener nicht übertaktbar sein soll. Die Multiplikator-Erhöhung bleibt natürlich (für diese CPU) gesperrt, insofern half hierbei nur eine Erhöhung des Grundtaktes auf 106 MHz weiter. Dabei ergab sich allerdings mit 4822 MHz nur eine arg durchschnittliche Übertaktung, viele reguläre Ryzen 7 5800X Prozessoren schaffen da mehr. Wirklich alltagsauglich ist diese Übertaktung dann natürlich auch nicht, weil zu stark an den individuellen Möglichkeiten des benutzten Mainboards hängend. Nutzbar ist das ganze weniger für den dauerhaften Hausgebrauch, als denn eher für erfahrene Übertakter, welcher der höheren Wärmeentwicklung gerade des 3D V-Cache dann mit entsprechender Kühlung begegnen werden. Aber wenigstens wurde gezeigt, dass durchaus noch etwas mehr drin ist im Ryzen 7 5800X3D.

Der kürzliche erste Test einer "Arc A350M" Mobile-Grafiklösung litt laut VideoCardz augenscheinlich unter einem Fehlverhalten der "Dynamic Tuning Technology" (DTT) von Intel. Jene dürfte grob mit AMDs "SmartShift" sowie nVidias "Dynamic Boost" vergleichbar sein, verschiebt also TDP-Reserven von der CPU zur GPU. Dummerweise lief das Test-Notebook mit "DTT = disabled" jedoch drastisch besser als mit aktiviertem DTT, die ereichten Frameraten lagen teilweise beim Doppelten. Dem liegt auch ein deutlicher Stromverbrauchsunterschied zugrunde, wobei die mit deaktiviertem DTT zu sehenden 27-30 Watt komplett innerhalb der TDP dieser Mobile-Lösung (35W) herauskommen. Insofern sind die bislang vorliegenden 3DMark-Messungen gegen GeForce MX450 und GeForce GTX 1650 wohl nicht zu werten und liegt die reale Performance von Arc A350M vermutlich beachtbar höher als darauf basierend angenommen. Wie hoch dies ist, ergab sich allerdings aus dem neuerlichen Benchmark-Video auch nicht, dort fehlt der Vergleich zu anderen Grafiklösungen.

Die PC Games Hardware hat sich auf Basis eines Ryzen 9 5950X die Kern-Skalierung in aktuellen PC-Spielen angesehen. Getestet wurden hierbei 10 Spiele-Titel von 2C/4T bis hinauf zu 16C/32T unter 720p mit durchschnittlichen Frameraten wie auch P1 Perzentilen. Für den Zweikerner konnte dabei allerdings kein Durchschnitts-Wert ermittelt werden, da zwei Spiele-Titel mit dieser Kern-Anzahl nicht laufen wollten. Damit fielen die ganz großen Performance-Unterschiede aus, denn selbst ein Vierkerner ohne SMT lief im Schnitt der Benchmarks noch auf 66-67% des Performance-Niveaus eines Achtkerners mit SMT – auf selber Technik-Basis (Zen 3) und selber Taktrate (4.7 GHz für alle CPUs) wohlgemerkt. Betrachtend rein die Modelle mit aktiviertem SMT sind die Differenzen im Mittel recht klein, auch ein Vierkerner mit SMT ist immer noch ziemlich gut mit dabei.

720p fps 720p P1 SMT-Effekt
16 Kerne + SMT  (16C/32T) 108,4% 110,4%
8 Kerne + SMT  (8C/16T) 100% 100% +1,7%  /  +0,2%
8 Kerne  (8C/8T) 98,3% 99,8%
6 Kerne + SMT  (6C/12T) 92,6% 92,9% +5,8%  /  +5,1%
6 Kerne  (6C/6T) 87,5% 88,4%
4 Kerne + SMT  (4C/8T) 78,3% 79,3% +15,5%  /  +19,4%
4 Kerne  (4C/4T) 67,8% 66,4%
gemäß der Benchmarks der PC Games Hardware unter 10 Spielen mit einem Ryzen 9 5950X auf 4.7 GHz

Auffallend allerdings der große Unterschied in der Bewertung zwischen aktiviertem/deaktiviertem SMT je nach Kern-Anzahl: Bei einem Achtkerner macht es im Mittel nur einen marginalen Unterschied, auch bei einem Sechskerner sind es mit 5-6% Differenz zugunsten von SMT=on nicht viel. Dabei gibt es in den Einzeltests jeweils deutliche Ausreißer, welche entweder SMT=off oder SMT=on klar vorn zeigen. Bei den Vierkernern ändert sich diese Sichtweise komplett: Zum einen bringt SMT=on dann im Mittel gleich 16-19% mehr Performance, zum anderen gibt es auch kaum noch Fälle, wo SMT=off vorn liegt. Vielmehr ist unter vielen Spiele-Titeln der interessante Effekt zu beobachten, dass sich SMT=on bei Sechs- und Achtkernern negativ auswirkt, im selben Spiel beim Vierkerner hingegen positiv. Ob SMT etwas bringt, hängt also oftmals nicht an SMT selber, sondern eher an der Anzahl der vom Spiel benutzen CPU-Threads: Bietet die CPU zu viele Threads an, kippt die Aktivierung von SMT (hier und da) ins negative.