6

Hardware- und Nachrichten-Links des 5./6. September 2020

Twitterer Apisak hat erste Benchmarks der GeForce RTX 3080 unter dem CompuBench erspäht. Hierbei wurden reine CUDA- und OpenCL-Messungen durchgeführt, damit ergo allein die Rechenkraft des Ampere-Beschleunigers getestet, was somit keinen direkten Bezug auf die Gaming-Performance zuläßt. Allerdings ergibt sich angesichts von +38% mehr CUDA-Performance sowie +41% mehr OpenCL-Performance gegenüber einer GeForce RTX 2080 Ti trotzdem ein gewisser Hinweis darauf, dass die nominell immerhin um +109% zulegende FP32-Rechenpower der GeForce RTX 3080 nicht ganz so einfach in reale Mehrperformance umwandeln zu ist. Gegenüber der GeForce RTX 2080 Super ist das Verhältnis sogar noch etwas krasser: +167% mehr FP32-Power stehen derzeit nur +66% mehr CUDA/OpenCL-Performance gegenüber. Dabei liegt die Mehrperformance in beiden Fällen (klar) oberhalb des reinen Zugewinns an Shader-Clustern, wird ergo die Ampere-Architektur teilweise schon ausgenutzt. Natürlich können spätere Treiber hier noch bessere Performance-Zugewinne unter dem CompuBench erbringen – das ganze ist nur als Fingerzeig darauf zu sehen, die extrem hohe FP32-Power von Ampere nicht als alleinigen Maßstab von Performance-Prognosen zu nehmen.

2080S → 3080 2080Ti → 3080
Anzahl Shader-Cluster +42% ±0
nominelle FP32-Rechenleistung +167% +109%
CUDA-Performance +66% +38%
OpenCL-Performance +66% +41%
Quelle der CUDA/OpenCL-Benchmarks: CompuBench

Twitterer 'Kopite7kimi' führt in zwei Tweets – No.1 & No.2 – einen möglicherweise doch noch kommenden nVidia GA103-Grafikchip ins Feld. Jener soll nichts mit dem einstmals geplanten und dann gestrichenen GA103-Chip (60 Shader-Cluster an einem 320 Bit Speicherinterface, vermutlich ursprünglich für die GeForce RTX 3080 gedacht) zu tun haben, geht aber anscheinend in dieselbe Richtung: Weil die Verwendung des GA102-Chips für die GeForce RTX 3080 nVidia ziemlich etwas kostet (es handelt sich schließlich um den Top-Chip des Gaming-Portfolios) und demnächst der Wettstreit mit "Big Navi" zu erwarten ist, welcher möglicherweise auch auf der Preisschiene geführt wird, soll somit ein vor allem kostengünstigerer Chip her. Jener soll auf einem neueren Fertigungsprozeß setzen und damit ein kleineres Package mitbringen – was dann ergo wohl margenträchtigere Grafikkarten für nVidia ermöglichen würde. In welche Richtung jener neue GA103-Chip dann geht, ist aber noch unklar, kann ergo nur spekuliert werden.

It's very expensive to use GA102 competing with BIG NAVI. So NVIDIA may have planned a new chip with a new process and smaller package. Probably called GA103?
 
I think the new GA103(?) is not the old one. The old one has been cancelled.

Quelle:  'Kopite7kimi' mit Tweet #1 & Tweet #2 am 6. September 2020

Denkbar wären zwei Modelle: Erstens eine "GeForce RTX 3080 Super" zugunsten einer Ampere-Refreshgeneration – wobei dies problemlos auch mit einer anderen Abspeckung des GA102-Chip zu erreichen wäre. Und zweitens einen glatten Chip-Ersatz bei der GeForce RTX 3080, bei welchem der GA102 durch den GA103 ersetzt wird, ohne dass sich an den Kartendaten etwas ändert. Die von 'Kopite7kimi' angeführten Gründe für einen GA103-Chip sprechen eher für letztere Auflösung, da das Kosten-Element stark betont wird. In diesem Fall könnte ein GA103-Chip die exakte Hardware der GeForce RTX 3080 (68 SM @ 320 Bit GDDR6X) aufbieten, würde sich also immerhin eine Raster-Engine, 16 Shader-Cluster sowie etwas Level2-Cache samt eines 64-Bit-Teilinterfaces sparen. Auf gleicher Chipfertigung könnte ein solcher Chip ~530-540mm² groß herauskommen, sprich ca. 100mm² kleiner als der GA102-Chip (628mm²). Wie von der Turing-Generation her bekannt, reicht diese Differenz schon aus, um einen extra Chip aufzulegen. Bislang sind dies aber alles nur wohlfeile Überlegungen und auch 'Kopite7kimi' scheint noch keine definitiven Informationen vorliegen zu haben. Damit ist der Fall eines neuen GA103-Chip dato eher als "Möglichkeit" anzusehen und sind wohl besser weitere, klarere Anzeichen abzuwarten.

CTR-Macher Yuri Bubliy hat auf Twitter den Release einer Beta-Version des "ClockTuner for Ryzen" (CTR) zum September-Ende hin bekanntgegeben. Derzeit fehlt allerdings noch der Support für einige Spitzen-Modelle der Zen-2-Garde, namentlich Ryzen 9 3950X, Ryzen Threadripper 3970X und 3990X – offensichtlich, weil dem Programmierer dafür die Testsamples fehlen. Für die Zwischenzeit gibt es neue CTR-Benchmarks, welche mit einem Ryzen 9 3900XT erstaunliche Performance-Gewinne (unter gleichzeitig einem etwas niedrigeren Stromverbrauch) aufzeigen. Wenn man die damit erzielte Energieeffizienz ins Auge fasst, dann sollte AMD eigentlich alles zur Unterstützung dieser Software bzw. dessen Programmierer tun – es handelt sich schließlich um ca. +10% Performancegewinn bzw. eine um ca. +15% höhere Energieeffizienz. Der einzige Nachteil könnte darin liegen, dass hiermit "schlechte" und "bessere" Dies deutlicher erkennbar werden bzw. sogar beachtbare Performance-Unterschiede aufzeigen – etwas, was im Sinne von Millionen Stück abgesetzter, normierter (und damit möglichst gleichartiger) Produkte vielleicht eher vermieden werden soll.

Sandra Science Visual Studio 3DMark13 CPU Cinebench R20 PPT
Ryzen 9 3900XT +12,1% +13,3% +9,5% +10,8% 142W → 134W
gemäß den Benchmarks von Yuri Bubliy @ Twitter unter dem "ClockTuner for Ryzen" (CTR)

Zu Intels "Tiger Lake" gibt es auch noch einen ersten richtigen Vorab-Test eines Vorseriengeräts mit Core i7-1165G7 seitens ITHardware.pl. Normalerweise könnte man diesem Artikel ausreichend unabhängige Benchmarks entnehmen, aber leider wurde dort der Tiger-Lake-Prozessor auf einer maximal möglichen TDP von 28 Watt ausschließlich gegen andere Mobile-Prozessoren der H-Klasse getestet – sprich, welche üblicherweise mit 45 Watt TDP antreten. Bemerkenswert ist, dass der Tiger-Lake-Prozessor unter diesen ungünstigen Bedingungen hier und da trotzdem vorn liegt. Allerdings ergeben sich auch wieder die üblichen Fälle von Benchmarks, welche rein auf Multithreading-Performance setzen, wo dann der Tiger-Lake-Prozessor wegen seiner geringeren TDP und nur der Hälfte der CPU-Kerne oftmals um den Faktor 2 (oder mehr) geschlagen wird. Bei genauem Lesen läßt sich letztlich zwar auch aus diesem Test zumindest gewisse Aussagen mitnehmen, aber jener Artikel zeigt vor allem darauf hin, dass sich mit ungenau ausgeführten Notebook-Tests so ziemlich alles beweisen läßt – sowohl klare AMD-Siege wie auch klare Intel-Siege.

Der Effekt der im konkreten Notebook vorliegenden TDP ist einfach zu groß, um (wie bisher) einfach irgendwie drauflos zu testen. Daneben gibt es selbst auf gleicher TDP natürlich immer noch weitere Seiteneffekte wie eventuell kurzzeitig greifende höhere Power-Limits (PL2 etc.) oder auch schwachbrüstige Kühlkonstruktionen, welche den Prozessor nicht auf seine maximale Performance führen können. Aber um es zumindest nicht vorsätzlich falsch zu machen, sollten sich zukünftige Notebook-Tests zuerst einmal daran orientieren, ausschließlich Prozessoren derselben TDP-Klasse miteinander zu vergleichen – bei denen man dann auch üblicherweise ähnliche Anstrengungen der Notebook-Hersteller bezüglich der Kühlkonstruktion vermuten kann. Eine Grundvoraussetzung hierfür liegt in der durchgehenden Angabe der Werte zur TDP und eventuell weiteren Power-Limits des vorliegenden Notebooks. Die offizielle Prozessoren-TDP zu nennen, täuscht hierbei potentiell, relevant ist allein jenes Setting, welches der Notebook-Hersteller beim konkreten Gerät angesetzt hat. Und natürlich gilt es diese Angabe nicht nur für das konkrete Testobjekt zu liefern, sondern selbstverständlich auch für alle anderen im Test als Vergleichsgeräte benutzten Notebooks. Ohne diese Angaben kann ein Notebook-Test (mit vergleichenden Benchmark-Werten) nicht mehr ernst genommen werden.

Die neueste Absatzstatistik für Desktop-Prozessoren über die Verkäufe des deutschen Einzelhändlers Mindfactory seitens Ingebor @ Reddit sieht Intel erneut minimal hinzugewinnen: Das Stückzahlen-Verhältnis liegt nunmehr bei 84:16% zugunsten von AMD, das Umsatz-Verhältnis hingehen (unverändert) bei 81:19%. Letzteres hängt an vergleichsweise stark zurückgehenden Durchschnittspreisen auf Intel-Seite (-6% gegenüber dem Vormonat), womit also das (minimale) Stückzahlen-Wachstum konterkariert wurde. Die zurückgehenden Durchschnittspreise dürften zum einen dem Erreichen von normalen Preislagen bei Comet Lake und zum anderen den aktuellen Abverkaufspreisen zum Coffee Lake Refresh geschuldet sein. Trotzdem hat es Intel augenscheinlich in deutschen Landen schwer, seine Desktop-Prozessoren zu den PC-Bastlern und Selberbauern zu bringen – in anderen Ländern sieht dies bekanntlich anders aus, Deutschland ist in diesem Teilmarkt glasklares AMD-Land. Das die insgesamten Verkaufszahlen dann dominierende OEM-Segment ist noch einmal eine ganz andere Geschichte, nicht umsonst liegen die weltweiten Marktanteile an Desktop-Prozessoren davon völlig abweichend bei derzeit 19:81% zugunsten von Intel.

Mindfactory CPU-Absatz Stückzahlen-Verteilung Umsatz-Verteilung
Januar 2020 ~26040 Stück 85% vs. 15% 82% vs. 18%
Februar 2020 ~20740 Stück 87% vs. 13% 83% vs. 17%
März 2020 ~24390 Stück 88% vs. 12% 85% vs. 15%
April 2020 ~33280 Stück 91% vs. 9% 86% vs. 14%
Mai 2020 ~28710 Stück 89% vs. 11% 85% vs. 15%
Juni 2020 ~25130 Stück 87% vs. 13% 83% vs. 17%
Juli 2020 ~24850 Stück 85% vs. 15% 81% vs. 19%
August 2020 ~23940 Stück 84% vs. 16% 81% vs. 19%
basierend auf den Ausführungen von Ingebor @ Reddit zu den CPU-Verkaufszahlen der Mindfactory