11

Hardware- und Nachrichten-Links des 9./10./11. November 2020

Gemäß HKEPC (via VideoCardz) gibt es zur kommenden GeForce RTX 3080 Ti nunmehr einen ungefähren Erscheinungstermin samt einem Listenpreis: Die zuletzt auf die Hardware-Einheiten der GeForce RTX 3090 hochgestufte Karte soll somit im Januar 2021 zu einem Listenpreis von 999 Dollar antreten. Beide Informationen stammen von einem taiwanesischen Grafikkarten-Hersteller, wobei der Launchtermin direkt so von nVidia genannt worden sein soll, der Listenpreis hingegen augenscheinlich die Interpretation des (ungenannten) Grafikkarten-Herstellers darstellt. Der Launchtermin ist durchaus erwartungsgemäß, da spät im Dezember eigentlich niemand mehr wichtige Hardware herausbringt – zudem bringt jeder Tag mehr nVidia näher an eine (halbwegs) gangbare Lieferbarkeitssituation bei seinen Ampere-Grafikkarten. Mit der GeForce RTX 3080 Ti erst im Januar ergibt sich somit vielleicht sogar die Chance, dass es dann ohne Nichtlieferbarkeit nach Launch und/oder hohen Preisaufschlägen für die wenigen verfügbaren Karten abgeht.

Radeon RX 6900 XT GeForce RTX 3080 GeForce RTX 3080 Ti GeForce RTX 3090
Grafikchip Navi 21 XTX GA102-200 GA102-250 GA102-300
Technik 8 Raster-Engines, 80 Shader-Cluster, 5120 FP32-Einheiten, 256 Bit GDDR6-Interface + "Infinity Cache" 6 Raster-Engines, 68 Shader-Cluster, 8704 FP32-Einheiten, 96 ROPs, 320 Bit GDDR6X-Interface 7 Raster-Engines, 82 Shader-Cluster, 10496 FP32-Einheiten, 112 ROPs, 320 Bit GDDR6X-Interface 7 Raster-Engines, 82 Shader-Cluster, 10496 FP32-Einheiten, 112 ROPs, 384 Bit GDDR6X-Interface
Chiptakt ????/2015/2250 MHz 1450/1710 MHz unbekannt 1400/1700 MHz
Speicherausbau 16 GB GDDR6 @ 16 Gbps 10 GB GDDR6X @ 19 Gbps 20 GB GDDR6X @ 19 Gbps 24 GB GDDR6X @ 19,5 Gbps
Rohleistungen 20,6 TFlops & 512 GB/sec 29,8 TFlops & 760 GB/sec unbekannt 35,7 TFlops & 936 GB/sec
Stromverbrauch 300W (TBP) 320W (GCP) 320W (GCP) 350W (GCP)
FullHD Perf.Index unbekannt 1900% geschätzt ~1950-2000% 2030%
4K Perf.Index geschätzt ~350-370% 328% geschätzt ~350-360% 367%
Listenpreis $999 $699 angeblich $999 $1499
Release 8. Dezember 2020 17. September 2020 angeblich Januar 2021 24. September 2020

Den Listenpreis von 999 Dollar (welcher wie gesagt noch nicht in Stein gemeißelt ist) kann man demzufolge mit einem lachenden und einem weinenden Auge sehen. Damit geht nVidia bei dieser Karte einen preislichen Mittelweg gegenüber der preislich übertriebenen GeForce RTX 3090, man hätte sich angesichts von deren Preislage auch schlimmeres vorstellen können. Andererseits fordert man damit umgehend einen erhöhten Bedarf heraus: Eine 20-GByte-Karte auf fast der Performance der GeForce RTX 3090 ist für diejenigen, welche derzeit keine GeForce RTX 3090 abbekommen haben bzw. denen die GeForce RTX 3080 mit 10 GB Grafikkartenspeicher zu schwachbrüstig ausgestattet ist, ein faktischer Selbstläufer. Um so mehr wird es für nVidia wichtig, nun endlich die Ampere-Liefersituation in den Griff zu bekommen: Wie Heise hierzu ausführen, geht der Mehrpreis der verfügbaren GeForce RTX 3070 Karten inzwischen auf 100-150 Euro zurück – immer noch zuviel, aber eine positive Tendenz. Bei der GeForce RTX 3090 ist derzeit mit einem Preisaufschlag von 150 Euro sogar schon eine passable Lieferfähigkeit gegeben, was zudem auf der Preishöhe der Karte dann auch weit weniger ins Gewicht fällt. Da auch die PC Games Hardware über erstmalige Auslieferungen der GeForce RTX 3070 bei Caseking berichtet, scheint diese Front endlich in Bewegung zu kommen – womit es sich um so wenig lohnt, jetzt noch zu überhöhten Preisen zu ordern.

Etwas vorfristig hat Software-Entwickler Maxon den Cinebench R23 vorgestellt – nachdem die bisher aktuelle Version R20 eigentlich noch recht frisch ist und bisher eine Kadenz zwischen den Cinebench-Versionen von 3-5 Jahren üblich war. Der hauptsächlichste Unterschied liefert dann den Hinweis darauf, wieso man hierbei zum schnellen Versionswechsel gegriffen hat: Der Cinebench R23 unterstützt nunmehr ein "Vorwärmen" des Prozessors. Hierbei läuft der Benchmark mindestens 10 Minuten lang, um somit kurzfristig erhöhte Power-Limits auszutricksen bzw. eine Taktraten-Drosselung durch thermische oder Stromverbrauchs-Limits zu provozieren. Insbesondere Intels aktuelle Prozessoren mit extra "PL2" Power-Limit, welches bei einem Core i9-10900K für 56 Sekunden bis zu 250 Watt Stromverbrauch genehmigt, dürften hiervon weniger angetan sein. Noch härtere Abschläge sind allerdings im Notebook-Segment (bei allen CPU-Herstellern) zu erwarten, denn dort greift bei längerer Last üblicherweise ein thermisches Limit. Im Sinne soliderer Benchmark-Ergebnisse ist dies ein guter Schritt seitens Maxon, wobei beide Test-Varianten (mit/ohne Vorwärmen) weiterhin möglich sind. Der für den Cinebench R23 eingerichtete Benchmark-Thread in unserem Forum erwartet allerdings generell Ergebnisse nach dem 10-min-Test.

Sehr große Aufmerksamkeit zieht derzeit der Apple M1 Notebook-SoC auf sich, welcher den Unterbau der nächsten Generation an Apple-Notebooks auf dann eigener Chipbasis abgeben wird. Technologisch baut Apple weiterhin auf der Technik des A14 Mobile-SoCs der letzten iPhones auf, allerdings geht der M1 deutlich in die Breite: 4 anstatt 2 kräftige CPU-Kerne, zwar weiterhin 4 stromsparende CPU-Kerne, aber dann auch wieder 8 anstatt 4 Grafik-Kerne. Der gesamte M1-SoC wiegt somit gleich 16 Mrd. Transistoren (+35% gegenüber dem A14), was in die Größenklasse von nVidias GA104-Chip der GeForce RTX 3070 geht und im CPU-Bereich in etwa einem Zen-3-Prozessor mit drei Core-Chiplets nahekommt (14,7 Mrd. Xtors, 24 CPU-Kerne). Dass sich hieraus Spitzen-Leistung ergeben wird, sollte klar sein – auch wenn derzeit kaum eine von Apples Performance-Versprechungen wirklich belastbar ist und man daher besser abwarten sollte, ehe reale Benchmarks vorliegen. Der Pferdefuß von Apples Strategie dürfte sowieso im Kostenpunkt liegen: Apple selber kann dies bei seinen Geräte-Gesamtpreisen gut verschleiern, ganz besonders angesichts der üblicherweise hohen Apple-Preise. Ein M1 auf den PC-Markt geworfen dürfte aber vermutlich einfach zu teuer kommen, unabhängig von etwaigen Benchmark-Siegen.

Möglicherweise zeigt sich hieran allerdings die eigentliche Apple-Zielsetzung bei seinen CPU-Eigendesigns: Man braucht für seine PC-artigen Produkte einfach mal wieder ein gutes Argument, nachdem diese Apple-Sparte zuletzt deutlich vom guten Namen und früheren Meriten gelebt hatte. Mittels eingekaufter Hardware ist diese Zielsetzung unmöglich zu erfüllen – und wenn dann einfach nur mit mehr CPU-Kernen, was für die allermeisten der Apple-PCs nicht die besten Wahl darstellt. Ergo schießt man sich lieber mit einer Eigenentwicklung an die (eigenprophezeite) Performance-Spitze, was zwar viel Geld kostet, jedoch für ein echtes Pro-Merkmal zugunsten der Apple-PCs sorgt – ganz unabhängig davon, dass die hiermit erstellten CPUs eigentlich nicht kosteneffektiv sind, in einem freien Wettbewerb mit AMD und Intel kaum eine Chance hätten. Doch selbst die Frage der Kosteneffektivität aus dem Spiel lassend besteht Apples ganzer Ansatz schließlich in der absoluten Exklusivität der Apple-CPUs – womit jene selbst angenommen großartiger Benchmark-Siege letztlich keine Relevanz für das PC-Business entwickeln können.