20

Hardware- und Nachrichten-Links des 19./20. November 2020

Im Analysten-Gespräch zu den jüngsten nVidia-Geschäftszahlen hat nVidia die vielbeachtete Aussage getroffen, dass das Ampere-Nachlieferproblem "ein paar Monate mehr" benötigt, ehe jenes ausgestanden wäre. Als Begründung hierfür setzt man "Industrie-weite Kapazitätsprobleme" an, sprich Schwierigkeiten, die entsprechenden Grafikchips aus der Chipfertigung zu erhalten. Dabei hat nVidia allerdings immerhin den Vorteil, einer der wenigen Großabnehmer von Samsungs 8nm-Fertigung zu sein – die sich bei TSMC häufenden Aufträge für deren 7nm-Fertigung dürften den weit schlimmeren Kapazitäts-Engpass erzeugen. Das Ausweichen von nVidia auf Samsung als Chipfertiger der Ampere-Generation dürfte zuerst finanzielle Hintergründe gehabt haben, ist aus Sicht der Lieferbarkeit nun jedoch eine ziemliche Enttäuschung – sicherlich auch für nVidia und Samsung, denn somit läßt sich kein beachtbarer Wettbewerbsdruck auf TSMC aufbauen.

Given industry-wide capacity constraints and long cycle times, it may take a few more months for product availability to catch up with demand.
Quelle:  nVidias CFO Colette Kress im "NVIDIA Q3 2021 Results Conference Call" am 18. November 2020, notiert von Seeking Alpha

Für den Grafikkarten-Käufer bedeutet dies, dass sich wahrscheinlich erst im Frühjahr 2021 eine sinnvolle Angebots- und Preis-Situation einstellen wird. Schließlich kommen demnächst noch einige weitere Grafikkarten-Modelle innerhalb der Ampere-Generation hinzu, was somit Samsungs Chipfertigungs-Kapazitäten weiter belasten wird. Erst nachdem dieses Launches allesamt vollzogen sind, kann sich wahrscheinlich die Situation einstellen, wo mehr Ware als Bedarf vorhanden ist und sich somit die Grafikkarten-Straßenpreise dort hin bewegen, wo jene gemäß nVidias Listenpreis-Vorgabe letztlich hingehören. Leider wird hierzu auch erst einmal der vorhandene Bestellberg abgearbeitet werden müssen, es reicht also nicht aus, einfach nur genügend Ware nur für die neu hereinkommenden Bestellungen zu haben. Ein Anziehen der Bestellungen, sobald die Straßenpreise halbwegs normales Niveau erreichen, wäre hierbei auch noch mit einzurechnen. Dass nVidia-Statement gibt (logischerweise) keinen genauen Termin vor, wann eine sinnvolle Angebotssituation erreicht werden soll – von Jahresstart 2021 bis Frühsommer 2021 ist da leider noch alles möglich.

Laut dem Planet 3DNow! werden die kommenden Radeon RX 6000 Grafikkarten keinerlei beachtbare Auswirkungen auf das Cryptomining-Geschäft haben, da jene kaum mehr Miningleistung unter Ethereum bringen als Radeon RX 5700 Grafikkarten – und dies zu deutlich höheren Preislagen. Grundlage hierfür ist die Abhängigkeit des Ethereum-Miningalgorithmus von der Speicherperformance der benutzten Grafikkarten – im übrigen eine bewusste Entscheidung der Ethereum-Macher, um es ASIC-Anbietern zu erschweren, in diesem Feld Fuß zu fassen. Die Radeon RX 6800/6900 Karten mit ihrem (für die gebotene Rechenleistung) jedoch nur mittelprächtigem 256-Bit-Interface sind für Ethereum-Mining ziemlich suboptimal, die Miningleistung ist kaum 20% höher als bei einer Radeon RX 5700 XT. Der "Infinity Cache" des Navi-21-Chips ist augenscheinlich keine Hilfe, da für heutige Mining-Aufgaben deutlich zu klein – sprich, die Radeon RX 5700 Serie bleibt beim Ethereum-Mining (wesentlich) effizienter. Damit ist es auch nicht zu befürchten, dass Cryptominer demnächst den Gamern wiederum alle neuen AMD-Grafikkarten wegkaufen, AMDs neues Speichersystem bei der RDNA2-Architektur schiebt dieser Thematik sehr effektiv einen Riegel vor. Andere Cryptoming-Algorithmen könnten natürlich trotzdem gut auf RDNA2-Beschleunigern laufen, sind aber laut dem Planet 3DNow! in der Marktmacht zu klein, um den Grafikkarten-Absatz substantiell beeinflußen zu können.

Twitterer Apisak hat einen Geekbench-Eintrag zur GeForce RTX 3060 Ti erspäht – dessen hauptsächlicher Zweck darin besteht, die Verwendung von 38 (aktiven) Shader-Clustern bei dieser zweiten GA104-basierten Grafikkarte zu bestätigen. Interessanterweise gibt es jede Menge dieser kleineren Leaks und Vorablistungen zur GeForce RTX 3060 Ti, obwohl jene Karte – im Gegensatz zu den bisherigen Ampere-Grafikkarten – bislang nicht vorab von nVidia angekündigt wurde, trotzdem schließlich schon (gerüchteweise) am 2. Dezember ansteht. Dies könnte eventuell darauf hindeuten, dass bei der GeForce RTX 3060 Ti eine etwas bessere Liefersituation als bei den bisherigen Ampere-Grafikkarten herauskommt. Im vermutlichen Preisrahmen von 399 Dollar dürften auch die "nur" 8 GB Grafikkartenspeicher weitaus besser verschmerzbar sein als bei der größeren GeForce RTX 3070 – selbst im wenn im Januar möglicherweise noch eine GeForce RTX 3060 mit gleich 12 GB Speicher antritt.

"Radeon RX 6700 XT" GeForce RTX 3060 Ti GeForce RTX 3070
Grafikchip Navi 22 XT GA104-200 GA104-300
Technik vermutlich 4 Raster-Engines, 40 Shader-Cluster, 2560 FP32-Einheiten, 64 ROPs, 192 Bit GDDR6-Interface 5-6 Raster-Engines, 38 Shader-Cluster, 4864 FP32-Einheiten, 80-96 ROPs, 256 Bit GDDR6-Interface 6 Raster-Engines, 46 Shader-Cluster, 5888 FP32-Einheiten, 96 ROPs, 256 Bit GDDR6-Interface
Chiptakt unbekannt 1410/1665 MHz 1500/1725 MHz
Speicherausbau vermutlich 12 GB GDDR6 8 GB GDDR6 @ 14 Gbps 8 GB GDDR6 @ 14 Gbps
Rohleistungen unbekannt 16,2 TFlops & 448 GB/sec 20,3 TFlops & 448 GB/sec
Stromverbrauch unbekannt vermutlich 180W 220W (GCP)
FullHD Perf.Index unbekannt geschätzt ~1350-1420% 1590%
4K Perf.Index unbekannt geschätzt ~200-215% 245%
Listenpreis Richtung $400-450 vermutlich $399 $499
Release vermutlich Q1/2021 angeblich 2. Dezember 2020 29. Oktober 2020

Von Sumit Gupta @ Medium (via Notebookcheck) kommt eine vielbeachtete These zum Einsparpotential von Apples M1 Chip. Hierbei wird allerdings eine ziemliche Milchmädchen-Rechnung aufgemacht, nachdem der Apple M1 nur 40-50 Dollar kosten soll und die ansonsten verwendeten Intel-Chips hingegen gleich 175-250 Dollar. Logisch, dass sich hieraus selbst bei den Apple-Stückzahlen (nicht klein, aber dennoch weit unterhalb von 10% des x86-Gesamtmarkts) sofort Milliarden-Beträge an Differenz und damit angenommenem Einsparpotential ergeben. Diese Rechnung läßt sich allerdings umgehend dadurch zerstören, als dass die 40-50 Dollar für den M1-Chip natürlich nur die reinen Herstellungskosten sein können, ohne die von Apple selber zu tragenden Entwicklungskosten. Inwiefern die 175-250 Dollar für die Intel-Chips wirklich passen, ist unklar, möglicherweise bekommt Apple diese auch etwas günstiger – was aber im Sinne der Gesamtrechnung das Kraut nicht fett macht: Denn zuerst muss eine solide Kalkulations auch Apples Entwicklungskosten mit einbeziehen – und jene könnten pro Chip bezogen die Rechnung durchaus ungünstig machen, denn bei Intel lassen sich Entwicklungskosten auf viel mehr hergestellte Chips verteilen.

Gerade deswegen integriert Apple ja möglichst viel Technik in seine SoCs: Man will im Gegensatz zu Intel nicht so viele Varianten herstellen, lebt für diverse Produkte lieber mit Salvage-Versionen anstatt extra Chips auflegen zu müssen. Am Ende dürften nur wenige Leute bei Apple Zugang zu diesen Zahlen haben, welche jenes Rätsel wirklich auflösen können. Aber es darf erwartet werden, dass die Differenzen letztlich bei weitem nicht so groß sind und eher nicht in den Milliarden-Bereich gehen. Wie zudem schon einmal dargelegt, dürfte es Apple bei dem ganzen Schritt hin zu eigenen CPUs auch viel eher darum gehen, ein Performance-Monopol zu erlangen: Egal was man bei AMD & Intel einkaufen würde, deren Chips stehen immer auch dem PC-Business zur Verfügung, Apple kann sich damit logischerweise kein beachtbares Performance-Plus herausarbeiten. Dies geht nur mit den eigenen CPUs, in welche man dann auch viel besser weitere Hardware-Einheiten integrierten kann, die nur für die eigenen Betriebssysteme und Anwendungen benötigt werden. Im Sinne dieser Strategie wäre es letztlich sogar egal, wenn Apple das ganze etwas teurer kommt als der Einkauf bei AMD & Intel – den Pluspunkt, sich vom PC-Markt mittels exklusiver Hardware absetzen zu können, ist dies sicherlich wert.