17

Hardware- und Nachrichten-Links des 17. November 2021

Bei Igor's Lab ist man nochmals der Frage der Stromverbrauchswerte für Alder Lake im Gaming-Einsatz nachgegangen. Die diesbezüglichen Meßwerte von Igor's Lab waren im Vergleich mit anderen Reviews insbesondere für die Alder-Lake-Prozessoren vergleichsweise niedrig ausgefallen, besonders bemerkbar zwischen Core i9-12900K/KF und Ryzen 9 5950X. Während beispielsweise die entsprechenden Messungen von Golem hierzu von einem gleichartigen Spiele-Stromverbrauch ausgingen (108W zu 106W), ergab sich mit den Messungen von Igor's Lab eine klare 30-Watt-Differenz von 85W zu 115W zugunsten von Intel (jeweils im Schnitt mehrerer Spiele). Einen Teil hiervon kann nunmehr der Nachtest erklären, denn bei diesem ergibt sich eine klare Stromverbrauchs-Differenz zwischen Radeon RX 6900 XT (bei Igor's Lab) und GeForce RTX 3090 (die allermeisten anderen Reviews).

Gaming 720p P1 Radeon RX 6900 XT GeForce RTX 3090
Core i9-12900KF 158,5 fps  @  84,8W 140,7 fps  @  85,0W
Ryzen 9 5950X 143,3 fps  @  115,3W 119,4 fps  @  102,4W
gemäß der Ausführungen von Igor's Lab unter 10 Spiele-Benchmarks

So verbraucht der AMD-Prozessor mit der nVidia-Karte klar weniger als mit der AMD-Karte, die Stromverbrauchs-Differenz zum Intel-Prozessor geht somit gleich von 30 auf 17 Watt zurück. Dies ist dann schon eher in einem Rahmen, wo Mainboard und benutzte Spiele-Tests mit hineinspielen können. Generell ist diese Differenz aber sowieso nicht überzubewerten, da alle diese Prozessoren im Spiele-Betrieb auf tragbare Verbrauchswerte weit von ihrem Power-Limit entfernt herauskommen – und bei Praxis-üblichen Auflösungen geht es dann oftmals klar unterhalb von 100 Watt herunter. Demzufolge ist das eigentlich interessantere Ergebnis der Benchmarks von Igor's Lab die weitere Bestätigung, dass die Radeon RX 6900 XT die bessere Wahl für 720p-Benchmarks darstellt, da auf beiden Prozessoren der GeForce RTX 3090 unter dieser Auflösung sehr deutlich überlegen. Interessanterweise ergibt sich auf dem Core i9-12900KF sogar ein klarer fps-Gewinn zugunsten der AMD-Karte, ohne dass der Intel-Prozessor dafür mehr Strom verbrauchen würde.

Laut einer Schätzung seitens Single Lunch sind ein Fünftel der im Jahr 2021 hergestellten Grafikkarten für Ethereum-Mining benutzt worden. Jene Hochrechnung ist allerdings extrem grob, da hierbei schlicht die Hashrate der GeForce RTX 3070 mit dem Hashraten-Anstieg des Ethereum-Netzwerks und der gesamten ausgelieferten Grafikkarten-Menge des letzten Jahres in Verbindung gebracht wurden. Je nachdem wie die Grafikkarten-Menge des Jahres 2021 davon abweicht und wie weit die Hashrate der GeForce RTX 3070 vom tatsächlichen Durchschnitt aller Ethereum-Beschleuniger entfernt ist, können sich durchaus beachtbare Abweichungen bei dieser Schätzung ergeben. Auch ist das Jahr 2021 noch nicht vorbei, womit man eigentlich nicht mit der vollen Höhe einer Jahreslieferung rechnen dürfte – was den Anteil der Cryptominer allerdings nochmals steigern würde. Im (sehr) groben Maßstab könnte diese Rechnung allerdings durchaus stimmen – und würde dann auch als theoretische Erklärung für die steigenden Grafikkarten-Preise dienen können.

Denn wenn ein Fünftel des Angebots, was der normalen Bedarfsmenge entspricht (wesentlich mehr Grafikkarten als 2020 sind es wegen limitierter Wafer-Kapazitäten augenscheinlich nicht) bei den Minern versickert, dann trifft im Gamer-Markt 100% Nachfrage auf nur noch 75% Angebot. Sofern dies dauerhaft passiert, steigen zwangsläufig die Preise – bis ein Niveau erreicht ist, wo die Nachfrage aufgrund zu hoher Preislagen zurückgeht und somit Angebot (75%) und Nachfrage (75%) wieder ausgeglichen sind. Leider benötigt es zum Senken der Preise dann erheblicher Mehrlieferungen, denn vieles von der zurückgegangenen Nachfrage ist nur temporär auf Eis gelegt und kommt bei sinkenden Preisen wieder zurück. Kurzfristig müsste die Liefermenge also auf deutlich über 100% des Normalzustands hochgehen, um den vorhandenen Bedarfsberg abzubauen. Dies ist dann allerdings innerhalb der aktuellen 7/8nm-Generation nicht mehr wahrscheinlich, denn in selbiger sind keine neuen Waferkapazitäten (welche für Grafikchips freigegeben werden) mehr zu erwarten.

Tom's Hardware und VideoCardz berichten über Tape-Out samt offizieller Ankündigung des chinesischen Grafikchips "Fenghua No.1" seitens Xindong Technology und Innosilicon Technology. Jene Entwickler sind bislang nicht großartig in Erscheinung getreten, insofern ist überhaupt nicht einzuschätzen, wie ernsthaft und glaubwürdig deren Aussagen sind. Größere technische Details gab es leider auch nicht, allenfalls teilweise hochgegriffene Schlagworte wie der Einsatz von GDDR6X (bis 21 Gbps) sowie von Chiplets. Der herauskommende Grafikchip soll für alle möglichen Einsatzzwecke gedacht sein – darunter zuerst Server-Aufgaben, aber auch zum der Einsatz in Desktops & Laptops. Hierzu sollen die Grafik-APIs DirectX, OpenGL und Vulkan in ungenannter Versionsnummer unterstützt werden. Eine Angaben zur Leistungsregion wurde genauso wenig getroffen, das gezeigte Grafikkarten-Bild könnte allerdings auf eine Mainstream- bis Midrange-Lösung zutreffen.

Generell gilt abzuwarten, ob hier überhaupt etwas reales dran ist und ob die Entwickler ihr Produkt zur Serienreife bringen können (sicherlich erst Richtung Sommer 2022). Im Fall des Falles scheint dies zudem erst einmal nur eine Grafiklösung rein für den chinesischen Markt zu sein, ansonsten wäre die Ankündigung wohl gleich mehrsprachig ausgefallen. Mit dieser regionalen Beschränkung könnten die chinesischen Entwickler auch eventuellen Rechtsstreitigkeiten mit den Inhabern gewichtiger Patente auf diverse GPU-Grundlagen (AMD, Intel & nVidia) aus dem Weg gehen, welche eventuell eine solche Entwicklung torpedieren könnten. Gleichzeitig bedeutet dies aber auch, dass jene Grafikchip-Entwicklung vorerst keinen neuen Wettbewerber im internationalen Grafikchip-Markt ergibt – allenfalls könnten Xindong & Innosilicon zukünftig eventuell in diese Rolle hineinwachsen, ein Erfolg des "Fenghua"-Projekts vorausgesetzt.