20

Hardware- und Nachrichten-Links des 20. Oktober 2021

Twitterer HXL vermeldet ein paar Übertaktungs-Werte zu einem Core i9-12900K aus Fernost. Jenes Alder-Lake-Spitzenmodell war dabei auf 5.2 GHz AllCore-Takt zu bringen, lief hierzu mit 1.385 Volt CPU-Spannung und auf einer Leistungsaufnahme von 330 Watt (bei allerdings unklarer Meßmethode). Die damit erzielten Performance-Werte fallen allerdings nicht überragend aus, gegenüber dem gestern notierten Engineering Sample (auf maximal 5.1 GHz Takt) sind es unter dem CPU-Z-Benchmark nur +2,8% im Singlethread-Test sowie +4,6% im Multithread-Test mehr. Die Systeme sind eigentlich nicht direkt miteinander vergleichbar, da unterschiedliche Prozessoren-Samples benutzt wurden, aber die Ergebnis-Höhe deutet doch stark in die Richtung, dass auch bei Alder Lake mit Übertaktung wiederum nicht viel zu erreichen sein wird – sprich Intel im Werkszustand bereits so gut wie alles schon selbst herausholt.

Hardware CB23/ST CB23/MT CPU-Z/ST CPU-Z/MT
Core i9-12900K OC ADL, 8C+8c/24T, @ 5.2 GHz - - 851,0 11986,9
Core i9-12900K (ES) ADL, 8C+8c/24T, 3.2/5.1 GHz (ES) 2007 27461 827,7 11456,5
Core i9-11900K RKL, 8C/16T, 3.5/5.3 GHz 1770 16617 713 7198
Ryzen 9 5950X Zen 3, 16C/32T, 3.4/4.9 GHz 1598 28963 665,7 12957,7
gemäß den Benchmarks bei Bilibili, ergänzt um die von HXL @ Twitter gemeldeten OC-Werte

Dafür wird es unter Übertaktung wiederum sehr stromdurstig – wobei wie gesagt unklar ist, wie jene 330 Watt Stromverbrauch unter Übertaktung ermittelt wurden. Da hiermit dann kaum ein Fortschritt gegenüber Rocket Lake zu erkennen ist, dürfte auch bei Alder Lake die Frage der Einhaltung der von Intel vorgegebenen Power-Limits für die Benchmarks der anstehenden Launchreviews von Bedeutung sein. Hierzu soll keinem Hardwaretester irgendetwas vorgeschrieben werden, sind unterschiedliche Ansichten notwendig und willkommen. Wichtig ist allerdings die exakte Dokumentation der benutzten Settings – sprich, ob man die Intel-Limits manuell forciert, irgendein eigenes Setting gewählt oder sich auf die default-Werte des jeweils vorliegenden Mainboards verlassen hat. In letzterem Fall wäre dann natürlich auszuführen, was dies konkret bedeutet – ansonsten geht jegliche Vergleichbarkeit zwischen den Benchmarks verschiedener Quellen verloren.

Bei Ethereum bahnt sich eine weitere Verschiebung des Abschieds vom Mining an: Die hierfür notwendige "Difficulty Bomb" soll möglicherweise von Februar auf Juni 2022 verschoben werden. Mittels dieser Maßnahme wird die Mining-Schwierigkeit fließend über mehrere Monate deutlich nach oben geschraubt, was die Erlöse von Ethereum-Mining reduziert und die Miner zu anderen Mining-Cryptowährungen treiben sollte. Hierbei handelt sich um eine begleitende Maßnahme zum Umstieg auf das "Proof of Stake" Verfahren bei Ethereum – was jedoch zwingend notwendig ist, damit Ethereum-Mining dann auch wirklich unlukrativ wird. Und genau hier liegt der springende Punkt: Die Verschiebung auf Juni 2022 bedeutet, dass die Cryptominer noch tief bis ins Jahr 2022 mit Gewinnen aus dem Ethereum-Mining rechnen können – wie gesagt "explodiert" diese Bombe sehr langsam über Monate hinweg und ist genannte Juni 2022 nur der Startschuß hierfür.

Faktisch bleibt Ethereum-Mining somit voraussichtlich bis in den Spätsommer 2022 lukrativ – was erstaunlich gut mit dem nachfolgend erwarteten Release der 5nm-Grafikchips von AMD & nVidia zusammenpasst. Möglicherweise gibt es auch eine andere Erklärung, aber auf den ersten Blick sieht es ganz danach aus, als könnten die Cryptominer damit diese Hardware-Generation noch komplett mitnehmen – die größten Investitionen sind schließlich allesamt getätigt, jetzt geht es nur noch ums Geldscheffeln. Der Abbruch soll dann kurz vor dem Eintreffen der nächsten Hardware-Generation erfolgen – mit welcher man sicher nochmals besser minern könnte, welche aber auch erhebliche Anfangsinvestitionen erfordert. So oder so geht es damit derzeit in diese Richtung, dass die aktuellen Ampere- und RDNA2-Generationen nahezu "verloren" sind, jene möglicherweise erst im Auslauf-Status zu vernünftigen Preislagen zurückfinden werden.

Kurz nachdem es gefordert wurde, sind tatsächlich die ersten unabhängigen GPU-Benchmarks zum Apple M1 Max aufgetaucht: Twitterer La Frite David weisst auf ein paar Zahlen in der Benchmark-Datenbank von GFXBench hin, welche vorteilhafterweise System- und Plattform-übergreifend vergleichbar sind. Leider liegen zu den nVidia-Lösungen keine vollständigen Benchmarks unter einer einzigen API vor, so dass hierbei Werte von DirectX und OpenGL gemischt werden mussten, um auf eine halbwegs vernünftige Benchmark-Anzahl zu kommen. Ob das Ergebnis belastbar ist, steht auf einen anderem Blatt – denn der M1 Max SoC kommt im Schnitt der Benchmarks sogar besser heraus als unter den Apple-eigenen Verkündigungen, schlägt eine GeForce RTX 3080 Laptop und kommt nur knapp hinter einer (Chip-gleichen) GeForce RTX 3070 Desktop durchs Ziel.

GFXBench 5.0 M1 Max 3070 Laptop 3080 Laptop 3070 Desktop
Aztec Ruins Normal Tier  (Metal vs DirectX) 703,2 fps 632,6 fps 716,1 fps 890,6 fps
Aztec Ruins High Tier  (Metal vs DirectX) 292,8 fps 242,9 fps 274,0 fps 362,0 fps
Car Chase  (Metal vs OpenGL) 425,1 fps 408,1 fps 437,8 fps 510,4 fps
1440p Manhattan 3.1.1  (Metal vs OpenGL) 440,5 fps 377,7 fps 394,8 fps 501,2 fps
Manhattan 3.1  (Metal vs OpenGL) 946,4 fps 547,6 fps 580,7 fps 637,7 fps
Manhattan  (Metal vs DirectX) 1282,2 fps 1052,5 fps 1205,0 fps 1215,5 fps
T-Rex  (Metal vs OpenGL) 2416,8 fps 1871,9 fps 1918,0 fps 2257,0 fps
Index 100% 80,9% 87,8% 103,5%
Index ohne Manhattan 3.1 100% 85,5% 93,2% 111,2%
Apple M1 Max verglichen mit GeForce RTX 3070 Laptop, GeForce RTX 3080 Laptop & GeForce RTX 3070 Desktop im GFXBench 5.0, jeweils unter der besten API

Selbst ein Index ohne "Manhattan 3.1", wo die nVidia-Lösungen durchgehend klar zurückliegen, verschiebt nur die Prozentwerte, führt jedoch nicht zu einem radikal anderen Ergebnis. Eben weil diese Zahlen damit besser als Apples eigene Zahlen ausfallen, sind jene wahrscheinlich eher von Seiteneffekten verzerrt, als denn Realitäts-getreu. Allerdings kann man somit zumindest den Verdacht äußern, dass Apples Performance-Prognose nicht maßlos übertrieben sein sollte – denn ohne wenigstens einer Hardware-Kraft in der Nähe der nVidia-Lösungen wären diese GFXBench-Ergebnisse schließlich nicht machbar. Selbst die von Notebookcheck gezeigten, beachtbar schwächeren Benchmark-Werte zum M1 Max SoC ändern nichts an dieser grundsätzlichen Einordnung. Ein klarer Beweis durch einen allgemein anerkannten Grafik-Benchmark wäre natürlich jederzeit besser als diese wohlfeilen Vermutungen.