Twitterer HXL vermeldet ein paar Übertaktungs-Werte zu einem Core i9-12900K aus Fernost. Jenes Alder-Lake-Spitzenmodell war dabei auf 5.2 GHz AllCore-Takt zu bringen, lief hierzu mit 1.385 Volt CPU-Spannung und auf einer Leistungsaufnahme von 330 Watt (bei allerdings unklarer Meßmethode). Die damit erzielten Performance-Werte fallen allerdings nicht überragend aus, gegenüber dem gestern notierten Engineering Sample (auf maximal 5.1 GHz Takt) sind es unter dem CPU-Z-Benchmark nur +2,8% im Singlethread-Test sowie +4,6% im Multithread-Test mehr. Die Systeme sind eigentlich nicht direkt miteinander vergleichbar, da unterschiedliche Prozessoren-Samples benutzt wurden, aber die Ergebnis-Höhe deutet doch stark in die Richtung, dass auch bei Alder Lake mit Übertaktung wiederum nicht viel zu erreichen sein wird – sprich Intel im Werkszustand bereits so gut wie alles schon selbst herausholt.
Hardware | CB23/ST | CB23/MT | CPU-Z/ST | CPU-Z/MT | |
---|---|---|---|---|---|
Core i9-12900K OC | ADL, 8C+8c/24T, @ 5.2 GHz | - | - | 851,0 | 11986,9 |
Core i9-12900K (ES) | ADL, 8C+8c/24T, 3.2/5.1 GHz (ES) | 2007 | 27461 | 827,7 | 11456,5 |
Core i9-11900K | RKL, 8C/16T, 3.5/5.3 GHz | 1770 | 16617 | 713 | 7198 |
Ryzen 9 5950X | Zen 3, 16C/32T, 3.4/4.9 GHz | 1598 | 28963 | 665,7 | 12957,7 |
gemäß den Benchmarks bei Bilibili, ergänzt um die von HXL @ Twitter gemeldeten OC-Werte |
Dafür wird es unter Übertaktung wiederum sehr stromdurstig – wobei wie gesagt unklar ist, wie jene 330 Watt Stromverbrauch unter Übertaktung ermittelt wurden. Da hiermit dann kaum ein Fortschritt gegenüber Rocket Lake zu erkennen ist, dürfte auch bei Alder Lake die Frage der Einhaltung der von Intel vorgegebenen Power-Limits für die Benchmarks der anstehenden Launchreviews von Bedeutung sein. Hierzu soll keinem Hardwaretester irgendetwas vorgeschrieben werden, sind unterschiedliche Ansichten notwendig und willkommen. Wichtig ist allerdings die exakte Dokumentation der benutzten Settings – sprich, ob man die Intel-Limits manuell forciert, irgendein eigenes Setting gewählt oder sich auf die default-Werte des jeweils vorliegenden Mainboards verlassen hat. In letzterem Fall wäre dann natürlich auszuführen, was dies konkret bedeutet – ansonsten geht jegliche Vergleichbarkeit zwischen den Benchmarks verschiedener Quellen verloren.
Bei Ethereum bahnt sich eine weitere Verschiebung des Abschieds vom Mining an: Die hierfür notwendige "Difficulty Bomb" soll möglicherweise von Februar auf Juni 2022 verschoben werden. Mittels dieser Maßnahme wird die Mining-Schwierigkeit fließend über mehrere Monate deutlich nach oben geschraubt, was die Erlöse von Ethereum-Mining reduziert und die Miner zu anderen Mining-Cryptowährungen treiben sollte. Hierbei handelt sich um eine begleitende Maßnahme zum Umstieg auf das "Proof of Stake" Verfahren bei Ethereum – was jedoch zwingend notwendig ist, damit Ethereum-Mining dann auch wirklich unlukrativ wird. Und genau hier liegt der springende Punkt: Die Verschiebung auf Juni 2022 bedeutet, dass die Cryptominer noch tief bis ins Jahr 2022 mit Gewinnen aus dem Ethereum-Mining rechnen können – wie gesagt "explodiert" diese Bombe sehr langsam über Monate hinweg und ist genannte Juni 2022 nur der Startschuß hierfür.
Faktisch bleibt Ethereum-Mining somit voraussichtlich bis in den Spätsommer 2022 lukrativ – was erstaunlich gut mit dem nachfolgend erwarteten Release der 5nm-Grafikchips von AMD & nVidia zusammenpasst. Möglicherweise gibt es auch eine andere Erklärung, aber auf den ersten Blick sieht es ganz danach aus, als könnten die Cryptominer damit diese Hardware-Generation noch komplett mitnehmen – die größten Investitionen sind schließlich allesamt getätigt, jetzt geht es nur noch ums Geldscheffeln. Der Abbruch soll dann kurz vor dem Eintreffen der nächsten Hardware-Generation erfolgen – mit welcher man sicher nochmals besser minern könnte, welche aber auch erhebliche Anfangsinvestitionen erfordert. So oder so geht es damit derzeit in diese Richtung, dass die aktuellen Ampere- und RDNA2-Generationen nahezu "verloren" sind, jene möglicherweise erst im Auslauf-Status zu vernünftigen Preislagen zurückfinden werden.
Kurz nachdem es gefordert wurde, sind tatsächlich die ersten unabhängigen GPU-Benchmarks zum Apple M1 Max aufgetaucht: Twitterer La Frite David weisst auf ein paar Zahlen in der Benchmark-Datenbank von GFXBench hin, welche vorteilhafterweise System- und Plattform-übergreifend vergleichbar sind. Leider liegen zu den nVidia-Lösungen keine vollständigen Benchmarks unter einer einzigen API vor, so dass hierbei Werte von DirectX und OpenGL gemischt werden mussten, um auf eine halbwegs vernünftige Benchmark-Anzahl zu kommen. Ob das Ergebnis belastbar ist, steht auf einen anderem Blatt – denn der M1 Max SoC kommt im Schnitt der Benchmarks sogar besser heraus als unter den Apple-eigenen Verkündigungen, schlägt eine GeForce RTX 3080 Laptop und kommt nur knapp hinter einer (Chip-gleichen) GeForce RTX 3070 Desktop durchs Ziel.
GFXBench 5.0 | M1 Max | 3070 Laptop | 3080 Laptop | 3070 Desktop |
---|---|---|---|---|
Aztec Ruins Normal Tier (Metal vs DirectX) | 703,2 fps | 632,6 fps | 716,1 fps | 890,6 fps |
Aztec Ruins High Tier (Metal vs DirectX) | 292,8 fps | 242,9 fps | 274,0 fps | 362,0 fps |
Car Chase (Metal vs OpenGL) | 425,1 fps | 408,1 fps | 437,8 fps | 510,4 fps |
1440p Manhattan 3.1.1 (Metal vs OpenGL) | 440,5 fps | 377,7 fps | 394,8 fps | 501,2 fps |
Manhattan 3.1 (Metal vs OpenGL) | 946,4 fps | 547,6 fps | 580,7 fps | 637,7 fps |
Manhattan (Metal vs DirectX) | 1282,2 fps | 1052,5 fps | 1205,0 fps | 1215,5 fps |
T-Rex (Metal vs OpenGL) | 2416,8 fps | 1871,9 fps | 1918,0 fps | 2257,0 fps |
Index | 100% | 80,9% | 87,8% | 103,5% |
Index ohne Manhattan 3.1 | 100% | 85,5% | 93,2% | 111,2% |
Apple M1 Max verglichen mit GeForce RTX 3070 Laptop, GeForce RTX 3080 Laptop & GeForce RTX 3070 Desktop im GFXBench 5.0, jeweils unter der besten API |
Selbst ein Index ohne "Manhattan 3.1", wo die nVidia-Lösungen durchgehend klar zurückliegen, verschiebt nur die Prozentwerte, führt jedoch nicht zu einem radikal anderen Ergebnis. Eben weil diese Zahlen damit besser als Apples eigene Zahlen ausfallen, sind jene wahrscheinlich eher von Seiteneffekten verzerrt, als denn Realitäts-getreu. Allerdings kann man somit zumindest den Verdacht äußern, dass Apples Performance-Prognose nicht maßlos übertrieben sein sollte – denn ohne wenigstens einer Hardware-Kraft in der Nähe der nVidia-Lösungen wären diese GFXBench-Ergebnisse schließlich nicht machbar. Selbst die von Notebookcheck gezeigten, beachtbar schwächeren Benchmark-Werte zum M1 Max SoC ändern nichts an dieser grundsätzlichen Einordnung. Ein klarer Beweis durch einen allgemein anerkannten Grafik-Benchmark wäre natürlich jederzeit besser als diese wohlfeilen Vermutungen.