9

Hardware- und Nachrichten-Links des 9. Februar 2021

Laut Twitterer Harukaze5719 schafft eine GeForce RTX 3060 im Desktop-Gewand eine Mining-Leistung von 50 MH/sec (unter Ethereum) – was ziemlich viel für diese klar kleinere Grafikkarte wäre. Bei Minerstat wird die GeForce RTX 3060 derzeit hingegen mit 41 MH/sec im Ethash-Algorithmus angegeben, wobei hier möglicherweise rein von den bislang allein erhältlichen Mobile-Varianten ausgegangen wird. Normalerweise wäre die GeForce RTX 3060 damit gegenüber ihrem Listenpreis nicht so Mining-effizient wie die GeForce RTX 3060 Ti, allerdings immer noch auf dem Niveau der GeForce RTX 3070. Trifft hingegen die Angabe des Twittereres zu, erhöht sich die Mining-Effizienz der GeForce RTX 3060 sogar auf das Niveau der GeForce RTX 3060 Ti – womit die Cryptominer ein neues bestes Spielzeug bekommen würden.

ETH MH/s Liste ETH/$-Eff.
GeForce RTX 3080 97,9 MH/sec $699 140 kH/sec/$
GeForce RTX 3070 61,8 MH/sec $499 123 kH/sec/$
GeForce RTX 3060 Ti 60,2 MH/sec $399 151 kH/sec/$
GeForce RTX 3060 41-50 MH/sec $329 125-152 kH/sec/$
Mining-Leistung laut Minerstat, zweiter Wert der GeForce RTX 3060 von Harukaze5719 @ Twitter

Aber auch zum niedrigeren Wert steht zu befürchten, dass die Cryptominer den Absatz der GeForce RTX 3060 stören werden, da derzeit in diesem Feld wirklich alles gekauft wird, was irgend erhältlich ist – egal der Effizienz und des Preispunktes. Laut WCCF Tech wird die GeForce RTX 3060 (non-Ti) derzeit bereits in Pakistan verkauft – für 750 Dollar, mehr als das Doppelte des Listenpreises. Und VideoCardz berichten hierzu von einer weiteren chinesischen Cryptomining-Farm, bestehend aus augenscheinlich dutzenden GeForce RTX 30 Laptops – verbunden auch mit einer Aufforderung an nVidia, endlich einmal etwas dagegen zu unternehmen. An dieser Stelle fällt auf, dass die Hersteller in dieser Frage zuletzt erstaunlich kleinlaut geworden sind, von den früheren Ankündigungen, dass man gegenüber Cryptomining diverse Asse im Ärmel hat, ist nichts mehr zu hören. Doch sofern dies nicht alles Schaumschlägerei war, ist jetzt sicherlich der Zeitpunkt, alle diese Anti-Mining-Maßnahmen zu aktivieren – oder wenigstens einzugestehen, dass man letztlich nichts tun kann.

VideoCardz haben einen Bericht des ungarischen Prohardver aufgetan, welcher über ein großes Treiber-Update bei AMD in diesem Frühling spricht. Dabei sollen zwei bedeutsame neue Dinge geboten werden: Ein verbessertes "Radeon Boost" sowie "FidelityFX Super Resolution", AMDs DLSS-Kontrahenten. Allerdings steht jenes verbesserte "Radeon Boost" bei Prohardver (laut der Google-Übersetzung) im Vordergrund und wird "FidelityFX SS" als nicht einmal Teil jenes großen Treiber-Updates genannt, während sich VideoCardz in ihrer Berichterstattung eher auf jenes DLSS-Äquivalent konzentrieren. Einen wirklich soliden Hinweis ist keiner der beiden Artikel zu entnehmen – es steht halt nun ein grober Termin mit "Frühling 2021" für ein großes AMD Treiber-Update und/oder "FidelityFX Super Resolution" im Raum, was jedoch noch zu bestätigen wäre. Generell wäre AMD gut beraten, jenes Thema nicht auf die lange Bank zu schieben, denn derzeit ist RayTracing unter AMD-Grafikkarten aus Performance-Gründen eher im Stadium einer Tech-Demo.

Somit wird für den "Produktiveinsatz" auf AMD-Seite dringend ein echter RayTracing-Beschleuniger gesucht – ähnlich wie nVidia einen solchen mit DLSS schon besitzt. Für den Augenblick kommt AMDs Hardware in vergleichenden Betrachtungen an dieser Stelle noch davon mit Einwänden wie, dass RayTracing derzeit noch ein Nischenthema sei und selbst auf nVidia-Hardware nicht immer flüssig läuft. Doch dies ist eine sicherlich endliche Argumentation – und AMD darf garantiert nicht auf den Zeitpunkt warten, wenn man diese Einwände dann eines Tages nicht mehr bringen kann. Insbesondere wenn die RDNA3-Generation mit dem augenscheinlich hohen technischen Ansatz ein Erfolg werden soll, geht dies kaum, ohne dass man nVidia auch in der Disziplin RayTracing-Performance zumindest grundsätzlich Paroli bieten kann. Und dies bedingt bei wirklich leistungsfressenden Spiele-Titeln (wie Cyberpunk 2077) dann einfach einen Nachbrenner à DLSS, gerade bei zukünftigen Spieletiteln mit höherer RayTracing-Last dürfte dies um so wichtiger werden.

Laut VideoCardz zeigt der von Leakbench @ Twitter erspähte Geekbench-4-Eintrag zu einem 16-Kerner von Alder Lake schon jetzt auf eine Performance knapp auf der Höhe des Core i9-9900K (SingleCore) bzw. Core i9-10900K (MultiCore) hin. Für ein eher frühes Samples mit dementsprechend niedrigeren Taktraten (der Basetakt war nur 2.2 GHz, der Turbo-Takt ließ sich nicht ermitteln) ist dies ein gutes Ergebnis, welches noch einigen Spielraum nach oben läßt. Sofern Alder Lake in finaler Ausfertigung beispielsweise die SingleCore-Performance von Zen 3 erreichen sollte, wäre ein MultiCore-Ergebnis knapp in der Nähe des Zwölfkerners Ryzen 9 5900X denkbar – nicht schlecht für einen Prozessor mit nur 8 großen (samt 8 kleinen) CPU-Kernen. Allerdings dürfte dies dann auch einen Bestcase darstellen, denn der Geekbench wird (wegen seiner Android-Versionen) eines der wenigen Programme sein, welche jetzt schon mit großen/kleinen CPU-Kernen gut zurechtkommen.