15

Hardware- und Nachrichten-Links des 14./15. August 2017

GameStar berichten über nVidia-Aussagen zu Volta-basierten Gaming-Lösungen – welche laut nVidia nicht mehr in diesem Jahr erwartet werden dürfen. Konkret setzt nVidia rein geschäftlich für die Weihnachtssaison 2017 weiterhin die Pascal-Generation im Gaming-Segment an – was ausreichend eindeutig ist, da passiert dann vor dem Frühjahr 2018 nichts. Die Begründung wird seitens GameStar wohl etwas falsch angesetzt, denn der GV100-Chip mit laut nVidia exorbitanten Produktionskosten von nahe 1000 Dollar war und ist nie für das Gaming-Segment geplant. Zudem hat jener Chip (aufgrund seiner Übergröße von 815mm²) auch flächennormiert gesehen höhere Produktionskosten als kleinere Chips, kann somit keineswegs als Maßstab angesehen werden. Die Gaming-Chips der Volta-Generation sind seitens nVidia schlicht etwas später geplant – primär, wenn die 12nm-Fertigung etwas stabiler ist. Zudem muß sich nVidia derzeit natürlich auch nicht großartig verausgaben, denn AMDs Pascal-Konter in Form der "Vega"-Generation ist bestenfalls mittelprächtig ausgefallen – nVidia kann derzeit das Tempo nach eigenem Gusto bestimmen.

Overclock3D weisen auf ein paar Aussagen seitens Gibbo von Overclockers UK hin, mittels welchen man (angeblich) steigende Listenpreise bei AMDs Radeon RX Vega vorhersagt. Leider sind Gibbos Worte mißverständlich gewählt und interpretiert die nachfolgende Berichterstattung dann auch noch mehr hinein, als wirklich dasteht. Stein des Anstoßes ist schlicht, das die "nackten" Radeon RX Vega 56/64 Karten in Britannien kaum erhältlich sind und daher oftmals nur die verschiedenen "Radeon Packs" (zu deren höheren Preislagen) erstanden werden können. Natürlich ist dies eine indirekte Preiserhöhung – jene kommt allerdings weder überraschend noch entspricht dies einer regelrechten Listenpreis-Erhöhung, denn alle diese Preislagen wurden von AMD bereits zur Ankündigung von Radeon RX Vega 56/64 derart genannt. So richtig ist der Gehalt dieser Aussagen & Meldungen also (noch) nicht zu sehen – außer das jene natürlich umgehend weit verbreitet wurden. Derzeit sind laut AMD jedenfalls keine steigenden Listenpreise bei Radeon RX Vega 56/64 angesetzt – wobei die aktuell steigenden Straßenpreise sich sicherlich zuerst aus dem Verhältnis von Angebot und Nachfrage ergeben, dennoch aber zu beobachten sein werden.

Wenigstens scheinen die Crypto-Miner bei Radeon RX Vega eher auf Granit zu beißen, denn die zuletzt genannten (sehr) hohen Mining-Hashrates von bestenfalls 70-100 MH/s bei Ethereum, wenigstens aber um die 60 MH/s haben sich nicht bewahrheitet. Im extra Ethereum-Test von Hot Hardware kommt Radeon RX Vega selbst mit einem Mining-optimierten Treiber samt Speicherübertaktung nur auf 35-36 MH/s. Dies ist kein schlechtes Ergebnis, aber nicht ausreichend besser als die nur wenig darunter liegenden Mining-Resultate von Radeon RX 400/500 und GeForce GTX 1060/1070 – welches ihre Mining-Ausbeute allerdings auf überaus deutlich niedrigerem Energieverbrauch erzielen. Radeon RX Vega könnte für Miner somit nur in jenen Sondersituationen interessant werden, wo der Stromverbrauch mehr oder weniger ohne Belang ist und es einfach um den höchstmöglichen Mining-Ertrag pro Grafikkarte geht. Da diese Situation in der Praxis zu selten sein dürfte, könnte Radeon RX Vega für Miner alternativ nur interessant sein, wenn gar keine anderen Grafikkarten mehr erhältlich sind – was derzeit aber schon nicht mehr der Fall ist, die Liefersituation der gern fürs Mining genutzten Grafikkarten beruhigt sich zusehens. Insofern geht diese Kelch womöglich an den Grafikkarten-Käufern vorbei – wird aber bei allen zukünftigen Grafikkarten-Launches weiterhin als latentes Damoklesschwert im Hintergrund lauern.

ComputerBase und Heise berichten genaueres zur nächsten Generation von Intels LowPower-Prozessoren mit Codenamen "Gemini Lake", welche zum Jahresende die aktuellen LowPower-Prozessoren der Apollo-Lake-Generation ablösen sollen (was so auch auf der letzten bekannten Intel-Roadmap notiert wurde). Für die neue Generation überarbeitet Intel die "Goldmont" CPU-Kerne leicht (bekannt ist derzeit eine höhere Dekodierleistung von 4 anstatt 3 Operationen pro Takt sowie eine Verdopplung des Level2-Caches von 2 auf 4 MB), wird aber vor allem bei der integrierten Grafiklösung in die Vollen gehen: Jene soll von bisher 4 Ausführungseinheiten ("Execution Units" = EU) dann auf gleich 18 Ausführungseinheiten hochschießen – dies ist mehr als bei vielen früheren Desktop-Prozessoren von Intel (mit 12 oder 16 EU). Technologisch ist dies sicherlich interessant, allerdings schwingt hierbei dann immer auch schon die Sinnfrage mit – die kleinen CPU-Kerne von Goldmont kombiniert mit gleich 18 Grafik-Ausführungseinheiten ergibt am Ende keine CPU mit integrierter Grafiklösung, sondern eher so etwas wie eine LowCost-Grafiklösung mit integrierter Mini-CPU.

Augenscheinlich will Intel diese (gern von NAS-Systemen über Mini-PCs bis hin zu kleinen Notebooks verwendeten) LowPower-Prozessoren zukünftig breiter verkaufen – und glaubt, das man dies über eine dickere integrierte Grafiklösung besser hinbekommt. Für gewisse (aber seltene) Anwendungszwecke mag dies nicht völlig verkehrt sein, letztendlich reicht aber auch die vorhandene Grafikpower der bisherigen Apollo-Lake-Prozessoren locker für die an jene üblicherweise gestellten Anforderungen beim Display- und Video-Betrieb aus – und für PC-Spiele ist die gebotene Grafik- wie auch CPU-Leistung dann aber dennoch (deutlich) zu schwach. Insofern ist es hier schwer, einen echten Nutzen dieser etwas seltsamen Konstruktion zu sehen – vielleicht lassen sich solcherart SoCs besser an die PC- und Notebook-Hersteller verkaufen, weil dort die Performance in theoretischen Benchmarks eher etwas zählt als ein realer Praxisnutzen. In jener Praxis geht das ganze allerdings eher in Richtung deutlicher Silizium-Verschwendung – welche sich Intel natürlich aufgrund seiner hocheffizienten Chipfertigung durchaus leisten kann.