11

Hardware- und Nachrichten-Links des 11. Juli 2017

Die PC Games Hardware liefert nun ebenfalls noch einen Test der Radeon Vega Frontier Edition ab, welcher vor allem mit seinen Detailbetrachtungen glänzen kann. So deuten die angestellten Füllraten-Tests ("Fillrates" in der Beyond3D-Suite) erneut darauf hin, das der mit der Vega-Architektur versprochene "Draw Stream Binning Rasterizer" derzeit nicht aktiv ist, in Bestätigung anderer Tests hierzu. Die vorgenommenen Bandbreiten-Tests ("Effective Texture Bandwith" in der Beyond3D-Suite) deuten dann auf erhebliche Probleme mit der effektiv zur Verfügung stehenden Speicherbandbreite hin – jene liegt sogar erheblich unterhalb (255 GB/sec) der in dieser Frage reichlich ineffizienten Radeon R9 Fury X (350 GB/sec). Dies dürfte auch die nicht optimale Chiptakt-Skalierung erklären, die erst kürzlich festgestellt wurde – und welche auch bei der PCGH teilweise wieder zu sehen ist: Zwischen der Stock-Performance (Boost bei zwischen 1348 und 1440 MHz) und einer auf 1600 MHz Chiptakt (ohne Drosselung) festgezimmerten Karte liegt bei ~15% Mehrtakt nur +10% Mehrperformance.

1070 1080 1080 Ti Vega FE @ Stock Vega FE @ 1600 MHz
12 Spieletests @ WQHD 92,9% 118,3% 144,7% 100% 108,3%
12 Spieletests @ UltraHD 92,2% 117,0% 147,8% 100% 110,2%
Performance-Durchschnitt gemäß der Benchmarks der PC Games Hardware

Da jene 1600 MHz Chiptakt aber schließlich noch dem normalen Betriebsrahmen von Vega 10 entsprechen, die Speicherbandbreite also diesem angemessen gewählt sein sollte, wäre hier eigentlich eine bessere Skalierung zu erwarten gewesen. Entweder hat sich AMD bei der Speicherbandbreite für die Karte grundlegend verkalkuliert (und jene +5,8%, welche zu den einstmals geplanten 1000 MHz Speichertakt fehlen, machen da auch keine große Differenz mehr aus) – oder aber die mit den aktuellen Vega-Treibern derzeit noch nicht freigeschalteten GCN5-Features können noch wesentliches herausreißen. Insbesondere dem Draw Stream Binning Rasterizer (DSBR) sagt man ja nach, ganz erheblich an Speicherbandbreite einsparen zu können, dies könnte nach dessen Aktivierung noch einiges verändern. Dies dürfte allerdings nur teilweise ausreichen, wenn das Limit der effektiv vorhandenen Speicherbandbreite derart niedrig bleibt – hierzu kann man nur hoffen, das dies alles Seiteneffekte der derzeit ganz gewiß noch nicht auf vollem Vega-Niveau laufenden aktuellen Treiber sind.

ComputerBase und Heise berichten über einen deutlichen Kursabfall von Ethereum – verbunden mit der Hoffnung auf ein Ende des Mining-Booms und damit einer Rückkehr des Grafikkarten-Markts zu normalen Zuständen mit sinnvollen Preisen und vorhandener Lieferbarkeit. Allerdings ist dafür der aktuelle Kursabfall noch lange nicht ausreichend – und aus bisherigen Trends läßt sich der weitere Kursverlauf auch nicht interpolieren, dafür sind die Cryptowährungen allgemein zu volatil. Einzurechnen wäre zudem, das die Wirtschaftlichkeit von Crypto-Mining üblicherweise von diesen Marktteilnehmern bestimmt wird, welche eine außergewöhnlich gute Kostenstruktur vorweisen können – sprich, Sonderpreise vom Stromwerk oder gleich alles "sponsored by Daddy". Jene Miner-Gruppe dürfte wohl noch sehr lange Gewinne erwirtschaften können, da müssen sich die Erhöhung der Mining-Schwierigkeit und der Kursverfall noch eine ganze Zeit lang fortsetzen, um dies zu ändern.

Auf den Grafikkarten-Markt bezogen würde es natürlich ausreichend sein, wenn sich schon erst einmal die Neuanschaffung von Grafikkarten zu Mining-Zwecken nicht mehr lohnt. Rein technisch ist dieser Zeitpunkt zwar noch nicht erreicht, aber man befindet sich derzeit mit einem solchen Vorhaben klar in einer Risikozone. Denn der aktuelle Gewinn pro Monat ist erheblich zurückgegangen, damit verlängert sich die Zeit, bis die extra angeschaffte Hardware abbezahlt ist. Denn je länger dieser Zeitraum in der Praxis wird, um so höher steigt das Risiko, durch die weitere Erhöhung der Mining-Schwierigkeit und den Kursverfall alle vorherigen Kalkulationen nicht mehr einhalten zu können, am Ende nicht einmal mehr den Preis der Hardware herausarbeiten zu können. Für normale Anwender, welche mit üblichen mitteleuropäischen Strompreisen rechen müssen, dürfte der Zeitpunkt wohl schon überschritten sein, wo man noch neue Hardware zum Mining anschafft. Ob dies schon ausreicht, den Druck vom Grafikkarten-Markt zu nehmen, wäre zwar zu bezweifeln – aber es ist ein Anfang, vielleicht ergibt sich in ein paar Wochen dann schon ein freundlicheres Bild.

Videocardz können unsere kürzliche Meldung zu Radeon RX Vega XL, XT & XTX gemäß deren eigener Quellen bestätigen – und fügen zudem noch ein paar weitere Detailinformationen hinzu. So wurde die Verwendung von 8 GB HBM2-Speicher bei XT & XTX bestätigt, bei der XL ist dies noch offen – was die Chance ergibt, das dort nur 4 GB HBM2-Speicher verbaut sind. Allerdings ist selbiges auch nicht gerade trivial zu bewältigen, immerhin muß dafür das Package seitens AMD mit anderen HBM2-Chips bestückt werden, hier liegt regelrecht ein Mehraufwand zuungunsten von AMD vor (bei Grafikchips mit HBM2-Speicher erhalten die Grafikkarten-Hersteller das komplette Package bereits mit installiertem Speicher vom Grafikchip-Entwickler). Und desweiteren wird die Radeon RX Vega XL ohne Referenzdesign daherkommen – wie die Radeon R9 Fury (non-X) also rein als Herstellerdesign am Markt sein. Damit dürfte die Radeon RX Vega XL ihren Launch auch erst später haben, weil bei dieser Karte auf die reale Verfügbarkeit erster Herstellerdesigns zum Ende des August hin gewartet werden muß.

SKU Shader-Cluster Speicher Kühlung ASIC Power Board Power Anmerkung Launch
Radeon RX Vega XTX 64 Shader-Cluster
= 4096 Shader-Einheiten
8 GB HBM2 AiO (Wasser) 300W 375W - (vermutlich)
Anfang August
Radeon RX Vega XT 64 Shader-Cluster
= 4096 Shader-Einheiten
8 GB HBM2 Luft 220W 285W - (vermutlich)
Anfang August
Radeon RX Vega XL 56 Shader-Cluster
= 3584 Shader-Einheiten
? GB HBM2 Luft 220W 285W kein Referenzdesign (vermutlich)
Ende August

Intels nunmehr offiziell vorgestellten Skylake-SP Server-Prozessoren (siehe Berichte von Golem & Heise) kann man auch dazu hernehmen, über die möglichen Taktraten der noch fehlenden Skylake-X Prozessoren nachzudenken – sprich über Core i9-7920X, -7940X, -7960X & -7980XE. Speziell für den zuletzt genannten 18-Kerner stehen wohl Xeon Gold 6150 (18C, 2.7/3.7 GHz, 165W) und Xeon Gold 6154 (18C, 3.0/3.7 GHz, 200W) als Orientierungshilfen zur Verfügung – was gegenüber den 3.3/4.3 GHz des 10-Kerners Core i9-7900X dann doch schon einen erheblichen Unterschied ausmacht, angesichts der damit erreichten TDP jedoch kaum noch steigerungsfähig ist. Intel kann zwar für im Desktop-Segment verwendete Prozessoren generell mit etwas niedrigeren Stromverbrauchs-Lasten rechnen (weil die wenigste Desktop-Software einen 18-Kerner wirklich auslasten kann), aber größere Aufschläge als bestenfalls +200 MHz sind hier nicht denkbar. Ohne einen erheblichen Taktraten-Rückschritt gegenüber dem Core i9-7900X wird dies also nicht realisierbar sein – womit sich dann die Frage stellt, ob der beachtbar niedriger getaktete 18-Kerner überhaupt einen gut getaketen 10-Kerner im Desktop-Umfeld schlagen kann. Sicherlich geht es Intel bei der Aufstellung des Core i9-7980XE für das Consumer-Segment primär darum, AMD im "Kerne-Krieg" einen Schritt voraus zu sein – wenn die Performance letztlich aber gar nicht passend sein sollte, könnte sich das ganze auch zu einem gewissen Eigentor entwickeln.