13

Hardware- und Nachrichten-Links des 12./13. Januar 2019

PCGamer haben im Gespräch mit AMD genauere Informationen zu den Taktraten der Radeon VII erhalten, welche bislang nur ungenau auf ~1800/1000 MHz angegeben wurden. Nach AMD-Aussage soll der Basetakt der kommenden HighEnd-Grafikkarte bei 1450 MHz liegen, der durchschnittliche Boosttakt dann bei 1750 MHz – was etwas unterhalb der vorab genannten 1800 MHz liegt, welche nunmehr eher nur einen Peak-Wert darstellen sollen. Zudem wird sich die Karten-TDP auf exakt 300 Watt belaufen – was in unmittelbarer Nähe zur Radeon RX Vega 64 (295W) rangiert, so wie es angekündigt wurde. Mit den genannten Taktraten ist man zwischen +13-16% höher unterwegs als auf der Radeon RX Vega 64, hat allerdings auch -6% weniger Shader-Cluster zur Verfügung, so das es rein nominell somit gerade einmal noch zu +6,1% mehr theoretischer Rechenleistung reicht. So gesehen sind die praktisch erreichten +28,5% Performancegewinn gegenüber der Radeon RX Vega 64 schon richtig gut – was aber auch bedeutet, das viel mehr nicht zu erwarten ist, zu einer höheren Performance fehlt dann schlicht ein größeres Plus an Rechenleistung.

GeForce RTX 2080 Radeon RX Vega 64 Radeon VII
Chipbasis nVidia TU104 AMD Vega 10 AMD Vega 20
Fertigung 13,6 Mrd. Transistoren auf 545mm² Chipfläche in der 12nm-Fertigung von TSMC 12,5 Mrd. Transistoren auf 495mm² Chipfläche in der 14nm-Fertigung von GlobalFoundries 13,2 Mrd. Transistoren auf 331mm² Chipfläche in der 7nm-Fertigung von TSMC
Technik 6 Raster-Engines, 46 Shader-Cluster, 2944 Shader-Einheiten, 184 TMUs, 46 RT-Cores, 368 Tensor-Cores, 64 ROPs, 256 Bit GDDR6-Interface (Salvage) 4 Raster-Engines, 64 Shader-Cluster, 4096 Shader-Einheiten, 256 TMUs, 64 ROPs, 2048 Bit HBM2-Interface (Vollausbau) 4 Raster-Engines, 60 Shader-Cluster, 3840 Shader-Einheiten, 240 TMUs, 64 ROPs, 4096 Bit HBM2-Interface (Salvage)
Taktraten Ref: 1515/1710/3500 MHz
FE: 1515/1800/3500 MHz
1247/1546/945 MHz 1450/1750/1000 MHz
Rohleistungen Ref: 10,1 TFlops   FE: 10,6 TFlops
448 GB/sec
12,6 TFlops
484 GB/sec
13,4 TFlops (+6%)
1024 GB/sec (+112%)
Speicherausbau 8 GB GDDR6 8 GB HBM2 16 GB HBM2
off. Verbrauch Ref: 215W   FE: 225W 295W 300W
UltraHD Perf.Index Ref: 180%   FE: 186% 132% Hochrechnung: ~169%
Listenpreis Ref: 699$   FE: 799$/849€ 499$ 699$
Release 19. September 2018 14. August 2017 7. Februar 2019

Normalerweise würde man AMD natürlich an dieser Stelle empfehlen, noch eine weitere Gamer-Grafikkarte auf Vega-20-Basis aufzulegen – dann mit den vollen 64 Shader-Clustern und taktmäßig derart hochgeprügelt, das dann die GeForce RTX 2080 auch wirklich erreicht wird. Gut möglich allerdings, das die Radeon VII beim Chiptakt bereits derart ausgereizt ist, so das sich diese Idee kaum noch realisieren läßt. Hier werden die kommenden Übertaktungstests zur Radeon VII einen Hinweis darauf geben, ob da noch weiteres Taktraten-Potential im Vega-20-Chip schlummert – was ja auch wichtig ist für werksübertaktete Kartenversionen, welche sich nicht bei einer +20 MHz "Spaß"-Übertaktung aufhalten wollen. Viel eher denkbar wäre im übrigen, das sich später hergestellte Vega-20-Chips automatisch besser takten lassen, weil dann mit der Zeit die 7nm-Fertigung von TSMC für große PC-Chips einfach solider werden dürfte als jetzt, wo Vega 20 ganz eindeutig den 7nm-Vorkämpfer gibt. Zu einem deutlich späteren Zeitpunkt dürfte AMD diesen Taktraten-Gewinn dann allerdings kaum noch in neue Produkte überführen wollen, da ab Sommer/Herbst dann die Navi-Generation ansteht und selbige die Vega-Generation in allen Punkten ersetzen können sollte.

Aus unserem Forum kommt ein schöner Vergleich zur erreichten Packdichte verschiedener Halbleiterprodukte – welcher klar darauf hinweist, das die 7nm-Fertigung bei AMDs Vega-20-Chip der Radeon VII vollkommen unterdurchschnittliche Ergebnisse abliefert. So konnte Apple zwischen seinen SoCs A10 (16nm) und A12 (7nm) die Packdichte auf über das Dreifache steigern – während AMDs Sprung zwischen den Grafikchips Vega 10 (14nm) und Vega 20 (7nm) nur bei (vergleichsweise) mageren +60% liegt. Vermutlich ist dieser Wert aber nicht maßgeblich für die Möglichkeiten der 7nm-Fertigung – Vega 20 ist diesbezüglich wohl eher die Ausnahme von der Regel, da hierbei eine auf die 14nm-Fertigung konzipierte Architektur einfach nur auf die 7nm-Fertigung geshrinkt wurde. Dies ergibt heutzutage augenscheinlich nur noch unterdurchschnittliche Ergebnisse – ohne eine echte Architektur-Arbeit zugunsten der kleineren Fertigung geht es wohl nicht mehr. Selbiges dürften dann die weiteren antretenden PC-Chips in der 7nm-Fertigung durchaus aufbieten – und somit bessere Packdichten-Ergebnisse erreichen können als der Vega-20-Chip.

Apple nVidia AMD
A10 (16nm TSMC)
3,3 Mrd. Transistoren auf 125mm² Chipfläche
= 26 Mio. Transistoren pro mm²
GP102 (16nm TSMC)
12 Mrd. Transistoren auf 471mm² Chipfläche
= 25 Mio Transistoren pro mm²
Vega 10 (14nm GloFo)
12,5 Mrd. Transistoren auf 495mm² Chipfläche
= 25 Mio Transistoren pro mm²
A12 (7nm TSMC)
6,9 Mrd. Transistoren auf 83mm² Chipfläche
= 83 Mio Transistoren pro mm²
TU104 (12nm TSMC)
13,6 Mrd. Transistoren auf 545mm² Chipfläche
= 25 Mio Transistoren pro mm²
Vega 20 (7nm TSMC)
13,2 Mrd. Transistoren auf 331mm² Chipfläche
= 40 Mio Transistoren pro mm²

Die PC Games Hardware bringt eine interessante Argumentation entgegen dem Linux-Support von PC-Spielen, welche aus dem Mund eines Spieleentwicklers auch einigermaßen gewichtig klingt. So wurde seinerzeit "Planetary Annihilation" für Windows, MacOS und Linux aufgelegt, nachdem in der Kickstarter-Phase die Linux-Community lautstark für diesen Support geworben hatte. Nach der Realisierung des Spiels standen allerdings Linux-Verkäufen von anteilig nur 0,1% eine Menge an gemeldeten Bugs der Linux-Version von 20% (samt entsprechender Arbeitszeit zum Fixen dieser) gegenüber. Die Linux-Version aufzulegen, war also für den Spieleentwickler maßgeblich ineffektiv – nicht bezüglich des extra Aufwands bei der Spielentwicklung, sondern wegen des enorm größeren Support-Aufwandes. Jener resultiert natürlich primär daraus, das die Bedingungen unter Linux bei weitem nicht so einfach sind wie unter Windows: Unter Linux existiert eine extreme Fragmentierung auf verschiedene Linux-Distributionen, hinzu ist die Güte der Grafikkarten-Treiber augenscheinlich bei weitem noch nicht so hoch wie unter Windows – typische Probleme einer vergleichsweise kleinen Community also.

So etwas könnte sich von alleine legen, sofern Linux auf größere Nutzeranteile bzw. vor allem auf mehr Spieler unter Linux kommen würde. Dann sollten sich die wichtigsten für Gamer geeigneten Distributionen besser herauskristallisieren, zudem würden die Grafikchip-Entwickler wohl auch mehr Arbeitszeit in ihre Linux-Treiber investieren (können). Doch der Weg dahin bedingt womöglich einen Zwischenschritt, welcher bei den Spieleentwickler nicht zu einer derart ineffizienten Arbeitsweise führt. Denkbar wäre hierzu vielleicht die Idee, anstatt einen offiziellen Linux-Support anzubieten (was wie zu sehen in hohem Supportaufwand resultiert), seine Spiele einfach nur "Linux-tauglich" zu gestalten. Viele Linux-Titel sind schließlich über Wine oder Proton letztlich auf Linux lauffähig, den Aufwand hierfür übernimmt dann aber die Community bzw. an Linux direkt interessierte Dritte (wie Valve) – und es ist damit auch kein Supportaufwand für Linux-Nutzer seitens des Spieleentwicklers vonnöten. Was hierfür konkret vonnöten ist, können die Spieleentwickler sicherlich selber besser (anhand der vorliegenden Beispiele) erkennen – in jedem Fall wäre dies ein Mittelweg, wie man ohne größere eigene Anstregungen Linux-Gaming seitens der Spieleentwickler letztlich doch fördern kann.