13

Hardware- und Nachrichten-Links des 13. Juli 2016

Die PC Games Hardware berichtet über Microsofts Arbeiten an einem quelloffenem Multi-GPU-Layer für DirectX 12. Hiermit soll primär kleineren Spiele-Entwicklern die Möglichkeit gegeben werden, auf einfachem Wege Multi-GPU-Support unter DirectX 12 anzubieten – bisher müssen die Spiele-Entwickler diesen Multi-GPU-Support unter DirectX 12 für jedes Spiel extra neu erstellen, da DirectX 12 von Haus aus so etwas nicht mehr anbietet (bzw. wegen des LowLevel-Ansatzes nicht mehr in dieser allgemeinen Form anbieten kann). Das ganze stellt also eine dringend notwendige Erweiterung von DirectX 12 dar, um die Multi-GPU-Idee nicht noch weiter absacken zu lassen. Ob dies allerdings ausreichend ist bzw. wirklich wirksam wird, steht noch auf einem ganz anderen Blatt. DirectX 12 bringt zwar interessante Funktionen gerade für die Nutzung mehrerer Grafikchips mit, aber da SLI & CrossFire unter DirectX 12 plötzlich einen extra Aufwand für die Spieleentwickler darstellen, sparen sich viele Spieleentwickler aus reinem Prinzip diesen Support. Hinzu kommt die Zunahme von Engine-eigenen Inkompatibilitäten, womit dann teilweise sogar große Entwicklerstudios bei AAA-Projekten vor dem Multi-GPU-Support kapitulieren.

HT4U zeigen einen Weg auf, wie man die Gratislizenz von Windows 10 trotz Mainboard-Wechsels behält. Regulär gesehen ist die kostenlose Upgradelizenz Hardware-gebunden, man kann allerdings bestätigt Hauptspeicher & Grafikkarte wechseln, höchstwahrscheinlich auch Festplatte, weitere Steckkarten und alle Peripherie – während ein Mainboard-Wechsel ebenso bestätigt eigentlich einen Lizenzverlust nach sich zieht. Daran ändert sich offiziell auch gar nichts, mittels der Methode von HT4U kann man sich nur daran vorbeischummeln: Notwendig ist hierfür zuerst die Installation des alten Betriebssystems – also Windows 7, 8 oder 8.1 – auf der neuen Hardware. Danach wird jenes erneut auf Windows 10 upgegradet (auch eine frische Neuinstallation ist ja inzwischen möglich) und man kann nachfolgend wieder Windows 10 unter der neuen Hardware nutzen. Aus dem beschriebenen Prozedere ist allerdings auch zu schließen, das dieser Schleichweg nach dem 29. Juli 2016 (mit dem Auslaufen des Kostenlosumstiegs-Angebots) nicht mehr funktionieren wird. Eventuell bietet es sich für den einen oder anderen Anwender daher an, einen in absehbarer Zukunft geplanten Mainboard-Wechsel jetzt noch vorzuziehen – wobei allerdings leider nicht garantiert werden kann, das dieser Weg zur erneut kostenlosen Windows-10-Lizenz wirklich in jedem Fall funktioniert.

Bei Golem hat man sich eingehend mit Wireless HDMI anhand einiger für diese Technologie gedachter Produkte beschäftigt. Regulär gesehen ist das ganze ein spannendes Thema, denn nicht in jedem Fall ist es möglich, ein HDMI-Kabel zu verlegen – und dann könnte Wireless HDMI der Retter in der Not sein. All zu viel sollte man sich allerdings nicht versprechen – und es kommt augenscheinlich besonders auf die Wahl der richtigen Technik an: Insbesondere die 5-GHz-Technik, welche sogar Wände durchdringen soll, schafft nicht einmal im selben Raum ein störungsfreies Signal zu übermitteln und scheidet somit vor Erreichen der Ziellinie aus. Die 60-GHz-Technik schafft hingegen den störungsfreien Empfang, ist aber schon per Prinzip nicht auf den Empfang durch Wände hindurch ausgelegt und damit nur innerhalb eines Raumes mit möglichst Sichtkontakt zwischen Sender und Empfänger sinnvoll. Dies kann in vielen Fällen weiterhelfen, aber eben nicht in allen – noch scheint die ganze Technologie noch nicht derart solide zu sein, das man jene als "sorgenfrei" weiterempfehlen könnte. Wenigstens hat sich preislich etwas getan, heutige Systeme kosten nicht mehr gleich vierstellige Beträge, sondern sind inzwischen im Bereich von 200-400 Euro angesiedelt.

Gaming Bolt haben mit dem CEO des deutschen Spieleentwicklers "Deck 13" über die Xbox Scorpio und deren Möglichkeiten zugunsten der Spieleentwickler gesprochen. Prinzipiell stehen hierbei die Optionen "mehr fps", "höhere Auflösung" und "besserer Content" (auch im Mix) zur Verfügung, wobei natürlich die von Microsoft mehr oder weniger versprochene Abwärtskompatibilität der Spiele zur Xbox One zu berücksichtigen wäre. Eben aus diesem Grunde wird Deck 13 auch die einfachste Option wählen – dies wären mehr fps oder/und eine höhere Auflösung. Was man bei Deck 13 hingegen vermeiden wird, sind zwei Spielversionen für die beiden genannten Microsoft-Konsolen herzustellen, womit die Option "besserer Content" bis auf Ausnahmen nicht zur Anwendung kommen wird. Denken andere Spieleentwickler ähnlich – und aufgrund der Begründung mit der Wirtschaftlichkeit ist dies anzunehmen – werden Xbox Scorpio und PS4K "Neo" mehr oder weniger nur für höhere Auflösungen und Frameraten sorgen, aber mitnichten für bessere Spiele.

Damit werden aber auch die höheren Hardwarefähigkeiten der kommenden neuen Spielekonsolen nicht wirklich ausgenutzt, die Entwicklung der Spielegrafik also mitnichten beschleunigt – da weiterhin die Hardware-Fähigkeiten von Xbox One und originaler PS4 als kleinster gemeinsamer Nenner zu beachten sind. Allenfalls dürfte die Spielegrafik daran wachsen, das nach Erscheinen von Xbox Scorpio und PS4K "Neo" der Druck seitens Microsoft und Sony, Spiele für Xbox One und PS4 in Auflösungen möglichst nahe an FullHD herauszubringen, eher abnehmen wird, weil dann die neuen Konsolen diese Stellung übernehmen werden. Die nativen Renderauflösungen können dann auf Xbox One und PS4 (noch weiter) sinken, was dann ein paar Reserven zugunsten höherwertigeren Contents abwirft. Einen echten Sprung wird es mit Xbox Scorpio und PS4K "Neo" aber nicht geben können – dies muß dann Aufgabe der nachfolgenden Konsolen-Generation werden. In dieser nicht vor dem Jahr 2020 zu erwartenden Konsolen-Generation muß dann zwingend auch die Software-Kompatibilität zu vorherigen Konsolen fallen – ansonsten würde man erneut nicht die vorliegende neue Hardware äquadat ausnutzen können.

13

GeForce GTX 1060 3GB kommt (angeblich) mit abgespeckter GP106-Hardware im August

BenchLife (maschinelle Übersetzung ins Deutsche) haben schon recht detaillierte Spezifikationen zur angeblich Mitte August zu erwartenden GeForce GTX 1060 3GB anzubieten, darunter sogar einen AIDA-Screenshot. Zu diesem frühen Zeitpunkt überrascht dies etwas – andererseits ist der GP106-Chip augenscheinlich spruchreif und wird die GeForce GTX 1060 3GB als zweite Chip-Variante seitens nVidia eher bewußt zurückgehalten, um zuerst der GeForce GTX 1060 6GB Platz zur Entfaltung zu lassen. Sprich: Bei den Grafikkarten-Herstellern dürften längst schon die ersten Vorbereitungen zur zweiten GP106-Variante laufen, da ist es also nicht unmöglich, das schon entsprechende Karten (für AIDA-Screeshots) existieren. Trotzdem ist das ganze mit einer gewissen Skepsis zu betrachten – vor allem, weil sich nVidia mit dieser Ausführung der GeForce GTX 1060 3GB reichtlich Kritik einhandeln dürfte.

Denn die gegenüber der originalen GeForce GTX 1060 6GB gleichnamige Karte wird nicht nur weniger Grafikkartenspeicher bieten, sondern soll auch mit einer gewissen Abspeckung des GP106-Grafikchips antreten. Im Vorfeld wurden hierzu schon die Chip-Varianten GP106-400 & GP106-300 gehandelt – meistens versehen mit dem Hinweis, das nVidia für einen solchen Chip-Unterschied bisher immer auch eine andere Hardware angesetzt hat und nicht nur eine andere Speicherbestückung. Dies scheint sich nunmehr zu bewahrheiten, denn bei der GeForce GTX 1060 3GB sollen nur 19 der 20 physikalisch verbauten Shader-Cluster aktiv sein – sprich nur 1152 anstatt 1280 Shader-Einheiten. Dies ist ein Hardware-Unterschied von -5%, was sicherlich nicht die Welt ist, aber dennoch eine andere Karte mit einer anderen Performance ergeben wird. Zwar bleiben die anderen Hardware-Punkte augenscheinlich identisch (ROPs & Speicherinterface) und ist über die konkreten Taktraten noch nichts bekannt (hier könnte es auch noch Änderungen geben). Aber auch so rechtfertigt dieser klare Hardware-Unterschied eigentlich einen eigenen Kartennamen – oder anders formuliert macht nVidia die GeForce GTX 1060 3GB viel hübscher als sie eigentlich ist.

Leider hat AMD diese Unsitte mit der Radeon RX 480 kürzlich erst vorgemacht, aber dort blieb es bei einem Unterschied beim Speichertakt und der Speichermenge. Eine andere Version desselben Grafikchips mit einem eindeutigen Hardware-Unterschied unter demselben Namen zu verkaufen, ist aber noch einmal eine ganze Kategorie weiter – und ist zweifelsfrei nicht dazu geeignet, dem Grafikkarten-Käufer weiterzuhelfen bei dessen Suche nach dem individuell passenden Produkt. Natürlich versucht nVidia hiermit den Nachteil der geringen Speichermenge zu kaschieren – eine abweichend benannte Grafikkarte mit nur 3 GB Speicher wäre wegen dieser Speichermenge zu schnell als "Witzangebot" verbrannt worden. Bei den informierten Käufer sieht die GeForce GTX 1060 3GB aufgrund der Speichermenge sowie der mißbräuchlichen Namenswahl hingegen gleich doppelt schlecht aus – was dann eben auch auf deren Hersteller & Namensgeber zurückfällt.

Ironischerweise ist mit der geringeren Anzahl an Shader-Einheiten aber noch nicht einmal sicher gesagt, das die GeForce GTX 1060 3GB wirklich langsamer wird als die 6-GB-Version. nVidia könnte diesen geringen Unterschied schließlich auch über höhere Taktraten wieder ausgleichen. Genauso gut kann es allerdings sein, das die Taktraten der GeForce GTX 1060 3GB zwar nominell hoch (oder höher) liegen, jene Karte aber rein praktisch über ein niedrigeres Power-Limit eingebremst wird. Damit ist derzeit noch gar nicht bestimmbar, wo die GeForce GTX 1060 3GB herauskommt, man kann nur grob gewisse Fixpunkte angeben: Sicherlich nicht schneller als eine GeForce GTX 1060 6GB – und sicherlich nicht langsamer als eine Radeon RX 480 4GB:

AMD Polaris Perf.Index Listenpreis Straßenpreis nVidia Pascal
960% 599$/699$ 700-730€ GeForce GTX 1080
GP104-400, 2560 Shader-Einheiten @ 256 Bit GDDR5X-Interface, 1607/1733/2500 MHz, 8 GB GDDR5X
800% 379$/449$ 460-480€ GeForce GTX 1070
GP104-200, 1920 Shader-Einheiten @ 256 Bit GDDR5-Interface, 1506/1683/4000 MHz, 8 GB GDDR5
gesch. ~570-610% 249$/299$ vermtl. 300-320€ GeForce GTX 1060 6GB
GP106-400, 1280 Shader-Einheiten @ 192 Bit GDDR5-Interface, 1506/1709/4000 MHz, 6 GB GDDR5, ab 19. Juli
Radeon RX 480 8GB
Polaris 10, 2304 Shader-Einheiten @ 256 Bit GDDR5-Interface, 1120/1266/4000 MHz, 8 GB GDDR5
~540% 239$ 270-290€
grob ~520-610% vermtl. 199$ ? GeForce GTX 1060 3GB
GP106-300, angebl. 1152 Shader-Einheiten @ 192 Bit GDDR5-Interface, 3 GB GDDR5, ab Mitte August
Radeon RX 480 4GB
Polaris 10, 2304 Shader-Einheiten @ 256 Bit GDDR5-Interface, 1120/1266/3500 MHz, 4 GB GDDR5
~520% 199$ derzeit nicht lieferbar
Radeon RX 470
Polaris 10, 2048 Shader-Einheiten @ 256 Bit GDDR5-Interface, 4/8 GB GDDR5, ab Ende Juli
gesch. ~470-480% vermtl. 159-169$ (4GB) ?
Radeon RX 460
Polaris 11, 896 Shader-Einheiten @ 128 Bit GDDR5-Interface, 2/4 GB GDDR5, ab Juli/August
gesch. ~230-250% vermtl. 99-109$ (2GB) ?

Als Preispunkt darf man hingegen ziemlich sicher 199 Dollar annehmen, da die 6-GB-Version schließlich schon bei 249 Dollar für die Herstellerdesigns steht (ob es von der 3-GB-Version überhaupt eine "Founders Edition" geben wird, ist ungewiß). Vor allem aber muß nVidia mit der GeForce GTX 1060 3GB die Radeon RX 480 4GB beim Preis angreifen bzw. darf preislich zumindest nicht höher herauskommen. Bei nur 3 GB Grafikkartenspeicher wäre eine eventuelle Mehrperformance auf nVidia-Seite zwar ein gewisser Bonus, aber der Preis darf keineswegs höher als auf AMD-Seite ausfallen. Auf Basis eines gleichem Preispunkt könnte nVidia dann zuerst versuchen, mit dem gutem Namen der GeForce GTX 1060 zu punkten – überzeugender wäre allerdings sicherlich auch eine gewisse Mehrperformance zur Radeon RX 480.

Doch selbst unter dieser Voraussetzung wird es die GeForce GTX 1060 3GB unter Grafikkarten-Enthusiasten schwer haben – die verbaute Menge an Grafikkartenspeicher wird allgemein als zu wenig angesehen, im selben Preisbereich empfiehlt man bei der Radeon RX 480 schließlich schon den Gang zu 8 GB anstatt "nur" 4 GB. Im Massenmarkt könnte der Punkt der Speichermenge dagegen etwas untergehen und nVidia dennoch gute Geschäfte mit der GeForce GTX 1060 3GB machen. Und natürlich lohnt sich für nVidia eine solche Karte gleich doppelt, denn die Käufer solcherart bei der Speichermenge abgespeckter Karten kommen schneller an deren Limit und müssen demzufolge auch eher zur nachfolgenden Grafikkarten-Neuerwerbung schreiten. nVidia war sicherlich in den letzten Jahren mit dieser Strategie der bei der Speichermenge auf Kante gebauten Grafikkarten sehr erfolgreich, während sich für AMD deren Strategie der eher zukunftsorientieren Speichermengen nie wirklich ausgezahlt hat – weder geschäftlich noch (unverständlicherweise) im User-Standing.

13

Neue AMD-Roadmap bezeichnet "Vega" als HighEnd-Architektur

Videocardz zeigen in einer eigentlich der Radeon RX 460 & 470 gewidmeten Meldung auch eine neuere AMD Grafikchip-Roadmap. Jene ist prinzipiell unverändert gegenüber den bereits im März 2016 sowie im April 2016 gezeigten AMD Grafikchip-Roadmaps – mit einer Differenz: In der neuen Roadmap wird die Vega-Generation herausgehoben und jene erstmals offiziell als "HighEnd-Architektur für HighEnd-Gamer" bezeichnet. Selbiges war natürlich erwartet worden – aber eine offizielle Bestätigung ist immer noch besser als jedes Gerücht oder eine unter-der-Hand-Information. Theoretisch kann man aus dem von AMD gewählten Begriff einer "Architektur" auch deuten, das es sich hierbei nicht nur um einen einzelnen Grafikchip handeln kann – aber letztlich hatte AMD vorher schon inoffiziell verlauten lassen, das Vega eine Grafikchip-Serie mit derzeit bekannt zwei Grafikchips sein wird.

Jene zwei Vega-Chips werden Vega 10 und Vega 11 sein, wobei hier wieder (im Gegensatz zu Polaris) die kleinere Nummer den kleinen Chip angibt – und vice versa. Als Vega 10 wird allgemein das frühere Greenland-Projekt angesehen, welches wohl mit 4096 Shader-Einheiten ausgerüstet antreten wird. AMD dürfte hierbei faktisch den Fiji-Chip von Radeon R9 Nano & Fury auf einer kleineren Chipfläche von geschätzt 350-400mm² in der 14/16nm-Fertigung nachbauen – mit mehr Effizienz dann aber hoffentlich. Vega 11 sollte hingegen noch größer ausfallen und natürlich auch mit für Profi-Bedürfnisse gedacht sein. Da letztere ebenfalls Chipfläche kosten, schätzt man Vega 11 derzeit auf grob 6000 Shader-Einheiten auf möglicherweise 550-600mm² Chipfläche – aber dies sind wie gesagt nur wohlfeile Annahmen, zu Vega 11 gibt es leider noch gar keine beachtbaren Wortmeldungen. Terminlich ist alles von AMD grob auf das Jahr 2017 angesetzt, trotz das es zuletzt zweimal Hinweise (No.1 & No.2) gegeben hatte, das Vega 10 eventuell sogar noch Ende diesen Jahres erscheinen könnte.

Nachdem Polaris mit seiner GCN4-Architektur eher nur als erster Versuch AMDs innerhalb der 14/16nm-Generation angesehen werden kann (grob gesehen GCN3 auf 14nm umgesetzt), besteht die Hoffnung, das AMD mit der Vega-Generation dann wirklich einmal mehr aus der GCN-Architektur herausholt kann als bisher gezeigt – sprich eine fünfte Ausführung der GCN-Architektur auflegt ("GCN5"). Mittels HBM2-Speicher dürfte die Speicherbandbreite nicht mehr so das Problem sein, allein dies dürfte zu einer gewissen Effizienzverbesserung führen. Trotzdem ist der Weg noch sehr weit für AMD – denn wenn man die 4096 Shader-Einheiten von Vega 10 zu den 2304 Shader-Einheiten von Polaris 10 ins Verhältnis zur bekannten Performance der Radeon RX 480 setzt, dann kommt nur bei einer absolut perfekten Einheiten-Skalierung exakt die Performance der GeForce GTX 1080 heraus. Da eine solch absolut perfekte Einheiten-Skalierung jedoch eine (unerreichbare) Illusion darstellt, muß AMD bei der Vega-Generation in jedem Fall die Einheiten-Effizienz gegenüber Polaris verbessern – ansonsten wird es schwer, mit Vega 10 gegenüber dem schließlich schon im Markt stehenden GP104-Chip zu bestehen. Gelingt AMD hingegen dieses Kunststück, könnte man nVidia eventuell sogar beim nachfolgenden Zweikampf "Vega 11 gegen GP102" Paroli bieten.

13

Weitere nVidia-eigene Benchmarks zur GeForce GTX 1060 aufgetaucht

Nach den ersten nVidia-Angaben zur Performance der GeForce GTX 1060 haben Videocardz nun sogar den offiziellen "Reviewer's Guide" zur GeForce GTX 1060 zur Hand, in welchem nVidia umfangreichere Benchmark der neuen nVidia-Karte gegenüber GeForce GTX 960 (höchstwahrscheinlich in der 2-GB-Version) und Radeon RX 480 (genaue Version unbekannt) zum besten gibt. Gerade weil die benutzte Radeon RX 480 Karte (Performancedifferenz zwischen 4GB- und 8GB-Version bei 3-5%) nicht bekannt ist, kann man diese Benchmarks noch lange nicht auf die Goldwaage legen – zudem dürfte sich nVidia üblicherweise auch diese Setting aussuchen, wo die eigene (neue) Hardware jeweils am besten aussieht. Das Benchmark-Set selber ist mit immerhin 11 Spiele-Titeln hingegen eigentlich breit genug für eine halbwegs solide Performance-Aussage:

Differenz 960 -> 1060 Differenz 480 -> 1060
FullHD  (11 Tests) +68,2% +15,0%
WQHD  (11 Tests) +70,8% +12,9%
benutzte Treiber-Versionen: nVidia GeForce 368.64, AMD Crimson 16.6.2

Im Schnitt der Zahlen behauptet nVidia also, das die GeForce GTX 1060 unter FullHD um 68,2% schneller als eine GeForce GTX 960 sowie um 15,0% schneller als eine Radeon RX 480 sei. Bei allen AMD-Werten kann man noch einmal 2-3% abziehen, welche durch den neuen Treiber 16.7.1 zugunsten der Radeon RX 480 hinzukommen. Die +68,2% im nVidia-internen Vergleich sehen dann auch ganz anders aus als die ersten nVidia-eigenen Performance-Werte zur GeForce GTX 1060 mit einer (angeblichen) Performance-Verdopplung zur GeForce GTX 960. Bezogen auf unseren FullHD Performance-Index wäre die GeForce GTX 1060 nach diesen nVidia-eigenen Messungen demzufolge bei ~570% (hochgerechnet von der GeForce GTX 960) bzw. ~610% (hochgerechnet von der Radeon RX 480) einzuordnen. Dies liegt halbwegs in derselben Spanne von ~590-610%, wo wir die GeForce GTX 1060 bisher schon eingeordnet haben – und läßt allerdings die Möglichkeit offen, das die GeForce GTX 1060 doch nicht ganz die Performance der GeForce GTX 980 (Perf.Index 600%) erreicht.

Unter WQHD gewinnt die GeForce GTX 1060 verständlicherweise leicht gegenüber der GeForce GTX 960 hinzu, verliert allerdings auch leicht gegenüber der Radeon RX 480 – ein anhand der jeweils zur Verfügung stehenden Bandbreite nicht unerwartetes Ergebnis. Erstaunlich ist vielleicht eher, das die GeForce GTX 1060 hier nicht noch stärker gegenüber der GeForce GTX 960 zulegt, denn letztere Karte ist unter höheren Auflösungen dann sichtbar von ihrem nur 128 Bit breitem Speicherinterface sowie der default-Speichermenge von nur 2 GB GDDR5 gehandicapt. Aber dies sind dann aber auch Dinge, welche die kommenden Launch-Tests besser und auf breiterer Basis ermitteln können. Der vorgenannte "Reviewer's Guide" enthält im übrigen ansonsten kaum Neuigkeiten, es werden allenfalls gewisse (schon vermutete) Chipdetails bestätigt: So wird der GP106-Chip neben den bekannten 1280 Shader-Einheiten an 2 Raster-Engines und einem 128 Bit GDDR5-Speicherinterface über 80 TMUs und 48 ROPs verfügen, hinzu kommen 1,5 MB Level2-Cache und eine TDP von 120 Watt (sagt allerdings nichts über das gewählte Power-Limit aus). Der GP106-Chip selber besteht aus 4,4 Milliarden Transistoren auf 200mm² Chipfläche in der 16nm-Fertigung von TSMC.

Radeon R9 380X Radeon RX 480 GeForce GTX 960 GeForce GTX 980 GeForce GTX 1060
Chipbasis AMD Tonga AMD Polaris 10 nVidia GM206 nVidia GM204 nVidia GP106
Fertigung 5,0 Mrd. Transistoren in 28nm auf 359mm² Chipfläche bei TSMC 5,7 Mrd. Transistoren in 14nm auf 232mm² Chipfläche bei GlobalFoundries 2,94 Mrd. Transistoren in 28nm auf 227mm² Chipfläche bei TSMC 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche bei TSMC 4,4 Mrd. Transistoren in 16nm auf 200mm² Chipfläche bei TSMC
Architektur GCN3, DirectX 12 Feature-Level 12_0 GCN4, DirectX 12 Feature-Level 12_0 Maxwell 2, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Features Vulkan, Mantle, Asynchonous Compute, VSR, CrossFire, TrueAudio, FreeSync Vulkan, Mantle, Asynchonous Compute, VSR, CrossFire, TrueAudio Next, FreeSync Vulkan, DSR, SLI, PhysX, G-Sync Vulkan, Asynchonous Compute, DSR, PhysX, G-Sync
Technik 4 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit GDDR5-Interface 4 Raster-Engines, 2304 Shader-Einheiten, 144 TMUs, 32 ROPs, 256 Bit GDDR5-Interface, 2 MB Level2-Cache 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 128 Bit GDDR5-Interface, 1 MB Level2-Cache 4 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit GDDR5-Interface, 2 MB Level2-Cache 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 192 Bit GDDR5-Interface, 1,5 MB Level2-Cache
Taktraten ≤970/2850 MHz
(Ø-Chiptakt: ~970 MHz)
4GB: 1120/1266/3500 MHz
(Ø-Chiptakt: ? MHz)
8GB: 1120/1266/4000 MHz
(Ø-Chiptakt: 1209 MHz)
1127/1178/3500 MHz
(Ø-Chiptakt: 1316 MHz)
1126/1216/3500 MHz
(Ø-Chiptakt: 1153 MHz)
1506/1708/4000 MHz
(Ø-Chiptakt: ? MHz)
Speicherausbau 4 GB GDDR5 4/8 GB GDDR5 2/4 GB GDDR5 4 GB GDDR5 6 GB GDDR5
Layout DualSlot DualSlot DualSlot DualSlot DualSlot
Kartenlänge 24-27cm
(Herstellerdesigns)
24,3cm 21,5-27cm
(Herstellerdesigns)
27,0cm 24,9cm
Ref./Herst./OC / / / / / / / / / /
Stromstecker 2x 6pol. 1x 6pol. 1x 6pol. oder 1x 8pol.
(je nach Karte)
2x 6pol. 1x 6pol.
off. Verbrauch 190W (TBP) 150W (TBP) 120W (GCP) 165W (GCP) 120W (TDP)
Ausgänge 2x DualLink DVD-D, HDMI 1.4a (kein HDCP 2.2), DisplayPort 1.2 HDMI 2.0b (mit HDCP 2.2), 3x DisplayPort 1.3 (DP1.4-ready) DualLink DVI-I, HDMI 2.0 (mit HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0b (mit HDCP 2.2), 3x DisplayPort 1.3 (DP1.4-ready)
FHD Perf.Index 390% 4GB: ~520%
8GB: ~540%
340% 600% gesch. ~570-610%
Listenpreis 229$ 4GB: 199$
8GB: 239$
2GB: 199$ 499$ 249$/299$
(Herst./Ref.)
12

Hardware- und Nachrichten-Links des 11./12. Juli 2016

Videocardz zeigen nochmals neue Spezifikations-Folien zu Radeon RX 460 & 470 – welche zwar das gleiche Datum tragen wie die bereits bekannten Folien, dennoch aber leicht anders aussehen. Die jeweils gezeigten Informationen sind allerdings nicht abweichend, sondern bestätigen damit nur den bisher bekannten Stand: Die Radeon RX 470 kommt mit 2048 Shader-Einheiten an einem 256 Bit GDDR5-Interface und per default 4 GB Speicher (die Grafikkarten-Hersteller werden sicherlich auch 8-GB-Versionen auflegen), die Radeon RX 460 nun doch nur mit 896 Shader-Einheiten an einem 128 Bit GDDR5-Interface und per default nur 2 GB Speicher (hier sind ebenfalls auch 4-GB-Versionen zu erwarten). Leider gibt es zu beiden Karten noch keine Launchtermine – Videocardz gehen von einem Launch der Radeon RX 470 zum Ende Juli aus, mit einer Marktverfügbarkeit aber erst Anfang August. Angesichts dessen, das AMD sich die ganze Zeit sehr sicher war, gleich monatelang vor nVidia herauszukommen, ist dies doch eine unerwartet zähe Anlaufphase für Polaris-basierte Grafikkarten.

AMD Radeon RX 460 Spezifikationen (2)
AMD Radeon RX 460 Spezifikationen (2)
AMD Radeon RX 470 Spezifikationen (2)
AMD Radeon RX 470 Spezifikationen (2)

Laut Golem läuft Doom (2016) nach dem Umstellen auf die Vulkan-API – welche mit dem zweiten Patch hinzukam – teilweise bemerkbar schneller. Leider funktioniert Fraps noch nicht unter Vulkan, so das man nur die Performance in stehenden Szenen bewerten konnte, die Sache ist also noch nicht richtig auswertbar. Aber die angezeigten Performancegewinne im Rahmen von +3% bis +27% unter AMD-, Intel- und nVidia-Grafiklösungen sind schon eindeutig genug, um von einer klaren Performance-Verbesserung sprechen zu können. Dies sieht dann wirklich gut aus für Vulkan – wobei ein Beispiel kein Beispiel ist, dies kein Maßstab für die generelle Performance-Situation unter Vulkan sein muß. DirectX 12 hatte auch gute Beispiele für Mehrperformance – in der Praxis ist DirectX 12 dagegen eher ein Trauerspiel, sicherlich auch forciert durch die Anbindung an Windows 10 und damit Microsofts UWP-Konzept. Der Thematik, inwiefern DirectX 12 & Vulkan sich einiges Tages wirklich breitflächig durchsetzen können, nimmt sich derzeit auch eine Forendiskussion samt Umfrage an.

Epic-Gründer Tim Sweeney ist laut EuroGamer von den kommenden Konsolen Xbox Scorpio und PS4K "Neo" begeistert – weil sich damit der übliche Konsolenzyklus durchbrechen läßt. Jener setzt aller ca. 6-7 Jahre eine völlig neue Hardware an, welche zumeist auch völlig neue Spiele hervorbringt. Der Nachteil für die Spieleentwickler liegt hierbei darin, das damit der Kundenstamm jedesmal resettet wird und nachfolgend neu aufgebaut werden muß. Mit Xbox Scorpio und PS4K "Neo" kündigt sich dagegen eine grundsätzliche Veränderung dieser Verfahrensweise an: Die Konsolengenerationen kommen in kürzerem Zeitabstand, dafür gilt der Spielesupport immer für mindestens zwei Konsolengenerationen. Damit gibt es selbst nach Release einer neuen Konsolengeneration immer noch eine hohe Anzahl an potentiellen Spielekäufern, kann der Übergang zwischen zwei Konsolengenerationen fließender gestaltet werden.

So zumindest die Idee – ob das ganze in der Praxis funktionieren kann, ist allerdings ungewiß: Schon allein vom Hardware-Standpunkt aus ist es schwierig, Spiele über mehrere Konsolengenerationen zu supporten. Dies geht gut, so lange die hierfür relevanten Hardwareteile (x86-CPU und AMD-GPU) allesamt vom selben Chipentwickler stammen – aber damit macht man sich selbst die Tür zu für alternative Hardware-Anbieter, was in den Preisverhandlungen mit dem Hardware-Monopolisten (in diesem Fall AMD) nicht gut kommt. Zudem verhindert die verordnete Software-Kompatibilität mit der jeweils letzten Konsolen-Generation auch, das die jeweils aktuelle Konsolen-Generation wirklich ausgenutzt wird – gut zu sehen gerade an Xbox Scorpio und PS4K "Neo", von welchen faktisch nur auf eine native FullHD-Auflösung aufgepumpte Spiele der aktuellen Konsolengeneration zu erwarten sind. Und wenn dann einiges Tages mal die deren Nachfolger bereitstehen, müssten sich die Spieleentwickler an den Hardware-Kapazitäten von Xbox Scorpio und PS4K "Neo" ausrichten – und würden damit immer mindestens 3-4 Jahre zusätzlich hinter dem PC zurückliegen.

Dies ist sicherlich kein Zukunftsszenario, welches die Konsolenhersteller ernsthaft anstreben können, weil es langfristig die ganze Idee der Spielekonsolen entwertet. Praktisch realisierbar erscheint nur ein mittleres Szenario, in welchem einmal eine wirklich neue Konsolen-Generation aufgelegt wird (Xbox One und PS4) und in der Mitte der Laufzeit dann ein Hardware-Upgrade mit garantierter Software-Kompatibilität kommt (Xbox Scorpio und PS4K "Neo"). In diesem Modell würde auf Xbox Scorpio und PS4K "Neo" dann wieder eine echte neue Konsolen-Generation folgen müssen, ohne garantierte Software-Kompatibilität und somit mit der Möglichkeit für die Spieleentwickler, die Hardware der neuen Konsolengeneration auch wirklich ausnutzen. Allerdings ist natürlich aus heutiger Sicht alles nach Xbox Scorpio und PS4K "Neo" auch ziemliche Zukunftsmusik, weil kaum vor dem Jahr 2020 antretend. Zu diesem Zeitpunkt könnten dann ganz andere Faktoren mit hineinspielen – sei es Cloud-Gaming, der Zwang zu VR oder andere Dinge, welche heute noch nicht absehbar sind.

12

Zur Performance-Differenz zwischen Radeon RX 480 4GB und Radeon RX 8GB

Zur Performance-Differenz zwischen den beiden Ausführungen der Radeon RX 480 liegen nunmehr mehrere Artikel vor, so das sich dieses Thema nunmehr genauer betrachten läßt. Zum Launch hatten AnandTech als seinerzeit einziger Artikel ein paar entsprechende Benchmark-Werte aufgenommen, welche die Radeon RX 480 4GB nur um -3,4% unter FullHD sowie -3,3% unter WQHD zurückliegend sahen. Angesichts des hohen Unterschieds beim Speichertakt (3500 zu 4000 MHz, -12,5% gegen die 4-GB-Version) sowie der bekannten Bandbreiten-Abhängigkeit der Radeon RX 480 überraschte dies durchaus, so das seinerzeit jene Werte noch nicht für voll genommen werden konnten. Inzwischen ergibt sich jedoch einer gewisse Erklärung dieser Werte: Da die 4-GB-Version durch den niedrigeren Speichertakt ein paar Watt Stromverbrauch (im Speicherinterface, die Auswirkung in den Speicherzellen selber dürften nur marginal sein) einspart und das Power-Limit der 4-GB-Version unverändert auf 170 Watt liegt, kann bei der Radeon RX 480 4GB schlicht der Grafikchip real etwas höher takten und die Bandbreiten-Differenz durch eine höhere praktische Rechenleistung somit teilweise wieder egalisieren.

Keine Rolle spielt hierbei im übrigen die Anzahl der Speicherchips – zumindest in diesem Fall. Normalerweise ist die Anzahl der Speicherchips sehr gewichtig für den Stromverbrauch des Speicher-Subsystems: Erfahrungsgemäß gibt es kaum Unterschiede im Stromverbrauch von Speicherchips unterschiedlicher Taktraten und Speichermengen pro Speicherchip. Die reine Anzahl der Speicherchips ist dagegen der entscheidende Punkt – und somit könnte eine Radeon RX 480 4GB mit hypothetisch nur vier verbauten Speicherchips nochmals einiges an Stromverbrauch einsparen, was dann anzunehmenderweise noch höhere reale Boosttaktraten ermöglichen würde. Aber dafür benötigt man GDDR5-Speicherchips mit 64-Bit-Interface, welche faktisch nicht erhältlich sind – und mit den vorliegenden GDDR5-Speicherchips mit 32-Bit-Interface müssen es angesichts des 256-Bit-Interfaces der Radeon RX 480 eben immer gleich acht Speicherchips auf dem Grafikboard sein.

Somit werden sich die nachfolgend erscheinenden Herstellerdesigns zur Radeon RX 480 4GB in dieser Frage auch nicht vom aktuellen Referenzdesign unterscheiden – wo wie bekannt 8 GB Speicher physikalisch verbaut werden, welche dann per BIOS auf 4 GB begrenzt sind. Die kommenden Herstellerdesigns werden an dieser Stelle nur 4 GB Speicher physikalisch verbauen, wobei aber wieder acht Speicherchips benutzt werden und somit die Stromverbrauchs- und damit auch die Performance-Charakteristik zum aktuell vorliegenden Referenzdesign nahezu identisch sein sollte. Insofern spielt es keine Rolle, das aktuell nur die nicht mehr lieferbaren Referenzdesigns getestet wurden, meistens sogar 8-GB-Versionen nur per BIOS-Patch zu 4-GB-Versionen umgewandelt wurden (die ausgelieferten 4-GB-Karten machen dies sowieso nicht anders):

FullHD WQHD UltraHD bemerkbare Ausreißer
Hardwareluxx  (10 Tests) -4,5% -5,0% - Rise of the Tomb Raider: -12,0% @ FullHD, -11,9% @ WQHD, The Division: -12,2% @ WQHD
AnandTech  (9 Tests) -3,4% -3,3% - keine
Gamers Nexus  (10 Tests) -6,4% -2,1%
(abweichendes Benchmark-Set)
- Assassin's Creed Syndicate: -14,5% @ FullHD, Mirror's Edge Catalyst: -24,5% @ FullHD & Hyper-Settings (beide Tests wurden leider nicht unter WQHD ausgeführt)
Legit Reviews  (3 Tests) -3,9% -3,5% -4,4% keine

Die Testergebnissen gehen einigermaßen durcheinander, aber eine grobe Richtung läßt sich durchaus erkennen: Zwischen 3 und 5 Prozent ist die 4-GB-Version langsamer als die 8-GB-Version. Je nach Größe des Benchmark-Sets kann dieser Wert auch durch einzelne besonders abweichende Resultate nach oben getrieben werden – aber noch sind jene in der klaren Minderzahl und bis auf große Ausnahmen (Mirror's Edge Catalyst @ Hyper-Settings) auch nicht außerhalb des Bereichs von -15% Performance. Primär dürfte diese geringere Performance auf den niedrigeren Speichertakt zurückzuführen sein – und nicht auf die geringere Speichermenge, jener Effekt war in diesen Benchmarks bis auf Ausnahmen kaum sichtbar.

Aber natürlich spielt die Zeit gegen die 4-GB-Version der Radeon RX 480 – mit zunehmenden Hardware-Anforderungen werden auch die 4 GB eines Tages selbst unter FullHD zu wenig werden, unter WQHD noch früher. Wer zudem mit dem Kauf eines noch höher auflösenden Monitors spielt oder aber wer den Wiederverkaufswert der Karte im Auge hat, für den lohnt sich der Griff zur Karte mit dem Mehrspeicher ganz gewiß. Der Preisunterschied beträgt nur derzeit immerhin 50 Euro (regulär sollten es 40 Euro sein), aber neben dem Mehrspeicher erhält man eben auch eine kleine Mehrperformance – und natürlich die wesentlich höhere Zukunftstauglichkeit zuzüglich des höheren Wiederverkaufswerts. Für Sparfüchse dürfte hingegen eher die Radeon RX 470 in Betracht kommen, welche per default mit nur 4 GB Speicher antreten und einen nochmals niedrigeren Preispunkt mitbringen wird.

Inhalt abgleichen