27

Hardware- und Nachrichten-Links des 26./27. November 2016

Eine andere mögliche Auflösung zur kürzlich wieder genannten Radeon RX 490 besteht in einer Polaris-basierten DualChip-Lösung – jene würde sogar in AMDs Polaris-Namensschema passen (welches für eine Radeon RX 490 ein Speicherinterface größer als 256 Bit DDR vorschreibt). Auch technisch wäre eine solche Karte darstellbar: Die Verlustleistung zweier Polaris-10-Chips auf einem Grafikboard dürfte (gesamte Karte) bei geschätzt 270-300 Watt liegen, wäre also grenzwertig, aber noch gangbar. Zudem würde die Schwäche des Polaris-10-Chips – zu wenig Speicherbandbreite für wirklich hohe Auflösungen – von einer DualChip-Lösung gut aufgehoben werden, mit einer angenommen 70%igen Skalierung könnte so eine Karte knapp unterhalb dem 4K-Performanceniveau einer GeForce GTX 1080 herauskommen, unter gut skalierenden Titeln wäre auch exakt das Performanceniveau der GeForce GTX 1080 möglich. Preislich wäre dies sogar passend, denn eine Radeon RX 490 auf Basis zweier Polaris-10-Chips sollte knapp unter 600 Euro kosten, was etwas günstiger als die GeForce GTX 1080 liegen würde.

Gegen eine solche Karte spricht, das AMD dieses Preissegment im Jahr 2017 in jedem Fall mit einer Vega-basierten SingleChip-Lösung füllen wird, eine solche Radeon RX 490 also nur eine sehr kurze Verkaufszeit hätte, ehe jene schon wieder abgelöst würde. Genauso spricht dagegen, das man üblicherweise nicht auf DualChip-Lösungen setzt, wenn eine gleichschnelle SingleChip-Lösung zur Verfügung steht – was hier schließlich eindeutig zutrifft, nVidia hat eine solche (GeForce GTX 1080), von AMD ist eine solche in Vorbereitung. Sehr stark dagegen spricht auch die SLI/CrossFire-Neigung der letzten Spiele-Veröffentlichungen: Selbst wenn die Spielehersteller oder Grafikchip-Entwickler später vielleicht noch entsprechende Profile nachreichen, so kann der Käufer eines HighEnd-Geschosses wie eben einer DualChip-Grafikkarte doch erwarten, das es hierfür auch Support gleich am ersten Tag der Spielveröffentlichung gibt. Dem ist allerdings weniger so, wie eine kurze Recherche anhand der Spiele-Benchmarks von GameGPU ergab (prozentuale Zugewinne in der UltraHD-Auflösung):

Fury X CrossFire GTX 1080 SLI
MultiGPU-Performancegewinn mit Forza Horizon 3
MultiGPU-Performancegewinn mit Quantum Break
MultiGPU-Performancegewinn mit Gears of War
MultiGPU-Performancegewinn mit Mafia III
MultiGPU-Performancegewinn mit Shadow Warrior 2 +75,7% +89,6%
MultiGPU-Performancegewinn mit Battlefield 1 +57,7% +56,1%
MultiGPU-Performancegewinn mit Titanfall
MultiGPU-Performancegewinn mit The Elder Scrolls V: Skyrim "Special Edition"
MultiGPU-Performancegewinn mit Call of Duty: Infinite Warfare
MultiGPU-Performancegewinn mit Call of Duty: Modern Warfare "Remastered"
MultiGPU-Performancegewinn mit Dishonored 2
MultiGPU-Performancegewinn mit Civilization VI +52,9% +11,0%

Eigentlich ist das Thema "Multi-GPU" angesichts dieser Daten stehend K.O. – wenn noch nicht einmal ein Multi-GPU-Support für jahrealte Remastered-Spieletitel aufgelegt wird, für welche nun wirklich kein besonderer Zeitdruck zur Fertigstellung existiert, dann kann man dies auch schwerlich von neuen AAA-Titeln wenigstens "out-of-the-box" erwarten. Unter diesen Voraussetzungen den Release einer DualChip-Lösung für ein wichtiges Marktsegment zu waagen, ist ziemlich riskant – ein solcher Launch könnte eher nur das Augenmerk der Medien und der Öffentlichkeit darauf lenken, was mit MultiChip-Lösungen alles nicht läuft. AMD denkt zwar sowieso über Vega-basierte MultiChip-Lösungen im kommenden Jahr nach – aber diese kommen im Enthusiasten-Segment, sind damit bei weitem nicht so bedeutsam wie HighEnd-Lösungen im Preisfeld der GeForce GTX 1080. Insofern ist auch die Auslegung der Radeon RX 490 als DualChip-Variante deutlich in Frage zu stellen – und daran zu erinnern, das der Ausgangspunkt aller dieser Gerüchte möglicherweise schlicht nur eine falsch benannte "Radeon 490" für das OEM-Segment darstellt.

Auch wenn es noch keine vollständigen Hardware-Daten zur Nintendo Switch gibt, bringen u.a. von TweakPC vermeldete Daten neuen Schwung in die Diskussion zur Switch-Hardware. So wurde ein ARMv8-SoC mit Cortex-A73-Kernen auf 1.785 GHz sowie eine integrierte nVidia-Grafik auf 921 MHz vermeldet, der Hauptspeicher der Konsole liegt wie schon bekannt bei 4 GB. Der Cortex-A73 ist einer der modernste HighEnd-Kerne von ARM, für genügend CPU-Power für die vergleichsweise kleine Grafiklösung dürfte also gesorgt sein. Bei jener fehlt derzeit immer noch die Angabe zur Anzahl der Shader-Einheiten – die Developer-Kits liefen mit 256 Shader-Einheiten, gehofft wird dagegen teilweise immer noch auf 384 Shader-Einheiten. Denn eingerechnet der genannten Taktrate kommen auf 256 Shader-Einheiten nur 0,47 TFlops Rechenleistung heraus – dies ist dann doch sehr erheblich von der Xbox One mit deren 1,31 TFlops entfernt.

Microsoft Nintendo Sony
2013er Konsolen Xbox One
1,3 TFlops @ 68 GB/sec, 8 GB RAM, 499$ -> 399$
- Playstation 4
1,8 TFlops @ 176 GB/sec, 8 GB RAM, 399$ -> 349$
neue Einsteiger-Konsolen Xbox One S
1,4 TFlops @ 68 GB/sec, 8 GB RAM, 299$
Switch
angenommen ~0,5 TFlops, 4 GB RAM, ~200-250$
verfügbar ab März 2017
Playstation 4 Slim
1,8 TFlops @ 176 GB/sec, 8 GB RAM, 299$
neue HighEnd-Konsolen Xbox Scorpio
~6 TFlops @ 320 GB/sec, 12 GB RAM, ~450-500$
verfügbar ab Weihnachten 2017
- Playstation 4 Pro
4,2 TFlops @ 218 GB/sec, 9 GB RAM, 399$
verfügbar ab 10. November 2016

Zwar könnte man diese theoretische Rechenleistung über Verwendung der FP16-Genauigkeit verdoppeln, aber dies erfordert dann doch zusätzliches Mitdenken seitens der Spieleentwickler (wo kann man FP16 einsetzen, wo wird dagegen FP32 benötigt?) und erhöht im Fall von Portierungen deren Aufwand. In jedem Fall wird es auf dieser grenzwertig niedrigeren Rechenleistung nicht einfacher für Nintendo, wirklich mit der Switch durchzustarten, da sich somit der Software-Katalog von Xbox One und PS4 gar nicht so einfach auf der Switch realisieren lassen wird – und Nintendo will sicherlich keine zweite Wii U erleben, welche (aufgrund massiv zurückhängender Hardware) von der restlichen Konsolenentwicklung ziemlich abgehängt war. Denkbar wäre natürlich auch, das Nintendo bzw. nVidia bei der Switch über die Benutzung von eigentlich für die 4K-Auflösung gedachter Rendering-Optimierungstechnologien viel an Rechenleistung versuchen einzusparen. Alternativ würde dann nur noch der Weg von besonders niedrigen internen Renderauflösungen bei der Switch bleiben – wobei diesbezüglich Xbox One und PS4 ja auch schon längst in Richtung eines 720p-Standards bei neuen Spielen unterwegs sind.