26

Hardware- und Nachrichten-Links des 26. April 2016

Einem Posting im NeoGAF-Forum sind Aussagen zu entnehmen, welche AMD angeblich über Polaris getätigt hat: Danach soll Polaris noch keinen GDDR5X-Speicher benutzen – dies wurde zwar schon so vermutet, wäre aber die erste belegbare Aussage in diese Richtung hin. Zudem soll Polaris – in diesem Fall wohl "Polaris 10" gemeint – schneller als eine Radeon R9 290 (Perf.Index 480%) herauskommen, dafür aber deutlich weniger Energie verbrauchen und auch deutlich weniger kosten. Letzteres dürfte sich eher auf den Launchpreis der Radeon R9 290 von 399 Dollar beziehen – und nicht auf die zwischenzeitlichen Straßenpreise, denn jene sind inzwischen deutlich niedriger geworden. Damit wäre dann zumindest eine gewisse Obergrenze dessen gesetzt, wie Polaris 10 preislich einzuordnen ist – augenscheinlich unterhalb von 400 Dollar Listenpreis. Wie zuletzt schon ausgedrückt, scheint das ganze Polaris-10-Projekt mit Macht darauf angesetzt zu sein, sich eine "eigene GeForce GTX 970" für AMD zu schaffen – jene kam im übrigen mit einem Listenpreis von 329 Dollar in den Markt.

Andererseits liegt die Performance-Aussage von "besser als eine 290" auch wieder deutlich unterhalb des zuletzt gesehenen – es sei denn, AMD würde hierbei extrem tiefstapeln, was bei neuer Hardware durchaus im Bereich des Möglichen ist. Man kann beide Performance-Angaben wohl als Grenzwerte dessen ansetzen, innerhalb welcher sich die finale Performance von Polaris 10 letzlich bewegen wird: Minimal etwas besser als die Radeon R9 290 (Perf.Index 480%) und bestenfalls auf dem Niveau der Radeon R9 Fury X (Perf.Index 670%). Das ergibt natürlich nur eine ganz grobe Performance-Richtschnur mit einem sehr erheblichen Spielraum – aber wenn man auf belegbare Angaben setzt, ist es das, was derzeit an entsprechenden Informationen zur Verfügung stellt. Spekulativ betrachtet gehen wir derzeit eher von einem Performance-Niveau knapp unterhalb der Radeon R9 Fury X aus (unter FullHD mehr, unter 4K weniger) – dies ist eine hohe Aufgabe bei nur 2560 Shader-Einheiten und nur GDDR5-Speicher, ist aber dennoch bei ernsthafter Arbeit an den Schwachstellen der bisherigen GCN-Architektur erreichbar.

SemiWiki und AnandTech berichten über die Fertigungspläne von Samsung bezüglich 14nm-, 10nm- und 7nm-Halbleitern. Bei der laufenden 14nm-Fertigung wird man neben dem (abgeschlossenen) 14LPE- und dem (laufendem) 14LPP- noch ein 14LPC-Verfahren anbieten, welches kostenoptimiert ist und daher eher nur für Kleinstchips geeignet erscheint. Bei der 10nm-Fertigung will man das Spiel mit 10LPE- und 10LPP-Verfahren direkt wiederholen, dabei sollen Chipdesigns in 10LPE auch direkt für 10LPP übernehmbar sein, sobald jenes zur Verfügung steht. Wie üblich für Halbleiterfertiger, geht auch Samsung in die Vollen, wenn es um den Stand der 10nm-Fertigung geht: Ende 2016 will man hiermit in Produktion gehen – und damit sogar TSMCs hochfliegende Pläne von Anfang 2017 unterbieten. Wie üblich dürfte es aber seine Zeit brauchen, ehe dann kaufbare Produkte mit dem neuen Fertigungsverfahren erscheinen (erste 10nm Smartphone-SoCs vermutlich im Sommer/Herbst 2017) – und noch viel mehr Zeit, ehe man diese Fertigungsverfahren so weit im Griff hat, das auch die großen Chips von CPUs & GPUs hiermit herstellbar sind (erste 10nm GPUs sicher nicht vor Mitte 2018).

Derzeit konzentiert sich Samsung allerdings wiederum zuerst auf Smartphone- und Tablet-SoCs, Aktivitäten in Richtung der Herstellung von GPUs sind eher nur im Feld der Spekulationen angesiedelt (nVidia dachte wohl mal über Samsung als Zweitfertiger nach). Auch trennen sich mit der 10nm-Fertigung wieder die Wege von Samsung und GlobalFoundries – letztere hatten die 14nm-Fertigung 1:1 von Samsung übernommen, womit entsprechende Chipdesigns sogar sowohl bei Samsung als auch bei GlobalFoundries ohne größere Anpassungen herstellbar sind. Es wird interessant zu sehen, inwiefern GlobalFoundries nach dieser 14nm-Fertigung seine eigenen Roadmaps in Richtung der 10nm- und 7nm-Fertigung einhalten kann, wenn dann dieser (absolut hilfreiche) Input von Samsung fehlt. Letztgenannte haben dann auch noch etwas zur 7nm-Fertigung ausgesagt: Jene soll komplett auf die EUV-Lithographie setzen – dies ist sogar etwas mehr als bei TSMC, wo die EUV-Lithographie nur teilweise innerhalb der 7nm-Fertigung zum Einsatz kommen soll.

26

AMD stellt die Fiji-basierte DualChip-Lösung "Radeon Pro Duo" offiziell vor

Mit dem heutigen Tag bringt AMD noch einen letzten Nachzügler der 28nm-Generation an den Start – die Radeon Pro Duo auf Basis zweier Fiji-Chips in dessen Vollausbau. Diese Karte hätte eigentlich schon letztes Jahr herauskommen sollen, wurde dann immer wieder verschoben und zuletzt von AMD auch noch dem semi-professionellen Segment zugerechnet – trotzdem handelt es sich natürlich um eine auch für das Gaming verwendbare Grafikkarte. Problematisch ist allenfalls die übliche Nutzung als Gaming-Beschleuniger, da SLI & CrossFire inzwischen bei einigen neuen Spieletiteln grundsätzlich nicht mehr unterstützt werden – der Nutzen einer jeden MultiChip-Lösung sinkt damit natürlich erheblich ab. Dafür kann sich die Radeon Pro Duo eventuell als VR-Beschleuniger positionieren – in diesem Feld machen SLI & CrossFire keine Probleme und stören aufgrund der üblicherweise festen Auflösungen (unterhalb von 4K) auch die nur 4 GB Speicher pro Grafikchip nicht mehr.

All dies hätten dann heute eigentlich entsprechende Testberichte eingehend beleuchten sollen – allein, AMD hat keinerlei Pressesamples herausgegeben, so das der Launch der Karte ziemlich trocken daherkommt. Dabei lassen sich die spannenden Fragen zur Karte – u.a. wie hoch takten die beiden Fiji-Chips in der Praxis – eben nur mittels echter Tests beantworten, die offiziellen Karten-Spezifikationen und theoretischen Rechenleistungen (auf Maximal-Takt) helfen hierbei wenig weiter. Leider hat sich derzeit gerade einmal ein einziger Hardwaretest zur Radeon Pro Duo seitens des chinesischen Expreview eingefunden – zu wenig für eine seriöse Beurteilung der Kartenperformance und wahrlich kein Zeugnis einer soliden Pressearbeit seitens AMD. Fast könnte man vermuten, das AMD etwas zu verstecken hätte, wenn man die Karte nach einer so langen Wartezeit derart "leise" in den Markt bringt.

GeForce GTX 980 Ti Radeon R9 Fury X Radeon Pro Duo
Chipbasis nVidia GM200, 8 Mrd. Transistoren in 28nm auf 601mm² Chipfläche AMD Fiji, 8,9 Mrd. Transistoren in 28nm auf 596mm² Chipfläche 2x AMD Fiji, 2x 8,9 Mrd. Transistoren in 28nm auf 2x 596mm² Chipfläche
Architektur Maxwell 2, DirectX 12 Feature-Level 12_1 GCN 1.2, DirectX 12 Feature-Level 12_0
Technik 6 Raster-Engines (mit verdoppelter Raster-Power), 2816 Shader-Einheiten, 176 TMUs, 96 ROPs, 384 Bit GDDR5-Interface 4 Raster-Engines, 4096 Shader-Einheiten, 256 TMUs, 64 ROPs, 4096 Bit DDR HBM1-Interface 8 Raster-Engines, 8192 Shader-Einheiten, 512 TMUs, 128 ROPs, 2x 4096 Bit DDR HBM1-Interface
Taktraten 1000/1075/3500 MHz
(Ø-Chiptakt: 1114 MHz)
≤1050/500 MHz
(Ø-Chiptakt: 1050 MHz)
≤1000/500 MHz
(Ø-Chiptakt: ?)
Speicherausbau 6 GB GDDR5 4 GB HBM1 2x 4 GB HBM1
(effektiv wie 4 GB)
TDP/TBP/GCP 250W (GCP) 275W (TBP) 350W (TBP)
FHD Perf.Index 730% 670% ~890-950%
4K Perf.Index 100% 100% ~150-155%
Listenpreis 649$ 649$ 1499$

Ein paar Aussagen lassen sich dann aber trotzdem aus dem Test von Expreview ziehen: Beim Stromverbrauch scheint die Radeon Pro Duo wirklich nicht über die Stränge zu schlagen bzw. ihre TDP von 350 Watt einhalten zu wollen, denn der in diesem Test gemessene Stromverbrauch ist kaum höher als bei der Radeon R9 Fury X. Dafür drosselt die Karte aber auch heftig unter echter Volllast – unter dem FurMark herunter bis auf 760 MHz Chiptakt und nur 1,025V GPU-Spannung (regulär sind 1,15V unter Last). Genauere Angaben zu den real anliegenden Taktraten unter Spielen bietet der Test leider nicht, dies wird dann Aufgabe anderer Testberichte sein. Bei der Spiele-Performance liegt die Radeon Pro Duo unter FullHD um +22,0% vor einer GeForce GTX 980 Ti und um +41,7% vor einer Radeon R9 Fury X (bezogen rein auf die getesteten Spielen, nicht die theoretischen Tester). Dies ist nicht besonders überzeugend, aber FullHD ist für eine solche Karte einfach auch keine sinnvolle Spielwiese mehr.

Unter UltraHD steigen die Performancegewinne dann deutlich an: +52,4% gegenüber der GeForce GTX 980 Ti und +53,2% gegenüber der Radeon R9 Fury X sind gutklassig. Dies ergibt einen 4K Performance-Index von ~150-155% – deutlich oberhalb der früheren DualChip-Lösungen Radeon R9 295X2 (4K Perf.Index ~130%) und GeForce GTX Titan Z (4K Perf.Index ~122%). Die CrossFire-Effizienz gegenüber der mit der Radeon Pro Duo (im SingleChip-Feld) am ehesten vergleichbaren Radeon R9 Nano (4K Perf.Index ~86%) liegt dann bei +74-80%, was ebenfalls ein beachtbar guter Wert ist. Leider fehlen derzeit jegliche Aussagen zur VR-Performance der Radeon Pro Duo – man kann ergo nur blank mutmaßen, das jene sich dort exzellent schlagen sollte. Auch in dieser Frage kommt von weiteren Testberichten zur Radeon Pro Duo hoffentlich erhellendes – was allerdings gar nicht so einfach wird angesichts fehlender Pressesamples und derzeit nicht vorhandener Lieferbarkeit.

Denn die Karte ist zwar im deutschen Einzelhandel für rund 1600 Euro vorbestellbar, einen Liefertermin gibt es allerdings noch nicht. Aufgrund der ganzen Ansetzung – zu später Termin, zu hoher Preis, keine Lieferbarkeit, nächste Grafikkarten-Generation vor der Tür – ist es allerdings gut möglich, das die Radeon Pro Duo schnell wieder aus dem Blickfeld verschwindet und eventuell auch nie wirklich eingehend getestet wird. Hierbei steht durchaus zu vermuten, das ein solcher Werdegang AMD wohl sogar ziemlich recht ist – die Radeon Pro Duo erscheint fast wie eine Pflichtübung, die AMD jedoch nach Erfüllung dieser Pflicht schnellstmöglich wieder vergessen will. Unter diesen Bedingungen sind jegliche Empfehlungen pro dieser Karte natürlich nonsens – vor dem Vorhandensein ausgiebiger Tests sollte man sicherlich nicht über die Anschaffung eines 1499-Dollar-Boliden nachdenken.

25

Hardware- und Nachrichten-Links des 25. April 2016

Neben dem ersten Benchmark-Wert zu Polaris 10 haben WCCF Tech noch weitere Informationen zu diesem Grafikchip von dem AMD-Presseevent in Taiwan zu berichten: So soll die Karten-TDP bei 175 Watt liegen, die Karten aber deutlich darunter verbrauchen. Gemessen an der gezeigten Performance sind irgendwas um die 150 Watt anzunehmen – was eine gute Größe für das HighEnd-Segment darstellt, die Karte aber nochmals etwas weiter aus dem ursprünglich für diese angenommenen Performance-Segment herausrückt. Zudem hat AMD angeblich zum besten gegeben, Polaris zuerst für den HBM-Einsatz entwickelt zu haben – sich dann jedoch zugunsten von GDDR5/X umentschieden, weil dies die bessere Lösung aus Sicht des Nutzen/Kosten-Verhältnisses ist. Hier dürfte allerdings sicher auch mit hineingespielt haben, das HBM2 einfach noch ein wenig Zeit braucht, erste entsprechend ausgerüstete Karten sind nun erst im Jahr 2017 zu erwarten. Ob AMD im übrigen hierbei wirklich explizit GDDR5X erwähnt hat, ist unsicher, die Begriffswahl "GDDR5/X" stammt wahrscheinlich von WCCF Tech selber und soll nur andeuten, das der Polaris-10-Chip womöglich auch mit GDDR5X umgehen kann – ohne das es dafür aber bislang eine klare Bestätigung gibt.

Davon abgesehen bringt der unerwartet hohe Performance-Ansatz von Polaris 10 das bisher recht sicher geglaubte Portfolio-Schema der Polaris/Vega-Generation durcheinander: Es ist dann doch eher unwahrscheinlich, das AMD gleich noch zwei schnellere Grafikchips auf Polaris 10 oben drauf setzen will, Platz wäre da regulär nur noch für eine dedizierte Enthusiasten-Lösung. Wie sich dies auflöst, wenn AMD aber nächstes Jahr noch zwei neue Vega-Chips mit HBM2-Einsatz bringen will, ist derzeit rein spekulativ: Die Auflösung mit einem Vega-Chip mitten zwischen Polaris 11 & 10 wird eher nichts, zwischen diesen beiden Chips ist bei verbauten 1280 bzw. 2560 Shader-Einheiten (glatte Verdopplung = idealer Abstand) einfach zu wenig Platz. Denkbar wäre hingegen eine Auflösung, bei welcher AMD dem nVidia-Modell folgt und gleich zwei Enthusiasten-Chips auflegt – eine dedizierte Gamer-Lösung ohne (großen) FP64-Support sowie eine dedizierte HPC-Lösung mit dann allen Features, welche für den professionellen Einsatz vonnöten sind. Zur Auflösung dieser Frage sind aber besser weitere Informationen abzuwarten, denn bis auf die pure Namensnennung und die Nutzung von HBM2 ist derzeit nichts festes zu Vega 10 & 11 bekannt.

Eine gewisse Erklärung für die kürzlich berichtete Verbesserung der Polaris-Generation beim Thema "Culling" (dem Erkennen und Weglassen letztlich nicht zu sehender Grafikelemente) bietet unser Forum: So hat nVidia mit den aktuellen Grafikchips wohl deutliche Vorteile bei großen Mengen an Mini-Dreiecken – welche für besonders fein aufgelöste Grafik heutzutage durchaus üblich sind. Das Erkennen und Wegwerfen der "unnützen" Dreiecke funktioniert bei nVidia deutlich besser, was den Grafikchip in Folge dessen nicht mit dem Rendering von später gar nicht mehr zu sehenden Dreiecken belastet. In theoretischen Tests (im Diagramm gezeigt) lassen sich hierbei erhebliche Unterschiede zwischen AMD- und nVidia-Hardware beobachten – inwiefern das auch für reale Spiele eine große Differenz macht, läßt sich daraus natürlich eher nur schätzungsweise ableiten. Nichtsdestotrotz lag hier für AMD wohl ein Ansatzpunkt zur Verbesserung vor, welcher mit der Polaris-Generation nunmehr angegangen wurde.

Laut HT4U hat AMD drei neue SemiCustom-SoCs für 2017 bestätigt, welche AMD in den nächsten 3-4 Jahren 1,5 Milliarden Dollar Umsatz einbringen sollen. Angaben, um welche SoCs und welche Abnehmer es sich handelt, gab es leider keine – die originalen AMD-Aussagen beziehen sich auch nicht zwingend auf Spielekonsolen-SoCs. Es gab nur den Hinweis, das einer der drei SoCs bereits im zweiten Halbjahr 2016 in Produktion gehen soll, die Veröffentlichung der jeweiligen Produkte für alle drei SoCs aber erst im Jahr 2017 erfolgen wird. Früher als ein Weihnachts-Launch mit echter Verfügbarkeit im Frühjahr 2017 wird es also kaum werden – für Nintendos NX sowie Sonys PS4K, welche mit größtmöglicher Wahrscheinlichkeit hier gemeint sein dürften. Nur der dritte SoC ist noch offen – denkbar ist hierbei eine verbesserte Xbox One, ein neues, derzeit gänzlich unbekanntes Projekt – oder am Ende auch ein Auftraggeber aus einem völlig anderem Themengebiet. Erstaunlich ist daneben die vergleichsweise niedrige Umsatzgröße, welche nur ca. 100 Millionen Dollar pro Quartal ausmacht – mit den ursprünglichen Konsolendeals zu Xbox One und PS4 hatte AMD noch anfänglich ca. 400 Millionen Dollar Umsatz pro Quartal erwirtschaften können.

In diesem Zusammenhang vermeldet die PC Games Hardware Sony-Aussagen, wonach man dort derzeit den üblichen Konsolen-Zyklus von bislang 6-8 Jahre für eine Konsolen-Generation in Frage stellt. Denn angesichts der kommenden PS4K und der damit erstmals in die Praxis umgesetzten Variante eines Hardware-Upgrades innerhalb derselben Konsolen-Generation ist man sich bei Sony nicht mehr so sicher, ob dieser alte Zyklus noch zu halten ist – oder ob nicht am Ende etwas komplett neues kommt. Denkbar wären wesentlich kürzere Konsolen-Zyklen von 2-4 Jahren, wobei dann vielleicht immer auch eine Software-Kompatibilität zum jeweiligen Vorgänger gehalten wird. Sprich: Man könnte (nach Gusto) jeweils eine Generation aussetzen, aller zwei Generationen muß man dann allerdings kaufen, um den Anschluß an die verfügbare Software nicht zu verlieren. Mit einem solchen Modell der schnellen Innovationen, welche allerdings diverse Einschränkungen zugunsten einer Rückwärts-Kompatibilität erfordern, würde es allerdings wesentlich schwieriger werden, die wirklich großen Innovationssprünge hinzulegen – wobei als Gegenargument hierfür gelten kann, das solcherart Sprünge angesichts der heutigen Hardware-Fähigkeiten vielleicht gar nicht mehr notwendig sind. Die ganzen Sony-Thesen sind sicherlich noch in der Schwebe, man dürfte sich hierzu erst einmal anschauen, wie die PS4K und die anderen der 2017er Spielekonsolen laufen werden.

25

Erster Benchmark-Wert deutet eine hohe Performance von Polaris 10 an

Ziemlich gut unter viel Text und Bildern versteckt berichten WCCF Tech über einen ersten Performance-Wert zu AMDs Polaris 10: Mit einer solchen Grafikkarte sollen auf einem kürzlichen AMD-Presseevent in Taiwan nahezu 4000 Punkte unter dem 3DMark13 FireStrike Ultra erzielt worden sein. Dies hört sich dann schon einmal sehr gut an, denn dies ist glatt auf dem Level von Radeon R9 Fury X bzw. GeForce GTX 980 Ti – zumindest unter dem 3DMark13 FireStrike in der Ultra-Disziplin (= 4K-Auflösung). Für andere Benchmarks muß dies natürlich nichts sagen – aber gravierend abweichend sollten diese dann auch wieder nicht ausfallen, eine gewisse Performancerichtung wird damit für Polaris 10 durchaus schon vorgegeben.

Technik 3DM13 FS-U Quelle
Polaris 10 14nm, vmtl. 2560 Shader-Einheiten @ 256 Bit GDDR5-Interface nahezu 4000 WCCF Tech
Radeon R9 Fury X 28nm, 4096 Shader-Einheiten @ 4096 Bit HBM1-Interface 3899 TweakPC
GeForce GTX 980 Ti 28nm, 2816 Shader-Einheiten @ 384 Bit GDDR5-Interface 3795 TweakPC

Bewußt vorsichtig geschätzt, sollte die größere Polaris-10-Lösung somit auf einer Performance zwischen GeForce GTX 980 und 980 Ti herauskommen – wenn man es genauer schätzen will, dann darf man von einer Performance auf dem halben Weg zwischen diesen beiden nVidia-Karten oder besser ausgehen. Dies könnte auf einen FullHD Performance-Index von ~660-700% sowie einen 4K Performance-Index von ~90-95% für die größere Polaris-10-Lösung hinauslaufen. Der 3DMark13 ist natürlich gerade zur Abschätzung der Performance unter der 4K-Auflösung eher ungeeignet, da (im Gegensatz zu realen Spielen) zu wenig Speicherbandbreite und zu geringe Speichermengen abgefragt werden – insofern ist nicht zu erwarten, das Polaris 10 diese 4K-Performance auch durchgehend unter realen Spielen halten kann. Unter der FullHD-Auflösung könnte dies anders aussehen, dort spielt die Speicherbandbreite weniger eine Rolle und ist Polaris 10 damit potentiell in der Lage, vielleicht sogar unter realen Spielen minimal schneller als die Radeon R9 Fury X herauszukommen.

Polaris 10 würde dann nicht mehr wirklich im Performance-Segment stehen, sondern eher (selbst nur die Verhältnisse der kommenden 14/16nm-Generation betrachtend) das untere HighEnd-Segment angreifen. Dies wäre ein klar höherer Ansatz als zuletzt vermutet worden war – was aber eventuell auch etwas von dem niedrigeren Ansatz des GP104-Chips begünstigt wird, welcher augenscheinlich klar kleiner in der Chipfläche ausfällt als sein direkter Vorgänger in Form des GM204. Aller Wahrscheinlichkeit nach läßt sich dabei die GeForce GTX 1080 nicht mittels Polaris 10 angreifen – aber genauso wahrscheinlich ist auch, das dies gar nicht die Zielsetzung von AMD darstellt. Aus dem, was AMD in letzter Zeit zwischen den Zeilen ausgesagt hat, läßt sich erahnen, das man hierbei eher die Zielsetzung hatte, eine eigene GeForce GTX 970 aufzulegen – nicht im Sinne des von nVidia bei dieser Karte abgezogenen Schmus, sondern im Sinne dessen, das die GeForce GTX 970 sogar trotz dieses Makels ein echter Verkaufsschlager ist.

AMD Polaris FHD Perf. 4K Perf. nVidia Pascal
~810-840% ~110-115% GeForce GTX 1080
GP104-400, wrschl. Vollausbau mit 8 GB GDDR5X-Speicher
Radeon R9 480X (?)
wrschl. Polaris-10-Vollausbau mit 8 GB GDDR5-Speicher
~660-700% ~90-95%
~640-670% ~80-85% GeForce GTX 1070
GP104-200, wrschl. abgespeckte Variante mit 8 GB GDDR5-Speicher
Radeon R9 480 (?)
wrschl. abgespeckte Polaris-10-Variante mit 8 GB GDDR5-Speicher
~560-600% ~75-80%
~570-600% ~70-75% GeForce GTX 1065 (?)
GP104-150, wrschl. abgespeckte Variante mit 4 oder GB GDDR5-Speicher
Anmerkung: Alle in dieser Tabelle genannten Performance-Werte sind natürlich spekulativ.

Auf das aufzubauende 14/16nm Grafikkarten-Angebot bezogen, versucht AMD also augenscheinlich, die GeForce GTX 1070 anzugreifen – und die GeForce GTX 1080 dafür glatt links liegenzulassen. Für diese Zielsetzung scheint Polaris 10 die notwendige Performance mitzubringen – es fehlt natürlich noch der passende Preispunkt. Angesichts der vermutlich hohen Performance sind hierbei dann allerdings keine Billigangebote zu erwarten, wenigstens die größere Polaris-10-Lösung dürfte wohl einen entsprechenden HighEnd-Preis aufweisen. Allerdings beschnüffeln sich in dieser Frage beide Grafikchip-Entwickler derzeit sicher noch – keiner will seine neuen Produkte aus der teuren 14/16nm-Fertigung zu billig anbieten, keiner will aber auch auf dem falschen Fuß (mit einem zu hohen, von der Konkurrenz klar unterbotenen Preispunkt) erwischt werden. Sehr wahrscheinlich daher, das die finalen Preise für diese kommenden ersten Grafikkarten der 14/16nm-Generation erst wenige Tage vor dem jeweiligen Kartenlaunch festgelegt werden.

24

Hardware- und Nachrichten-Links des 23./24. April 2016

WCCF Tech zeigen nun auch noch eine Grafikkarte mit GP104-400 Grafikchip – im übrigen eine GeForce GTX 1080 von MSI – mit 8 GB GDDR5X-Speicher auf dem Grafikboard. Damit bestätigt sich das, was kürzlich schon so vermeldet wurde: Die GeForce GTX 1070 (GP104-200) kommt mit 8 GB GDDR5-Speicher, nur die GeForce GTX 1080 (GP104-400) kommt mit GDDR5X-Speicher. Dies wird für einen überaus klaren Unterschied bei der Speicherbandbreite sorgen, denn selbst wenn die GeForce GTX 1070 mit 4000 MHz Speichertakt antritt (der verbaute GDDR5-Speicher ist dafür spezifiziert), sind von GDDR5X auf der GeForce GTX 1080 Speichertaktungen von bis zu 3000 MHz zu erwarten – und damit bis zu 50% mehr Speicherbandbreite. Nutzt nVidia die Speicherchip-Spezifikationen bei der GeForce GTX 1070 nicht komplett aus (durch Speichertaktungen unterhalb von 4000 MHz), kann der Unterschied sogar noch etwas größer ausfallen. Gerade angesichts dessen, das es in letzter Zeit bei Grafikkarten basierend auf dem gleichen Grafikchip eher selten überhaupt einen Unterschied bei der Speicherbandbreite gab (Radeon R9 390 & 390X: identisch, Radeon R9 380 & 380X: identisch, GeForce GTX 950 & 960: minimale Differenz), ergibt dies ein ziemliches Alleinstellungsmerkmal.

Aufgrund dieses hohen Unterschied bei der Speicherbandbreite könnte nVidia dann auch dazu neigen, die weitere Hardware der GeForce GTX 1070 harsch zu beschneiden – es lohnt schließlich nicht, alle Shader-Einheiten bei dieser mittleren GP104-Lösung zu aktivieren, wenn derart weniger an Speicherbandbreite zur Verfügung steht. Eine Abspeckung der GeForce GTX 1070 von den physikalisch vorhandenen 2560 Shader-Einheiten auf vielleicht nur 2048 Shader-Einheiten liegt dabei durchaus im Rahmen der Möglichkeiten. Denkbar ist natürlich auch eine mittlere Abspeckung der Shader-Einheiten und dafür entsprechend niedrigere Taktraten – aber dies fordert immer nur die Übertakter heraus und will daher gut überlegt sein. So oder so ist die GeForce GTX 1070 auf einen eher höheren Performance-Abstand zur GeForce GTX 1080 einzuschätzen – jener sollte schon bei 20-25% liegen. Weniger passt nicht zur großen Differenz bei der Speicherbandbreite, (deutlich) mehr wird dann die Karten zu weit auseinanderrücken und ist zugunsten eines "runden" Angebotsportfolios eher nicht wünschenswert.

In unserem Forum wird zudem darüber diskutiert, wie hoch AMDs Polaris 10 Grafikchip einzuschätzen ist. Nominell steht dieser zwar nur für das Performance-Segment – aber dies muß ja gar nichts sagen, AMD kann den Chip auch näher an das HighEnd-Segment heranrücken, was im Sinne dessen, das AMD dieses Jahr keine weiteren Grafikchips neben Polaris 11 & 10 herausbringen wird, nicht verkehrt wäre. Das hingegen wahrscheinlich dieselbe (nominelle) Hardware wie bei nVidias GP04-Chip vorliegt – 2560 Shader-Einheiten an einem 256 Bit GDDR5/X Speicherinterface – muß allerdings auch nichts sagen. Um diesen Punkt ausnutzen zu können, müsste AMD schon dieselbe Recheneffizienz wie nVidia hinlegen, was gegenüber der aktuellen Situation (2048 Shader-Einheiten bei nVidia erreichen 2816 Shader-Einheiten bei AMD beim Vergleich von GeForce GTX 980 zu Radeon R9 390X) als ein zu großer Sprung erscheint. Zudem dürfte nVidia mit der Pascal-Generation auch noch einen gewissen Taktratensprung hinlegen, den AMD bei der Polaris-Generation augenscheinlich nicht mit geht – die hierbei entstehende Differenz müsste AMD dann durch eine nochmals bessere Recheneffizienz ausgleichen.

Interessant ist hierzu eine Wortmeldung aus dem AnandTech-Forum, wo von einer Technik zur (weiteren) Steigerung der Recheneffizienz bei Polaris 11/10 berichtet wird, mittels welcher letztlich unsichtbare Bildteile vorab erkannt und dann gar nicht erst mitgerendert werden. In dafür passenden Anwendungsfällen soll Polaris 10 damit sogar in der Lage sein, die Performance einer Radeon R9 Fury X zu überbieten – dies wäre dann das Performancefeld der GeForce GTX 980 Ti sowie der kommenden GeForce GTX 1080. Ob Polaris 10 im Schnitt aller Benchmarks so weit reicht, wäre aber dennoch zu bezweifeln, der enorm hohe Vorteil von nVidia bei der Recheneffizienz pro Shader-Einheit ist zum einen nicht über Nacht zu egalisieren, zum anderen dürfte AMD mit seinem Designansatz auch für kleinere Shader-Einheiten, weniger Chipfläche und damit geringere Kosten stehen. Wenn es gut läuft, dann kommt Polaris 10 trotzdem mit einer Performance in der Nähe zu nVidias GP104-Chip heraus – allerdings zu einer vermutlich deutlich günstigeren Preislage, denn der GP104 wird natürlich wieder ein echtes HighEnd-Projekt mit dementsprechenden Preisen sein.

24

Offizielle Spezifikationen samt AMD-eigener Benchmarks zur Radeon Pro Duo aufgetaucht

Für den am dienstäglichen 26. April 2016 zu erwartenden Launch der Radeon Pro Duo bieten Videocardz bereits jetzt die offizielle Presse-Präsentation an, welche u.a. die finalen Kartenspezifikationen sowie AMD-eigene Benchmarks beinhaltet. Echte Überraschungen ergeben sich mittels dieser Kartenspezifikationen nicht mehr – die offiziellen Taktraten von ≤1000/500 MHz sowie die TDP von nur 350 Watt waren vorab bereits bekannt. Zudem dürften in dieser Frage eher die Praxiswerte von Belang sein – sprich, wie hoch die Karte im Spiele-Alltag taktet und wie das im Karten-BIOS festgesetzte PowerTarget aussieht. Angenommen, jenes PowerTarget liegt wirklich nur bei 350 Watt, sind letztlich Taktraten wie von der Radeon R9 Nano her bekannt (durchschnittlicher Chiptakt 876 MHz) zu erwarten, mit demzufolge niedrigerer Performance.

Mangels Konkurrenz im DualChip-Segment kann AMD sich dies jedoch leisten, die einzigen Kontrahenten entstammen schließlich noch der vorhergehenden Grafikkarten-Generation – Radeon R9 295X2 auf Basis des Hawaii-Chips und GeForce GTX Titan Z auf Basis des GK110-Chips. Jene will AMD mit der Radeon Pro Duo unter UltraHD um +23% zur Radeon R9 295X2 sowie um +61% zur GeForce GTX Titan Z schlagen – dies kommt wohl auf einen 4K Performance-Index von bestenfalls ~160% heraus, zumindest wenn man die typische Übertreibung der Hersteller im Vergleich mit der Konkurrenz mal nicht beachtet. Jener Wert ist aber immer noch ganz stattlich, denn dies sind gleich 86% mehr als bei der Radeon R9 Nano, was eine erstklassige CrossFire-Effizienz ergeben würde.

AMD Radeon Pro Duo – offizielle Spezifikationen
AMD Radeon Pro Duo – offizielle Spezifikationen
AMD Radeon Pro Duo – AMD-eigene Benchmarks
AMD Radeon Pro Duo – AMD-eigene Benchmarks

Es bleibt allerdings abzuwarten, wie kritische Hardware-Tester dies sehen werden – heutzutage laufen SLI & CrossFire in einfach zu vielen Spielen gleich gar nicht mehr, sinkt dadurch der reale durchschnittliche Leistungsgewinn dieser MultiChip-Technologien erheblich ab. AMD versucht demzufolge, die Radeon Pro Duo eher im professionellen Segment zu positionieren oder wahlweise als VR-Lösung zu vermarkten. Insbesondere in letzterem Feld sind einige Chancen für die Karte zu sehen, denn bei VR-Anwendungen ist die Unterstützung von SLI & CrosFire sowohl problemloser als auch sinnvoller als bei normalen Spielen. Trotzdem bleibt die Frage, ob es einen ausreichenden Markt gibt für eine Grafikkarte, welche auf einem Preispunkt von satten 1499 Dollar sowieso schon eine sehr exklusive Veranstaltung ist – und dann auch noch nur in gewissen Nischen glänzen kann.

Inhalt abgleichen