18

Umfrage-Auswertung: Grafikkarten-Kauf: Streng AMD oder nVidia - oder Wechselwähler (2016)?

Eine Umfrage von Mitte Dezember fragte mal wieder nach der generellen Kaufneigung der Grafikkarten-Käufer pro eines der beiden Grafikchip-Entwickler. Die Auswertung der dabei aufgelaufenen Stimmen brachte durchaus interessante Änderungen gegenüber einer gleichlautenden Umfrage aus dem Jahr 2012 hervor: Gab es seinerzeit noch eine beachtbare nVidia-Tendenz, gibt es nunmehr hingegen sogar eine beachtbare AMD-Tendenz. Gänzlich erklären läßt sich das ganze nicht, denn das aktuelle Marktgeschehen spricht (mit dem Fehlen von HighEnd- und Enthusiasten-Beschleunigern seit dem Start der 14/16nm-Generation) nicht gerade für AMD – die Ergebnisse selber sollten allerdings stimmen, bei einer anderen kürzlichen Umfrage gab es genauso einen gewissen Umschwung zurück zu AMD zu sehen.

Dabei ist die Differenz von "eher AMD" mit 43,0% gegenüber "eher nVidia" mit 33,1% noch nicht zu abweichend, um daraus eine Staatsaffäre machen zu können – trotz daß es natürlich massiv den Verhältnissen im gesamten Grafikkarten-Markt widerspricht. Beachtbar ist daneben, das sich der Anteil der schon fest entschiedenen Nutzer gegenüber dem Jahr 2012 etwas reduziert hat: Waren dies seinerzeit noch 29,5% aller Umfrageteilnehmer, sind es heuer nur noch 26,8%. Dabei hat vor allem nVidia sehr deutlich von seinerzeit 19,4% Stammkäufer auf derzeit nur noch 12,5% Stammkäufer verloren – dies ist die größte (relative) Einzelbewegung im Vergleich zwischen beiden Umfragen. An dieser Stelle kann AMD sicherlich für sich in Anspruch nehmen, um jahrelang vernünftige bis gutklassige Arbeit hartnäckige Vorurteile aufgebrochen zu haben – was eben auch wirklich nur in Form langjährig guter Arbeit funktioniert.

Natürlich haben diese Zahlen ganz deutlich nichts mit denen des Grafikkarten-Massenmarktes zu tun – für welchen immer noch die alte Weisheit gilt, das viele Konsumenten eine Grafikkarten schlicht mit "GeForce" assoziieren. Hierbei hat es wiederum nVidia über die Jahre verstanden, ein derart hohes Standing aufzubauen, daß dann eben die bekannten Verkaufszahlen herauskommen. Zur Rückeroberung des Massenmarktes wird AMD sicherlich noch (viel) mehr Zeit benötigen – aber gute Ansätze hierfür bei den Grafikkarten-Enthusiasten zu finden, ist schon erst einmal der richtige Weg, jene stellen üblicherweise die Multiplikatoren zur späteren Beeinflußung des Massenmarkts dar.

17

Hardware- und Nachrichten-Links des 17. Januar 2017

Grafikkarten-Hersteller Sapphire listet eine Radeon RX 460 mit vollen 1024 Shader-Einheiten auf seinen Webseiten, wobei jene Karte augenscheinlich nur in China verfügbar ist und dies sich vermutlich auch nicht ändern dürfte. Die Radeon RX 460 machte im letzten Dezember schon auf sich aufmerksam, als sich jene Desktop-Grafikkarten als freischaltbar erwiesen – man also die vollen 1024 Shader-Einheiten des Polaris-11-Chip auf dieser Grafikkarte mit original nur 896 freigeschalteten Shader-Einheite aktivieren konnte. Sapphire geht nun einen Schritt weiter und bietet diese Freischaltung gleich ab Werk an – dies deutet immer klarer darauf hin, daß das ganze durchaus mit dem Wissen und der Billigung von AMD passiert. So oder so kommt allerdings nicht wirklich viel aus den immerhin 14,3% mehr Shader-Einheiten heraus – frühere Benchmarks bemaßen den Performance-Gewinn der Freischaltung auf nur zwischen +4% und +9% liegend.

Jene Benchmarks wurden zudem auch schon mit Radeon RX 460 Karten auf höherem Power-Limit aufgenommen – denn im Referenzzustand wird die Radeon RX 460 erheblich durch ihr Power-Limit gebremst, welches die (nominell) ohne extra Stromstecker ausgelieferte Karte zuverlässig auf unter 75 Watt Stromverbrauch drücken muß. Hier liegt dann auch der Pferdefuß der ganzen Aktion: Mittels Freischaltung und höherem Power-Limit wird die Radeon RX 460 ziemlich ineffizient, geht schnell in Richtung 100 Watt Spiele-Stromverbrauch. Für eine Performance von nach Freischaltung und Übertaktung bestenfalls auf der Höhe der GeForce GTX 1050 (~55 Watt Spieleverbrauch) ist dies eigentlich nicht konkurrenzfähig – auch wenn die verfügbaren 4-GB-Modelle (gibt es bei der GeForce GTX 1050 nicht) sowie der niedrige Preispunkt nach wie vor zugunsten der Radeon RX 460 sprechen. Am Ende ist dies wieder eine der AMD-typischen China-bezogenen Werbeaktionen ohne beachtbaren Einfluß auf den weltweiten Grafikkarten-Markt – wobei da manchmal auch wirklich interessante Produkte dem nichtchinesischen Grafikkarten-Käufer vorenthalten werden, wie derzeit beim Fall der Radeon RX 470D.

In Bezugnahme auf unsere Spekulationen zu AMDs Vega 11 gibt es auch noch die beachtbare These, das Vega 10 im Gaming-Segment eine höhere (nominelle) FP32-Rechenleistung von 14 TFlops aufbieten könnte, was dann alle anderen Werte entsprechend verschiebt. Begründet wird dies mit der AMD-Historie, wo beispielsweise Hawaii-basierte Profi-Beschleuniger auch schon niedriger takteten als entsprechende Gaming-Lösungen – und da AMDs bisherige Angaben von 12 TFlops für Vega 10 bzw. sogar 12,5 TFlops für die darauf basierende GPGPU-Lösung "Radeon Instinct MI25" allesamt dem Server-Segment zuzurechnen sind, hat diese These durchaus ihre Chance. Von den dann gleich 14 TFlops für Vega 10 unter Gaming-Bedingungen ausgehend schätzt man dann Vega 11 auf gleich 9,5 TFlops – beides allerdings erreicht durch höhere Taktraten und nicht durch mehr Hardware (selbige sollte gleich sein zu unserer bisherigen Spekulation).

Ob sich aus diesem Mehr an Rechenleistung auch mehr Performance ziehen läßt als bisher seitens AMD (so halb) dargestellt, ist die große Frage: Deutlich höhere Vega-Taktraten (Richtung 1700 MHz) dürften sicherlich noch nicht mit den jetzigen, früheren Chipsteppings erreichbar sein – ergo ergibt sich hiermit nominell die Chance auf Mehrperformance mit den finalen Vega-Chips auf höheren Taktraten als bisher möglich. Dennoch ist es eine riskante Rechnung, von diesem kalkulierten Taktratensprung ausgehend dem Vega-10-Chip jetzt schon die volle Konkurrenzfähigkeit zu nVidias GP102-Chip zuzuschreiben, wenn die bisherigen Performance-Halbinformationen eher auf ein Niveau zwischen GP104 (GeForce GTX 1080) und GP102 (Titan X) hindeuten. Es bliebe wohl besser abzuwarten, wie sich die Vega-10-Performance entwickelt und was AMD noch durch neue Steppings und bessere Treiber herausholen kann. Vorab-Prognosen hierzu sollten sicherlich eher defensiv ausfallen, um AMD nicht gleich wieder vor unerfüllbare User-Ansprüche zu stellen.

Ähliches gilt auch für die im verlinkten Forenposting aufgestellte These einer Polaris-10-basierten Grafikkarte mit deutlich mehr Chiptakt (Richtung 1400 MHz): Bekannterweise ist die GCN4-Architektur (wie frühere Grafikchip-Architekturen von AMD) nicht für hohe Taktraten geeignet und reagiert auf solche in aller Regel mit einem durch die Decke gehenden Stromverbrauch. Um 1400 MHz bei Polaris 10 zu erreichen, müsste Chipfertiger GlobalFoundries schon eine sehr bedeutende Verbesserung seiner 14nm-Fertigung erreichen – nicht gänzlich auszuschließen, aber in dieser Höhe auch nichts, wovon man fest ausgehen kann. Normalerweise gilt das Polaris-10-Design schon als aktuell mit zu hohen Taktraten betrieben (AMD musste wohl den Chiptakt über die ursprünglichen Planungen hinaus anheben, um mit der GeForce GTX 1060 mithalten zu können) – ergo wäre es fast schon ein Wunder, aus diesem Chip nun nochmals mehr Chiptakt herausholen zu können. Nicht undenkbar, das AMD aufgrund des "Zwischenchips" Vega 11 in der Radeon RX 500 Serie den Polaris-10-Chip vielleicht gar nicht so weit ausfährt wie in der Radeon RX 400 Serie geschehen – sondern zukünftig eher versucht, den besten Mix aus Stromverbrauch und Performance zu bringen.

17

Weitere externe Grafikkarten-Gehäuse von MSI und Zotac in Vorbereitung

Von den Herstellern MSI und Zotac kommen weitere Projekte an externen GPU-Gehäusen auf Basis der Thunderbolt-Technologie. So zeigte MSI auf der CES 2017 eine mehr oder weniger finale "GUS" (Graphics Upgrade Solution), welche eine standardisierte Thunderbolt-3-Anbindung zu einem vergleichsweise stylischem Grafikkarten-Gehäuse mit 500-Watt-Netzteil bringt. Über die Größe der dort verbaubaren Grafikkarten gibt es noch keine exakten Angaben, zumindest eine GeForce GTX 1080 (26,7cm, DualSlot) passte schon einmal. Preislich peilt MSI mit 400-500 Dollar eher das obere Segment an, der finale Preis steht aber noch nicht fest. Verfügbar werden soll die MSI GUS im zweiten Quartal – im übrigen fördert eine Websuche nach "MSI GUS" auch noch Meldungen von der CeBIT 2012 zu Tage, wo MSI seinerzeit schon ein "GUS II" mit ebenfalls Thunderbolt-Anschluß demonstriert hatte, welches es nachfolgend allerdings augenscheinlich nie zur Serienreife gebracht hat.

Gleichzeitig hat Zotac auf der CES 2017 ein noch namenloses Grafikkarten-Gehäuse gezeigt, welches optisch vielleicht weniger hermacht, aber dessen Daten dennoch überzeugen: Immerhin können hierbei Grafikkarten mit bis zu 33cm Länge & Zweieinhalbslot-Layout verbaut werden, das Netzteil mit einer Nennleistung von 400 Watt sollte für TDPs bis ~300 Watt problemlos ausreichen. Die Anbindung ist wiederum standardisiertes Thunderbolt 3, was eine nominelle Bandbreite von 5 GB/sec aufweist, durch die Anbindung der Thunderbolt-Controllerchips an nur vier PCI Expres 3.0 Lanes aber bestenfalls eine Bandbreite von 4 GB/sec erreichen kann (das HighEnd-Grafikkarten dennoch erhebliche Performance-Nachteile durch die Thunderbolt-Technik erleiden müssen, wurde kürzlich bereits dargelegt). Trotz noch nicht ganz finalisiertem Design will Zotac sein externes GPU-Gehäusen schon im ersten Quartal zu einem vergleichsweise humanem Preis herausbringen – da das günstige Grafik-Gehäuse bislang das (noch nicht lieferbare) Akitio Node für 300 Dollar darstellt, dürften hiermit wohl 300-350 Euro gemeint sein.

MSI GUS externes Grafikkarten-Gehäuse
MSI GUS externes Grafikkarten-Gehäuse
Zotac externes Grafikkarten-Gehäuse
Zotac externes Grafikkarten-Gehäuse

Mit dieser Gelegenheit haben wir die nachfolgende Auflistung der verfügbaren Thunderbolt-basierten externen Grafikkarten-Gehäuse um neuere Daten und Erkennisse aktualisiert. So ist inzwischen die Asus ROG XG Station 2 für 580 Euro bei Caseking lieferbar – leider funktioniert dieses Grafikkarten-Gehäuse (wie erwartet worden war) nur mit einigen Asus-Notebooks zusammen, welche Asus auf seiner Webseite auflistet. Ebenfalls lieferbar wurde die PowerColor Devil Box für 449 Euro bei der Mindfactory, für dieses externe Grafik-Gehäuse existieren sogar schon erste Hardware-Tests seitens der ComputerBase und Overclockers Club. Trotz Ankündigung für das Jahr 2016 haben es das Akitio Node und das Gigabyte GP-T3GFx bislang nicht in den Handel geschafft, deren (reales) Erscheinen bleibt somit weiter abzuwarten. Abschließend zum Thema sei hiermit noch auf eine umfangreiche eGPU-FAQ im Forum der ComputerBase verwiesen, welche sich größtenteils zwar noch auf ältere Anbindungsformen bezieht, dafür aber viele Lösungen für Praxisprobleme mitbringt.

einsetzbar für Technik verfügbar Tests
Alienware Graphics Amplifier nur für einzelne Alienware-Notebooks: Alienware 13, 15 & 17 für Grafikkarten bis 375 Watt TDP (Netzteil 460W) und 26,7cm Baulänge (DualSlot), propietärer Anschluß auf PCI Express 3.0 x4 (4 GB/sec), Beschleunigung für internes wie externes Display bei Dell für 281 Euro
bei Amazon für 151 Dollar
Hardwareluxx
TechSpot
Akitio Node für alle Notebooks mit Thunderbolt 3 für Grafikkarten bis ~300 Watt TDP (Netzteil 400W) und 32,0cm Baulänge (DualSlot), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung wohl nur für externes Display ab 2017 für 300 Dollar -
Asus ROG XG Station 2 nur für einzelne Asus-Notebooks (ROG Gaming G701VI, GL502VM & GL702VM sowie Transformer Book T303UA & T305CA) für Grafikkarten bis ~500 Watt TDP (Netzteil 600W) und 26,7cm Baulänge (DualSlot), propietärer Anschluß per 2x Thunderbolt 3 über USB Typ C Stecker (8 GB/sec) sowie eine extra Asus-Verbindung, Beschleunigung wohl für internes wie externes Display bei Caseking für 580 Euro -
Gigabyte GP-T3GFx für alle Notebooks mit Thunderbolt 3 für Grafikkarten bis ~330 Watt TDP (Netzteil 420W) und 26,7cm Baulänge (DualSlot), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung wohl nur für externes Display irgendwann im Jahr 2017 -
Magma ExpressBox 3T für alle Notebooks mit Thunderbolt 2 für Grafikkarten bis ~200 Watt TDP (Netzteil 250W) und 26,7cm Baulänge (TripleSlot), standardmäßiger Anschluß per Thunderbolt 2 (2 GB/sec), Beschleunigung nur für externes Display bei Amazon für 999 Dollar -
MSI GamingDock nur für das MSI-Notebook "GS30 Shadow" für Grafikkarten bis ~375 Watt TDP (Netzteil 450W) und 26,7cm Baulänge (DualSlot), propietärer Anschluß auf PCI Express 3.0 x16 (16 GB/sec), Beschleunigung für internes wie externes Display nur zusammen mit entsprechenden MSI-Notebooks Golem
Notebookcheck
MSI GamingDock Mini nur für das MSI-Notebook "GS30 Shadow" (weitere MSI-Notebooks sollen nachfolgen) für Grafikkarten bis ~250 Watt TDP (Netzteil 330W) und 26,7cm Baulänge (DualSlot), propietärer Anschluß auf PCI Express 3.0 x16 (16 GB/sec), Beschleunigung für internes wie externes Display nur zusammen mit entsprechenden MSI-Notebooks -
MSI GUS für alle Notebooks mit Thunderbolt 3 für Grafikkarten bis ~375 Watt TDP (Netzteil 500W) und 26,7cm Baulänge (DualSlot), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung wohl nur für externes Display ab Q2/2017 für 400-500 Euro -
PowerColor Devil Box für alle Notebooks mit Thunderbolt 3 für Grafikkarten bis 375 Watt TDP (Netzteil 500W) und 31,0cm Baulänge (TripleSlot), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung für internes wie externes Display bei Mindfactory für 449 Euro ComputerBase
Overclockers Club
Razer Core für alle Notebooks per Thunderbolt 3 für Grafikkarten bis 375 Watt TDP (Netzteil 500W) und 26,7cm Baulänge (DualSlot), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung nur für externes Display bei Razer für 500 Dollar Ultrabookreview
Sonnet Echo Express III-D für alle Notebooks mit Thunderbolt 2 für Grafikkarten bis zusammen 150 Watt TDP (Netzteil 300W, aber nur 1x 6pin-Anschluß) und 26,7cm Baulänge (TripleSlot), standardmäßiger Anschluß per 2x Thunderbolt 2 (4 GB/sec, nur ein Stecker wahrscheinlich ebenfalls möglich), Beschleunigung nur für externes Display bei Amazon für 922 Euro Notebookcheck
Zotac für alle Notebooks mit Thunderbolt 3 für Grafikkarten bis ~300 Watt TDP (Netzteil 400W) und 33,0cm Baulänge (2,5 Slots), standardmäßiger Anschluß auf Thunderbolt 3 über USB Typ C Stecker (4 GB/sec), Beschleunigung wohl nur für externes Display (Design noch nicht finalisiert) ab Q1/2017 für 300-350 Euro -
16

Hardware- und Nachrichten-Links des 16. Januar 2017

Gemäß den "gut informierten Quellen aus Ostasien" von Heise soll der Ryzen-Launch am 28. Februar 2017 (ein Dienstag) über die Bühne gehen – dies würde halbwegs zur letzten diesbezüglichen Meldung passen, AMD wolle auf der GDC 2017 vom 27. Februar bis 31. März in San Francisco einen Optimierungs-Vortrag zum "kürzlich releasten Ryzen-Prozessor" abhalten (jener Vortrag hat noch keinen konkreten Termin). Zudem soll AMD noch im Februar Ryzen-Pressesamples an ausgewählte Redaktionen verschicken – so daß jener 28. Februar 2017 dann wohl auch mit den typischen Launch-Reviews aufwarten dürfte. Wie gut AMD danach lieferbar ist, bleibt dagegen weiterhin und aufgrund sich widersprechender Meldungen abzuwarten: Zum einen dürfte AMD bemüht sein, nicht gänzlich nackt dazustehen, zum anderen wäre eine totale Lieferfähigkeit für OEMs und Retail-Markt zugleich ziemlich überraschend – gerade da die Chancen gut dafür stehen, das die Ersttagsbestellungen mehr oder wenige jede Liefermenge übertreffen werden. Eine anfänglich schlechte Ryzen-Verfügbarkeit nur aufgrund zu großer Bestellmengen ist inzwischen sehr wohl erwartbar – wie gut/schlimm es kommt, wird sich zeigen.

In einem Video zeigt OC_Burner, wie seine (herausragenden) Die-Shots von CPUs & GPUs entstehen. Jene werden dafür zuerst für 20-30 Sekunden bei 350-400°C "gebacken", um nachfolgend den eigentlichen Chip vom Package ablösen zu können. Nach einer Reinigungsaktion wird der Chip zum nachfolgend besseren Handling (einseitig) in Epoxidharz eingegossen, welches dann erst einmal aushärten muß. Abschließend wird erneut unter einer Mikrofilmlösung auf verschieden feinen Läppfolien liegend (langwierig) abgeschliffen – diesesmal nicht zum Reinigen, sondern um die Chiphülle langsam aber sicher loszuwerden und somit das darunterliegende Die freizulegen. Das ganze ist eine ziemliche Fleißarbeit, belohnt einen aber durch schon mit bloßem Auge (sehr) gut sichtbaren Chipstrukturen auf dem Die. Am Ende stehen dann die auf OC_Burners Flickr-Seite gesammelten Die-Shots diverser CPUs und GPUs, welche nicht nur ein Stück IT-Geschichte greifbarer machen, sondern auch in der Diskussion um aktuelle und zukünftige Chip-Entwicklungen wichtige Hintergrund-Informationen liefern, welche die Hersteller ansonsten ungern selber geben.

Laut der EETimes verschiebt sich die Halbleiterfertigung mittels 450mm-Wafern um mindestens 5-10 Jahre – was bedeutet, daß das Thema im bestmöglichen Fall in den Jahren 2030-2035 akut werden könnte, vorher sicherlich nicht. Dabei bringt man auch eine sehr interessante Erklärung hervor, welche neben der bisherigen Erklärung des exorbitant hohen Kostenpunktes stehen dürfte: Die Fertigungsausrüster haben schlechte Erfahrungen mit dem Wechsel von 200mm-Wafern auf 300mm-Wafer gemacht (niedrigere Stückzahlen an benötigten Fertigungsstraßen) und ziehen daher beim anstehenden Wechsel nicht wirklich voll mit. Der derzeit nicht gerade explodierende Halbleiter-Bedarf macht es allerdings sowieso allen Beteiligten schwierig, die enormen Milliarden-Investitionen in diese Technologie rechtzufertigen – welche ja zudem nichts besser macht, sondern eigentlich nur eine (langfristig) kostensenkende Maßnahme darstellt. Aufgrund der hohen Anfangskosten ist dieser Punkt jedoch höchst vakant, ergo dürfte das Thema auch weiterhin eher denn nochmals verschoben als denn wirklich realisiert werden.

Die Marktforscher von IDC (-5,7%) und Gartner (-6,2%) haben erneut klare Minuszahlen zu den Stückzahl der im Jahr 2016 verkauften Komplett-PCs ermitteln müssen – das nunmehr fünfte Jahr in Folge mit einem Rückgang des PC-Geschäfts. In den ersten Jahren dieser PC-Schwäche hatte man dies noch mit dem Ansturm der Tablets erklärt, welche aber inzwischen selber auf dem Rückzug sind – primär hat das ganze eher etwas mit einer höheren Langlebigkeit früherer PCs in Bezug auf die Performance-Anforderungen von moderner Software zu tun. Während man in den 90er Jahren tatsächlich noch neue PCs für neue Office-Versionen angeschafft hat, weil drei Jahre alte Maschinen für die neue Software einfach ineffizient langsam waren, gibt es heute außerhalb des Spielebereichs eher selten Anforderungen, denen selbst 10 Jahre alte PCs (die Zeit der ersten Core-2-basierten Maschinen) nicht gewachsen wären. In der Folge rüsten Privatanwender und Firmen einfach seltener um, der bekannte Einfluß der Verschiebung von Computing-Zeit auf Tablets und Smartphones kommt hier noch erschwerend hinzu.

Als Silberstreifen am Horizont können die Marktteilnehmer natürlich den Punkt betrachten, das sich dieses Herausschieben von PC-Ersatzanschaffungen nur für eine gewisse Zeit betreiben läßt – irgendwann gibt die viel modernere Gesamttechnologie neuer PCs dann doch einen Anreiz zum Wechsel bzw. kommt im geschäftlichen Umfeld auch das steigende Ausfallrisiko bei verlängerter Einsatzdauer als einzurechnender Effekt hinzu. Zudem ist das PC-Geschäft natürlich nicht ganz so schlecht, wie durch diese Zahlen zur Menge der verkauften Komplett-PCs dargestellt: Jene umfassen keinerlei Selbstbau-PCs, beinhalten nicht den Effekt (eventuell) ansteigender Durchschnittspreise pro PC und beachten natürlich vor allem das umfangreiche Zubehör- und Aufrüster-Geschäft beim PC überhaupt nicht. Eine Aussage zu den im PC-Geschäft insgesamt gemachten Umsätzen würde vermutlich anders aussehen – in der Tendenz möglicherweise auch nicht gerade positiv, aber angenommen weit weniger dramatisch als gleich 6% Minus.

16

Wie AMDs Vega-11-Chip aussehen könnte

Neben dem derzeit viel diskutierten Vega-10-Chip (wenn AMD oder die Presse einfach nur über "Vega" sprich, dann ist in aller Regel jener gemeint) hat AMD bekannterweise auch noch eine kleinere Lösung auf seiner Roadmap stehen – Vega 11. Sowohl dessen Existenz als auch Zuordnung die "groß = Vega 10, klein = Vega 11" sind mehr oder weniger offiziell bestätigt – doch danach hören die griffigen Informationen zu Vega 11 leider auf. Allerdings kann man durchaus aufgrund der bekannten Daten zu Vega 10 (welche noch unvollständig sind, aber wenigstens ist Vega 10 mit 12-12,5 TFlops Rechenleistung und 512 GB/sec Speicherbandbreite schon ganz gut umrissen) sowie den feststehenden Daten zu Polaris 10 (nominell 5,8 TFlops und 256 GB/sec) gewisse Annahmen zu Vega 11 treffen, welche halbwegs zielgenau sein sollten. Denn schließlich geht Vega 11 nicht in einen luftleeren Raum, sondern wird aus einem gewissen Grund aufgelegt – welcher sich aller Wahrscheinlichkeit nach aus der deutlichen Lücke zwischen Polaris 10 und Vega 10 ergibt.

Jene liegt gemessen an der Rohleistung gerade einmal beim Doppelten, nominell reicht dies nicht aus für einen weiteren Grafikchip dazwischen. Allerdings liegt zwischen Polaris 10 und Vega 10 nicht nur die grob doppelte Rohleistung, sondern vor allem auch ein bedeutsamer Architektur-Schritt innerhalb von AMDs GCN-Architektur. Man kann dies derzeit nur grob schätzen, aber AMD wird ab der Vega-Generation wohl deutlich weniger Mehr-Rechenleistung gegenüber nVidia benötigen, um auf dieselbe Performance zu kommen. Bisher liegt jener Faktor bei ca. 1,4 – AMD benötigt also grob 40% mehr Rechenleistung, um mit nVidia mitzuhalten (anzutreffen beispielsweise bei Radeon RX 480 4GB vs. GeForce GTX 1060 3GB). Mit der Vega-Generation sollte dieser Faktor wie gesagt erheblich zurückgehen – geschätzt in Richtung 1,2, sprich AMD würde dann nur noch grob 20% mehr Rechenleistung für dieselbe Performance benötigen. Jene Schätzung ergibt sich aus der voraussichtlichen Performance einer Vega-basierten Grafikkarte in der Nähe der Titan X (Pascal), ins Verhältnis gesetzt zur Rohleistung dieser nVidia-Karte.

Diesen Punkt eingerechnet würde Vega 10 immer noch von der Rohleistung her nur auf dem Doppelten gegenüber Polaris 10 liegen, bei der Performance allerdings deutlich über dem Doppelten herauskommen – geschätzt bei ~115-130% Performanceplus auf eine Radeon RX 480 8GB oben drauf gelegt (4K Perf.Index: Radeon RX 480 8GB bei 72%, Titan X bei 173%). Dieser hohe Performanceunterschied rechtfertigt durchaus einen weiteren Grafikchip in der Mitte zwischen Polaris 10 und Vega 10 – an dieser Stelle wird dann Vega 11 ins Spiel kommen. Jener wurde bislang als eher "kleiner Grafikchip" eingeschätzt, meistens wurde eine glatte Halbierung von Vega 10 angenommen. Dies wird allerdings kaum funktionieren, damit würde Vega 11 dann Polaris 10 deutlich zu nahe kommen. Um bezüglich der Performance in der Mitte zwischen Polaris 10 und Vega 10 herauszukommen, müsste Vega 11 in etwa mit den folgenden Hardware-Daten antreten:

Polaris 10 Vega 11 Vega 10
Chipfläche 232mm² (14nm GloFo) spekulativ ~340mm² (14nm GloFo) wahrschl. 485-500mm² (14nm GloFo)
Architektur GCN4 wahrschl. GCN5 wahrschl. GCN5
Technik 2304 Shader-Einheiten @ 256 Bit GDDR5-Speicherinterface spekulativ 2560 oder 2688 Shader-Einheiten @ 2048 Bit HBM2-Speicherinterface wahrschl. 4096 Shader-Einheiten @ 2048 Bit HBM2-Speicherinterface
Chiptakt ≤1266 MHz spekulativ ~1500 MHz wahrschl. ~1500 MHz
Speichertakt 4000 MHz DDR spekulativ 800 MHz DDR bestätigt 1000 MHz DDR
(nominelle) Rechenleistung 5,8 TFlops spekulativ ~8 TFlops bestätigt 12-12,5 TFlops
Speicherbandbreite 256 GB/sec spekulativ 409 GB/sec bestätigt 512 GB/sec
Speichermenge 4/8 GB GDDR5 spekulativ 8 GB HBM2 wahrschl. 8/16 GB HBM2
(maximale) TDP 150 Watt
(Realverbrauch 164 Watt)
spekulativ 190 Watt wahrschl. 250 Watt
(maximaler) 4K Perf.-Index 72% spekulativ 110% geschätzt 155-165%
Alle Angaben dieser Tabelle zu noch nicht releasten Grafikchips sind natürlich unsicher, jene zum Vega-11-Grafikchip regelrecht spekulativ.

Dabei lassen sich benötigte Rechenleistung und dafür erforderliche Anzahl an Shader-Einheiten bei Vega 11 schon ganz gut kalkulieren, geht man von tatsächlich 4096 Shader-Einheiten bei Vega 10 (und dafür entsprechend hohem Chiptakt) aus: Um grob in die Mitte zwischen Polaris 10 und Vega 10 herauskommen, braucht es mit der (verbesserten) GCN5-Architektur ca. 8 TFlops Rechenleistung. Angenommen ähnliche Chiptaktraten wie beim Vega-10-Chip von ~1500 MHz, würde dies ziemlich exakt auf 2560 oder 2688 Shader-Einheiten hinauslaufen, mit einer anderen Anzahl passt diese Kalkulation schon nicht mehr oder es würde deutlich mehr Chiptakt benötigen. Eine Seitenchance haben hierbei noch 2432 Shader-Einheiten, dies würde dann allerdings einen vergleichsweise hohen Chiptakt von ~1650 MHz bedingen – unklar, ob AMDs neuer Designansatz bei der Vega-Generation dies schon ermöglichen kann.

Als Besonderheit gegenüber früheren Abschätzungen des Vega-11-Chips gehen wir allerdings davon aus, das ein derart potenter Vega-11-Chip nicht mit einem gegenüber dem Vega-10-Chip halbierten Speicherinterface antritt. Dies wäre zu viel an Abspeckung, da sich der HBM2-Speichertakt (ausgehend von den sicheren 1000 MHz bei Vega 10) nicht weiter erhöhen läßt und da ein nur 1024 Bit breites HBM2-Speicherinterface somit nur auf 256 GB/sec Speicherbandbreite kommen würde – nicht besser als bei Polaris 10, welcher gemäß allgemeiner Einschätzung doch schon ziemlich stark an seiner limitierten Speicherbandbreite hängt. Wer Vega 11 beachtbar schneller als Polaris 10 bekommen will, muß demzufolge zwingend auf ein größeres Speicherinterface setzen. GDDR5-Speicherinterfaces größer 256 Bit fressen dann zu viel an Platz, ergo dürfte AMD sicherlich das 2048 Bit HBM2-Interface von Vega 10 (mit schlicht einem niedrigeren Speichertakt) weiterbenutzen. Jenes ist zwar nicht ganz billig – aber nur über große Stückzahlen kommt die Massenfertigung an HBM2-Speicherchips samt entsprechender Interposer ausreichend in Fahrt, um den Kostenpunkt dieser Technologie deutlich abzusenken.

In der Summe würde AMD mit diesen (spekulativen) Daten zu Vega 11 somit die 4K-Performance der GeForce GTX 1070 (4K Perf.Index 107%) erreichen können – eine gute Zielsetzung, denn diese nVidia-Karte verkauft sich blendend, ist sie doch in jedem Fall mindestens so schnell wie die allerbesten Beschleuniger aus der vorhergehenden 28nm-Generation. Die dafür benötigte Chipfläche dürfte bei (geschätzt) ~340mm² herauskommen – vernünftig zwischen den 232mm² von Polaris 10 sowie den ~485-500mm² von Vega 10 liegend und damit durchaus sinnvoll, um dafür einen extra Grafikchip aufzulegen. Mit Polaris 10 wäre diese Performance sowieso nicht zu erreichen – mit einer stark abgespeckten Salvage-Lösung von Vega 10 sicherlich, aber das wäre dann auch arge Silizium-Verschwendung. Hinzu kommt, das AMD in den letzten Jahren eine klare Tendenz hatte, das alle Salvage-Lösungen von deren Performance her nicht all zu weit vom Top-Modell des jeweiligen Grafikchips entfernt lagen – Vega 10 auf das Niveau der GeForce GTX 1070 herunterzubrechen, ist zwar technisch machbar, widerspricht aber AMDs üblichen Ansatz.

Natürlich sind auch noch andere Auflösungen zu Vega 11 denkbar – in erster Linie in Richtung eines noch kleineren Grafikchips (noch größer macht aufgrund dem dann schnell nahekommenden Vega 10 wenig Sinn). Ein (noch) kleinerer Vega 11 würde eine größere Performance-Differenz gegenüber Vega 10 bedeuten, dafür aber näher an Polaris 10 heranrücken. Ob dies ein wirklich konkurrenzfähiges Portfolio ergibt, darf allerdings bezweifelt werden: Gegenüber der GeForce GTX 1060 sieht die Polaris-10-basierte Radeon RX 480 schon ganz vernünftig aus – und die nächsthöhere nVidia-Grafikkarte ist dann eben schon die GeForce GTX 1070. Eine Vega-11-Performance irgendwo zwischen GeForce GTX 1060 & 1070 wäre nur bei einem besonders aggressivem Preispunkt interessant werden, könnte ansonsten aber auch schnell in der Bedeutungslosigkeit dieser Karte enden (klar langsamer als die GeForce GTX 1070). Zudem dürfte AMD den Polaris-10-Chip auch weiterhin verkaufen wollen, ergo macht ein Vega 11 besonders nahe an Polaris 10 dran auch aus dieser Richtung her keinen größeren Sinn.

Eher gehen wir davon aus, daß AMD hier einen generellen Paradigmen-Wechsel vollzieht: Polaris 10 dürfte mit dem Erscheinen der Vega-Generation nahezu komplett ins Mainstream-Segment (bzw. untere Midrange-Segment) abgedrängt werden, sprich dann durchgehend zu Preislagen unterhalb von 200 Euro verkauft werden. Vega 11 dürfte AMDs neue "echte" Midrange-Lösung werden und hoffentlich nVidia dann auch beim Preispunkt der GeForce GTX 1070 endlich einmal unter Druck setzen. Hinzu kommen Vega 10 als klarer HighEnd-Chip sowie Polaris 12 als klarer LowCost-Chip (der Verbleib von Polaris 11 ist unklar, sofern Polaris 12 wirklich teilweise dessen Performance erreicht). AMDs 2017er Grafikchip-Portfolio könnte demzufolge folgendermaßen aussehen – wobei der Großteil der neuen AMD-Grafikkarten sicherlich nicht vor dem Sommer erscheinen wird und eventuelle Gegenmaßnahmen nVidias auch noch nicht einkalkuliert wurden:

AMD 2016 AMD 2017 nVidia
Enthusiast - Dual Vega 10 GP102
GeForce GTX 1080 Ti & Titan X
HighEnd - Vega 10 GP104
GeForce GTX 1070 & 1080
Midrange Polaris 10
Radeon RX 470 & 480
Vega 11 GP106
GeForce GTX 1060
Mainstream Polaris 11
Radeon RX 460
Polaris 10 GP107
GeForce GTX 1050 & 1050 Ti
LowCost - Polaris 12 GP108

Natürlich können wir uns hierbei immer noch (vollkommen) irren. Die dieser Spekulation zugrundeliegende Logik mag funktionieren, aber wenn AMD irgendwo einen anderen Ansatzpunkt sieht oder schlicht etwas völlig anderes in Planung hat als angenommen, dann sind dieser Logik natürlich die Grundlagen entzogen bzw. wäre diese entsprechend neu aufzubauen. Ergo darf man die vorstehende Spekulation eher denn als den "aktuellen Stand des Irrtums" betrachten. Wenn wir Glück haben und AMD die Grundannahmen nicht ändert, dann könnte dies durchaus nahe an die Realität herankommen – wenn nicht, dann kann dies am Ende auch noch völlig anders aussehen mit Vega 11. Dieses Restrisiko bliebt bestehen, so lange keinerlei griffigen und bestätigten Daten zu diesem AMD-Grafikchip vorliegen.

Nachtrag vom 17. Januar 2017

In Bezugnahme auf unsere Spekulationen zu AMDs Vega 11 gibt es auch noch die beachtbare These, das Vega 10 im Gaming-Segment eine höhere (nominelle) FP32-Rechenleistung von 14 TFlops aufbieten könnte, was dann alle anderen Werte entsprechend verschiebt. Begründet wird dies mit der AMD-Historie, wo beispielsweise Hawaii-basierte Profi-Beschleuniger auch schon niedriger takteten als entsprechende Gaming-Lösungen – und da AMDs bisherige Angaben von 12 TFlops für Vega 10 bzw. sogar 12,5 TFlops für die darauf basierende GPGPU-Lösung "Radeon Instinct MI25" allesamt dem Server-Segment zuzurechnen sind, hat diese These durchaus ihre Chance. Von den dann gleich 14 TFlops für Vega 10 unter Gaming-Bedingungen ausgehend schätzt man dann Vega 11 auf gleich 9,5 TFlops – beides allerdings erreicht durch höhere Taktraten und nicht durch mehr Hardware (selbige sollte gleich sein zu unserer bisherigen Spekulation).

Ob sich aus diesem Mehr an Rechenleistung auch mehr Performance ziehen läßt als bisher seitens AMD (so halb) dargestellt, ist die große Frage: Deutlich höhere Vega-Taktraten (Richtung 1700 MHz) dürften sicherlich noch nicht mit den jetzigen, früheren Chipsteppings erreichbar sein – ergo ergibt sich hiermit nominell die Chance auf Mehrperformance mit den finalen Vega-Chips auf höheren Taktraten als bisher möglich. Dennoch ist es eine riskante Rechnung, von diesem kalkulierten Taktratensprung ausgehend dem Vega-10-Chip jetzt schon die volle Konkurrenzfähigkeit zu nVidias GP102-Chip zuzuschreiben, wenn die bisherigen Performance-Halbinformationen eher auf ein Niveau zwischen GP104 (GeForce GTX 1080) und GP102 (Titan X) hindeuten. Es bliebe wohl besser abzuwarten, wie sich die Vega-10-Performance entwickelt und was AMD noch durch neue Steppings und bessere Treiber herausholen kann. Vorab-Prognosen hierzu sollten sicherlich eher defensiv ausfallen, um AMD nicht gleich wieder vor unerfüllbare User-Ansprüche zu stellen.

16

Test der PowerColor Devil Box zeigt nicht unerhebliche Performance-Verluste durch Thunderbolt

Noch extra zu würdigen ist der Test der "PowerColor Devil Box" seitens der ComputerBase von letztem Oktober. Schließlich handelt es sich bei diesem PowerColor-Produkt um eine der besten Lösung auf dem Gebiet der externen GPU-Gehäuse – und zugleich geht der Test auch gut auf deren trotzdem vorhandene Schwachstellen ein. So funktioniert die Beschleunigung des internen Displays nur nach Gusto des jeweiligen Notebooks – manche machten diesen Schritt mit, andere wiederum nicht. Zudem ist die Kühllösung des PowerColor-Gehäuse (inklusive Spulenfiepen im Stand-By-Modus) nicht wirklich gut gelungen. Vor allem aber irritiert der vergleichsweise hohe Performanceverlust gegenüber Desktop-Systemen (mit auf ein gleichwertiges Taktniveau heruntergetakteter Desktop-CPU): Unter FullHD verliert eine GeForce GTX 1070 ihre -27%, eine Radeon RX 480 dagegen -22% – dies ist schon ziemlich erheblich, die GeForce GTX 1070 (Perf.Index 800%) wird damit auf das Performance-Niveau einer (klar günstigeren) GeForce GTX 1060 6GB (Perf.Index 590%) heruntergedrückt.

Unter der UltraHD-Auflösung sind die Abstände (aufgrund der dort niedrigeren Frameraten und damit des geringeren Busverkehrs) dann geringer, aber mit -14,5% bei der GeForce GTX 1070 immer noch deutlich. Dies deutet auf den ersten Blick auf eine zu geringe PCI-Express-Bandbreite hin, das verwendete Thunderbolt 3 ist schließlich "nur" mit PCI Express 3.0 auf 4 Lanes angeschlossen. Explizite Tests dieser PCI-Express-Problematik können diesen Vorwurf jedoch teilweise entkräften: Auf einem Desktop-PC verliert die GeForce GTX 1070 unter PCI Express 3.0 x4 nur -6% unter FullHD – und damit damit weit weniger als in der Devil Box (-27%). Augenscheinlich verursacht speziell Thunderbolt 3 hier zusätzliche Latenzen oder aber nutzt die gebotene Brutto-Bandbreite nicht effektiv genug aus, rein an PCI Express liegt es also nicht. Die relativ schnelle GeForce GTX 1070 begünstigt natürlich diesen Effekt durch die hohen damit erzeugten Frameraten – bei einem früheren Test des "Razer Core" Gehäuses verlor eine (klar langsamere) GeForce GTX 970 nur -18% auf einer zudem klar niedriger taktenden Notebook-CPU.

FullHD Radeon RX 480 GeForce GTX 1070
Desktop-PC (CPU-Takt @ Notebook-Niveau) 69,8% 100%
Desktop-PC @ PCI 3.0 x4 - 94,0%  (-6,0%)
Notebook mit interner GTX1070-Grafiklösung - 95,9%  (-4,1%)
Notebook mit Grafiklösung in der PowerColor Devil Box 54,6%  (-21,8%) 72,9%  (-27,1%)

In jedem Fall ist das Ergebnis arg mittelmäßig, wenn man eine 420-Euro-Karte einbaut und nur die Performance einer 260-Euro-Karte erhält. Zudem besteht natürlich das Risiko, das im Fall einer späteren Aufrüstung der "Performance-Schwund" noch größer ausfällt, man also noch weniger Gegenwert mit seiner zukünftigen Grafikkarte erhält. Wer also das externe Grafikkarten-Gehäuse als Möglichkeit betrachtet, (wirklich) potente Desktop-Lösungen zusammen mit seinem Notebook einzusetzen, dürfte eher enttäuscht werden – im Fall des ComputerBase-Tests war sogar eine im Notebook verbaute GeForce GTX 1070 (Mobile) klar schneller (+31,5%) als eine aus dem Desktop stammende GeForce GTX 1070 in der PowerColor Devil Box. Das ganze lohnt (für HighEnd-Grafikkarten) augenscheinlich nur dann, wenn das verwendete Notebook wirklich "mobil" bleiben muß, sprich kein Desktop-Replacement-Gerät zum Einsatz kommen soll. Je leistungsschwächer die Grafikkarte ist, um so geringer sollten diese Verluste durch Thunderbolt 3 ausfallen – wer mit Mainstream-Ansprüchen anrückt, der dürfte also kaum noch von dieser Problematik betroffen sein. Allerdings kosten für den Einsatz von Mainstream-Grafikkarte alle derzeit angebotenen externen GPU-Gehäuse noch deutlich zu viel.

Inhalt abgleichen