13

Hardware- und Nachrichten-Links des 13. Januar 2016

Einem Posting im 3DCenter-Forum sind klärende Anmerkungen zur Frage zu entnehmen, ob die beiden angeblichen Lieferungen zu kleineren Polaris-Chip nun wirklich schon zu Polaris gehören oder nicht. Dies bezüglich kann man seine Bedenken haben wegen des frühen Zeitpunkts der ersten Lieferung mit Codenname "C913" von bereits Januar 2015 (nicht 2016!) – aber dies könnte schließlich auch ein reiner 14nm-Testchip gewesen sein, sprich nicht einmal zwingend funktionierende Hardware. Die zweite Lieferung mit Codenamen "C924" vom August 2015 sollte dann jedoch tatsächlich schon der kleinere Polaris-Chip gewesen sein, dies würde vom zeitlichen Ablauf verschiedener bekannter Eckdaten her passen. Dies würde dann allerdings auch bedeuten, daß AMD derzeit sehr weit fortgeschritten mit dem kleineren Polaris-Chip wäre – faktisch nahezu auslieferungsreif ist, wenn man schon im letzten August erste komplette Grafikkarten basierend auf diesem Chip hatte.

Davon ausgehend müsste AMD den kleineren Polaris-Chip eigentlich noch bis Ende Winter wirklich auslieferungsreif bekommen, könnte die Polaris-Generation dann also früher als geplant starten. Allerdings dürfte man aus zwei Gründen bewußt warten: Zum einen macht der Launch einen viel größeren Eindruck, wenn zeitgleich der größere Polaris-Chip zur Verfügung steht – der kleinere Polaris-Chip bringt große Effizienz-Vorteile, aber keinen praktischen Performancegewinn. Und zum anderen hat AMD nunmehr Zeit, den kleineren Polaris-Chip nicht nur in Form von Desktop-Grafikkarten zu finalisieren, sondern auch in Form von MXM-Modulen für den Notebook-Einsatz – und gleichzeitig sogar noch Zeitreserven, damit bei den Notebook-Herstellern hausieren zu gehen, auf daß zum Launchtermin eventuell sogar schon neue Notebooks mit Polaris-Grafik bereitstehen. Sollte AMD derart verfahren, hätte man zumindest aus den bisherigen, eher schwachen Launch-Strategien seine Lehren ziehen können – denn das gute Grundprodukt allein reicht nicht aus, es muß immer auch umgehend in gut konsumierbarer Form dargereicht werden.

Die kürzliche Meldung zur Standardisierung von HBM2-Speicher ist zumindest bezüglich des zeitlichen Ablaufs inkorrekt: Die seitens der JEDEC im Januar 2016 vorgelegte Spezifikation "JESD235A" enthält nur Updates zugunsten von zwei neu aufgenommenen Nebenfeatures (es handelt sich um "Pseudo-Channels" sowie Verbesserungen für Testverfahren), ist aber ansonsten gleich zur bereits im November 2015 vorgelegten Spezifikation "JESD235". Unter dem gleichen Namen gab es allerdings schon im Oktober 2013 (!) eine erste sich auf HBM beziehende Spezifikation – welche allerdings leider nirgendwo mehr im Klartext vorliegend ist. Allerdings darf man gut und gerne vermuten, daß sich die 2013er Spezifikation auf "HBM1" bezieht, die 2015er Spezifikation dann auf "HBM2" – auch wenn diese Bezeichungen rein inoffiziell sind. Die Gegenthese, daß bereits in der 2013er Spezifikation die Möglichkeiten von "HBM2" genannt wurden, läßt sich derzeit eben wegen des Fehlens der 2013er Spezifikation weder belegen noch entkräften.

Noch im Google-Cache zu finden ist eine vorzeitige Meldung seitens TechPowerUp über die offizielle Vorstellung der Opteron A1100 Serie an ARM-basierten Server-Prozessoren von AMD. Hierfür setzt AMD bis zu acht ARM Cortex-A57 Rechenkerne samt (für ARM-Prozessoren) großen Caches á 4 MB L2 und 8 MB L3 an einem DualChannel DDR3/DDR4-Speicherinterface samt integriertem Mainboard-Chipsatz ein. Das ganze ist allerdings bei TDPs von 25-32 Watt nur etwas für LowPower-Server – welche allerdings derzeit im kommen sind, AMD setzt da durchaus auf das richtige Pferd. Zudem dürfte das ganze auch die technologische Vorbereitung des immer noch laufenden K12-Projekts sein, bei welchem AMD sich ein eigenes CPU-Design basierend auf ARMs Prozessorenarchitektur schnitzen will – während die Opteron A1100 augenscheinlich noch auf standardmäßigen ARM-Kernen mit AMD-Ökosystem drumherum basiert. Das offizielle NDA für diesen AMD-Prozessor dürfte dann am 14. Januar um 15 Uhr deutscher Zeit fallen.

13

HBM2-Speicher ist nunmehr offiziell spezifiziert

Das Speicherstandardisierungs-Gremium JEDEC vermeldet die offizielle Standardisierung einer neuen Ausbaustufe des HBM-Standards – sprich, daß, was bisher unter "HBM2" bekannt ist, wurde nunmehr offiziell standardisiert. Konkret geht es bei HBM2 (inoffizielle Bezeichnung) zum einen um eine höhere Flexibilität bei der Anzahl der Speicherstacks – anstatt 4 oder 8 Speicherstacks können nun auch nur 1 oder 2 Speicherstacks genutzt werden, was HBM2-Speicher zukünftig auch für kleinere und mittlere Grafiklösungen (mit dementsprechend niedrigeren Bandbreite-Anforderungen) nutzvoll macht. Zudem geht der maximale Speichertakt auf bis zu 1000 MHz DDR hinauf – damit bietet die von der Nano/Fury-Karten bekannte Anordung mit 4 Speicherstacks und 4096 Bit DDR HBM-Speicherinterface nunmehr nicht mehr maximal 512 GB/sec Bandbreite, sondern gleich maximal 1024 GB/sec Bandbreite. Gleichzeitig werden damit auch die "kleineren" HBM-Ausführungen leistungsfähiger, die kleinste HBM2-Ausführung mit nur einem Speicherstack und 1024 Bit DDR HBM2-Speicherinterface käme somit auf immerhin 256 GB/sec Speicherbandbreite.

GDDR5 HBM1 HBM2
HBM-Stacks - 4 1 2 4
Speichermengen 2/4/8/16 GB 4 GB 4/8 GB 8/16 GB 16/32 GB
Speichertakt 3000 MHz 500 MHz DDR 1000 MHz DDR
GPU-Interface 512 Bit DDR 4096 Bit DDR 1024 Bit DDR 2048 Bit DDR 4096 Bit DDR
Speicherbandbreite 384 GB/sec 512 GB/sec 256 GB/sec 512 GB/sec 1024 GB/sec

Der interessanteste Punkt an HBM2 ist allerdings die 4fach höhere Speicherdichte pro Speicherstack: Gab es bei HBM1 immer nur 1 GB Speicher pro Speicherstack, sind es bei HBM2 nunmehr flexibel 4 oder 8 GB. Damit sind zum einen viel höhere Speicherkapazitäten auch mit wenigen Speicherstacks erreichbar (gut für Mainstream-Lösungen oder integrierte Grafik), zum anderen gibt die Menge an verbauten Speicherstacks nun nicht mehr zwingend eine bestimmte Speicherkapazität vor, hier hält wie gesagt eine gewisse Flexibilität Einzug. Der HBM-Standard wird eigentlich erst durch diese zweite HBM-Ausbaustufe wirklich marktreif, vorher konnte man gerade die Nano/Fury-Karten eher denn als HBM-Demonstrationsobjekte betrachten. Die JEDEC hat diese allerdings schon im Herbst 2014 offengelegten Möglichkeiten wie gesagt nunmehr offiziell gemacht, womit auch andere Speicherhersteller entsprechende Speicherchips herstellen können und nicht alle Marktteilnehmer auf den anfänglichen HBM-"Erfinder" Hynix angewiesen sind.

Aller Vermutung nach dürfte der GDDR5-Nachfolger GDDR5X speziell bei Enthusiasten-Lösungen nicht mit ins Geschehen eingreifen können, da angesichts von großen Speicherinterfaces und (nochmals) höheren Taktraten der Stromverbrauch von GDDR5X-basierten Lösungen durch die Decke gehen würde und gerade bei sehr großen Grafikchips dann nicht mehr darstellbar wird. GDDR5X ist eher dort interessant, wo mittelgroße bis normal große Grafikchip mit nicht all zu großen Speicherinterfaces (bis üblicherweise 256 Bit DDR) hohe Bandbreiten benötigen – beispielsweise bei nVidias GP104-Chip. Hierfür wird HBM wohl noch einige Zeit zu teuer sein, in diese Lücke springt dann wahrscheinlich GDDR5X. Selbiges wurde im übrigen schon im November 2015 durch die JEDEC offiziell standardisiert. Bevor HBM zu den kleineren bis mittleren Grafklösungen kommt, wird wohl noch einige Zeit vergehen, neben allen Vorteilen von High Bandwith Memory ist dessen Kostenfaktor derzeit einfach noch zu hoch.

Nachtrag vom 13. Januar 2016

Diese Meldung zur Standardisierung von HBM2-Speicher ist zumindest bezüglich des zeitlichen Ablaufs inkorrekt: Die seitens der JEDEC im Januar 2016 vorgelegte Spezifikation "JESD235A" enthält nur Updates zugunsten von zwei neu aufgenommenen Nebenfeatures (es handelt sich um "Pseudo-Channels" sowie Verbesserungen für Testverfahren), ist aber ansonsten gleich zur bereits im November 2015 vorgelegten Spezifikation "JESD235". Unter dem gleichen Namen gab es allerdings schon im Oktober 2013 (!) eine erste sich auf HBM beziehende Spezifikation – welche allerdings leider nirgendwo mehr im Klartext vorliegend ist. Allerdings darf man gut und gerne vermuten, daß sich die 2013er Spezifikation auf "HBM1" bezieht, die 2015er Spezifikation dann auf "HBM2" – auch wenn diese Bezeichungen rein inoffiziell sind. Die Gegenthese, daß bereits in der 2013er Spezifikation die Möglichkeiten von "HBM2" genannt wurden, läßt sich derzeit eben wegen des Fehlens der 2013er Spezifikation weder belegen noch entkräften.

Nachtrag vom 24. Januar 2015

Diese Meldung über die Standardisierung von HBM2-Speicher muß hiermit nochmals korrigiert werden: Wie schon notiert, hatte das Speicherstandardisierungsgremium JEDEC im aktuellen Spezifikations-Update nur ein paar (unbedeutende) Nebenfeatures hinzugefügt. Offen war aber noch der Punkt, inwiefern die Möglichkeiten von HBM2 erst im November 2015 standardisiert wurden – oder bereits viel früher. Aus der Diskussion zur ursprünglichen News (mit Dank an die dort beteiligten Forennutzer, welche bis zur Klärung des Sachverhalts nicht locker gelassen haben) ist nunmehr klar zu entnehmen, das schon die allererste diesbezügliche JEDEC-Spezifikation vom Oktober 2013 (!) bereits alles das spezifiziert, was HBM1 und HBM2 ausmacht – im genauen sogar leicht über HBM2 hinausgeht. Die Bezeichnungen "HBM1" und "HBM2" sind wie bekannt natürlich nicht offiziell, in der Spezifikation wird generell nur von "HBM" (aka "High Bandwith Memory") geredet. Mit HBM1 und HBM2 operieren allerdings die Speicherhersteller Hynix und Samsung, um verschiedene Ausbaustufen ihrer eigenen HBM-Entwicklung zu charakterisieren. HBM1 gab es beispielsweise nur von Hynix und mit 1 GB Speicher pro Stack zu Taktraten von 500 MHz, während HBM2 von beiden Speicherherstellern mit 4 GB Speicher pro Stack (später auch 8 GB) sowie zu Taktraten von 1000 MHz hergestellt wird. Auch wenn es gemäß der Spezifikation keine Differenz zwischen "HBM1" und "HBM2" gibt, so sind doch in der Praxis sehr bedeutsame Unterschiede zwischen diesen (inoffiziellen) HBM-Varianten zu sehen.

12

Hardware- und Nachrichten-Links des 12. Januar 2016

Mit seiner montäglichen Preissenkung hat AMD den Preis für die Radeon R9 Nano exakt in diesem Maße gesenkt, wie vor einiger Zeit an dieser Stelle schon angeraten wurde. Beim Straßenpreis liegt die Radeon R9 Nano derzeit sogar besser als seinerzeit prognostiziert und kann sich nunmehr in der Tat (sehr gut) mit der GeForce GTX 980 anlegen. Damit stellt sich allerdings automatisch die Frage nach Preissenkungen für die Fury-Grafikkarten – gerade, da AMD den Preis der Radeon R9 Nano um gleich 150 Dollar/Euro nach unten befördert hat. Regulär gesehen mag beispielsweise die Radeon R9 Fury etwas schneller als die Radeon R9 Nano sein – aber letztere Karte hat das gewisse Etwas und nunmehr auch den besseren Preis, da wird es die kleine Fury demgegenüber schwer haben. AMD sollte überlegen, demzufolge den Preispunkt der Radeon R9 Fury leicht unterhalb des Preispunkts der Radeon R9 Nano zu setzen, bei vielleicht 449 Dollar Listenpreis und grob 450 Euro Straßenpreis. Alternativ wäre zu überlegen, diese Karte vielleicht auslaufen zu lassen, mit der ähnlich schnellen Radeon R9 Nano ergibt sich nicht gerade das große Verkaufspotential für diese kleine Fury.

Bei der Radeon R9 Fury X sollte AMD ebenfalls den Preispunkt überdenken, da die Karte zwar den gleichen Listenpreis wie die GeForce GTX 980 Ti hat, allerdings zu Straßenpreisen um grob 30 Euro teuer ist. Eingedenk des Wissens, daß die Radeon R9 Fury X die GeForce GTX 980 Ti performancemäßig erst unter UltraHD erreicht, sprich unter FullHD und WQHD etwas langsamer ist, gleichzeitig mit 4 zu 6 GB allerdings den kleineren Speicher vorweisen muß, erscheint eher eine Preislage unterhalb der GeForce GTX 980 Ti angemessen. Vorstellbar wäre hierbei für die Radeon R9 Fury X ein Listenpreis von 599 Euro bei gleichzeitig Straßenpreisen nicht über 620 Euro, besser knapp unter 600 Euro. Ob AMD in eine ähnliche Richtung denkt, bliebe abzuwarten – die heftige Preissenkung der Radeon R9 Nano deutet aber an, daß AMD die Marktsituation sowohl genau beobachtet als auch zu herzhaften Preisschritten absolut bereit ist. Womöglich stellt diese Preissenkung zur Radeon R9 Nano auch so eine Art Testballon dar, anhand dessen man feststellt, ob ein solcher Preisschritt – der ja auch immer zur Verringerung von Umsatz und Marge führt – wirklich zu ausreichend mehr Verkäufen führt, um am Ende auch wirklich besser dazustehen.

Die PC Games Hardware hat sich anhand einer aktuellen Version von Ark: Survival Evolved die Grafikkarten-Performance dieses auf Basis der Unreal Engine 4 noch in der Entwicklung befindlichen Spiels angesehen. Aufgrund des Early-Access-Status sind augenscheinlich noch viele für die endgültige Performance zuständigen Spiele-Teile unoptimiert. Daher ist Ark: Survival Evolved aktuell ein Hardware-Fresser sondersgleichen, welcher in der maximalen Bildqualität ("Epic") gerade einmal 29,8 fps unter FullHD auf einer stark übertakteten GeForce GTX Titan X schafft. Selbst die nächstniedrigere High-Bildqualität wirft nur für GeForce GTX 980 Ti & Titan X gute Frameraten ab 40 fps aus, der Rest der HighEnd-Lösungen hat schon unter "High" Mühe mit der 30-fps-Marke. Sinnvoll für einen Großteil der Spieler ist daher eher die Medium-Bildqualität, hierbei kann man ab Radeon R9 390X oder GeForce GTX 970 dann Frameraten ab 35 fps aufwärts erwarten. Auffallend bei den jetzigen Tests ist zudem, daß AMDs Spitzenmodelle etwas schlechter wegkommen, nVidias Kepler-Grafikkarten hingegen unerwartet gut. Dies kann sich im Laufe der weiteren Spielentwicklung und vor allem nach der Optimierung der Grafikkarten-Treiber von AMD und nVidia allerdings noch alles (sogar maßgeblich) ändern.

Laut den Marktbeobachtern von IDC ist der weltweite PC-Markt im vierten Quartal 2015 um immerhin -10,6% zurückgegangen – was natürlich weit weg ist von den Jahresanfangsprognosen, wo für das dritte und vierte Quartal 2015 sogar schon wieder Zuwächse gesehen wurden. Über das Gesamtjahr gesehen gab es einen Rückgang von ähnlichen -10,4%, erstmals seit dem Jahr 2008 fiel die gesamte Menge an ausgelieferten PCs unterhalb die 300-Millionen-Grenze (und dies mit nur 276 Millionen Stück sogar deutlich). Allerdings rechnen IDC augenscheinlich "Detachable Tablets" nicht dem PC-Business zu – obwohl auf diesen Hybrid-Geräten meistens eigentlich Windows und eher selten ein typisches Tablet-Betriebssystem wie Android oder iOS installiert ist. Würde man diese Geräteklasse ins PC-Segment mit einrechnen, wären die Absatzrückgänge mit -5% für das vierte Jahresquartal 2015 sowie -7,5% für das Gesamtjahr 2015 etwas geringer. Aufgrund der zunehmenen Bedeutung dieser Geräteklasse verändert jene zudem auch die Prognose für das Jahr 2016 entscheidend: Ohne "Detachable Tablets" rechnen IDC mit einem erneuten Absatzrückgang von -3,1%, mit "Detachable Tablets" soll es dagegen zu einem Zuwachs von 1-2% kommen.

An dieser Stelle angekommen, wäre es praktikabel, wenn man eine Grundsatzentscheidung zur Einordnung dieser Geräteklasse trifft – auf Basis der mehrheitlich verwendeten Betriebssysteme plädieren wir wie gesagt für eine Einordnung als "PC". Allerdings sind alle Prognosen zu diesem Zeitpunkt eher nur Kaffeesatzleserei, wie gut an den Prognosen der letzten Jahre zu sehen: Faktisch jedes Jahr wurde anfänglich ein Ende des Absturzes des PC-Segments prognostiziert – und bisher lag man noch jedes Jahr falsch. Es sind zudem für 2016 auch nicht die großen, massenmarkttauglichen Hardware-Innovationen in Vorbereitung, womit der einzige solide Kaufimpuls der Ersatz von Altgeräten darstellt – was aber von den Konsumenten angesichts der Verlagerung von Computing-Zeit auf Smartphones und Tablets sowie der Langlebigkeit der meisten älteren PCs schlicht hinausgezögert wird. Ob das Jahr 2016 also besser wird für die PC-Branche, sollte man eher abwarten, die Zahlen des ersten Jahresquartals dürften hierzu solidere Anhaltspunkte liefern als alle Jahresanfangs-Prognosen.

12

AMD senkt den Preis der Radeon R9 Nano um satte 150 Dollar

Mit Wirkung zum Montag hatte AMD endlich ein Einsehen und senkt den Preis der zwar allgemein gut bewerteten, jedoch außerhalb von Liebhaber-Käufen als preislich zu hoch liegend angesehenen Radeon R9 Nano deutlich ab – in den USA von 649 auf 499 Dollar, in Euroland von 699 auf 549 Euro, sprich um satte 150 Dollar bzw. Euro. Die neue Preislage ist inzwischen auch schon im Einzelhandel sichtbar, wo die Radeon R9 Nano nunmehr nur noch minimal mehr kostet als eine (vom Listenpreis her gleiche) GeForce GTX 980. Grob gesehen kann man von einer gleichen Preislage dieser beiden HighEnd-Grafikkarten reden – was dann auch absolut passend ist, denn die GeForce GTX 980 passt von Performance und Stromaufnahme besser als Kontrahent zur Radeon R9 Nano als die GeForce GTX 980 Ti (viel schneller und mit mehr Speicher, aber auch mit klar höherem Stromverbrauch und viel größerem Board).

Liste Straße Perf. AMD nVidia Perf. Straße Liste
GeForce GTX Titan X 760%/100% 1040-1100€ 999$
649$ 670-700€ 670%/95% Radeon R9 Fury X
GeForce GTX 980 Ti 730%/95% 640-670€ 649$
549$ 560-600€ 620%/85% Radeon R9 Fury
499$
(-150$)
495-550€ 600%/80% Radeon R9 Nano
GeForce GTX 980 600%/70% 480-510€ 499$
429$ 390-420€ 570%/75% Radeon R9 390X
329$ 325-350€ 530%/70% Radeon R9 390
GeForce GTX 970 520%/60% 315-340€ 329$

Mit der neuen Preissituation wird die Radeon R9 Nano umgehend von einem faktischen Liebhaberstück zu einer regelrechten Empfehlung: Gegenüber der gleichpreisigen GeForce GTX 980 hat man dieselbe Performance unter FullHD (±0%), aber eine etwas bessere Performance unter WQHD (+7%) samt einer beachtbar besseren Performance unter UltraHD aufzubieten (+12%). Üblicherweise hat ein solches Performanceprofil dann auch noch die besseren Zukunftsaussichten – sprich, in 2-3 Jahren ist es gut möglich, daß die Radeon R9 Nano dann auch unter FullHD (etwas) gegenüber der GeForce GTX 980 vorn liegt. Hinzu kommen die bekannten Punkte des gleichwertigen Stromverbrauchs (~185W bei der Nano gegenüber 174W bei der 980) sowie die kleinere Bauform der Radeon R9 Nano, welche diese Grafikkarte wie bekannt auch für Mini-ITX-Systeme geeignet macht.

Zwischen beiden Karten gibt es zudem keinen Unterschied bei den verfügbaren Speicherbestückungen: Beide werden nur mit 4 GB Speicher angeboten, hier sind beide Angebote je nach Blickwinkel gleich gut bzw. gleich schlecht. Interessanterweise ist damit AMD in diesem Vergleich gerade bei den Nebenpunkten mit am Ball, wo ansonsten nVidia weit vorn liegt. Oder anders formuliert: Es gibt hier nicht den typischen nVidia-Vorteil, sondern Gleichwertigkeit über alle relevanten Punkte hinweg – mit einem leichten Performanceplus der AMD-Lösung insbesondere unter höheren Auflösungen. Zu dieser neuen Preislage ist die Radeon R9 Nano ergo nicht einfach nur attraktiv, sondern regelrecht führend – und sollte damit mehr als nur einen Blick wert sein. AMD hat hier endlich den richtigen, zur Radeon R9 Nano passenden Preispunkt gefunden.

Inhalt abgleichen