25

Hardware- und Nachrichten-Links des 24./25. März 2016

Laut Bits 'n' Chips soll die kommenden nVidia-Architektur "Pascal" die bereits von den bisherigen nVidia-Grafikchips her bekannte Schwäche unter Asynchronous Compute behalten – was für nVidia im beginnenden DirectX-12-Zeitalter natürlich nicht gerade toll wäre. AMD reitet derzeit schon auf diesem Punkt im Zweikampf der aktuellen AMD- und nVidia-Beschleuniger herum, eine Verlängerung dieses Zustands könnte nVidia dann sogar ernsthaft Verkäufe kosten. Andererseits ist auch nicht klar, ob Bits 'n' Chips für ihre Meldung wirklich eine Grundlage haben – oder aber einfach nur die bekannten Punkte "nVidia derzeit ohne Asynchronous Compute" sowie "Pascal wird kaum Architektur-Änderungen gegenüber Maxwell bieten" kreativ zusammengemischt haben. Sicherlich sieht es derzeit so aus, als würde dies genau so passieren – Sicherheiten dafür gibt es aber keine. Am Ende werden die Benchmarks entscheiden, denn egal ob bei nVidia nun Asynchronous Compute nun schlecht oder gar nicht funktioniert – wenn man auch so eine gute Performance hinlegt, spielt dies alles keine große Rolle. Derzeit scheint sich schließlich eher herauszukristallisieren, das DirectX 12 ganz allgemein eher AMD gut tut – und dabei weniger das einzelne Feature "Asynchronous Compute", welches (zum derzeitigen Stand) sowieso nur von einzelnen Spielen unterstützt wird.

Golem vermelden die Musterlieferungen erster GDDR5X-Speicherchips seitens Micron an seine Abnehmer: Derzeit verfügbar sind GDDR5X-Speicherchips mit 1 GB Kapazität und Taktraten von 2500 bis 3000 MHz (QDR). Bei Grafikkarten, die mit diesen Speichertaktungen betrieben werden, wäre damit also schon jetzt eine Bandbreiten-Verdopplung möglich – natürlich nur, wenn das jeweilige Speicherinterface auch GDDR5X verstehen würde. Nur bei Grafikkarten, die mit Speichertaktungen von 3500 MHz arbeiten, gäbe es keine glatte Verdopplung – aber dennoch eine Näherung dessen. Insofern ist GDDR5X doch hochinteressant, weil sich hier mit recht wenig Aufwand (einige Änderungen am Speicherinterface, aber nichts grundlegend neues) faktisch das Niveau von HBM1-Speicher erreichen läßt: Dafür reicht schon ein 384 Bit GDDR5X-Speicherinterface samt 3000 MHz QDR GDDR5X-Speicher – dies ergibt 576 GB/sec Speicherbandbreite, etwas mehr als bei HBM1-Speicherinterface des Fiji-Chips (512 GB/sec). In der mittelfristigen Zukunft will Micron zudem die Taktraten auf bis zu 4000 MHz QDR steigern, ganz theoretisch wäre damit an einem 512bittigen Speicherinterface auch die Speicherbandbreite von HBM2 (1024 GB/sec) erreichbar.

Allerdings dürften die Grafikchip-Entwickler in diesem Fall doch lieber HBM2 verwenden, da das entsprechende Speicherinterface weniger Platz belegt und weniger Strom frisst – bei den für diese Speicherbandbreiten angesetzten Monsterchips sind dies gewichtige Gründe, wo man Chipfläche und Stromverbrauch lieber in andere Dinge investiert. Für alle mittleren bis halbgroßen Grafikchips kann GDDR5X allerdings eine gute Ausweichmöglichkeit zugunsten von (deutlich) mehr Speicherbandbreite darstellen. Als problematisch wird allgemein nur angesehen, das GDDR5X womöglich zu spät kommt für die Grafikchips des Sommer 2016, gerade für AMDs neue Polaris-Lösungen. Die Situation ist mit der von HBM1-Speicher beim Fiji-Chip auch schwer zu vergleichen, denn GDDR5X erzeugt mit seiner Midrange-Ausrichtung natürlich einen viel höheren Bedarf an entsprechenden Speicherchips. Ob Micron einen solch hohen Bedarf bereits im Sommer 2016 zuverlässig erfüllen kann, wäre eher zu bezweifeln – und normalerweise machen sich die Chipentwickler bei ihren Releaseplänen auch ungern von solchen Entwicklungen bei Drittherstellern abhängig.

EuroGamer können aus eigener Quelle bestätigen, das Sony an einer "Playstation 4K" arbeitet – und breiten nachfolgend verschiedene Möglichkeiten aus, wie dies zu verstehen sein könnte. Wirklich realistisch ist jedoch nur der kleinstmögliche Sprung: Mehr Features, jedoch nicht mehr Hardware-Power. Natürlich wird dies dann in einem neuen, sogar technisch verändertem SoC resultieren müssen – aber das jener "besser" ist, deutet nicht auf eine regelrecht höhere Leistungsfähigkeit hin. Vermutlich wird Sony schlicht und ergreifend die Umstellung des PS4-SoCs von der 28nm-Fertigung auf eine kleinere Fertigung dazu nutzen, ein paar neue Features einfließen zu lassen, die anno 2013 noch keine Rolle spielten: HDR bei 4K-Videowiedergabe sowie 4K-Aufskalierung von Spielen. Dazu wird man zum einen HDMI 2.0 Displayausgang liefern müssen, aber auch im PS4-Grafikchip selber werden ein paar Transistorengruppen zugunsten von HDMI 2.0, 4K-HDR und der 4K-Hochskalierung unter Spielen verändert werden.

Dieser minimale Eingriff ist aufgrund AMDs Baukastensystem bei den Semi-Custom-Lösungen aber wohl recht einfach zu realisieren – und da der PS4-SoC aufgrund der neuen Fertigungsstufe (womöglich schon 14/16nm) sowieso alle Evaluierungsstufen erneut durchlaufen muß, ist dies ein perfekter Zeitpunkt für eine kleine Hardware-Änderung zugunsten von mehr 4K-Features. Mehr Performance ist hingegen die wirklich unwahrscheinlichste Lösung: Neben dem Mißmut der bisherigen PS4-Nutzer würde man es vor allem einer zukünftigen PS5 schwerer machen, zu glänzen, wenn man jetzt bereits die Hälfte auf dem Weg zu dieser zurücklegt. Es ist damit vor allem wirtschaftlich ineffektiv für Sony, der PS4 schnellere Hardware zu spendieren: Für einen begrenzten Markteffekt und zuungunsten zukünftiger Konsolenentwicklungen regelrecht Geld für einen leistungsfähigeren Chip auszugeben (anstatt mit einer puren Chipverkleinerung in der neuen Fertigung Geld einzusparen), lohnt sich einfach nicht.