29

Hardware- und Nachrichten-Links des 29. Februar 2016

Von Bits 'n Chips kommt das derzeit weit verbreitete Gerücht, AMDs 2016er APU-Generation "Bristol Ridge" (auf Carrizo-Basis) würde bei der Grafikeinheit entscheidend zulegen – von 512 Shader-Einheiten bei Carrizo auf dann gleich 1024 Shader-Einheiten bei Bristol Ridge. Der Planet 3DNow! schließt dann gleich die Überlegung an, daß man hierfür natürlich mehr Speicherbandbreite benötigen würde, was ein QuadChannel-Speicherinterface schon bei Bristol Ridge nahelegen würde. Beide Thesen sind jedoch beim Blick auf die wirtschaftlichen Eckdaten kaum haltbar: AMDs APUs gehen in LowCost- und Mainstream-PCs zu Preispunkten von 70-120 Euro (für die komplette APU) hinein, was angesichts der Chipfläche einer Carrizo-APU von 250mm² schon ziemlich knapp kalkuliert ist. Die Verdopplung der Anzahl der Shader-Einheiten würde einen um 35-50% größeren Chip ergeben, sprich in Richtung 340-380mm² Chipfläche – dies ist die Größenklasse von Server-CPUs, nicht aber von Mainstream-APUs.

AMD kann in der aktuellen 28nm-Fertigung von Carrizo und Bristol Ridge diese APUs schlicht nicht größer werden lassen, deren Wirtschaftlichkeit steht – gerade angesichts der aktuell bei Intel erreichten Chipflächen – sowieso schon in Frage. Aus dem gleichen Grund ist auch ein QuadChannel-Speicherinterface nicht machbar, im übrigen auch bei zukünftigen AMD-APUs, die dann vielleicht wirklich 1024 Shader-Einheiten (unter einer anderen Fertigung und damit kleinerer Chipfläche) tragen: Dies macht die Mainboards und den Speicherausbau unnötig teuer (und natürlich auch die APU selber nochmals etwas größer und teurer), was in einem Feld, wo AMDs mit den großen PC-OEMs um Pfennigbeträge ringt, einfach nicht darstellbar ist. Auch zukünftige AMD-APUs werden aus dieser Begründung heraus mit einem DualChannel-Speicherinterface vorlieb nehmen müssen. Und wird eines Tages wirklich viel mehr Speicherbandbreite benötigt, als damit machbar ist, dürfte AMD eher auf eingebetteten HBM-Speicher zur Grafikbeschleunigung (und eventuell als weiteren CPU-Cache) gehen als denn die Kosten für das Ökosystem drumherum zu steigern.

Golem berichten über gewisse Probleme beim UltraHD Blu-Ray Diskformat: Zum einen stehen derzeit nicht genügend Datenträger zur Verfügung, die Produktion der dreilagigen Disks mit 100 GB Speichervolumen läuft wohl nur schleppend an. Daher weichen die Inhalteanbieter auf die kleineren zweilagigen Disks mit 66 GB Speichervolumen aus, welche zwar genauso für diesen Standard spezifiziert wurden, jedoch dennoch zu wenig Speicherplatz bieten, um wirklich alle Möglichkeiten dieses Formats auszuschöpfen. Und zweitens reicht die Produktion an Chipsätzen für entsprechende Player nicht aus, welche demzufolge nur langsam in den Markt kommen. Obwohl eigentlich schon für Weihnachten 2015 versprochen, soll sich diese Situation erst im vierten Quartal 2016 verbessern – UltraHD Blu-Ray verzögert sich damit in der reinen Praxis um faktisch ein Jahr. Disk-Käufer sollten zudem darauf achten, daß zu kaufende Disks auch wirklich die volle Featurebandbreite bieten – es lohnt sich kaum, ein Archiv von UltraHD Blu-Rays anzulegen, wenn bei den ersten Disks dann das HDR-Feature fehlt (selbst wenn man einen entsprechenden Fernseher vielleicht erst später kauft).

Die Überschrift verspricht deutlich mehr, als was der Sony-Chef dann letztlich im Interview mit der Welt gesagt hat: Sony sieht halt nicht das "Ende des Smartphones" – sondern schaut sich einfach um, was die nächste revolutionäre Technologie nach dem Smartphone wird, da man für letzteres keine wesentlichen Innovationssprünge mehr sieht. Dabei ist allerdings nicht gesagt, daß die Antwort auf diese Frage alsbald gefunden werden könnte – gut möglich, das Smartphones erst einmal die nächsten Jahre ihre Kreise ziehen und erst in einem gewissen zeitlichen Abstand neue Kommunikationsgeräte ihre Chance erhalten. Nicht ausschließlich ist generell auch der Punkt, daß man sogar zum Ende der Entwicklung gekommen sein könnte – schließlich ist das Smartphone schon fast so etwas wie der Tricorder aus "Star Trek", nur halt für andere Aufgaben gedacht. Von der Haptik her ist da nicht viel besser zu machen, sofern man überhaupt an ein physisches Gerät denkt – und die letzte denkbare Alternative wäre dann nur noch die direkte Maschine/Gehirn-Kommunikation, von welcher wir allerdings noch um einiges entfernt sind. Manchmal führt der Drang nach immer neuen Innovationen auch dazu, daß man den Punkt verpasst, wo sich ein jahrzehntelang geltender Standard herausbildet.