4

Hardware- und Nachrichten-Links des 4. Januar 2016

AMDs Polaris-Präsentation hat in unserem Forum (nicht zu Unrecht) ihr Fett wegbekommen als Versuch einer Vorstellung der 14/16nm FinFET-Fertigung – weil einfach zu wenig über die Polaris-Architektur selber gesagt wurde. Hinzu wird noch über eine Einordnung des gezeigten und gebenchten kleinen Polaris-Chips diskutiert, was jedoch aus einigen Gründen nicht so einfach ist: Zum einen hatte AMD bei seinen Tests einen VSync laufen, womit nicht klar ist, wo das Leistungspotential beider Benchmark-Kontrahenten (der Polaris-Chip gegen eine GeForce GTX 950) wirklich lag. Zudem dürfte AMD hierfür einen Validierungschip auf niedriger Taktrate eingesetzt haben – zum einen, weil jene üblicherweise niedrig getaktet laufen (der Polaris-Chip womöglich mit nur 850 MHz), zum anderen, um bei den Stromverbrauchsmessungen (86W vs. 140W für das Gesamtsystem) besser dazustehen. Insgesamt ergibt dies nur eine höchst grobe Richtung, echte Performanceprognosen zu ausgereiften Desktop-Lösungen sind darauf basierend nur schwerlich abzugeben.

Die einzige belastbare Angabe stellt somit die auf ~120mm² bzw. ~150mm² geschätzte Chipfläche des gezeigten kleinen Polaris-Chips dar – was überraschend klein ausfällt, dies ist in der Größenklasse des Cape-Verde-Chips (123mm²) der Radeon HD 7700 Serie bzw. des Bonaire-Chips (160mm²) der Radeon HD 7790. Hier scheint AMD eher einen kombinierten LowCost/Mainstream-Chip aufzulegen – womit der zweite Polaris-Chip des Jahres 2016 dann die Performance- und HighEnd-Segmente gemeinsam abdecken muß, um keine Angebotslücke in der Mitte zwischen beiden Chips zu lassen. Mit einem derart kleinen Chip wird es auf jeden Fall nicht einfach, aus nur zwei Grafikchips ein komplettes Portfolio zu erstellen, welches immerhin in der Spitze dann auch noch die aktuellen 28nm-Grafikkarten überbieten soll. Wir hatten für diese Aufgabe bislang größere Grafikchips angesetzt, im Rahmen von 200-250mm² bzw. 350-400mm² Chipfläche – bei der Polaris-Architektur scheint es auf einen deutlich kleineren Ansatz von 120-150mm² bzw. ~300mm² hinauszulaufen. Aufgrund des hohen Flächenvorteils (x2) und Effizienzvorteils (x2.5) der 14/16nm-Fertigung kann man daraus weiterhin viel herausholen, zudem bleibt somit mehr Platz für einen echten Enthusiasten-Chip im Jahr 2017 (Richtung ~550mm²). Dem dürfte dann noch ein echter LowEnd-Chip (~80mm²) folgen, welcher primär in den Mobile-Markt gehen wird.

Golem bringen eine nVidia-Aussage, wonach weltweit nur 1% der PCs ausreichend schnell für VR-Brillen á Occulus Rift und HTC/Valve Vive sein sollen – was aber immerhin noch 13 Millionen "ausreichende" PC-Systeme ergibt. Die Systemanforderungen der Occulus Rift grenzen die Sache ziemlich deutlich ein: Ein Core i5-4590 mit 8 GB RAM samt einer Radeon R9 290 oder GeForce GTX 970 sollen es sein – das ist klarer HighEnd-Bereich und logischerweise auf alle weltweit installierten PCs bezogen eher selten zu finden. Unter echten Gamern sind solche Systemspezifikationen allerdings gar nicht so selten – und mit den kommenden 14/16nm-Grafikkarten dürfte es auch kein Problem sein, wesentlich höhere Zahlen bei den Hardware-technisch kompatiblen Systemen zu erzielen. Die Frage ist eher, ob die genannten Hardware-Voraussetzungen überhaupt ausreichen sind, wenn man zweimal FullHD auf 90 fps oder besser ausgeben will – nicht auszuschließen ist hierbei, daß man aus der Praxiserfahrung heraus nochmals (deutlich) leistungsfähigere Hardware für VR-Gaming ansetzen muß.

Hartware bringen eine Wortmeldung von Festplatten-Hersteller Seagate zum Stand der (herkömmlichen) Festplatte im Zeitalter von immer günstiger werdenden SSDs. Derzeit sind letztere zwar noch kein Massenphänomen, stehen aber durchaus kurz davor – immer mehr Notebooks des normalen Preisbereichs werden bereits mit SSD ausgeliefert, in absehbarer Zeit dürfte sich die SSD bis auf Billig-PCs damit auch im OEM-Segment durchsetzen. Die herkömmlichen Festplatten ziehen sich damit auf eine Rolle als Datenträger für wirklich große Datenmengen im Bereich von mehreren Terabyte zurück – ein Punkt, der bei SSDs nur zu unrealistisch hohen Geldeinsätzen bzw. teilweise gar nicht im Rahmen einer maßvollen Anzahl an einzelnen Datenträgern zu bewältigen ist. In dieser Schiene soll die Entwicklung weitergehen und damit dann 100-TB-Festplatten im Jahr 2025 erreicht werden können. Inwieweit dies für Consumer-PCs dann noch vonnutzen ist, bliebe abzuwarten – eine Anwendung im Server-Bereich, wo immer der Bedarf an preisgünstigen Speichern für extrem große Datenmengen existiert, dürfte aber auch dann noch gegeben sein.

Besser nicht nur als kleine Randnotiz abzutun ist Marks Zuckerbergs Neujahrsvorsatz, eine Haus-KI ähnlich "Jarvis" aus den Iron-Man-Filmen zu entwickeln. Abgesehen von der Höhe der Aufgabe erstaunt eher denn, daß es so etwas noch nicht gibt, schließlich wurde ähnliches in ScienceFiction-Literatur schon vor Jahrzehnten beschrieben. Aber wahrscheinlich macht erst die heutige Zeit mit der Durchdringung der Alltagswelt von Computing-Devices in Form von Smartphones & Tablets es möglich, an die wirkliche Umsetzung und den Verkaufserfolg einer solchen Idee zu glauben. Problematisch ist natürlich, wenn so etwas ausgerechnet vom Facebook-Gründer kommt – ob in seinem solchen System für den normalen Konsumenten selbiger noch die eigentliche Kontrolle haben wird, bliebe naturgemäß anzuzweifeln. Andererseits würde der Facebook-Gründer bei einem Erfolg seines Projekts auch den Weg dafür frei machen, daß andere Anbieter an ähnlichem zu arbeiten beginnen, was dem Konsumenten in Folge dessen mehr Auswahl bezüglich der Punkte Datenschutz und Kontrollwahn geben würde.