29

Hardware- und Nachrichten-Links des 28./29. März 2015

Aus unserem Forum kommen einige erhellende Aussagen, was nVidia wohl mit seiner MixedPrecision bei den kommenden Grafikchip-Architekturen "Pascal" und "Volta" gemeint haben könnte: Bislang musste man für eine FP64-Genauigkeit (nur interessant für professionelle Zwecke) eigentlich immer extra Einheiten verbauen, die normalerweise verbauten FP32-Einheiten (für den Spieleeinsatz) könnten FP64 nur schlecht als recht mit einer Quote von 1/24 bis 1/32 (je nach Grafikchip) mit berechnen. Die extra FP64-Einheiten kosten aber natürlich Chipfläche und treiben den Stromverbrauch nach oben – was gerade bei den ganz großen Grafikchips suboptimal ist, denn jene haben gewisse Limits bezüglich Chipfläche und Stromverbrauch einzuhalten. nVidias neuer GM200-Chip wäre mit FP64-Einheiten so wie beim Vorgänger-Chip GK110 kaum zu realisieren gewesen, die FP64-Einheiten würden den sowieso schon 601mm² großen Chip in Richtung knapp 700mm² Chipfläche aufblähen, was dann kaum noch herstellbar wäre.

Bei den kommenden Pascal- und Volta-Architekturen wird nVidia dann die Shader-Einheiten derart reorganisieren, als daß jene immer sowohl FP32 als auch FP64 beherrschen – und zwar wahrscheinlich durchgehend im Verhältnis 1:2. Letztlich wird hierbei wohl nichts anderes getan, als wie beim Tegra X1 vorexerziert, dessen Shader-Einheiten 2x FP16 oder 1xFP32 beherrschen – nur dann eben in einem größerem Maßstab. Dies macht die Shader-Einheiten rein aus dem Blickwinkel von FP32-Berechnungen etwas größer, aber es ergibt sich dann auch kein Zwang zu extra FP64-Einheiten mehr, was zumindest bei den größten Chips des Portfolios in jedem Fall Chipfläche und Stromverbrauch spart. Natürlich sind dies derzeit alles nur bessere Überlegungen, "wie es sein könnte" – genaueres wird nVidia allerdings in näherer Zeit nicht dazu aussagen, dies ist wohl alles erst ein Thema der Jahre 2016 und nachfolgende.

Als Gegner dieser 2016er Pascal-basierten Grafikchips von nVidia gilt auf AMD-Seite die Radeon R400 Serie unter dem Codenamen "Arctic Islands", wie schon einmal an dieser Stelle genannt. Hierzu will Fudzilla in Erfahrung gebracht haben, daß AMD diesbezüglich an einem "Greenland"-Grafikchip unter der Nutzung von HBM-Speicher arbeiten würde. Die weiteren Angaben sind unklar bis verwirrend, da Fudzilla dann "Greenland" zum einen mit AMDs kommenden APUs und zum anderen mit der x86 NextGen-Architektur "Zen" in Verbindung bringen – beide CPUs dürften aber kaum einen Bedarf an einer extrem leistungsfähigen Grafiklösung mit teurem HBM-Speicher haben. Ganz generell gesprochen sollte man sich von HBM-Speicher auch in der zweiten Ausbaustufe noch keinen durchgehenden Einsatz versprechen – dieser Speicher ist teuer und der Vorteil der kleineren Chipfläche und des geringeren Stromverbrauchs nur bei HighEnd-Chips wirklich vonnöten.

Wie bekannt, werden wir HBM bei AMDs Fiji-Chip dieses Jahr im allerersten Einsatz sehen, welcher aber auch erst einmal auf diesen Chip beschränkt bleibt. 2016 wird es dann von beiden Grafikchip-Entwicklern Grafikchip-Serien mit HBM2-Einsatz geben, allerdings vermutlich auch noch beschränkt auf die Grafikchips für HighEnd- und Enthusiasten-Zwecke, vielleicht auch für Performance-Beschleuniger – aber sicher nicht für LowCost- und Mainstream-Lösungen. Bei diesen gilt neben dem nicht realisierbaren Preispunkt vor allem, daß die für diese Lösungen passende Speicherbandbreite auch ganz problemlos noch mittels gewöhnlicher GDDR5-Speicherinterfaces und eben GDDR5-Speicher bereitgestellt werden kann. Unterhalb von 256 GB/sec ist HBM2 noch nicht einmal spezifiziert – und selbst diese Speicherbandbreite könnte man mittels eines regulären 256 Bit DDR Speicherinterfaces samt auf 3500 MHz laufendem GDDR5-Speicher knapp noch realisieren (224 GB/sec). Erst oberhalb dieser Marke macht HBM wahrscheinlich erst Sinn – womit gewöhnliche GDDR5-Speichernterfaces uns wohl noch eine gewisse Weile begleiten werden.

In einem anderen Forums-Thread zu den Vor- und Nachteilen von 4K-Monitoren wird dagegen über die Skalierungs-Funktionalität von Windows diskutiert: Die neuen, hochauflösenden Monitore sind zumindest im Spiele-Einsatz sicherlich toll, aber unter Windows weiterhin mit diversen Skalierungs-Problemem behaftet. Leider ergab sich aus der Diskussion, daß der diesbezügliche Unterschied zwischen Windows 7 und Windows 8 nicht gerade groß ist und von Windows 10 auch nur teilweise Verbesserungen zu erwarten sind. Kritiker können an dieser Stelle sicherlich einwenden, daß Microsoft sich (mal wieder) auf die völlig falschen Themen bei seinen neuen Betriebssystemen konzentriert hat – anstatt auf die offensichtlich notwendigen Änderungen. In der Praxis muß man damit leben, was da ist – was einige dazu annimiert, 4K-Bildschirme nur in (für PC-Monitore) wirklich großen Maßen zu nehmen: Bei 40 Zoll als PC-Monitor können einige sogar mit einer nativen Auflösung von 3840x2160 leben, werden da die Elemente noch nicht zu klein. Die andere, generell nutzbare Alternative widerspricht dagegen etwas dem Sinn von 4K: Nur im Spielebetrieb die 4K-Auflösung wirklich zu nutzen – und im Windows-Betrieb bei 1920x1080 zu bleiben.