30

Hardware- und Nachrichten-Links des 30. März 2015

Wer mit der GeForce GTX Titan X ganz extrem übertakten will, benötigt wohl nicht ein Mod-BIOS mit hochgesetztem Power-Target und hochgesetzter GPU-Spannung sowie auch extreme Kühlmaßnahmen wie flüssigen Stickstoff (oder mindestens eine Wasserkühlung), sondern auch eine extra GPU-Spannungsversorgung, da die Spannungsversorgung der Karte selber ihre Limitationen hat. Hierzu gibt es einige Produkte der Grafikkarten-Hersteller, Overclocking.Guide zeigen, wie man jene "montiert" – wobei das ganze in einiger Löt- und Bastelarbeit ausartet und daher nur dem erfahrenen Hardware-Bastler zu empfehlen ist. Hierbei wird auch gezeigt, wie man das Power-Target der Karte Hardware-seitig (sprich durch Löten) hochsetzen kann. Für Rekord-Suchende ist das ganze sicher hilfreich, für den Hausgebrauch eher weniger zu empfehlen – aber dafür sind die extra GPU-Spannungsversorgungen von Asus, EVGA und Gigabyte samt diesem Guide auch nicht gedacht.

Die PC Games Hardware berichtet über eine in Japan abgelaufene AMD-Präsentation, bei welcher AMD gewisse Zukunftsausblicke gegeben hat. So sprach man von zwei neuen CPU-Kernen in der 14nm-Fertigung für das nächste Jahr, einer als ARM-v8-Abkömmling und einer als x86-Abkömmling. Dies könnte man sowohl als Beschreibung der kommenden LowCost-Prozessoren von AMD auslegen (die gezeigte Roadmap bezog sich auf jene), welche je eine ARM- und eine x86-Variante hat – oder auch auf die erstmaligen ARM-Prozessoren bei AMD sowie die x86 HighEnd-Architektur "Zen" als echte neue Prozessoren von AMD, da die x86 LowPower-Prozessoren schließlich wohl einfach Jaguar-Weiterentwicklungen darstellen werden. Interessant daneben ist, daß AMD ab dem Jahr 2017 "HighPerformance-APUs" mit TDPs von 200-300 Watt plant. Angesichts dieser TDP sind dann wohl Grafiklösungen des HighEnd-Bereichs integriert – was eine interessante Kombination darstellt, welche bei schneller CPU durchaus auf Gegenliebe stoßen könnten.

Nochmals die PC Games Hardware hat sich die Preisunterschiede der ersten Monitore mit FreeSync gegenüber G-Sync angesehen. Regulär betrachtet sollte hierbei AMDs FreeSync-Technologie im Vorteil sein, da keine extra Hardware und auch keine Lizenzkosten anfallen – während ein G-Sync-Modul von nVidia auf 100 Dollar angesetzt wird (jenes kann natürlich im OEM-Handel günstiger sein). Teilweise läßt sich diese Preisdifferenz sogar wirklich durch die Praxis bestätigen, die wenigen halbwegs vergleichbaren Monitore kosten mit G-Sync zumeist 100 bis 175 Euro mehr – Ausnahmen bestätigen die Regel. Derzeit ist das FreeSync-Angebot einfach noch zu dünn, um da schon von einer klaren Entscheidung zu sprechen – aber die Tendenz geht doch dazu, daß die FreeSync-Modelle günstiger kommen und damit auch niedrigere absolute Preispunkte besetzen können. Da derzeit FreeSync nur für AMD-Grafikkarten und G-Sync nur für nVidia-Grafikkarten verfügbar ist, spielt dieser Preisunterschied bei der Monitor-Wahl keine Rolle mehr – wohl aber bei der Wahl der Grafikkarte, wobei AMD hiermit einen (weiteren) Vorteil für sich verbuchen kann.

Bei Hardwareluxx hat man sich nach langer Zeit mal wieder mit dem Thema Speichertaktungen und -latenzen sowie deren Einfluß auf die PC-Performance beschäftigt. Solcherart Ausarbeitungen hatten vor einer Dekade eine ziemliche Bedeutung, konnte man seinerzeit ziemlich viel mit Speicherübertaktung gewinnen – auch weil die seinerzeitigen Prozessoren darauf viel besser reagiert haben (gerade in Zusammenhang mit FSB-Übertaktungen). Heuer nun sind die Performancegewinne selbst zwischen den Extremen DDR3/1333 CL11 und DDR3/2400 CL16 eher geringfügig – in vielen Programmen meßbar, aber bei der RealWorld-Performance kaum bis gar nicht spürbar. Im einzigen getesteten Spiel liegen zwischem dem besten und dem schlechtesten Ergebnis gerade einmal 3,3% Differenz, zwischen dem besten und dem zweitschlechtesten Ergebnis dann nur noch 1,3% – was dann auch erklärt, wieso solcherart Messungen in den letzten Jahren eher selten geworden sind. Zur Kontrolle des vorhandenen Wissens ist es jedoch ab und zu immer mal wieder gut, diese Ausarbeitungen neu aufzulegen.

30

Entwicklungskosten im Vergleich: AMD gibt inzwischen weniger als nVidia aus, Intel weit vorn

Beim chinesischen Expreview (maschinelle Übersetzung ins Deutsche) hat man sich durch diverse Geschäftsberichte gewühlt und aus den gewonnenen Daten eine Übersicht der Entwicklungsausgaben von AMD, Intel & nVidia für die Jahre 2011 bis 2004 im Vergleich gezimmert. Klar ist dabei natürlich die Dominanz Intels, das Unternehmen setzt schließlich mit 55 Mrd. Dollar eine ganze Größenordnung mehr um als AMD (5,5 Mrd. $) und nVidia (4,6 Mrd. $). Als Gegenargument hierzu darf man ansehen, daß sich AMD und Intel trotzdem im selben Markt befinden – und dem Endkunden die Höhe der Entwicklungsausgaben egal sind, dann eben nur das finale Produkt interessiert.

Entwicklungsausgaben AMD, Intel & nVidia 2011-2014
Entwicklungsausgaben AMD, Intel & nVidia 2011-2014
Entwicklungsausgaben AMD & nVidia 2011-2014
Entwicklungsausgaben AMD & nVidia 2011-2014

Viel bedenklicher als dieser natürliche Nachteil von AMD gegenüber Intel ist aber eher, daß AMD zuletzt derart deutlich an den eigenen Ausgaben gekürzt hat, daß die Entwicklungsausgaben von AMD inzwischen klar unterhalb der Entwicklungsausgaben von nVidia liegen – und dies, obwohl nVidia weitgehend nur Grafikchips entwickeln muß und AMD sogar auf beiden Feldern (CPUs & GPUs) unterwegs ist. Es wäre zu bezweifeln, daß dies lange Zeit gut gehen kann – AMD benötigt dringend die Trendwende, ansonsten ist die Eigenmasse irgendwann zu gering, um konkurrenzfähig zu bleiben. Faktisch müssen die 2016er AMD-Produkte – maßgeblich die Zen-Prozessorenarchitektur als auch die Radeon R400 Grafikkarten-Serie – wirklich einschlagen, ansonsten würde man kaum noch um eine Übernahme oder eine andere externe Lösung herumkommen.

29

Hardware- und Nachrichten-Links des 28./29. März 2015

Aus unserem Forum kommen einige erhellende Aussagen, was nVidia wohl mit seiner MixedPrecision bei den kommenden Grafikchip-Architekturen "Pascal" und "Volta" gemeint haben könnte: Bislang musste man für eine FP64-Genauigkeit (nur interessant für professionelle Zwecke) eigentlich immer extra Einheiten verbauen, die normalerweise verbauten FP32-Einheiten (für den Spieleeinsatz) könnten FP64 nur schlecht als recht mit einer Quote von 1/24 bis 1/32 (je nach Grafikchip) mit berechnen. Die extra FP64-Einheiten kosten aber natürlich Chipfläche und treiben den Stromverbrauch nach oben – was gerade bei den ganz großen Grafikchips suboptimal ist, denn jene haben gewisse Limits bezüglich Chipfläche und Stromverbrauch einzuhalten. nVidias neuer GM200-Chip wäre mit FP64-Einheiten so wie beim Vorgänger-Chip GK110 kaum zu realisieren gewesen, die FP64-Einheiten würden den sowieso schon 601mm² großen Chip in Richtung knapp 700mm² Chipfläche aufblähen, was dann kaum noch herstellbar wäre.

Bei den kommenden Pascal- und Volta-Architekturen wird nVidia dann die Shader-Einheiten derart reorganisieren, als daß jene immer sowohl FP32 als auch FP64 beherrschen – und zwar wahrscheinlich durchgehend im Verhältnis 1:2. Letztlich wird hierbei wohl nichts anderes getan, als wie beim Tegra X1 vorexerziert, dessen Shader-Einheiten 2x FP16 oder 1xFP32 beherrschen – nur dann eben in einem größerem Maßstab. Dies macht die Shader-Einheiten rein aus dem Blickwinkel von FP32-Berechnungen etwas größer, aber es ergibt sich dann auch kein Zwang zu extra FP64-Einheiten mehr, was zumindest bei den größten Chips des Portfolios in jedem Fall Chipfläche und Stromverbrauch spart. Natürlich sind dies derzeit alles nur bessere Überlegungen, "wie es sein könnte" – genaueres wird nVidia allerdings in näherer Zeit nicht dazu aussagen, dies ist wohl alles erst ein Thema der Jahre 2016 und nachfolgende.

Als Gegner dieser 2016er Pascal-basierten Grafikchips von nVidia gilt auf AMD-Seite die Radeon R400 Serie unter dem Codenamen "Arctic Islands", wie schon einmal an dieser Stelle genannt. Hierzu will Fudzilla in Erfahrung gebracht haben, daß AMD diesbezüglich an einem "Greenland"-Grafikchip unter der Nutzung von HBM-Speicher arbeiten würde. Die weiteren Angaben sind unklar bis verwirrend, da Fudzilla dann "Greenland" zum einen mit AMDs kommenden APUs und zum anderen mit der x86 NextGen-Architektur "Zen" in Verbindung bringen – beide CPUs dürften aber kaum einen Bedarf an einer extrem leistungsfähigen Grafiklösung mit teurem HBM-Speicher haben. Ganz generell gesprochen sollte man sich von HBM-Speicher auch in der zweiten Ausbaustufe noch keinen durchgehenden Einsatz versprechen – dieser Speicher ist teuer und der Vorteil der kleineren Chipfläche und des geringeren Stromverbrauchs nur bei HighEnd-Chips wirklich vonnöten.

Wie bekannt, werden wir HBM bei AMDs Fiji-Chip dieses Jahr im allerersten Einsatz sehen, welcher aber auch erst einmal auf diesen Chip beschränkt bleibt. 2016 wird es dann von beiden Grafikchip-Entwicklern Grafikchip-Serien mit HBM2-Einsatz geben, allerdings vermutlich auch noch beschränkt auf die Grafikchips für HighEnd- und Enthusiasten-Zwecke, vielleicht auch für Performance-Beschleuniger – aber sicher nicht für LowCost- und Mainstream-Lösungen. Bei diesen gilt neben dem nicht realisierbaren Preispunkt vor allem, daß die für diese Lösungen passende Speicherbandbreite auch ganz problemlos noch mittels gewöhnlicher GDDR5-Speicherinterfaces und eben GDDR5-Speicher bereitgestellt werden kann. Unterhalb von 256 GB/sec ist HBM2 noch nicht einmal spezifiziert – und selbst diese Speicherbandbreite könnte man mittels eines regulären 256 Bit DDR Speicherinterfaces samt auf 3500 MHz laufendem GDDR5-Speicher knapp noch realisieren (224 GB/sec). Erst oberhalb dieser Marke macht HBM wahrscheinlich erst Sinn – womit gewöhnliche GDDR5-Speichernterfaces uns wohl noch eine gewisse Weile begleiten werden.

In einem anderen Forums-Thread zu den Vor- und Nachteilen von 4K-Monitoren wird dagegen über die Skalierungs-Funktionalität von Windows diskutiert: Die neuen, hochauflösenden Monitore sind zumindest im Spiele-Einsatz sicherlich toll, aber unter Windows weiterhin mit diversen Skalierungs-Problemem behaftet. Leider ergab sich aus der Diskussion, daß der diesbezügliche Unterschied zwischen Windows 7 und Windows 8 nicht gerade groß ist und von Windows 10 auch nur teilweise Verbesserungen zu erwarten sind. Kritiker können an dieser Stelle sicherlich einwenden, daß Microsoft sich (mal wieder) auf die völlig falschen Themen bei seinen neuen Betriebssystemen konzentriert hat – anstatt auf die offensichtlich notwendigen Änderungen. In der Praxis muß man damit leben, was da ist – was einige dazu annimiert, 4K-Bildschirme nur in (für PC-Monitore) wirklich großen Maßen zu nehmen: Bei 40 Zoll als PC-Monitor können einige sogar mit einer nativen Auflösung von 3840x2160 leben, werden da die Elemente noch nicht zu klein. Die andere, generell nutzbare Alternative widerspricht dagegen etwas dem Sinn von 4K: Nur im Spielebetrieb die 4K-Auflösung wirklich zu nutzen – und im Windows-Betrieb bei 1920x1080 zu bleiben.

Inhalt abgleichen