13

AMD-Grafikchip "Project F" mit 232mm² Chipfläche unter der 14LPP-Fertigung?

Über unser Forum wird auf das LinkedIn-Profil eines früheren AMD-Mitarbeiters hingewiesen, welcher in seiner Vita die Arbeit an einem Grafikchip-Design ("dGPU") für die 14LPP-Fertigung von GlobalFoundries und Samsung (explizit so genannt) stehen hat. Der bemerkenswerte Punkt: Jenes Grafikchip-Design soll aus 430 Funktionsblöcken bestehen und eine Chipfläche von 232mm² aufweisen. Letztere Angabe ist natürlich nur eine Projektion, welche dann nach der eigentlichen Chipfertigung entsprechend den realen Abmaßen korrigiert werden müsste. Ob jenes Grafikchip-Design mit dem Codenamen "Project F" wirklich realisiert wurde, ist ungewiß – und in der Vita jenes früheren AMD-Mitarbeiters stehen auch andere Chipprojekte, die nachweislich niemals bis zur Serienreife geführt wurden (so AMD-Grafikchips in der 28nm-Fertigung von GlobalFoundries). Insofern läßt sich derzeit nicht sagen, wie real diese Information ist – noch dazu, wo die angegebenen 232mm² Chipfläche als zu groß für den kleineren "Polaris 10" sowie als (viel) zu klein für den größeren "Polaris 11" gelten dürfen.

Einzig allein, wenn die bisherigen Größenschätzungen von 120-150mm² für Polaris 10 allesamt klar zu niedrig liegen, könnte es sich hierbei um Polaris 10 handeln – welcher damit dann eher ins Performance-Segment rücken würde. Schlecht wäre dies nicht für AMD, denn die bisher zu erkennende Strategie eines 14nm Mainstream-Chips samt eines 16nm HighEnd-Chips würde eine große Performance- und Preislücke zwischen diesen beiden Grafikchips offenlassen. Jene könnte man zwar mit Altware füllen, aber dies sieht immer irgendwie ungünstig aus – besser ist es, Altware für das LowCost- und Mainstream-Segment zu benutzen, dort kräht danach kein (medialer) Hahn. Realisierbar wäre dies über einen 14nm Performance- und einen 16nm HighEnd-Chip, dann würde AMD die Preissegmente von 200 bis 600 Euro mit Neuware abdecken können und nur darunter dann Altware abverkaufen (Bonaire, Pitcairn & Tonga). Allerdings ist wie gesagt derzeit unsicher, ob jenes Chipdesign "Project F" wirklich jemals aus der Designphase herausgetreten ist und damit wirklich auf AMDs aktueller Roadmap steht.

12

Hardware- und Nachrichten-Links des 12. Februar 2016

Gestern schon verlinkt, wäre noch Apples Entscheidung zu thematisieren, beim kommenden iPhone7-SoC "A10" in erstmals der 10nm-Fertigung wieder gänzlich auf TSMC als Chipfertiger zu setzen. Wie die PC Games Hardware berichtet, hängt dies wohl an dem zeitlichen Vorsprung, welchen sich TSMC bei der 10nm-Fertigung gegenüber Samsung hat herausarbeiten können – und wie bekannt puscht TSMC derzeit die 10nm-Fertigung in der Tat. Samsung hingegen konzentriert sich angeblich inzwischen eher schon auf die nachfolgende 7nm-Fertigung und will die 10nm-Fertigung nicht weiter großartig ausbauen. Ähnlich der 20nm-Fertigung könnte die 10nm-Fertigung also als eine eher wenig benutzte Fertigungstechnologie herauskommen, während die 7nm-Fertigung dann wieder der Punkt ist, wo sich alle Halbleiterfertiger treffen werden. Diese Einschätzungen sind allerdings eher nur für die heutzutage weit verbreiteten Mobile-SoCs zutreffend – bei den Grafikchips von AMD und nVidia sowie den PC-Prozessoren von AMD und Intel kann dies wieder anders aussehen, hier dürfte die 10nm-Fertigung ganz regulär mitgegangen werden.

Nebenbei läßt sich aus dieser Meldung auch indirekt etwas zu den Zeitplanungen jener 10nm-Fertigung schlußfolgern: Apple dürfte sich wie übliche alle Anfangskontingente der 10nm-Fertigung bei TSMC sichern – welche dann schon Anfang 2017 loslaufen muß, damit Apple genügend Chips für einen weltweiten Launch wie üblich zur jeweiligen Jahresmitte zusammenbekommt. Gemessen am üblichen Verlauf zu früheren Fertigungsverfahren werden erst danach bedeutsamen 10nm-Kapazitäten für andere Chipentwickler frei – und weil diese dann auch nicht umgehend ihre neuen Produkte fertighaben, dauert es vermutlich bis zum Jahreswechsel 2017/18, ehe bei TSMC gefertigte 10nm-SoCs anderer Chipentwickler mittels kaufbarer Produkte verfügbar werden. Davon ausgehend dauert es dann üblicherweise noch ein dreiviertel bis ganzes Jahr, ehe die neue Fertigung auch für die großen Grafikchips von AMD und nVidia adaptierbar ist – es ist nun einmal eine ganz andere Anforderung, mehr als 400mm² große Grafikchips mit Wattagen von 150 Watt und mehr marktreif zu bekommen als denn 50-100mm² große SoCs, deren Wattagen üblicherweise im Bereich von 1-4 Watt liegen. Selbst das schnelle Vorantreiben der 10nm-Fertigung bei TSCM zeigt also auch nur darauf hin, daß 10nm-Grafikchips frühestens ein Thema des Sommer/Herbst 2018 sein werden.

Die PC Games Hardware hat sich zudem mit der Frage beschäftigt, welche Kühlerart zur Kühlung der Mainboard-Spannungswandler am besten geeignet ist: Top-Blower vs. Tower-Kühler lautet hier die Ansetzung. Normalerweise würde man dem Top-Blower (Lüfter horizontal auf dem Kühler oben drauf sitzend) diesbezüglich mehr zutrauen, laut den Messungen der PCGH kommen allerdings (bei vergleichbarem Luftstrom) die Tower-Kühler (mit seitlich am Kühler dranpappendem Lüfter) klar besser weg. Obwohl hierbei nominell weniger Luft in Richtung der Spannungswandler bewegt wird, sorgen jene Kühler augenscheinlich für einen insgesamt besseren Luftfluß – sprich, die Spannungswandler werden mit letztlich kühlerer Luft umgeben und können sich daher (passiv) besser abkühlen. Normalerweise könnte man sagen, daß dies wohl nur ein Problem von HighEnd-Prozessoren ist – allerdings können die Spannungswandler auf Billig-Mainboards genauso warm werden, weil dann auf jenen Platinen die Hersteller üblicherweise weniger und günstigere Komponenten verwenden. Und somit ist das ganze sowohl für Systeme mit hohen Leistungsaufnahmen als auch schwierigen Abluftbedingungen ein durchaus interessanter Punkt.

Die ungebremste Datenübertragung von Windows 10 ist mal wieder ein Thema: Laut einer Berichterstattung von Hartware versendet das neue Microsoft-Betriebssystem selbst nach Aktivierung aller Privatsphären-Einstellungen noch jede Menge an Daten, nicht einmal eines der üblichen AntiTracking-Programme konnte den Datenfluß vollständig unterbinden. Gemessen an den vollmundigen Versprechen Microsofts, daß man mit den kürzlich hinzugepatchten Privatsphären-Einstellungen diese Problematik nunmehr zufriedenstellend regeln könne, ist dies natürlich übel – und angesichts der Masse an aufgenommenen Verbindungen fällt es schwer, andere Erklärungsoptionen wie Abfragen an Windows Update oder Zeitserver als ausreichend zu akzeptieren. Es gibt allerdings bei WinFuture auch Gegenstimmen, welche diesen Test anders auslegen und selbiges sogar fachlich gut begründen können – hier bliebe der Wettstreit der Fachleute abzuwarten, ob da wirklich etwas dran ist. In jedem Fall ist eine zwischenzeitliche Meldung, Microsoft arbeite an diesem Problem, wohl schlicht fehlgeleitet – da hat jemand eine frühere Microsoft-Aussage zu besseren Privatsphären-Einstellungen vom letzten Herbst aufgegriffen, das Ergebnis hieraus ist allerdings wie bekannt schon in der aktuellen Ausgabe von Windows 10 eingearbeitet.

Eher unerwartet, aber deswegen um so erfreulicher ist die Nachricht seitens Silicon.de über die Verabschiedung der "Judicial Redress Bill" durch den US-Senat. Jenes Gesetz räumt u.a. erstmals ein Klagerecht von EU-Bürger vor US-Gerichten ein, wenn US-Behörden oder US-Unternehmen gesetzlich oder vertraglich festgeschriebene Datenschutzverpflichtungen nicht einhalten. Damit ist einer der Hauptkritikpunkte am früheren Safe Harbor sowie am kommenden Privacy Shield vom Tisch – denn ohne Klagemöglichkeit in den USA waren alle diese Vereinbarungen letztlich ziemlich zahnlos. Da das Gesetzwerk nun nur noch die Zustimmung des US-Repräsentantenhauses (in einer früheren Version schon geschehen) sowie von Präsident Obama benötigt, steht dessen Inkrafttreten eigentlich nichts mehr im Weg. Der geplante Privacy Shield zwischen USA und EU wird damit jedoch nicht automatisch sinnvoll bzw. ausreichend, da dürften wohl noch jede Menge anderer Probleme im Weg stehen – aber wenigstens ein gewisser Teil des Weges wurde hiermit anscheinend zurückgelegt.

12

Die Systemanforderungen zu Quantum Break

Nachdem Microsoft (in diesem Augenblick in der Rolle als Spielepublisher) zuerst einen ziemlichen Bohei um die Xbox-One-Exklusivität von "Quantum Break" gemacht hatte, wird das mit einigen Vorschußlorbeeren versehene (und auch wirklich interessant ausschauende) Actionspiel am 5. April 2016 zeitgleich für Xbox One und den PC erscheinen. Der PC-Support ist allerdings (willkürlich) eingeschränkt auf alleinig Windows-10-Maschinen (unter 64 Bit). An der Unterstützung von DirectX 12 dürfte dies kaum liegen, denn jene 3D-API ist auf der XBox One genauso wenig existent – vielmehr wird Microsoft das ganze natürlich nur als weitere Marketingmaßnahme zugunsten von Windows 10 benutzen und sieht eventuellen Mindereinnahmen durch den Ausschluß der (nach wie vor zahlreichen) Anwender von Windows Vista, 7, 8 & 8.1 demzufolge gelassen entgegen.

Spieleentwickler Remedy Entertainment hat in jedem Fall nunmehr die Systemanforderungen zu Quantum Break veröffentlicht – welche auch abgesehen von der zwingenden Anforderungen zugunsten von Windows 10 64-Bit ziemlich knackig aussehen, zudem auch neben "Minimum" und "Empfehlungen" sogar "Ultra"-Anforderungen mit sich bringen. Leider wird nirgendwo ausgeführt, für was jene "Ultra"-Anforderungen nun genau stehen sollen – man kann sich nur zusammenreimen, daß dies eventuell für die UltraHD-Aufösung gedacht sein könnte (die hierbei angegebene Grafikkartenspeicher-Menge von gleich 6 GB legt dies nahe). Als zwingende Anforderungen neben einem Windows 10 in der 64-Bit-Version gilt zudem eine DirectX-12-Grafikkarte – wobei die vom Spieleentwickler selbst genannten weiteren Grafikkarten nahelegen, das hierbei der Software-Part von DirectX 12 vollkommen ausreicht, es also nicht das "Feature-Level" 12_0 oder 12_1 sein muß. Beim Hauptspeicher will man dagegen (nicht zwingend) minimal 8 GB sehen, empfohlen sind 16 GB, die "Ultra"-Anforderung will ebenfalls 16 GB haben.

Auf Prozessoren-Seite will man dann minimal einen AMD FX-6300 (6C, 3.5/4.1 GHz) oder einen Intel Core i5-4460 (4C, 3.2/3.4 GHz) sehen – wobei letzterer seitens des Spieleentwicklers seltsamerweise mit nur 2.7 GHz Taktrate angegeben wurde. Falls man hierbei einen niedriger getakteten Intel-Vierkerner aus der Haswell-Reihe benennen wollte, hätte ein Blick in einschlägige Datenbanken den Core i5-4430S hervorgefördert, welcher mit 2.7/3.2 GHz sowohl das langsamste Vierkern-Modell der Haswell-Riege darstellt, als auch auf die genannte Taktrate von 2.7 GHz passt. Jener Core i5-4430S passt von der Performance her auch besser zum FX-6300 (Vergleich auf Basis des Core i5-4430 ohne "S"), während der Core i5-4460 doch einigermaßen schneller als der FX-6300 herauskommt. Herauslesen läßt sich hier, daß es schlicht ein halbwegs moderner Intel-Vierkerner (ältere Modelle als Haswell mit guten Taktraten eingeschlossen) oder ein FX-Prozessor ab sechs Rechenkernen und anständigen Taktraten sein soll. Wirklich ältere Prozessoren wie AMDs K8/K10-Modelle und Intels Core 2 Quad Serie werden damit effektiv ausgeschlossen (vielleicht kommen K10-Sechskerner noch mit, dies muß die Praxis ergeben).

Empfohlen wird hingegen mit dem Intel Core i5-4690 (4C, 3.5/3.9 GHz) ein nur etwas höher getakteten Intel-Vierkerner der gleichen Haswell-Architektur oder ein "gleichwertiges AMD-Modell". Aufgrund der höheren Taktrate und des generellen Nachteils von AMD-Prozessoren unter Spielen können wir hier nur noch den FX-8350 (8C, 4.0/4.2 GHz) als "gleichwertig" empfehlen, welcher in seiner grundsätzlichen Performance passabel mit dem Core i5-4690 vergleichbar ist. Beide Anforderungen sind nicht schlecht für heutige Gamer-Systeme, aber grundsätzlich gesehen erfüllbar – die allermeisten Gamer dürfte inzwischen auf potente Intel-Vierkerner oder aber vergleichbare AMD-Prozessoren umgestiegen sein. Unter der "Ultra"-Anforderung will man dann einen Intel Core i7-4790 (4C+HT, 3.6/4.0 GHz) oder wiederum ein "gleichwertiges AMD-Modell" haben – wobei wir da derzeit kein gleichwertiges Modell gegenüber einem schnellen Intel-Vierkerner mit HyperThreading sehen. Echte Gamer-Enthusiasten, für welche diese "Ultra"-Anforderung letztlich gedacht ist, dürften aber auch diesen Anforderungssprung noch bewältigen können.

minimale Anforderungen empfohlene Anforderungen "Ultra"-Anforderungen
Betriebssystem nur Windows 10 64-Bit  (Windows Vista, 7, 8 & 8.1 werden wirklich nicht unterstützt)
Prozessor AMD FX-6300 (6C, 3.5/4.1 GHz)
Intel Core i5-4460 (4C, 3.2/3.4 GHz)
"gleichwertiges AMD-Modell"
Intel Core i5-4690 (4C, 3.5/3.9 GHz)
"gleichwertiges AMD-Modell"
Intel Core i7-4790 (4C+HT, 3.6/4.0 GHz)
RAM 8 GB 16 GB 16 GB
DirectX DirectX 12
Grafikkarte AMD Radeon R7 260X
nVidia GeForce GTX 760
AMD Radeon R9 390
nVidia GeForce GTX 970
AMD Radeon R9 Fury X
nVidia GeForce GTX 980 Ti
VRAM 2 GB 4 GB 6 GB
HDD keine Angabe
Dienste kein Dienst benötigt
Anmerkung: Speichermengen sowie Anzahl an CPU-Rechenkernen werden in aller Regel nicht zwingend vorausgesetzt

Auf Grafikkarten-Seite geht es minimal mit AMD Radeon R7 260X (Perf.Index 200%) oder nVidia GeForce GTX 760 (Perf.Index 310%) los, beiderseits mit jeweils mindestens 2 GB Grafikkartenspeicher – wobei beide Grafikkarten von ihrer Grundperformance her auf den ersten Blick überhaupt nicht zusammenpassen. Denkbar ist allerdings in diesem speziellen Fall, daß bei den minimalen Grafikkarten-Anforderungen tatsächlich eine klar langsamere AMD-Grafikkarte ausreichend ist, da das Spiel nun einmal primär für die Xbox One entwickelt wurde – mit einem Grafikprozessor, welcher nahe dem Bonaire-Chip der Radeon R7 260X steht. Um auf einer solchen Grafiklösung überhaupt ein Spiel wie "Quantum Break" realisieren zu können, wurde womöglich speziell auf die Hardware des Xbox-One-Grafikprozessors hin optimiert – was dann nachfolgend allen ähnlichen Grafiklösungen auf dem PC zu Gute kommen würde, zuerst dem ziemlich ähnlichen Bonaire-Chip und nachfolgend allen GCN-basierten Grafiklösungen (aka AMDs komplettes Produktprogramm ab der Radeon HD 7000 Serie).

Nicht vollkommen auszuschließen ist allerdings, daß der Spieleentwickler (auch) bei dieser Angabe danebenliegt und entweder die genannte Radeon R7 260X oder die genannte GeForce GTX 760 falsch sind. Für Mindestanforderungen sind beide genannte Grafikkarten im übrigen nicht schlecht, aber gerade noch so erfüllbar – sofern man nicht auf echte LowCost-Lösungen oder aber ältere Grafikkarten setzt. Die Grafikkarten-Empfehlungen zeigen dann nochmals deutlich nach oben: Hier sollen es AMD Radeon R9 390 (Perf.Index 530%) oder nVidia GeForce GTX 970 (Perf.Index 520%) mit jeweils mindestens 4 GB Grafikkartenspeicher sein (war da nicht etwas bei der GeForce GTX 970?) – beiderseits schon klar im HighEnd-Segment liegende Grafikkarten. Dies stellt (mit anderen Spieletiteln) die derzeit höchsten vorliegenden Grafikkarten-Anforderungen im PC-Bereich dar – was aber auch zur anscheinend gebotenen Optikpracht passt.

Übertroffen wird dies dann nur noch durch die (allerdings extra ausgewiesenen) "Ultra"-Anforderungen: Hier will man gleich AMD Radeon R9 Fury X (Perf.Index 670%, 4K-Index: 100%) oder nVidia GeForce GTX 980 Ti (Perf.Index 730%, 4K-Index: 100%) mit beiderseits jeweils mindestens 6 GB Grafikkartenspeicher sehen. Letzteres passt zwar nicht ganz auf die Radeon R9 Fury X, aber wenn man der GeForce GTX 970 ihre eigentlich nur 3,5 GB Grafikkartenspeicher durchgehen läßt, wird wohl auch dies funktionieren – noch dazu auf Basis einer offiziellen Herstellerangabe. Abzuwarten bleibt natürlich, wie gut das Spiel wirklich mit Radeon R9 Fury X und GeForce GTX 980 Ti unter der "Ultra"-Anforderung und damit vermutlich der UltraHD-Auflösung zuechtkommt. Daran sind in der Praxis schon ganz andere Titel gescheitert – und "Quantum Break" sieht durch die Bank nach sehr hohen Hardware-Anforderungen aus, da sind große Reserven nach oben hin eher weniger zu erwarten. Die üblichen Hardware-Tests zum kommenden Actionspiel werden hier mehr aussagen – es deutet sich allerdings durchaus schon ein Titel an, welcher erst mit den kommenden 14/16nm-Grafikkarten bestmöglich ausgenutzt werden kann.

11

Hardware- und Nachrichten-Links des 11. Februar 2016

Die PC Games Hardware weist auf einen gewissen Preisrutsch bei der Radeon R9 380 4GB hin, welche derzeit seitens des Herstellers VTX3D schon für ab 190 Euro angeboten wird – und damit zur üblichen Preislage des 2-GB-Modells. Noch ist unklar, was sich hierunter verbirgt, denn von den anderen Grafikkarten-Herstellern liegen nur drei derzeit knapp unter der 200-Euro-Marke für das 4-GB-Modell, die anderen darüber. Ein generell niedrigerer Preis für die Radeon R9 380 4GB würde logischerweise die Preislage der Radeon R9 380 2GB (ab 185 Euro) nach unten drücken müssen, insofern will ein solcher Schritt seitens AMD wohlüberlegt sein. In jedem Fall läßt sich sagen, daß der Mehrpreis der 4-GB-Ausführung der Radeon R9 380 derzeit so gering ist (zwischen 5-15 Euro), daß man hierbei immer zur 4-GB-Ausführung greifen sollte. Bei der GeForce GTX 960 ist es nicht unähnlich – hier liegt der Mehrpreis derzeit bei immer noch rund 15 Euro, was aber auch in diesem Fall den Griff zur 4-GB-Ausführung nahelegt. Die Karten sind nicht schwach genug, um sie wenigstens ein paar Jahre zu verwenden – und mit der Zeit wird sich der Mehrspeicher auszahlen, (deutliche) Ansätze hierzu sind schließlich schon jetzt zu sehen.

AMD hat sich nun auch noch zu den Hardware-Anforderungen von VR-Gaming mittels einer bei der ComputerBase einzusehenden Liste von dafür empfohlenen AMD-Prozessoren geäußert. Interessanterweise packt man in diese Liste sowohl einige hochgetaktete FX-Modelle als auch einige hochgetakteten APUs – obwohl vom gewöhnlichen Leistungsprofil her auch die kleineren FX-Modelle schneller als die besten APUs sein sollten. Eventuell deutet dies in die Richtung, daß VR-Gaming in erster Linie hohe Taktraten ab 4 GHz (bei AMD-Prozessoren) sehen will – aber genauso gut möglich ist auch, daß diese Liste Marketing-beeinflußt wurde und AMD hierbei einfach nur den Absatz seiner Top-Modell puschen will. Ob AMD im Feld des VR-Gamings prozessorenseitig überhaupt gut mitspielen kann, ist zudem mit einem gewissen Fragezeichen zu versehen – bisher sind AMD-Prozessoren bei aller Liebe nicht gerade als Gaming-Maschinen bekannt. Davon abgesehen kündigt die AMD-Liste zudem noch zwei bislang nicht veröffentliche neue APUs an: Die neuen Top-Modelle A10-7890K (4C, 4.1/4.3 GHz) und Athlon X4 880K (4C, 4.0/4.2 GHz) sollen am 1. März 2016 offiziell vorgestellt werden.

Nochmals die PC Games Hardware weist auf Produktionserfolge von Speicherhersteller Micron bei GDDR5X-Speicher hin: Die aktuellen Vorab-Muster würden 3250 MHz Takt erreichen können, 3500 MHz ist dann das Ziel – dies ist derselbe Speichertakt, welcher beim regulären GDDR5 derzeit maximal verwendet wird (wobei bis zu 4000 MHz lieferbar wären). Ob die Grafikchip-Entwickler dies bei ersten Grafikkarten mit GDDR5X-Nutzung voll ausreizen werden, bleibt offen, da üblicherweise die allerhöchsten verfügbaren Speichertaktungen entsprechend hohe Mehrpreise nach sich ziehen. Zudem steht GDDR5X allein für sich bereits für eine Verdopplung der Speicherbandbreite (auf gleichem Takt), da muß man nicht bei den Speichertaktungen in die Vollen gehen. Allgemein werden daher von GDDR5X anfänglich Speichertaktraten von 2500 bis 3000 MHz erwartet, der Bandbreitengewinn gegenüber regulärem GDDR5 mit 3500 MHz Takt läge dann bei +42% bis +71%. Für die damit voraussichtlich zu bestückenden Performance- und HighEnd-Grafikkarten der 14/16nm-Generation ist dies vollkommen ausreichend. In Bezug auf die kürzliche Klarstellung zur Technik von GDDR5X gibt es in unserem Forum zudem interessante Anmerkungen: Zum einen stimmt natürlich der Einwand, daß aufgrund der Verwendung des QDR-Protokolls der gewählte Name "GDDR5X" eigentlich falsch ist: Korrekt wäre "GQDR5" oder auch schlicht "GQDR" – das "DDR" im Namen ist in jedem Fall nicht mehr zutreffend.

Gleichfalls wurde aber auch angemerkt, daß HBM-Speicher in der dargebotenen Tabelle bei der Speichermengen-Flexibilität deutlich zu schlecht wegkommt. Dies ist richtig und falsch zugleich: Richtig ist, das schon HBM1 laut dessen Spezifikation alle Möglichkeiten von HBM2 (und mehr) offenstehen, hierbei also auch andere Interfaces und andere Speichermengen pro Speicherstack realisierbar wären. In der Praxis sind jene bei HBM1 allerdings nicht zu kaufen – es gibt nur das, was AMD für die Fiji-basierten Grafikkarten benutzt. Und dies ist dann extrem unflexibel, in der Praxis ist HBM1 damit auf ein 4096 Bit DDR Speicherinterface und 4 GB Speicher festgenagelt. HBM2 definiert zwar nichts neues (außer einem höheren Speichertakt), aber in der Praxis werden hiermit verschiedene Speichermengen pro Stack angeboten und verschieden große Interfaces nutzbar sein. In der dargebotenen Tabelle wurde hierzu bewußt versucht, nicht die theoretischen Möglichkeiten laut Spezifikation aufzuzählen, sondern nur das, was rein praktisch auch in den Markt kommt. Ansonsten wäre dies ein unfairer Vergleich gegenüber GDDR5, wo alles das, was die Tabelle aufzählt, auch rein praktisch schon längst vorhanden und benutzt wird.

11

GDDR5X: Nicht mit höheren Taktraten, sondern mit QDR-Datenübertragung

Unsere bisherige Berichterstattung zum GDDR5X-Speicher in Konkurrenz zum HBM-Speicher hat (leider) noch einen Fehler aufzuweisen. Wie bekannt, steigt bei GDDR5X als hauptsächliche Änderung zum regulären GDDR5 der sogenannte Prefetch von 8 auf 16 – was bedeutet, das pro Takt der reinen Speicherzellen entsprechend viele Datenpakete über das Interface nach außen übertragen werden. Dabei gibt es zwei grundsätzlich Wege, diese leistungsfähigere Datenübertragung nach außen zu realisieren: Höhere Taktraten oder aber Datenprotokolle, welche mehr Daten pro Takt übertragen. Üblich ist an dieser Stelle das Double Data Rate (DDR) Protokoll, welches schon dem Namen nach zwei Datenpakete pro Takt überträgt.

Bei GDDR5X mit seinem verdoppeltem Prefetch und damit theoretisch bis zu doppelter Speicherbandbreite wurde anfänglich unsererseits ein höherer Speicherinterface-Takt vermutet – irgendwie müssen die mehr ausgelesenen Daten schließlich auch ankommen. Dem ist allerdings nicht so, wie u.a. auch ein hervorragender Detail-Artikel zu GDDR5X bei Monitor Insider herausarbeitet: GDDR5X arbeitet vielmehr am Speicherinterface selber nicht mehr mit dem bekannten und faktisch für die letzten 15 Jahre genutzten DDR-Protokoll (man erinnere sich an die allererste GeForce, welches es mit SDR- und seinerzeit erstmals DDR-Speicher gab), sondern man benutzt für GDDR5X das "Quad Data Rate" (QDR) Übertragungsprotokoll.

Mittels jenes QDR-Protokolls ist man in der Lage, die faktisch verdoppelte Speicherbandbreite ohne eine Erhöhung des offiziellen Speichertakts (welcher im eigentlichen nur den Takt der Interfaces auf Grafikchip & Speicherchip darstellt) zu erreichen. Dies räumt ein erhebliches und vorher unsererseits (fälschlicherweise) kommuniziertes Problem mit GDDR5X aus dem Weg: Weil der Speichertakt mit GDDR5X nicht ansteigt, geht auch der Strombedarf für das Speicher-Subsystem nicht durch die Decke – jener Strombedarf hängt bei GDDR5 & GDDRX bekannterweise maßgeblich vom Speichertakt ab, wobei das Speicherinterface im Grafikchip selber hierbei der Hauptverbraucher ist. Das verwendete QDR-Datenprotokoll wird zwar auch etwas Mehrverbrauch kosten, schließlich kommen im Idealfall doppelt so viele Daten an, aber dies dürfte keineswegs so dramatisch ausfallen wie ein verdoppelter Speichertakt.

GDDR5 GDDR5X HBM1 HBM2
HBM-Stacks - - üblich: 4 üblich: 1, 2 oder 4
GPU-Interface flexibel, üblich bis zu 512 Bit flexibel, vermutlich bis zu 256-384 Bit 4096 Bit 1 Stack: 1024 Bit
2 Stacks: 2048 Bit
4 Stacks: 4096 Bit
üblicher Speichertakt bis zu 3500 MHz
(bis zu 4000 MHz lieferbar)
vermutlich bis zu 3500 MHz
(bis zu 4000 MHz geplant)
500 MHz 1000 MHz
Datenübertragung DDR QDR DDR DDR
Speicherbandbreite eines Spitzenprodukts 384 GB/sec
(Radeon R9 390X)
vermutlich bis zu ~500 GB/sec 512 GB/sec
(Radeon R9 Fury X)
bis zu 1024 GB/sec
(256 GB/sec pro Stack)
realisierbare Speichermengen flexibel bis zu 16 GB
(Vielfache von 64 MB)
flexibel bis zu 32 GB
(Vielfache von 512 oder 768 MB)
4 GB 1 Stack: 4/8 GB
2 Stacks: 8/16 GB
4 Stacks: 16/32 GB
Vorteile recht günstig, sehr flexibel bei den Speichermengen mittelmäßig günstig, hohe Speicherbandbreiten erreichbar, extrem flexibel bei den Speichermengen hohe Speicherbandbreite, niedriger Strombedarf, wenig Chipfläche für das GPU-Interface extrem hohe Speicherbandbreite, niedriger Strombedarf, sehr wenig Chipfläche für das GPU-Interface
Nachteile maximale Speicherbandbreite praktisch begrenzt, hoher Strombedarf bei großen Interfaces samt hohen Taktraten, viel Chipfläche für das GPU-Interface hoher Strombedarf bei großen Interfaces samt hohen Taktraten, viel Chipfläche für das GPU-Interface sehr teuer, extrem unflexibel bei den Speichermengen sehr teuer, nur passabel flexibel bei den Speichermengen

Der nicht wesentlich höhere Stromverbrauch von GDDR5X führt dazu, daß man jenen neuen Speicherstandard viel besser als HBM-Kontrahenten sehen kann – mit noch höherem Strombedarf als vom regulären GDDR5 her bekannt hätte man sich dafür glatt disqualifiziert. Trotzdem dürften echte Enthusiasten-Lösungen eher auf HBM2 als denn auf GDDR5X setzen, weil bei den wirklich großen Chips jedes Stück Stromersparnis und jedes Stück freiwerdende Chipfläche (beides große Vorteile von HBM) enorm wichtig sind – noch dazu, wo HBM1 mindestens die gleiche Speicherbandbreite wie GDDR5X bietet und mit HBM2 dann auch deutlich mehr Speicherbandbreite liefern kann. GDDR5X positioniert sich allerdings als gute Zwischenlösung für Fälle, wo HBM derzeit einfach noch zu teuer ist oder aber wo der HBM-Vorteil beim Stromverbrauch und geringerer Chipfläche nicht wirklich zieht.

Dies betrifft Performance- bis HighEnd-Chips, welche durchaus gewisse Reserven bei Strombudget und Chipfläche haben, die aber andererseits auch auf ihre Kostenlage achten müssen – und wo HBM2 für eine gewisse Zeit wohl noch zu teuer sein wird. Bei jenen Performance- und HighEnd-Chips will man vor allem die Speicherinterfaces nicht noch weiter verbreitern, weil dies die gesamte Grafiklösung teurer macht – und viel mehr Speichertakt ist mit GDDR5 auch nicht zu erreichen. GDDR5X ist hierfür eine exzellente Lösung, um ohne größere Speicherinterfaces und zu vergleichsweise geringen Kosten die Speicherbandbreite erheblich zu erhöhen. Demzufolge könnte (sofern gut verfügbar) GDDR5X bei der nächsten Grafikchip-Generation womöglich schon breit eingesetzt werden – neben weiterhin GDDR5 für LowCost- und Mainstream-Lösungen sowie HBM2 für Enthusiasten-Lösungen.

Im übrigen könnte nVidia schon beim kommenden GP104-Chip der Pascal-Generation auf GDDR5X zu setzen. Beim Vorgänger-Chip GM204 hat man mit 3500 MHz Speichertakt das Potential von regulärem GDDR5 schon nahezu vollständig ausgenutzt – und angesichts der 14/16nm-Fertigung sind vom GP104-Chip natürlich deutlich mehr Recheneinheiten zu erwarten, welche dann mit ordentlich mehr Speicherbandbreite gefüttert werden wollen. Eine Lösung hierfür wäre ein breiteres Speicherinterface – eine bessere Lösung wäre GDDR5X. Die beim GP104 zum GM204 um 23% steigende Pin-Anzahl deutet eher auf letzteres: Ein breiteres Speicherinterface passt hier eher weniger hinein (maximal 320 Bit, was aber nur einen Schub von +25% bringen würde), GDDR5X jedoch sehr wohl (welches laut der PCGH 12% mehr Pins benötigt). Mittels GDDR5X beim GP104-Chip könnte man selbst bei einer mittelprächtigen Speichertaktung von 3000 MHz auf satte 71% mehr Speicherbandbreite gegenüber dem GM204-Chip kommt – ohne Erhöhung der Interface-Breite wohlgemerkt.

10

Hardware- und Nachrichten-Links des 9./10. Februar 2016

Golem haben bei Intel in der Frage des Skylake non-K-Overclockings nachgefragt und die ziemlich klare Antwort erhalten, daß ein Microcode-Update mit Intels Gegenmaßnahme an alle Mainboard-Hersteller generell verteilt worden ist. Daß bisher nur ASRock entsprechende BIOS-Updates anbietet, ist also nur eine temporäre Situation – die anderen hierbei beteiligten Mainboard-Hersteller dürften alsbald nachziehen. Die Mainboard-Hersteller haben in dieser Frage keinerlei Wahl, weil das aktuelle Microcode-Update von Intel wegen des dabei enthaltenen Fixes für den Skylake AVX-Bug faktisch eine Pflichtübung darstellt. Jene Wahl haben allenfalls die Anwender – sie können auf jenen Bugfix verzichten und weiter übertakten, da jener Bug in der Praxis eines Normalanwenders heutzutage einfach zu selten auftritt. Dies funktioniert aber natürlich nur für die jetzt bereits verfügbaren Mainboards mit vorhandenem BIOS für das Skylake-non-K-Overclocking – für alle zukünftigen Platinen hat Intel das ganze mittels seines Microcode-Updates schon ziemlich automatisch versperrt.

Ausgehend von einer Meldung seitens Technology Review frisst sich derzeit das Gerücht durchs Netz, zukünftige Intel-Prozessoren würden eher in Richtung Stromersparnis als denn in Richtung von mehr Performance gehen – insbesondere bezogen auf die 7nm-Fertigung, welche bei Intel in Richtung der Jahre 2019 bis 2020 auf dem Plan steht. Allerdings vermischt die Auslegung von Technology Review hierbei zu sehr den Punkt einzelner Transistoren und ganzer Prozessoren – die zitierten Intel-Aussagen beziehen sich nämlich nur auf die Transistoren selber. Stromersparnis ist zudem auch ein möglicher Weg, um mehr Performance anbieten zu können – weil dann im selben TDP-Budget höhere Taktraten möglich werden. Vor allem aber bezog sich Intel bei seinen Aussagen eher denn auf eine Zukunft, wo IoT-Chips eine viel stärkere Rolle im Angebotsportfolio des Halbleiterherstellers spielen werden. Jene IoT-Chips haben ein generell begrenztes Performance-Verlangen, für deren Wirtschaftlichkeit ist jedoch der Energiebedarf immens wichtig – und da Intel in diesem Feld groß mitspielen will, wird man wohl zukünftige Fertigungsverfahren auf diese Zielrichtung hin optimieren. Dies wird natürlich auch Auswirkungen auf die großen PC-Prozessoren haben – doch bei der Performance-Entwicklung generell zu stocken, kann sich selbst Intel nicht leisten, zumindest so lange wie mit AMD ein Wettbewerber im Markt ist.

ExtremeTech kritisieren (vollkommen zu Recht) die PC-Hersteller dafür, mit unzureichend durchdachten und letztlich lieblosen Notebook-Designs AMDs Carrizo-Prozessoren zu schaden bzw. jene durchaus hoffnungsvolle Mobile-Architektur nicht wirklich auszunutzen. Als Problempunkt hat man sich hierbei allerdings alleinig herausgesucht, daß alle aktuellen Carrizo-Systeme nur mit SingleChannel-Speicherinterface arbeiten. In diesem Fall hat sich AMD leider höchstselbst geschlagen: Weil AMD Carrizo-L (eigentlich eine Jaguar/Puma-basierte LowPower-APU) und das eigentliche Carrizo auf dieselbe Plattform mit demselben Sockel und denselben Notebook-Mainboards gebracht hat, haben die Notebook-Hersteller dafür auch nur ein einziges Notebook-Mainboard aufgelegt – ausgerichtet an Carrizo-L mit nur einem Speichersockel, so daß der DualChannel-Betrieb selbst beim eigentlichen Carrizo gar nicht erreichbar ist.

Allerdings gehen die "Verfehlungen" der PC-Hersteller im Fall von AMD-basierten Notebooks im eigentlichen noch viel weiter: Unzureichende Auswahl bei Display-Arten, Display-Größen, Speicherbestückungen und SSD/HDD-Bestückungen sind die üblichen Kritikpunkte. Intel ist hierbei einfach durch die Masse der Angebote viel besser aufgestellt: Weil deutlich Intel-basierte Notebook verfügbar sind, findet sich auch bei detaillierter Suche nach wirklich sinnvollen Angeboten immer eine gewisse Auswahl – während sich bei AMD-basierten Notebooks die Auswahl schon nach wenigen Spezifikations-Angaben arg einschränkt und man schnell dazu gezwungen wird, irgendwelche Kompromisse einzugehen. Dabei ist das Interesse der Nutzer an AMD-basierten Notebooks klar vorhanden – und gerade im Einsteiger-Bereich ist eine AMD-APU (mit leistungsfähiger integrierter Garfiklösung) eine bessere Notebook-Befeuerung als ein Intel-Zweikerner ohne HyperThreading (oder gar Atom-basierter Intel-Prozessor) mit seinerseits schwacher integrierter Grafiklösung oder aber batteriefressender dedizierter Grafiklösung.  (Forendiskussion zum Thema)

Laut Hartware reduzieren LG & Samsung die Fertigung von 3D-Fernsehern drastisch, der Anteil an 3D-fähigen Geräten im Fernseher-Markt wird sich demzufolge bemerkbar reduzieren. Augenscheinlich haben die Fernseher-Käufer jenes Feature immer noch nicht angenommen und offensichtlich hängt dies immer noch mit den dafür benötigten Brillen zusammen – eine Argumentationslage, welche Kritiker den Fernseher-Hersteller schon seit Jahren beizubringen versuchen. Das Fernseher-Geschäft wird nun einmal stark durch den Massenmarkt getrieben – und dort sind zusätzliche Brillen einfach keine gangbare Option. Dies dürfen sich dann im übrigen auch die Vorantreiber des VR-Gamings eine Lehre sein lassen: Beim VR-Gaming kann man zwar auf eine große Enthusiasten-Gemeinde zählen, für welche extra Brillen kein Problem darstellen – aber ob man den Massenmarkt zu VR-Gaming mit Brille bekehren kann, ist in jedem Fall keine sichere Nummer. Gut möglich, das auch hier der Massenmarkt sich erst begeistern läßt, wenn sich stereoskopisches (echtes) 3D eines Tages ohne Brille realisieren läßt.

Inhalt abgleichen