22

Ein möglicher Grafikspeicher der Zukunft: High Bandwith Memory (HBM)

Gerüchteweise wurde dies schon vor Monaten erwähnt, zuletzt kochten die Gerüchte dann ganz über: AMD arbeitet zweifelsfrei an "High Bandwith Memory" (HBM), um damit in Zukunft mehr Speicherbandbreite zu geringerem Stromverbrauch und sogar teilweise Einsparungen bei der Chipfläche des im Prozessor bzw. dem Grafikchip verbauten Speicherinterfaces zu erreichen. Allerdings ist dies derzeit nur definitiv für die Prozessoren-Sparte von AMD bekannt, und dort zuerst nur für professionelle Zwecke gedacht. Entsprechende Grafikchips mit HBM nimmt man zwar an, sind aber nirgendwo wirklich bestätigt worden. Nichtsdestotrotz ist dies durchaus ein Thema für zukünftige Grafikchips, will nVidia mit der 2016 zu erwartenden Pascal-Architektur schließlich bekannterweise ähnliches bieten.

Derzeit dominieren auf Grafikchips wie bekannt die Speicherinterfaces für GDDR5-Speicher, welche gewöhnlich 128 bis 512 Bit breit sind, generell im DDR-Verfahren (zwei Datenpakete pro Takt) übertragen und Speichertaktungen von derzeit 2000 bis 3500 MHz unterstützen. Dabei nimmt das Speicherinterface samt Pad-Area durchaus größere Teile des Grafikchips ein: Bei AMDs Tahiti-Chip sollen es mit seinem komplizierten 384 Bit DDR Speicherinterface 62mm² sein, das einfachere 512 Bit DDR Speicherinterface des nachfolgenden Hawaii-Chips soll dagegen nur 55mm² erreichen. Hinzu kommt der Punkt, daß das Speicherinterface durchaus als stromfressend gilt, vor allem wegen der hohen bei GDDR5-Speicher anliegenden Taktraten.

Mittels HBM werden nun vor allem diese wenig beachteten Nebenpunkte angegangen: HBM-Speicher liegt in jedem Fall in der absoluten Nähe des Grafikchips – ob man jenen an die Unterseite des Grafikchips klebt, auf den Grafikchip stappelt oder aber neben dem Grafikchip auf dasselbe Trägermaterial setzt, ist sich fast gleich. Entscheidender Punkt ist, daß durch die absolute Nähe zum Grafikchip selber deutlich breitere Interfaces möglich werden, welche allerdings mit viel geringeren Taktraten arbeiten können und damit viel einfacher ausfallen als ein GDDR5-Speicherinterface.

Ein HBM-Speicherinterface arbeitet üblicherweise mit einer Breite von 1024 Bit DDR pro Speicherstack, dafür aber Taktraten von nur 500 MHz (oder etwas mehr). Da die kleinste Speichermenge eines HBM-Speicherstacks derzeit bei 1 GB liegt, würde man für eine moderne HighEnd-Grafikkarte mit HBM angenommen 4 GB Speicher und demzufolge ein 4096 Bit DDR HBM-Speicherinterface benutzen. Dabei käme eine Bandbreite von immerhin 512 GB/sec heraus – deutlich mehr als mit einem auf 2500 MHz arbeitendem 512 Bit DDR GDDR5-Speicherinterface wie bei AMDs Radeon R9 290X (320 GB/sec) oder einem auf 3500 MHz arbeitendem 384 Bit DDR GDDR5-Speicherinterface wie bei nVidias GeForce GTX 780 Ti (336 GB/sec).

GDDR5-Speicherinterface HBM-Speicherinterface
Interface-Breite 384 oder 512 Bit DDR 4096 Bit DDR
Speichertakt bis 3500 MHz 500 MHz
Speicherbandbreite 336 GB/sec
(3500 MHz @ 384 Bit DDR)
512 GB/sec
Flächenbedarf Richtung 62mm² (AMD Tahiti) oder 55mm² (AMD Hawaii) ~15mm²
Vorteile - höhere Speicherbandbreite
geringere Chipfläche
geringerer Stromverbrauch
Verfügbarkeit jetzt Grafikchips des Jahres 2016 (?)

Dabei liegen die Vorteile noch nicht einmal nur in der höheren Speicherbandbreite: Erstens einmal sinkt der Flächenbedarf des HBM-Speicherinterfaces, kann der gesamte Grafikchip also etwas kleiner werden. Man kann grob damit rechnen, daß ein 4096 Bit DDR HBM-Speicherinterface ungefähr nur einen Flächenbedarf von 15mm² aufweist. Im Fall von HighEnd-Grafikchips mit 384 oder 512 Bit DDR GDDR5-Speicherinterfaces könnte man durch die Verwendung eines HBM-Speicherinterfaces somit runde 40-45mm² Chipfläche einsparen (ca. 8-11% der gesamten Chipfläche) – welche dann natürlich für andere Hardware-Einheiten zur Verfügung stehen würde.

Zweitens sinkt der Strombedarf für das benutzte Speicherinterface maßgeblich ab, da das HBM-Speicherinterface durch den niedrigen Takt wesentlich einfacher ausfallen kann, die ganzen üblicherweise bei einem GDDR5-Speicherinterface benötigten Treiber-Transistoren wegfallen können. Leider gibt es derzeit noch keine solide Aussage, wieviel dies an Stromersparnis einbringt – aber eingerechnet, daß das Speicherinterface einen bedeutsamen Teil heutiger Grafikchips ausmacht, dürfte dieser Punkt auch nicht zu unterschätzen sein. Der hierbei eingesparbare Stromverbrauch eines Grafikchips mit HBM-Speicherinterface wird man insbesondere im HighEnd-Segment zu schätzen wissen, wo Grafikchips oftmals bei ihren Boost-Modi an den TDP-Vorgaben der Grafikchip-Entwickler hängen.

In der Summe erscheint High Bandwith Memory auch für Grafikchips als hochinteressant, kann man damit durchaus eine weitere Evolutionsstufe der Grafikchip-Entwicklung erreichen. So oder so wird Grafikspeicher direkt auf dem Grafikchip oder wenigstens auf dem Grafikchip-Trägermaterial in Zukunft anstehen. Die Frage ist nur noch, welche Technologie hier genau das Rennen machen wird – wobei HBM durchaus einen großen Vorteil hat, da es von der JEDEC spezifiziert wurde und bei Hynix seit diesem Quartal sogar schon als lieferbar bezeichnet wird. Ob die Grafikchip-Entwickler allerdings so schnell mitspielen, ist eine ganz andere Frage: Für die kommende Grafikchip-Generation ist der Einsatz von HBM noch eher unwahrscheinlich, da jenes derzeit die Kosten zu sehr in die Höhe treiben würde. Im Zeitrahmen 2016 darf man allerdings auf HBM oder eine ähnliche Speichertechnologie bei Grafikchips hoffen.

Nachtrag vom 30. September 2014

Videocardz zeigen eine "High Bandwidth Memory" Präsentation seitens Speicherchiphersteller Hynix, mittels welcher jener Werbung für diesen zukünfigen Grafikkarten-Speicher machen will. Die Präsentation ist vom Juli 2014 und gibt Ende 2014 als Marktstart für HBM an – aber dies ist natürlich nur der Zeitpunkt, wo Hynix liefern könnte, nicht der Zeitpunkt, wo entsprechend ausgerüstete Grafikkarten in den Markt kommen. Denn wie schon vor einiger Zeit an dieser Stelle dargelegt, bedingt HBM ein völlig neues Speicherinterface im Grafikchip – ergo wird es HBM auch nur bei neu designten Grafikchips geben, was dann üblicherweise seine Zeit braucht. Die Präsentation von Hynix sowie die Ausführungen von Videocardz sind im übrigen nicht wirklich klar bezüglich der eigentlichen Vorteile von HBM, auch hier ist unsere frühere Meldung zu empfehlen: Ein HBM-Interface verbraucht für die gleiche Speicherbandbreite einfach viel weniger Platz auf dem Grafikchip und spart auch noch maßgeblich an Strom – dies können durchaus 50 bis 80 Watt weniger sein, die man dann an anderer Stelle verbraten kann.

Zudem ergibt sich natürlich auch die Möglichkeit, mit demselben Flächenbedarf zukünftigen Grafikkarten-Generationen wesentlich mehr Speicherbandbreite zu spendieren als es derzeit üblich ist – dies wäre mit GDDR5-Speicher nur mit extrem platz- und stromfressenden Speicherinterfaces möglich, was dann irgendwo limitiert ist. HBM ist also nicht wirklich bezüglich der Speichersorte interessant, sondern eigentlich nur wegen der wesentlich effizienteren Interfaces. Der Speicher selber könnte zudem wegen seiner relativ niedrigen Taktraten (erste Ausbaustufe 500 MHz, derzeit sind Taktraten bis 1000 MHz in Arbeit) wohl auch nicht all zu teuer kommen, möglicherweise sogar günstiger ausfallen als GDDR5-Speicher, welcher immerhin Taktraten von bis zu 3500 MHz aufbringen muß. Speziell für die Grafikchip-Entwickler ist das ganze auch deswegen interessant, weil HBM natürlich nahe dem Grafikchip auf demselben Trägermaterial untergebracht wird, damit also im ganzen an die Grafikkarten-Hersteller geliefert wird und somit auch im ganzen durch die Bücher geht (aka den Wert der Grafikchips erhöht und damit ein Umsatzplus ergibt).