5

Hardware- und Nachrichten-Links des 4./5. Oktober 2014

Eine neue Eskalationsstufe im Ringen um das Presse-Leistungsschutzrecht wird sich in der neuen Woche ergeben, wenn Google ab dem 9. Oktober die in der Verwertungsgesellschaft VG Media organisierten Angebote in seiner Suchmaschine in der Darstellung beschneiden wird – es werden keine Vorschaubilder und keine Thumbnails mehr angezeigt, sondern nur noch der Link selber samt der Artikelüberschrift. Dabei dürfte das ganze vermutlich nach dem Regional-Prinzip laufen, sprich nur Surfer aus Deutschland werden betroffen sein, für alle anderen Nutzer dürfte es keine Auswirkungen geben. Hierbei handelt es sich in dem Sinne um eine klare Folge der Rechtsunsicherheit, welche sich mit dem Leistungsschutzrecht ergibt: Zwar erlaubt jenes die Verwendung "kleinste Ausschnitte", da aber nicht klar ist, was man darunter verstehen soll, geht Google den sicherstmöglichen Weg – und selbst dieser ist nicht "final sicher", da es durchaus auch Stimmen gibt, welche selbst eine Überschrift noch innerhalb dieser "kleinste Ausschnitte" einordnen wollen. Google geht hier aber einen Kompromiß ein, da die völlige Auslistung auch wieder ein Problem wäre wegen der marktdominierenden Stellung der Google-Suchmaschine zumindest in Deutschland.

Die alleinige Nennung von Überschrift und Link behindert die Verlagsangebote in der Google-Suchmaschinen nun auch nicht gravierend, an der Listenposition ändert sich schließlich nichts – nur optisch wird das ganze halt nicht mehr so ansprechend aussehen. Die VG Media spuckt trotzdem schon Gift und Galle, respektive spricht von einer Erpressung durch Google – dabei trat eigentlich nur das zu erwartende ein: Wer von Google Geld für die Listung haben will, fliegt raus. Dieser Punkt war unabhängig davon, wo man in diesem Streit steht, lange vorher schon erkennbar. Davon abgesehen kann man durchaus argumentieren, daß momentan die VG Media in der Erpresserposition steht – man will die Listung und man will Geld dafür. Dabei ist das Gesetz zum Leistungsschutzrecht laut Stefan Niggemeier jedoch keine Hilfe: Jenes gibt den Rechtinhabern keinen direkten Vergütungsanspruch, sondern eigentlich nur einen Unterlassungsanspruch – sprich, Rechteinhaber und Suchmaschine dürfen sich gern einigen, aber ein Anspruch besteht nur auf die Nichtlistung. So wie es Google nun (in stark abgeschwächter Form) tun wird ;)

Noch ein Rechteinhaber am Rad drehend gibt es im Fall von "The Expendables 3", welcher vor Kinostart in einer qualitativ hochwertigen Kopie in Filesharing-Netzwerken verteilt wurde und zu welchem nun die Rechteinhaber eine große Abmahnungs-Kampagne lostreten wollen. Laut der PC Games Hardware spricht man von einem Einnahmeverlust von satten 250 Millionen Dollar – eine seltsame Rechnung, nachdem der erste Teil der Serie weltweit 274 Millionen Dollar einnahm, der zweite Teil bei 305 Millionen Dollar herauskam, und der dritte (teilweise noch laufend) nunmehr bei 203 Millionen Dollar steht. Sicherlich ist hier ein gewisser Einnahmeverlust zu erkennen, jener läßt sich aber auch mit der schwachen Qualität des letzten Teils dieser Filmserie erklären. Ein ernsthafter Verlust von 250 Millionen Dollar ist da schwerlich herauszurechnen – was die Rechteinhaber nicht daran hindert, genau dies zu behaupten und nachfolgend mit immerhin 10 Millionen geplanter Abmahnungen allein in den USA (!) auch durchzusetzen versuchen. Ob dabei wirklich etwas herauskommt, bliebe abzuwarten – und wie immer bei derart großen Fällen ergibt sich immer auch die Chance für neue Urteile, welche nicht nur den Einzelfall, sondern das Gesamtbild neu bewerten.

Eine (nahezu) kleine Anekdote zu Apples Bentgate zeigt an, wie problematisch das Verhältnis Presse zu Hersteller in vielen Bereichen ist, auch im Bereich der PC-Hardware sind die Verhältnisse leider nicht grundlegend anders. Denn wie WinFuture ausführen, hatte sich die Computer-BILD – auch nicht unbedingt bekannt als Hort der großen Hersteller-Unabhängigkeit – doch erdreistet, ein Bentgate-Video (der unerwarteten Verbieg-"Fähigkeit" von Apples neuem iPhone 6) aufzunehmen und dem ansonsten überschwänglich lobenden iPhone-6-Testbericht hinzuzufügen. Apple fand hier wohl die Aufgabe der Presse als Hofberichtserstattungs-Maschine für Industrie & Regierungen nicht erfüllt und gab der Computer-BILD nachfolgend zu verstehen, daß man jene ab sofort nicht mehr mit Testgeräten beliefern sowie nicht mehr auf Apple-Events einladen wird. Nicht direkt erwähnt, aber meistens hintenrum kommt dann auch noch der Punkt, daß zukünftig etwaige Werbeschaltungen ausbleiben werden.

Nun ist dies im konkreten Fall von Apple als auch der Computer-BILD doch zu verschmerzen, generell gesprochen zeigt sich hier aber nur das Problem, daß die Hersteller letztlich die Presse eben mittels Stellung von Testgerätschaften, Event-Einladungen und Werbeschaltungen an der Leine hat – und je kleiner das jeweilige Presseangebot ist, man sich nicht wie die Computer-BILD einen solchen "Liebesentzug" leisten kann. Wer mit den Herstellern direkt zusammenarbeitet, muß leider Kompromisse eingehen – meistens gangbare Kompromisse, meistens ohne ernsthafte Beeinträchtigung bei der Berichterstattung, aber eben dennoch nicht gänzlich frei von irgendwelchen Einflüssen, so wie es eigentlich die Presse sein sollte. Insbesondere ein Presseangebot, welches durchgehend eisenhart kritisch agieren wollte, ist somit kaum aufstellbar, weil man es sich unmöglich mit allen Herstellern gleichzeitig verscherzen kann. Eine wirklich freie Presse im ursprünglichen Sinne des Gedankens ist somit gar nicht möglich – auch wenn die aktuell erreichten Kompromisse bis auf solche Einzelfälle durchaus gangbar sind.

5 5

Welches Seitenverhältnis hat der Monitor?

In der heutigen Zeit sollte eigentlich alles längst streng auf dem 16:9-Seitenverhältnis unterwegs sein, da die Hersteller nur selten noch etwas anderes anbieten. Trotzdem ergeben sich in der Praxis dann doch hier und da andere Seitenverhältnisse – sei es durch Altgeräte oder Sonderwünsche für bestimmte Anwendungszwecke. Diese Umfrage versucht herauszufinden, welche Seitenverhältnisse derzeit populär sind. Wie üblich gilt bei einer gerätebezogenen Umfrage, daß man von verschiedenen Geräten (erster & zweiter Desktop-Rechner, erstes & zweites Notebook, etc.) aus auch entsprechend mehrfach abstimmen kann.

5:4
2% (60 Stimmen)
4:3
4% (128 Stimmen)
16:10
41% (1303 Stimmen)
16:9
49% (1567 Stimmen)
21:9
4% (112 Stimmen)
etwas anderes
1% (25 Stimmen)
Gesamte Stimmen: 3195
5

Neuer 3DTester-Report: Toshibas "Wireless and Wearables 2014" zeigt TransferJet

Sprichwörtlich im Herzen von München im Heart, hat Toshiba zu einem Presse-Event geladen. Wie man der Einladung entnehmen kann, geht es um Toshibas Visionen der Zukunft. Dass klingt zwar etwas hochtrabend, aber wenn ein solch großer Hersteller bereitwillig über zukünftigen Produkte und Entwicklungen sprechen will, dann lässt man sich diese Gelegenheit nicht entgehen ... zum Report.

Toshibas "Wireless and Wearables 2014" zeigt TransferJet Toshibas "Wireless and Wearables 2014" zeigt TransferJet
3

Hardware- und Nachrichten-Links des 2./3. Oktober 2014

Gemäß Microsoft wird Windows 10 DirectX 12 mit sich bringen. Weitere Aussagen zum DirectX-12-Support früherer Microsoft-Betriebssysteme sowie was mit DirectX 11.3 sein wird, wurden leider nicht gemacht. Im Endeffekt deutet sich allerdings an, daß DirectX 12 als Zugpferd für das neue Microsoft-Betriebssystem mißbraucht werden und damit nur unter Windows 10 zur Verfügung stehen wird. DirectX 11.3 wird wahrscheinlich dagegen die Kompromißlösung gegenüber den Grafikchip-Entwicklern darstellen: Es enthält all die neuen Hardware-Features von DirectX 12, aber nicht die Mantle-artige CPU-Beschleuniger von DirectX 12. Übertragenerweise ist DirectX 11.3 einfach eine etwas langsamere Ausführung von DirectX 12, wird aber dafür auch unter älteren Microsoft-Betriebssystemen zur Verfügung stehen. Sicher dürfte es DirectX-11.3-Support für Windows 8.1 geben – ob Microsoft sich auch zu einem Support von Windows 7 herabläßt, bliebe abzuwarten.

Wieder einmal sehr schwankende Werte zur Betriebssystem-Verbreitung kommen von Netmarketshare: Denn nach einem kurzen Hoch zum vorletzten Monat ist Windows 8/8.1 im September erneut gefallen im Nutzerzuspruch – von 13,4% auf nur 12,3%. Selbst Windows Vista lief seinerzeit nicht so schlecht, sondern konnte bis zu seiner Ablösung durch Windows 7 jeden Monat leicht hinzugewinnen. Da alle neuen PCs automatisch mit Windows 8 ausgeliefert werden, kann diese Statistik – welche ja auch durch den langmonatigen Trend unterstützt wird – nur damit erklärt werden, daß jeden Monat eine ernsthafte Zahl von Nutzern ihr Windows 8 gegen ein Windows 7 eintauscht. Wäre es nicht so, müsste Windows 8 allein durch die Anzahl an neu gekauften PCs jeden Monat geringfügig, aber langfristig klar meßbar zulegen können. Windows XP blieb hingegen im September stabil bei weiterhin 23,9%, während Windows 7 das hinzugewann, was Windows 8 verlor – von 51,2% auf 52,7% hinauf.

Vom Elektroniknet kommt ein sehr interessanter Artikel zur Arbeit der Chiphersteller an FinFET-Transistoren, sprich 3D-Transistoren. Bei Intel werden jene ab der 22nm-Fertigung eingesetzt, bei TSMC ab der kommenden 16nm-Fertigung und bei GlobalFoundries sowie Samsung ab der kommenden 14nm-Fertigung. Dabei sind die ersten Ergebnisse bezüglich höheren Taktfrequenzen oder aber niedrigerem Stromverbrauch vielversprechend – allerdings sinkt bei den Chipdesigns von GlobalFoundries und TSMC nicht, wie ansonsten üblich, die Chipfläche erheblich ab. Für viele Anwendungszwecke ist dies vernachlässigbar (wenngleich es natürlich trotzdem eine wirtschaftliche Größe bleibt), aber für die Ansprüche der Grafikchip-Entwickler war dies bisher unverzichtbar: Da die Grafikchip-Entwickler mit der Chipfläche ihrer Spitzen-Produkten regelmäßig an der Grenze des Herstellbaren lagen, konnte eine (wirkliche) neue Generation immer nur dann erscheinen, wenn ein neues Fertigungsverfahren diesen Platzbedarf reduziert und damit Platz für mehr Hardware-Einheiten schuf.

Dies scheint nun aber mit 14/16nm nicht mehr zu gelingen – wenigstens von 20nm ausgesehen. Gegenüber 28nm liegt allerdings nach wie vor ein großer Sprung vor – nur entspricht jener eher nur einer Fertigungsstufe, nicht zweien, wie man es zwischen 28nm und 14/16nm ansonsten vermuten würde. Im Endeffekt wird es im Grafikchip-Bereich wohl so werden, als wäre 20nm nicht existent und nach 28nm käme ganz natürlich die 14/16nm-Fertigung. Selbst warum 20nm von den Grafikchip-Entwicklern augenscheinlich ausgelassen wird, erklärt sich über den Artikel: Der einzige große Vorteil von 20nm liegt im (geringeren) Flächenbedarf, nicht aber in bemerkbar mehr Performance pro Watt. Jenen Flächenbedarfs-Vorteil kann man jedoch kaum umsetzen, da durch die höheren Fertigungskosten von 20nm das ganze letztlich nicht günstiger kommt als die größeren 28nm-Chips. Eventuell ist der eine oder andere Monsterchip unter 20nm drin, welcher unter 28nm von der Fläche her einfach nicht herstellbar wäre – aber ein komplettes Portfolio von Grafikchips ist unter 28nm weiterhin besser aufgehoben als unter 20nm.

In einem Nebensatz vermeldet das ZDNet beiläufig, daß zu den Abnehmern von Samsungs 14nm-Fertigung auch AMD gehören wird – eine überraschende Meldung, denn AMD hat mit GlobalFoundries (samt Mindestabnahme-Abkommen) und TSMC eigentlich schon zwei Fertigungspartner. Gerade das Wafermindestabnahme-Abkommen mit GlobalFoundries, welches AMD letztes Jahr nicht einhalten konnte und daher Strafzahlungen in dreistelliger Millionenhöhe leisten musste, sollte eigentlich effektiv weitere Fertigungspartern bei AMD verhindern. Aber möglicherweise ist dies alles auch nur in den falschen Hals geraten und die eigentliche Meldung lautet, daß AMD Produkte in Samsungs 14nm-Fertigungstechnologie herstellen lassen wird – allerdings nicht bei Samsung selber, sondern bei GlobalFoundries, welche die 14nm-Fertigung von Samsung zugunsten eigener 14nm-Anstrengungen lizenziert haben. Vor einer Bestätigung seitens AMD ist diese Meldung sicherlich sehr vorsichtig zu behandeln.

Mit ähnlicher Zurückhaltung ist zudem eine Meldung von Business Wire über eine Vereinbarung zwischen TSMC und ARM zur 10nm-Fertigung zu sehen. Die Vereinbarung selber ist natürlich nicht zweifelhaft, aber die indirekten Terminversprechungen zur 10nm-Fertigung sind es schon: So will TSMC bereits im vierten Quartal 2015 erste Tape-Outs von 10nm-Chips ermöglichen. Dies ist ein extrem ambitionierter Termin, denn wahrscheinlich dürfte TSMC derzeit intern noch nicht einmal wissen, wie man 10nm außerhalb des Labor-Betriebs herstellen kann. Andererseits sind die Terminangaben der Auftragsfertiger immer auch eine Mischung aus purem Optimimus, Marketing-Versprechungen und vor allem der Negierung der zeitlichen Differenz zwischen Risk-Fertigung für Kleinserien und der regulären Massenfertigung. Im Fall von TSMCs 10nm-Fertigung gehen wir derzeit weiterhin von kaufbaren Produkten mit 10nm-Chips nicht vor dem Jahr 2018 aus.

3

Nachträge zu GeForce GTX 970 & 980: Reale Taktraten und Power-Limits

Es hat etwas gedauert, aber das Warten lohnt sich immer auf den HT4U Testbericht zu den neuen Maxwell-Grafikkarten GeForce GTX 970 & 980. Verschiedene Messungen und Vorgehensweisen findet man (leider) nur bei HT4U, gerade was die Beurteilung von realer Leistungsaufnahme, realen Taktraten sowie BIOS-Limits für Temperatur und Stromverbrauch angeht. Als erstes konnten so die bisherigen Aussagen zur real anliegenden Taktrate bei der GeForce GTX 980 im Referenzdesign bestätigt werden: Die ComputerBase kam hierbei auf Ø 1144 MHz im geschlossenen Gehäuse nach Aufwärmphase, Hardwareluxx ohne solche Maßnahmen auf Ø 1186 MHz – und HT4U nunmehr auf Ø 1130 MHz, ebenfalls im geschlossenen Gehäuse nach Aufwärmphase.

GeForce GTX 980
Referenz-Takt 1126/1216/3500 MHz
realer Takt laut ComputerBase Ø 1144 MHz geschlossenes Gehäuse, Takt nach 20 Minuten, Schnitt aus 16 Spielen
realer Takt laut Hardwareluxx Ø 1186 MHz Schnitt aus 8 Spielen
realer Takt laut HT4U Ø 1130 MHz geschlossenes Gehäuse, Takt nach 5 Minuten, Schnitt aus 11 Spielen

Diesbezügliche Angaben zur GeForce GTX 970 sind nach wie vor Mangelware, da es faktisch kein frei verkäufliches Referenzdesign dieser Karte gibt und die Hersteller-Varianten in aller Regel ab Werk mit anderen Stromverbrauchs-Limits antreten. Allerdings scheint es fast so, als würden die "halbwegs normalen" Herstellervarianten zur GeForce GTX 970 irgendwo den von nVidia angegebenen Boost-Takt (von 1178 MHz) erreichen – dies wäre dann sogar etwas mehr als bei der GeForce GTX 980. Die vielen gut übertakteten Hersteller-Varianten zur GeForce GTX 970 erreichen dagegen bekannterweise spielend reale Taktraten von 1200 MHz und mehr.

Die zweite wichtige Information aus dem HT4U-Testbericht bezieht sich auf die realen Power-Limits der beiden neuen nVidia-Karten – ein Punkt, der extrem interessant ist zur Beurteilung von ab Werk übertakteten Varianten (höheres Power-Limit bedeutet in den Zeiten von Boost-Taktraten bessere Übertaktungsfähigkeiten), von den meisten Testberichten jedoch unverständlicherweise nicht beantwortet wird. Die GeForce GTX 980 im Referenzdesign riegelt dabei bei 180 Watt ab und besitzt ein Erhöhungspotential von +25%, die GeForce GTX 970 im (wie gesagt recht zahmen) Inno3D-Design riegelt bei 160 Watt ab und besitzt ein Erhöhungspotential von nur +6%. Ganz nebenbei gesagt liegen diese Abriegelungspunkte im übrigen klar oberhalb der TDP-Angaben von 165W bzw. 145W, an dieser Stelle versucht nVidia (unverständlicherweise) zu schummeln. Dies erscheint angesichts der trotzdem hervorragenden Energieeffizienz von GeForce GTX 970 & 980 als vollkommen unnötig.

GeForce GTX 970 GeForce GTX 980
Referenz Hersteller Referenz Hersteller
Taktraten 1050/1178/3500 MHz je nach Modell 1088/1228/3500 bis 1216/1367/3500 MHz 1126/1216/3500 MHz je nach Modell 1178/1279/3500 bis 1291/1393/3600 MHz
realer Takt ~1178 MHz die Hersteller-Karten halten in aller Regel ihren Boost-Takt ~1144 MHz die Hersteller-Karten halten in aller Regel ihren Boost-Takt
Power-Limit 150W je nach Modell bis zu ~250W 180W je nach Modell bis zu ~300W
Power-Erhöhung +6% je nach Modell bis zu +20% +25% ?
Spiele-Stromverbrauch ~150W je nach Modell bis zu ~185 Watt ~180W je nach Modell bis zu ~200 Watt
TDP 145 Watt 165 Watt

Wenn irgendwo Stromverbrauchsmessungen von Hersteller-Varianten einen deutlich höheren Stromverbrauch aufzeigen, so dürften bei den dort gemessenen Karten dann das Power-Limit seitens des Herstellers entsprechend erhöht worden sein. Darüber erklären sich auch die teilweise monströs hohen Stromverbrauchs-Messungen bei Tom's Hardware, wo eine GeForce GTX 980 im Gigabyte-Design in einem GPGPU-Test auch mal bei satten 280 Watt Leistungsaufnahme herauskam. Die Karte dürfte schlicht ab Werk über ein deutlich nach oben gesetztes Power-Limit verfügen – im konkreten Fall ein Power-Limit Richtung 300 Watt, was erneut wenig zur von nVidia angegebenen TDP passt. In jedem Fall ergeben sich zwischen Referenz- und Herstellerdesigns erhebliche Differenzen beim Stromverbrauch und auch den Power-Limits. Gerade für echte Übertakter sind die Hersteller-Karten somit sehr sinnvoll – weniger wegen der höheren Taktraten ab Werk, sondern wegen des automatisch höheren Power-Limits sowie des sich damit auftuenden größeren Stromverbrauchs-Spielraums. Eine gut übertaktete GeForce GTX 980 wird dann aber natürlich kaum noch unter 200 Watt laufen, der ganz große Energieeffizienz-Vorteil geht da schnell flöten.

2

Was man mit High Bandwith Memory anfangen kann

Da man sich zum Fall "High Bandwith Memory" (HBM) immer noch mehrheitlich an den eher technischen Angaben der Hynix-Präsentation aufhält, welche zwar viel über Bandbreiten per Speicherchip und ähnliches sagt, aber wenig zu den Realitäten eines Grafikchips, sei hiermit die nachfolgende Modellrechnung aufgemacht: Für eine Grafikkarte mit 4 GB Speicher benötigt man in der ersten HBM-Generation vier HBM-Stacks mit jeweils 1 GB Speicher und jeweils 1024 Bit DDR Speicherinterface. Auf dem Grafikchip selber würde dann ein 4096 Bit DDR Speicherinterface arbeiten, welches mit 500 MHz DDR betrieben wird und somit auf eine Speicherbandbreite von 512 GB/sec kommt.

Will man dagegen gleich 8 GB Speicher haben, gibt es mehrere Wege: Zum einen ermöglicht die zweite HBM-Generation eine höhere Speicherdichte pro Stack, dies wäre die einfachste Lösung: Benutzt werden hierbei zwei HBM-Stacks der zweiten HBM-Generation mit jeweils 4 GB Speicher und jeweils 1024 Bit DDR Speicherinterface. Auf dem Grafikchip selber würde dann ein 2048 Bit DDR Speicherinterface existieren, welches allerdings mit 1000 MHz DDR betrieben wird und somit wieder auf eine Speicherbandbreite von 512 GB/sec kommt. Da in der zweiten HBM-Generation auch 8 GB pro HBM-Stack möglich sein werden, wäre auch eine Lösung mit nur einem HBM-Stack mit gleich 8 GB Speicher anwendbar. Durch das kleinere Interfaces des Grafikchips (1024 Bit DDR, da nur ein HBM-Stack) sänke in diesem Modell die Speicherbandbreite aber auf 256 GB/sec ab.

Man kann für 8 GB Speicher allerdings auch noch völlig anders herangehen, gerade wenn die zweite HBM-Generation noch nicht zur Verfügung stehen würde: In diesem Fall benutzt man einfach acht HBM-Stacks der ersten HBM-Generation. Dies würde auf Seiten des Grafikchips zu einem imposanten 8192 Bit DDR Speicherinterface zwingen und damit natürlich die Speicherbandbreite ebenfalls verdoppeln – auf dann 1024 GB/sec schon in der ersten HBM-Generation. Trotzdem bliebe jenes große Speicherinterface immer noch im Flächenbedarf sowie im Stromverbrauch weit unterhalb der Werte eines herkömmlichen GDDR5-Speicherinterfaces.

GDDR5 erste HBM-Generation zweite HBM-Generation
4/8 GB 4 GB 8 GB 4/8 GB 8/16 GB 16/32 GB
HBM-Stacks - 4 8 1 2 4
Speichertakt 2750 MHz 500 MHz DDR 1000 MHz DDR
GPU-Interface 512 Bit DDR 4096 Bit DDR 8192 Bit DDR 1024 Bit DDR 2048 Bit DDR 4096 Bit DDR
Speicherbandbreite 320 GB/sec 512 GB/sec 1024 GB/sec 256 GB/sec 512 GB/sec 1024 GB/sec
Platzbedarf GPU-Interface ~55mm²
(AMD Hawaii)
~15mm² ~30mm² ~5mm² ~10mm² ~15mm²
Stromverbrauch bei HBM verbrauchen GPU-Interface und Speicherchips zusammen ca. 50-80 Watt weniger als bei GDDR5

Allerdings ergibt sich hieraus auch schon eine gewisse Problematik: Zumindest die erste HBM-Generation ist sehr unflexibel bezüglich der verbauten Speichermengen – zu einer bestimmten Speichergröße gehört immer ein entsprechend großes Interface und damit eine festgelegte Speicherbandbreite. Aus heutiger Sicht mögen sich 512 GB/sec Speicherbandbreite für 4 GB Speicher großartig anhören, doch wenn HBM wohl erst mit einer neuen Grafikchip-Generation im Jahr 2016 antritt, werden 4 GB Speicher wohl deutlich zu wenig sein – und 8 GB Speicher erfordern in der ersten HBM-Generation größere Interfaces. Damit verdoppelt man nochmals die Speicherbandbreite – aber es ist fraglich, ob 1024 GB/sec Speicherbandbreite schon im Jahr 2016 gewollt bzw. seitens der Grafikchip überhaupt sinnvoll ausnutzbar sind.

HBM scheint erst mit der zweiten Generation richtig praktikabel zu werden, wo deutlich weniger HBM-Stacks benötigt werden, dafür eine gewisse Flexibilität bezüglich der Speichermenge existiert und durch die höheren Taktraten auch kleinere Interfaces gute Speicherbandbreiten ergeben. Erst mit der zweiten HBM-Generation wird jene Abstufung an Speicherbandbreite und Speicherkapazität möglich, welche für ein komplettes Portfolio an HBM-unterstützenden Grafikkarten notwendig ist. Dies muß die Grafikchip-Entwickler natürlich nicht davon abhalten, im Jahr 2015 vielleicht einen einzelnen HBM-unterstützenden Grafikchip für das HighEnd-Segment vorzuschicken, dafür ist die erste HBM-Generation durchaus verwendbar. Aber der große Schwung an HBM-unterstützenden Grafikkarten kommt wohl erst mit der zweiten HBM-Generation.

Inhalt abgleichen