11

Hardware- und Nachrichten-Links des 11. Mai 2016

In der kürzlichen Betrachtung zu nVidias GP106-Chip fehlte noch der Punkt, das diverse Kommentatoren die auf Zauba zu lesenden Liefer-Informationen dahingehenden interpretieren, das der GP106-Chip tatsächlich mit einem 256 Bit Speicherinterface antritt. So gab es einmal die Notiz "256B" und zum anderen die Notiz "256MX32" zu lesen – welche man wie gesagt dahingehend auslegen kann. Dies ist aber kein muß, weil damit kann am Ende auch sonst etwas gemeint sein. Als Hauptargument gegen ein großes 256 Bit Speicherinterface beim kleinen GP106-Chip (angeblich ~205mm² Chipfläche) gilt nach wie vor der Punkt, da nVidia in dieser Frage bislang immer arg konservativ war – die Performance-Chips von nVidia hatten bisher immer nur ein 128 oder 192 Bit Speicherinterface, selbst letzteres wurde dabei nicht immer ausgenutzt. Zudem läßt sich mehr Speicherbandbreite ja auch einfacherem Wege über die Benutzung von GDDR5X-Speicher erreichen – jene neue Speichersorte kostet zwar mehr, aber ein größeres Speicherinterface frisst Chipfläche und verursacht daher auch Mehrkosten.

All dies spricht aus prinzipiellen Gründen gegen ein 256 Bit Speicherinterface beim GP106-Chip. Dabei soll aber auch ein Pro-Argument nicht verschwiegen werden: Wie schon dargelegt, ist der GP106-Chip vergleichsweise groß für eine reine Hardware-Halbierung gegenüber dem GP104-Chip. Selbst wenn es also zu mehr Shader-Einheiten beim GP106-Chip (als eine Halbierung) kommt, wäre rein bezogen auf die Chipfläche vielleicht sogar Platz für ein größeres Speicherinterface. Ungeachtet der bisherigen nVidia-Abneigung gegenüber großen Speicherinterfaces auf Performance-Chips ist ein 256 Bit Speicherinterface auf einer Chipfläche knapp bei 200mm² durchaus realisierbar, wie AMDs Pitcairn-Chip (212mm²) der Radeon HD 7800, R9 270 und R7 370 Serien beweist. In dieser Frage taumeln die Spekulationen derzeit allesamt noch ein wenig ziellos daher – ohne konkrete Anhaltspunkte kann man sich den GP106-Chip in sehr verschiedenen Ausführungen vorstellen, von 1280 bis 1536 Shader-Einheiten, von 128 Bit bis 256 Bit Speicherinterface, mit GDDR5- oder GDDR5X-Speicher.

Speicherchip-Hersteller Micron vermeldet hierzu passend die bereits laufenden GDDR5X-Massenfertigung. Derzeit kann man wohl nur bis 2500 MHz Speichertakt gut liefern, 3000 MHz Speichertakt ist in der Erprobung und auf bis 4000 MHz Speichertakt (allesamt im QDR-Verfahren) soll die GDDR5-Entwicklung getrieben werden. Damit sollte es kein Problem darstellen, den entsprechenden Bedarf für die GeForce GTX 1080 zu decken – eventuell in den allerersten Wochen mit gewissen Lieferschwierigkeiten, aber nachfolgend sicherlich eher problemlos. Gleichzeitig macht diese Ankündigung natürlich auch den Weg frei für weitere Grafikkarten mit GDDR5X-Speicher, beispielsweise die größte GP106-Variante, sofern jene ein kleines Speicherinterface nutzt. Ob kurzfristig noch weitere neue Grafikkarten GDDR5X nutzen werden, wird sich zeigen, ist aber eher zu bezweifeln – wenn, dann muß der GDDR5X-Support beim Design des Grafikchips bereits bedacht worden sein. Die große Zeit von GDDR5X wird wohl erst in der nächsten Chip-Generation kommen, wenn alle kleineren Grafikchips (die nicht HBM nutzen) ganz automatisch auf GDDR5X gehen werden, weil dann die Herstellungskosten von GDDR5X nur noch minimal oberhalb der Herstellungskosten von GDDR5 liegen sollten und damit dramatisch mehr Speicherbandbreite zu einem geringen Aufwand erzielbar ist.

Als Weiterführung des Gedankensgangs aus den gestrigen News wollen wir uns noch einmal zur Kostenexplosion bei der Spieleentwicklung äußern: Ein hier aufsteigendes Problem liegt sicherlich auf der reinen Kostenseite, wo zumeist immer nur weiter reingebuttert wird, anstatt auf einen effizienten Mitteleinsatz zu schauen. Ein anderer Punkt liegt auch darin, da die steigenden Entwicklungskosten – jene sind letztlich seit Anbeginn der PC-Spiele am ansteigen – früher auch zumeist über eine generell höhere Einnahmensituation wieder ausgeglichen werden konnten. Doch dieser Punkt beginnt derzeit stark abzubröckeln, denn trotz das im PC- und Konsolen-Gaming weiterhin gute und steigende Zahlen geschrieben werden, sind die Zeiten des großen, sprunghaften Wachstums im Spielemarkt vorbei. Im Gegensatz zum Kinogeschäft, welches eine ernsthafte weltweite Expansion hingelegt (während in den 80er das Auslandsgeschäft für Hollywood ein glattes "Zubrot" war, kommen nun regelmäßig 2/3 der Umsätze von außerhalb der USA, dabei große Kontingente aus früher gar nicht erreichbaren Ländern wie Russland oder China), ist das Games-Geschäft eminent stark auf die westliche Welt konzentriert. Oder einfach formuliert: Es kommt zu wenig Umsatz aus den von der Anzahl der Konsumenten her sehr interessanten Schwellen- und Entwicklungsländern – ganz im Gegensatz zum Kinogeschäft, welches den Sprung in diese erfolgreich geschafft hat.

Maßgeblich für diese Zentrierung des Games-Geschäft auf die westliche Welt sind die digitalen Vertriebsplattformen – welche sich erst (wegen der damit zurückgehenden Piraterie) als Segen für die Spieleentwickler gezeigt haben, nun aber Schwierigkeiten beim weltweiten Wachstum bedeuten. Die Bereitschaft, westliche Preise für Computerspiele zu löhnen, ist wegen des völlig anderen Einkommensniveaus in den Schwellen- und Entwicklungsländern einfach viel niedriger ausgeprägt. Hollywood hat dieses Problem über (viel) günstigere Kinopreise in diesen Schwellen- und Entwicklungsländern in den Griff bekommen – und macht über die Masse der damit neu hinzugewonnenen Konsumenten dennoch glänzende Geschäfte (mancher Blockbuster bringt in China inzwischen genauso viel Umsatz wie in den USA ein). Im Spielebereich bedeutet es hingegen regelmäßig ein großes Ärgernis, wenn regional unterschiedliche Preise gemacht werden – entweder haben die Spielepublisher dann ein Problem mit Grauimporten oder aber die Spieler regen sich über die Ungleichbehandlung auf. Wenn der Markt an PC- und Konsolenspielen allerdings wirklich an dem (riesigen) Potential der Schwellen- und Entwicklungsländer teilhaben will, dann geht es wohl nur über angepasste Preise – nur jene bringen die Spieler von (überall erhältlichen) Raubkopien weg.

Shortcuts: Videocardz zeigen die neuen SLI-Bridges zur GeForce GTX 1080 und bringen diesbezüglich das Statement eines EVGA-Mitarbeiters, welcher bestätigt, das die GeForce GTX 1080 generell nur 2fach-SLI unterstützt. Höhere SLI-Formen werden dann den größeren GP102- und GP100-Chips vorbehalten bleiben. Videocardz berichten desweiteren über eine neue Beta des Info- & Test-Tools AIDA 64, welche einen Support für die GeForce GTX 1080 sowie die AMD-Chips Polaris 10 & 11 sowie Vega 10 mitbringt. Der Vega-10-Chip wird zudem in den Releae Notes klar dem früheren Greenland-Chip zugeordnet – was man auf Hinweis auf eine entsprechende Abstammung sehen kann, aber natürlich keineswegs eine sichere Aussage darstellt (da die Herkunft dieser Gleichstellung schließlich unbekannt ist). Und letztlich zeigen nochmals Videocardz ein erstes Herstellerdesign zur GeForce GTX 1080 in Form einer Galax-Karte mit DHE-Kühler samt Radiallüfter. Hierbei dürfte es sich (vom ersten Eindruck her) tatsächlich um ein Standardmodell handeln – welches dann auch das Potential hat, den Preispunkt der GeForce GTX 1080 nach unten zu drücken, respektive nVidias Prognose eines Verkaufspreises von 599 Dollar für Herstellermodelle zu erfüllen.