12

Hardware- und Nachrichten-Links des 12. Mai 2016

TweakPC berichten über Gerüchte, GeForce GTX 1080 Karten würden unter Overclocking Chiptaktraten von 2400 bis 2500 MHz erreichen können – was nach den vergleichsweise hohen Referenz-Taktraten der GeForce GTX 1080 von 1607/1733/2500 MHz eine zweite Überraschung wäre. Als Untermauerung zur These über diese besonders hohen Taktraten wird gern auf die bei Epic im Einsatz befindliche Karte verwiesen, welche es unter Luftkühlung bis auf 2114 MHz schaffte. Ob man allerdings einen einzelnen Takt-Wert aus einer Spiele-Demo wirklich als Grundlage dafür nehmen kann, über nochmals viel höhere Taktraten zu spekulieren, erscheint uns als eher zweifelhaft. Es sei daran erinnert, das die 14/16nm-Fertigung vorab als eher hakelig betrachtet wurde, wenn es um größere Varianzen bei der Taktfrequenz ging – sprich, nichts gegen hohe Taktraten, aber über den Referenztakt hinaus sollten die Übertaktungsreserven geringer ausfallen. nVidias Pascal-Chips gehen nun ganz in eine andere Richtung, nVidia hat sich augenscheinlich bewußt für ein Hochtakt-Design entschieden. Trotzdem ist die grundsätzliche Charakteristik der 14/16nm-Fertigung damit nicht aus der Welt – und könnte eventuell dann doch in Form nicht ganz so großartiger Übertaktungsergebnisse zurückschlagen.

Lange Rede, kurzer Sinn: Derzeit lohnt es kaum, sich über solche Punkte spekulative Gedanken zu machen – gerade nicht, wenn es schon nächste Woche (Dienstag den 17. Mai 2016) die Launchtests zur GeForce GTX 1080 geben wird, welche diese Punkte dann sicherlich umfassend erklären und analysieren werden. Bei dieser Gelegenheit sind die Hardwaretester gleich einmal daran erinnert, sich mit dem konkret anliegendem PowerLimit und dessen Auswirkungen zu beschäftigen: Denn egal wie weit die Grafikchips wirklich taktbar wären – wenn das PowerLimit vorher beim Erreichen einer eingestellten Stromverbrauchs-Grenze abriegelt, dann bestimmt nicht die Chipqualität, sondern eben jenes PowerLimit die Overclocking-Eignung der jeweiligen Grafikkarte. Wichtig ist hierbei auch, wie hoch sich das PowerLimit mittels Treiber oder Dritttools beeinflußen respektive hochsetzen läßt – oder ob man am Ende zu angepassten BIOS-Versionen greifen muß, um diese Schranke zu überwinden.

Die PC Games Hardware hat hingegen bei nVidia nachgehakt, was man dort bei der "Founders Edition" zu GeForce GTX 1070 & 1080 nun wirklich anders macht gegenüber früheren Referenzdesigns. nVidia hat hierbei tatsächlich einen höheren Einsatz gebracht – die Frage ist nur, ob man dies nicht sowieso gemacht hätte, auch wenn man sich weiterhin "Referenzdesign" nennen würde. Das Ziel von nVidia bei der "Founders Edition" lag jedoch augenscheinlich eher darin, eine Karte für die nVidia-Direktabnehmer zu schaffen, welche eine möglichst lange Lieferfähigkeit hat – und nicht wie die Herstellerkarten je nach konkretem Markterfolg und nachfolgenden neuen Grafikchips auch mal ganz kurzfristig wieder aus dem Angebotsportfolio verschwinden kann. In diesem Sinne hat man dann natürlich auf eher sehr hochwertige Bauteile geachtet, weil jene nVidia-Direktabnehmer augenscheinlich nicht auf die letzten 50-100 Dollar Preisvorteil schauen.

So gesehen erklärt sich die "Founders Edition" nunmehr viel besser – nVidia hat nur den Fehler begangen, jene ohne echte Erklärung zu bringen und dann auch erst viel zu spät mit den richtigen Erklärungen herauszurücken. Praktisch hätte man sagen müssen, das es gar keine Referenzdesigns mehr gibt, nVidia hingegen eine sinngemäße LTS-Version (LTS = "Long Time Support", ein Begriff eher aus der Welt der Betriebssysteme) auflegt, welche primär für nVidias Direktabnehmer gedacht ist. Möglicherweise wäre man auch besser beraten gewesen, den offiziellen Grafikkarten-Launch lieber zwei Wochen später zu veranstalten, wenn die Grafikkarten-Hersteller ihre Eigendesigns vorlegen können und somit deren Preispunkt das Marktgeschehen bestimmt. Nun aber gibt es zum Verkaufsstart eben nur nVidias "Founders Edition" zu den bekannt hohen Preispunkten – und die reine Hoffnung darauf, das die nachfolgenden Herstellermodelle auch wirklich nVidias niedrigere Preisvorgaben für selbige erreichen können. PS: Die "Founders Edition" wird auch in Europa nicht nur von den einzelnen Grafikkarten-Herstellern verfügbar werden, sondern auch bei nVidia direkt – und kann somit ab 27. Mai über nVidia.com bestellt werden.

Nachdem nVidia sich mit dem Pascal-Chip GP104 schon ziemlich offenbart hat, wartet natürlich alle Welt auf die offizielle Reaktion von AMD – mittels der Daten zu den kommenden Polaris-Grafikkarten. Gemäß Nordic Hardware (maschinelle Übersetzung ins Deutsche) knausert AMD aber selbst gegenüber den Grafikkarten-Hersteller und weiteren Geschäftspartnern derzeit arg mit Informationen – teilweise wird sogar befürchtet, das man Polaris-Grafikkarten noch nicht einmal offiziell auf der Computex zeigen kann. Dies verwundert einigermaßen, denn AMD ist zumindest beim kleineren Polaris-11-Chip schon des längerem augenscheinlich spruchreif – möglicherweise hängt es an Problemen beim größeren Polaris-10-Chip, möglicherweise will AMD auch bewußt den Gerüchtepegel niedrig halten. Dies macht durchaus Sinn, damit sich nVidia zuerst positioniert (und dann nachfolgend sein Produkt bzw. dessen Taktraten nicht mehr ändern kann) – aber ab einem gewissen Zeitpunkt muß AMD die gute Vorlage, welche nVidia derzeit schon geliefert hat, einfach kontern. Hoffentlich ergeben sich aus der kommenden AMD-Veranstaltung irgendwann zwischen 26. und 29. Mai in Macau irgendwelche griffigen Informationen.

12

Weitere 3DMark-Benchmarks zur GeForce GTX 1080

Videocardz haben weiteren 3DMark-Werte zur GeForce GTX 1080 ausgegraben und auch in einen Vergleich gegenüber anderen aktuellen Spitzen-Grafikkarten gestellt. Dies sieht schon erst einmal ganz praktikabel aus und gibt auch eine ungefähre Richtung vor. Leider hat man sich allerdings dabei auf insgesamt-Scores konzentriert – welche eher nur dann eine Aussage geben können, wenn alle Werte vom selben PC-System stamenn (was hierbei natürlich nicht zutrifft). Besser vergleichbar sind hier die reinen GPU-Werte, worauf wir uns dann auch mit der nachfolgenden Tabelle konzentriert haben. Als Vergleichsweise kamen verschiedene Werte früherer Hardware-Tests zum Einsatz, welche mit ihrer Ergebnis-Bandbreite auch die gewisse Varianz dieser Testergebnisse wiederspiegeln:

Boosttakt 3DM13 FS (GPU) 3DM13 FS Extr. (GPU) 3DM13 FS Ultra (GPU) (Quelle)
benutzte Auflösung - 1920x1080 (FullHD) 2560x1440 (WQHD) 3840x2160 (UltraHD) -
GeForce GTX 1080 off. 1733 MHz 21799 10102 5024 (Videocardz)
GeForce GTX 980 Ti (Werks-OC #1) off. 1203 MHz 18343 8538 4339 (TweakTown)
GeForce GTX 980 Ti (Werks-OC #2) off. 1355 MHz 18140 8538 4390 (TweakPC)
GeForce GTX 980 Ti (Ref. #1) off. 1070 MHz 16422 7784 3857 (TweakTown)
GeForce GTX 980 Ti (Ref. #2) off. 1070 MHz 16095 7399 3660 (TweakPC)
GeForce GTX 980 Ti (Ref. #3) off. 1070 MHz - 7779 3931 (Legit Reviews)
GeForce GTX 980 (Ref. #1) off. 1216 MHz 13055 6151 3071 (TweakTown)
GeForce GTX 980 (Ref. #2) off. 1216 MHz 12616 5808 - (TweakPC)
GeForce GTX 980 (Ref. #3) off. 1216 MHz - 6022 2972 (Legit Reviews)

Aus den gemittelten Werten lassen sich dann folgende Performance-Maßgaben herausziehen: Die GeForce GTX 1080 liegt unter FullHD um +70% vor der GeForce GTX 980 und um +34% vor der GeForce GTX 980 Ti. Unter WQHD liegen diese Differenzen bei +68% sowie +32%, unter UltraHD dann bei +66% bzw. +32%. Dies ist damit alles noch sehr gut in demselben Performance-Korridor, welchen die ersten 3DMark-Werte zur GeForce GTX 1080 aufgezeigt haben. Da der 3DMark13 nahezu perfekt mit der zur Verfügung stehenden Rechenleistung skaliert und damit üblicherweise immer besser herauskommt, als echte Spiele-Benchmarks, dürfte der reale Performancegewinn der GeForce GTX 1080 wohl etwas unterhalb diesen Werten liegen. Wir haben die GeForce GTX 1080 (unter UltraHD) auf +62% zur GeForce GTX 980 sowie +25% zur GeForce GTX 980 Ti geschätzt, diese Performance-Prognose läßt sich auch nach diesen neuen 3DMark-Werten weiterhin aufrechterhalten.

GeForce GTX 1080 zur ... GeForce GTX 980 GeForce GTX 980 Ti
3DMark13 FireStrike Ultra (4K) +66% +32%
nVidia-eigene Prognose +70% ca. +27%
3DCenter-Prognose (4K) +62% +25%
11

Hardware- und Nachrichten-Links des 11. Mai 2016

In der kürzlichen Betrachtung zu nVidias GP106-Chip fehlte noch der Punkt, das diverse Kommentatoren die auf Zauba zu lesenden Liefer-Informationen dahingehenden interpretieren, das der GP106-Chip tatsächlich mit einem 256 Bit Speicherinterface antritt. So gab es einmal die Notiz "256B" und zum anderen die Notiz "256MX32" zu lesen – welche man wie gesagt dahingehend auslegen kann. Dies ist aber kein muß, weil damit kann am Ende auch sonst etwas gemeint sein. Als Hauptargument gegen ein großes 256 Bit Speicherinterface beim kleinen GP106-Chip (angeblich ~205mm² Chipfläche) gilt nach wie vor der Punkt, da nVidia in dieser Frage bislang immer arg konservativ war – die Performance-Chips von nVidia hatten bisher immer nur ein 128 oder 192 Bit Speicherinterface, selbst letzteres wurde dabei nicht immer ausgenutzt. Zudem läßt sich mehr Speicherbandbreite ja auch einfacherem Wege über die Benutzung von GDDR5X-Speicher erreichen – jene neue Speichersorte kostet zwar mehr, aber ein größeres Speicherinterface frisst Chipfläche und verursacht daher auch Mehrkosten.

All dies spricht aus prinzipiellen Gründen gegen ein 256 Bit Speicherinterface beim GP106-Chip. Dabei soll aber auch ein Pro-Argument nicht verschwiegen werden: Wie schon dargelegt, ist der GP106-Chip vergleichsweise groß für eine reine Hardware-Halbierung gegenüber dem GP104-Chip. Selbst wenn es also zu mehr Shader-Einheiten beim GP106-Chip (als eine Halbierung) kommt, wäre rein bezogen auf die Chipfläche vielleicht sogar Platz für ein größeres Speicherinterface. Ungeachtet der bisherigen nVidia-Abneigung gegenüber großen Speicherinterfaces auf Performance-Chips ist ein 256 Bit Speicherinterface auf einer Chipfläche knapp bei 200mm² durchaus realisierbar, wie AMDs Pitcairn-Chip (212mm²) der Radeon HD 7800, R9 270 und R7 370 Serien beweist. In dieser Frage taumeln die Spekulationen derzeit allesamt noch ein wenig ziellos daher – ohne konkrete Anhaltspunkte kann man sich den GP106-Chip in sehr verschiedenen Ausführungen vorstellen, von 1280 bis 1536 Shader-Einheiten, von 128 Bit bis 256 Bit Speicherinterface, mit GDDR5- oder GDDR5X-Speicher.

Speicherchip-Hersteller Micron vermeldet hierzu passend die bereits laufenden GDDR5X-Massenfertigung. Derzeit kann man wohl nur bis 2500 MHz Speichertakt gut liefern, 3000 MHz Speichertakt ist in der Erprobung und auf bis 4000 MHz Speichertakt (allesamt im QDR-Verfahren) soll die GDDR5-Entwicklung getrieben werden. Damit sollte es kein Problem darstellen, den entsprechenden Bedarf für die GeForce GTX 1080 zu decken – eventuell in den allerersten Wochen mit gewissen Lieferschwierigkeiten, aber nachfolgend sicherlich eher problemlos. Gleichzeitig macht diese Ankündigung natürlich auch den Weg frei für weitere Grafikkarten mit GDDR5X-Speicher, beispielsweise die größte GP106-Variante, sofern jene ein kleines Speicherinterface nutzt. Ob kurzfristig noch weitere neue Grafikkarten GDDR5X nutzen werden, wird sich zeigen, ist aber eher zu bezweifeln – wenn, dann muß der GDDR5X-Support beim Design des Grafikchips bereits bedacht worden sein. Die große Zeit von GDDR5X wird wohl erst in der nächsten Chip-Generation kommen, wenn alle kleineren Grafikchips (die nicht HBM nutzen) ganz automatisch auf GDDR5X gehen werden, weil dann die Herstellungskosten von GDDR5X nur noch minimal oberhalb der Herstellungskosten von GDDR5 liegen sollten und damit dramatisch mehr Speicherbandbreite zu einem geringen Aufwand erzielbar ist.

Als Weiterführung des Gedankensgangs aus den gestrigen News wollen wir uns noch einmal zur Kostenexplosion bei der Spieleentwicklung äußern: Ein hier aufsteigendes Problem liegt sicherlich auf der reinen Kostenseite, wo zumeist immer nur weiter reingebuttert wird, anstatt auf einen effizienten Mitteleinsatz zu schauen. Ein anderer Punkt liegt auch darin, da die steigenden Entwicklungskosten – jene sind letztlich seit Anbeginn der PC-Spiele am ansteigen – früher auch zumeist über eine generell höhere Einnahmensituation wieder ausgeglichen werden konnten. Doch dieser Punkt beginnt derzeit stark abzubröckeln, denn trotz das im PC- und Konsolen-Gaming weiterhin gute und steigende Zahlen geschrieben werden, sind die Zeiten des großen, sprunghaften Wachstums im Spielemarkt vorbei. Im Gegensatz zum Kinogeschäft, welches eine ernsthafte weltweite Expansion hingelegt (während in den 80er das Auslandsgeschäft für Hollywood ein glattes "Zubrot" war, kommen nun regelmäßig 2/3 der Umsätze von außerhalb der USA, dabei große Kontingente aus früher gar nicht erreichbaren Ländern wie Russland oder China), ist das Games-Geschäft eminent stark auf die westliche Welt konzentriert. Oder einfach formuliert: Es kommt zu wenig Umsatz aus den von der Anzahl der Konsumenten her sehr interessanten Schwellen- und Entwicklungsländern – ganz im Gegensatz zum Kinogeschäft, welches den Sprung in diese erfolgreich geschafft hat.

Maßgeblich für diese Zentrierung des Games-Geschäft auf die westliche Welt sind die digitalen Vertriebsplattformen – welche sich erst (wegen der damit zurückgehenden Piraterie) als Segen für die Spieleentwickler gezeigt haben, nun aber Schwierigkeiten beim weltweiten Wachstum bedeuten. Die Bereitschaft, westliche Preise für Computerspiele zu löhnen, ist wegen des völlig anderen Einkommensniveaus in den Schwellen- und Entwicklungsländern einfach viel niedriger ausgeprägt. Hollywood hat dieses Problem über (viel) günstigere Kinopreise in diesen Schwellen- und Entwicklungsländern in den Griff bekommen – und macht über die Masse der damit neu hinzugewonnenen Konsumenten dennoch glänzende Geschäfte (mancher Blockbuster bringt in China inzwischen genauso viel Umsatz wie in den USA ein). Im Spielebereich bedeutet es hingegen regelmäßig ein großes Ärgernis, wenn regional unterschiedliche Preise gemacht werden – entweder haben die Spielepublisher dann ein Problem mit Grauimporten oder aber die Spieler regen sich über die Ungleichbehandlung auf. Wenn der Markt an PC- und Konsolenspielen allerdings wirklich an dem (riesigen) Potential der Schwellen- und Entwicklungsländer teilhaben will, dann geht es wohl nur über angepasste Preise – nur jene bringen die Spieler von (überall erhältlichen) Raubkopien weg.

Shortcuts: Videocardz zeigen die neuen SLI-Bridges zur GeForce GTX 1080 und bringen diesbezüglich das Statement eines EVGA-Mitarbeiters, welcher bestätigt, das die GeForce GTX 1080 generell nur 2fach-SLI unterstützt. Höhere SLI-Formen werden dann den größeren GP102- und GP100-Chips vorbehalten bleiben. Videocardz berichten desweiteren über eine neue Beta des Info- & Test-Tools AIDA 64, welche einen Support für die GeForce GTX 1080 sowie die AMD-Chips Polaris 10 & 11 sowie Vega 10 mitbringt. Der Vega-10-Chip wird zudem in den Releae Notes klar dem früheren Greenland-Chip zugeordnet – was man auf Hinweis auf eine entsprechende Abstammung sehen kann, aber natürlich keineswegs eine sichere Aussage darstellt (da die Herkunft dieser Gleichstellung schließlich unbekannt ist). Und letztlich zeigen nochmals Videocardz ein erstes Herstellerdesign zur GeForce GTX 1080 in Form einer Galax-Karte mit DHE-Kühler samt Radiallüfter. Hierbei dürfte es sich (vom ersten Eindruck her) tatsächlich um ein Standardmodell handeln – welches dann auch das Potential hat, den Preispunkt der GeForce GTX 1080 nach unten zu drücken, respektive nVidias Prognose eines Verkaufspreises von 599 Dollar für Herstellermodelle zu erfüllen.

11

nVidias Performance-Chip GP106 zeigt sich, Release im September 2016 anzunehmen

Über die Zauba Import/Export-Datenbank ging erstmals eine Reihe an Grafikkarten zu nVidias indischen Testlaboren, welche recht klar dem GP106-Chip zuzuordnen sind. Geliefert wurden hierbei am 6. Mai immerhin gleich 34 Grafikkarten zu einem Zollwert von ~464 Euro pro Stück, zuzüglich noch zwei Stück dieser Grafikkarten am nachfolgenden 7. Mai zu einem Zollwert von ~604 Euro. Die hohen Zollwerte müssen dabei nicht stören, denn nVidia benutzt seit einiger Zeit um den Faktor 2-3 bewußt überhöhte Zollwerte, um die Produkteinordnung anhand der jeweiligen Preislagen zu erschweren. Beide Grafikkarten-Lieferungen enthalten die klare Markierung "GP106" und zudem andere nVidia-typische Kennzeichen, sind also doch ziemlich sicher dem GP106-Chip von nVidia zuzuordnen:

Mit den Lieferungen kompletter GP106-Grafikkarten deutet sich im übrigen immer mehr ein Herbst-Termin für den GP106-Release an. Vergleichsweise wurden erste komplette GP104-Lieferungen Anfang Februar gesichtet, die Auslieferung Ende Mai ergibt (für den GP104) eine Zeitspanne von 3½ Monaten zwischen diesen beiden Fixpunkten. Bezogen auf den GP106 würde dies auf Anfang Semptember 2016 hinauslaufen – was sich natürlich noch um gut einen Monat (in beide Richtungen) verschieben kann, derart genau kann man hierbei sicherlich nicht rechnen. Aber man kann ausgehend von diesen Vorgaben einen GP106-Release in diesem Herbst (September/Oktober) bzw. bestenfalls noch im Spätsommer (August) annehmen.

Was in der GP106-Hardware dann enthalten ist, erschließt sich natürlich noch nicht aus diesen Sample-Lieferungen. Hierfür gibt es nur Anhaltspunkte aus der bekannten GP104-Hardware sowie den bekannten Chipgrößen von GP104 & GP106. Die größte Ungewißheit ist derzeit noch das verbaute Speicherinterface beim GP106-Chip: Normalerweise müsste nVidia seiner Performance-Lösung nun endlich einmal ein größeres Speicherinterface spendieren, aber 256 Bit sind angesichts der Chipgröße arg unwahrscheinlich und 192 Bit sind letztlich eine ungünstige Wahl bezüglich der Speichermenge: Damit sind 3 oder 6 GB Speicher möglich, was aber kaum nVidias Zielsetzung bei dieser Karte sein dürfte. Mit 4 GB Speicher wird nVidia gegenüber seinem aktuellen Angebot in der Performance-Klasse in Form der GeForce GTX 960 eine glatte Verdopplung hinlegen, mehr wird zudem für die Zielauflösung dieserart Karten (FullHD) nicht benötigt – und am Ende gilt, das nVidia ungern mit zuviel Speicher antritt, weil dies die Karten nur länger leben läßt und daher ungünstig für die Grafikkarten-Umsätze der Zukunft ist.

So gesehen deutet alles auf 4 GB Speicher bei GP106-basierten Grafikkarten hin, was dann nur mit einem 128 Bit breitem Speicherinterface zu realisieren sein wird. Damit auf diesem kleinem Speicherinterface genügend Speicherbandbreite (für die wachsende Rohleistung) zur Verfügung steht, dürfte nVidia zumindest eine der GP106-Grafikkarten wieder mit GDDR5X-Speicher ausrüsten. Dies kommt im übrigen bei der Speicherbandbreite in etwa aufs gleiche hinaus, als wenn man ein 192 Bit GDDR5-Interface nutzen würde – nur das letzteres den Chip größer macht, die Boards komplizierter macht und zu gleich 6 GB Speicherbestückung zwingt, also nur ein Kostentreiber ist. Die Ausweichmöglichkeit mit nur 3 GB Speicher an einem 192 Bit GDDR5-Speicherinterface dürfte nVidia sich im übrigen wohlweislich sparen, diese Speichermenge klingt gegenüber den inzwischen allgemeinübliche "4 GB" als deutlich rückständig und wäre ein enormer (psychologischer) Verkaufshemmer.

Technik Rohleistungen Performance Preisbereich
GeForce GTX 1080 GP104, 2560 Shader-Einheiten @ 256 Bit GDDR5X-Interface, 1607/1733/2500 MHz, 8 GB GDDR5X 8,87 TFlops
320 GB/sec
FullHD:  ~900-950%
4K:    ~125%
599-699$
(27. Mai 2016)
GeForce GTX 1070 GP104, mglw. 2048 Shader-Einheiten @ 256 Bit GDDR5-Interface, 8 GB GDDR5 6,5 TFlops
ca. 224 GB/sec
FullHD:  ~670-730%
4K:    ~90-95%
379-449$
(10. Juni 2016)
"GeForce GTX 1065" GP104, mglw. 1792 Shader-Einheiten @ 192 Bit GDDR5-Interface, 6 GB GDDR5 ca. 5,5 TFlops
ca. 168 GB/sec
FullHD:  ca. 550-600%
4K:    ca. 65-75%
ca. 300$
(Juni 2016 ?)
"GeForce GTX 1060 Ti" GP106, mglw. 1408 Shader-Einheiten @ 128 Bit GDDR5X-Interface, 4 GB GDDR5X ca. 4,5 TFlops
ca. 160 GB/sec
FullHD:  ca. 450-500% ca. 250$
(September 2016 ?)
"GeForce GTX 1060" GP106, mglw. 1152 Shader-Einheiten @ 128 Bit GDDR5-Interface, 4 GB GDDR5 ca. 3,5 TFlops
ca. 112 GB/sec
FullHD:  ca. 350-400% ca. 200$
(September 2016 ?)
Bei den Angaben dieser Tabelle handelt es sich primär um Spekulationen, da unterhalb von GeForce GTX 1070 & 1080 noch keinerlei sicheren Werte vorliegen.

Ausgehend vom Speicherinterface und den bekannten Chipgrößen läßt sich dann gut hochrechnen, was nVidia in die ~205mm² des GP106-Chips packen könnte. Klar ist dabei, das es mehr werden muß als eine pure Halbierung der Anzahl der Shader-Einheiten des GP104-Chips, denn dafür ist die GP106-Chipfläche im Verhältnis zur GP104-Chipfläche von ~298mm² zu hoch. In der Maxwell-Generation gab es denselben Fall, dort hatte der GM206-Chip auch das halbe Speicherinterface und brauchte für die halbe Anzahl an Shader-Einheiten aber nur 57% der Chipfläche des GM204-Chips. Bezogen auf die kommenden Pascal-Chips würde dies bedeuten, das der GP106-Chip bei der Hälfte der GP104-Shader-Einheiten auf nur ~170mm² Chipfläche kommen könnte (selbst bei ~330mm² für den GP104-Chip sind es nur ~190mm² für den GP106-Chip) – da bleibt noch viel Platz gegenüber der aktuellen Angabe von ~205mm² Chipfläche. Daher denken wir, das der GP106-Chip mehr Shader-Einheiten trägt als eine bloße Halbierung gegenüber dem GP104-Chip – sprich, mehr als 1280 Shader-Einheiten.

Ob es 1280, 1408 oder 1536 Shader-Einheiten sind, wird sich noch zeigen – wir rechnen für den Augenblick mit 1408 Shader-Einheiten, da dies auf einer gutklassigen Chiptaktrate von 1600 MHz für eine theoretische Rechenleistung in Richtung 4,5 TFlops sorgen würde. Sofern nVidia wirklich eine dritte GP104-Variante herausbringt (derzeit unsererseits spekulativ "GeForce GTX 1065" genannt), darf es gar nicht höher hinausgehen, um sich mit eben dieser dritten GP104-Variante nicht ins Gehege zu kommen. Kommt selbige nicht, würde sich die Situation natürlich völlig anders gestalten – andererseits kann nVidia dann den Taktspielraum der Pascal-Architektur voll ausnutzen, auf 1800 MHz Chiptakt sind mit dem GP106 dann schon 5 TFlops Rechenleistung möglich. In vorstehender Tabelle sind demzufolge noch jede Menge Änderungen und Verschiebungen möglich – jene zeichnet nur das Bild, welches sich aktuell zu den Grafikkarten basierend auf den Pascal-Chips GP104 & GP106 andeutet.

Nachtrag vom 11. Mai 2016

In der kürzlichen Betrachtung zu nVidias GP106-Chip fehlte noch der Punkt, das diverse Kommentatoren die auf Zauba zu lesenden Liefer-Informationen dahingehenden interpretieren, das der GP106-Chip tatsächlich mit einem 256 Bit Speicherinterface antritt. So gab es einmal die Notiz "256B" und zum anderen die Notiz "256MX32" zu lesen – welche man wie gesagt dahingehend auslegen kann. Dies ist aber kein muß, weil damit kann am Ende auch sonst etwas gemeint sein. Als Hauptargument gegen ein großes 256 Bit Speicherinterface beim kleinen GP106-Chip (angeblich ~205mm² Chipfläche) gilt nach wie vor der Punkt, da nVidia in dieser Frage bislang immer arg konservativ war – die Performance-Chips von nVidia hatten bisher immer nur ein 128 oder 192 Bit Speicherinterface, selbst letzteres wurde dabei nicht immer ausgenutzt. Zudem läßt sich mehr Speicherbandbreite ja auch einfacherem Wege über die Benutzung von GDDR5X-Speicher erreichen – jene neue Speichersorte kostet zwar mehr, aber ein größeres Speicherinterface frisst Chipfläche und verursacht daher auch Mehrkosten.

All dies spricht aus prinzipiellen Gründen gegen ein 256 Bit Speicherinterface beim GP106-Chip. Dabei soll aber auch ein Pro-Argument nicht verschwiegen werden: Wie schon dargelegt, ist der GP106-Chip vergleichsweise groß für eine reine Hardware-Halbierung gegenüber dem GP104-Chip. Selbst wenn es also zu mehr Shader-Einheiten beim GP106-Chip (als eine Halbierung) kommt, wäre rein bezogen auf die Chipfläche vielleicht sogar Platz für ein größeres Speicherinterface. Ungeachtet der bisherigen nVidia-Abneigung gegenüber großen Speicherinterfaces auf Performance-Chips ist ein 256 Bit Speicherinterface auf einer Chipfläche knapp bei 200mm² durchaus realisierbar, wie AMDs Pitcairn-Chip (212mm²) der Radeon HD 7800, R9 270 und R7 370 Serien beweist. In dieser Frage taumeln die Spekulationen derzeit allesamt noch ein wenig ziellos daher – ohne konkrete Anhaltspunkte kann man sich den GP106-Chip in sehr verschiedenen Ausführungen vorstellen, von 1280 bis 1536 Shader-Einheiten, von 128 Bit bis 256 Bit Speicherinterface, mit GDDR5- oder GDDR5X-Speicher.

10

Hardware- und Nachrichten-Links des 10. Mai 2016

Die PC Games Hardware berichten über einen ersten Teaser zu einem Herstellerdesign der GeForce GTX 1080 seitens Grafikkartenhersteller Gigabyte. Besonders viele Informationen hierzu gibt es nicht – nur der (angedachte) Verfügbarkeitstermin, welcher auf "Juni 2016" lautet. Die "Gigabyte GeForce GTX 1080 Xtreme Gaming" dürfte aber eher den an noch mehr Performance interessierten Nutzer ansprechen, sprich ein gutes Stück Übertaktung ab Werk mitbringen – womit es fraglich ist, ob Gigabyte hierfür einen niedrigeren Preis ansetzen will als nVidias Preisvorgabe für die Referenzdesigns von 699 Dollar. Dieser Preispunkt dürfte wohl nur von Grafikkarten-Varianten unterboten werden, welche ohne (oder nur mit geringer) Übertaktung ab Werk sowie einfachem Layout ohne großartige Kühlkonstruktionen erscheinen. Diese Varianten wird es sicherlich auch geben, aber natürlich geht das Augenmerk der Grafikkarten-Hersteller zuerst einmal eher darauf, wie man sich bestmöglich von der Konkurrenz abheben kann – und dies geht dann nur mit höherwertigeren Eigndesigns, welche jedoch kaum dafür prädestiniert sind, zu einem günstigeren Preispunkt anzutreten.

Die PC Games Hardware hat sich anläßlich der Episode 2 nochmals mit der Grafikkarten-Performance unter Hitman (2016) beschäftigt. Jene Spielerweiterung beinhaltete auch ein paar Hardware-Updates – mittels welchem alte Probleme gelöst wurden, jedoch teilweise auch neue geschaffen wurden. So ist nunmehr die Texturenschärfe wie der Gesamteindruck unter DirectX 11 bemerkbar besser als unter DirectX 12 – nicht gerade ein Ruhmesblatt für die neue Grafik-API, selbst wenn hierfür natürlich der Spieleentwickler mehr oder weniger allein schuldig ist. Die angetretenen Performance-Messungen unter DirectX 11 zeigen inzwischen kaum noch einen größeren Unterschied zu den früheren Performance-Messungen unter DirectX 12 auf – den AMD-Spitzenmodellen fehlen ein wenig die letzten fps, welche jene nur unter DirectX 12 erbringen können, der Rest ist altbekannt. Dazu zählt auch die weiterhin deutliche Kepler-Schwäche des Spiels, wenn eine gut ab Werk übertaktete GeForce GTX 770 (Perf.Index 380%) sich regelmäßig von einer Radeon R9 270X (Perf.Index 300%) vernaschen läßt.

Interessant wird es für DirectX 12, wenn man die eher CPU-limierten Stellen im Spiel findet und jene dann mit einer eher mittelprächtigen CPU zu absolvieren versucht. Die PCGH hat dies getan und konnte auf einem FX-8350 deutlich höhere Frameraten unter DirectX 12 als unter DirectX 11 erzielen (auf CPU-limitierten 1280x720): +59% bei einer Taktrate von nur 1.8 GHz sowie gleich +60% unter den regulären 4.0 GHz dieses Prozessors zeigen an, zu was DirectX 12 im eigentlichen in der Lage ist. Dummerweise dürften sich diese Vorteile mit der Zeit eher auswachsen, denn die Zeit der schwachen Bulldozer-Architektur bei AMD sowie die Zeit der Zweikern-Prozessoren bei Intel neigt sich dem Ende entgegen: Bei AMD steht zum Jahresende die deutlich mächtigere Zen-Architektur an – und bei Intel dürfte wohl die Cannonlake-Generation des Jahres 2017 dann endlich den Umschwung zu mehr CPU-Rechenkernen auch in Intels "normalem" Prozessoren-Angebot bringen. Schon heute fallen die DirectX-12-Gewinne weitaus magerer aus, wenn man es nicht mit einem FX-8350, sondern einem modernen Spitzenprozessor von Intel versucht – DirectX 12 ist primär die Rettung für zu schwache CPUs (meist in Verbindung mit AMD-Grafikkarten), aber keineswegs mit einem generellen Performanceboost zu verwechseln.

Für eine angeregte Diskussion sorgt derzeit der Entschluß von Spieleentwickler Epic Games, sich aus der Entwicklung von Singleplayer AAA-Titeln zurückzuziehen und eher in Richtung kleinerer Projekte und von Multiplayer-Titeln zu gehen. Als Grund hierfür wird die explodierende Kostenlage für AAA-Titel genannt – ein mögliches "Gears of War 4" wurde mit Entwicklungskosten von über 100 Millionen Dollar eingeschätzt, was für eine mittelgroße Firma wie Epic ein einfach zu hohes Geschäftsrisiko darstellt. Zwar gibt es auch noch teurere Spieleentwicklungen (GTA V soll gleich 265 Mill. $ gekostet haben), aber jene werden nur bei ganz alteingesessenen Spiele-Franchises genehmigt und dann meist auch von großen Publishern getragen. Immerhin gibt es im Spielebereich das viel höhere Risiko eines totalen Fehlschlags – da kann auch mal ein 100-Millionen-Dollar-Titel wie Blei in den Regalen liegen und wirklich für keinerlei nennenswerte Umsätze sorgen, während im Filmbereich solcherart Flops dann meist über die Zweit- und Drittverwertung (Video/DVD & Fernsehen) irgendwie doch noch in die Nähe eines Kostenausgleichs kommen.

In der Summe ist Epic Games einfach zu klein, um das Risiko solcherart teurer Spieleentwicklung zu stemmen – was jetzt nichts über die Kostenentwicklung im Spielebereich im allgemeinen aussagt, sondern eher etwas über die Größe von Epic als Unternehmen. Aber natürlich hat das ganze darüber dann auch eine allgemeine Bedeutung: Spiele-Großprojekte sind dann eben nur noch von den ganz großen Publishern stemmbar, nur jene können überhaupt noch das dafür notwendige Kapital vorstrecken bzw. könnten die finanziellen Verluste im Fall eines Flops wegstecken. Dies konzentriert die Entwicklung von AAA-Titel dann auf wenige große Firmen, in welchen über solch hochriskanten Multimillionen-Dollar-Entscheidungen dann natürlich nur noch reinrassige Manager beraten, nicht aber mehr Spielekenner – was das Risiko auf formelhafte AAA-Titel ohne Mut zum Risiko, zum Experiment und zum Neuen logischerweise erhöht.

Andererseits muß auch gesagt werden, das sich auch ohne die großen Geldbeträge gute Spiele machen lassen, die Indie-Szene beweist dies jenen Tag aufs Neue. Vielmehr ist die Methode, mit immer größeren Geldbeträgen heranzugehen, sowieso ein Irrweg – dies kann man sich im Fall sicherer Hits wie GTA erlauben, aber ansonsten heizt man damit nur eine ineffizente Geldverbrennung bei der Spieleentwicklung an, anstatt für den höheren Geldeinsatz auch entsprechend höherwertigere Spiele zu bekommen. Der richtige Mittelweg aus effizientem Geldeinsatz für entsprechend hochwertigen Content ist noch nicht gefunden – entweder versucht man es mit der finanziellen Gießkanne oder versucht alternativ ein offensichtliches Sparkonzept (kurze Spielzeiten & Level-Recycling), was dann üblicherweise wenig Anklang bei der Spielerschaft findet. So gesehen ist der Ausweg von Epic Games wie gesagt nur folgerichtig – aber es wäre wohl besser, Arbeit dahingehend zu investieren, die Kostenexplosion bei der Spieleentwicklung generell abzubremsen.

10

Die bisherigen Spezifikationen und eine grobe Performance-Prognose zur GeForce GTX 1070

In all dem medialen Wirbel um die GeForce GTX 1080 droht die zweite GP104-basierte Grafikkarte derzeit fast unterzugehen – dabei dürfte die GeForce GTX 1070 aufgrund ihres deutlich niedrigeren Preispunkts die viel interessantere Karte werden, mittels welcher nVidia den Markterfolg der GeForce GTX 970 zu replizieren versuchen wird. Denn während die GeForce GTX 1080 mit ziemlich hohen Preispunkten von 699$ bzw. 599$ (Referenzdesigns bzw. Herstellerdesigns) in den Markt kommen wird, sollen es bei der GeForce GTX 1070 "nur" 449$ bzw. 379$ werden. Dies ist immer noch hoch und glasklares HighEnd-Segment, gerade im Vergleich mit dem Preispunkt der GeForce GTX 970 von 329 Dollar – aber dennoch ist dies ein Preisnachlaß von gut 35% gegenüber der GeForce GTX 1080, ungewöhnlich viel für zwei direkt nebeneinanderstehende Grafikkarten basierend auf demselben Grafikchip.

Dabei weist die GeForce GTX 1070 zwei primäre Differenzen auf: Als Speicher wird (an demselben 256 Bit breiten Speicherinterface) nur gewöhnlicher GDDR5-Speicher verwendet, womit nicht die hohen Speicherbandbreite der GDDR5X-bestückten GeForce GTX 1080 erreicht werden können. Allerdings hat nVidia der GeForce GTX 1080 auch nur einen eher zaghaften Speichertakt von 2500 MHz QDR mitgegeben – damit ist keine Verdopplung der Speicherbandbreite machbar. Vielmehr sind es somit gegenüber GDDR5-Speicher auf einer Taktung von 3500 MHz DDR nur 43% mehr Speicherbandbreite (bzw. 30% weniger), auf einer Taktung von 4000 MHz DDR (theoretisch schon lieferbar) sind es gar nur 25% mehr (bzw. 20% weniger). Der ganz große Nachteil ergibt sich hier also nicht, dafür sind die effektiven Speichertaktungen zu nahe aneinanderliegend (selbst wenn der genaue Speichertakt der GeForce GTX 1070 derzeit noch nicht bekannt ist).

Zudem passt diese Differenz bei der Speicherbandbreite zur Differenz bei der (theoretischen) Rechenleistung, welche sich auf +36,5% zugunsten der GeForce GTX 1080 (bzw. 26,7 weniger bei der GeForce GTX 1070) beläuft. Für die genauen Abstände sind allerdings Erhebungen zu den real anliegenden Chiptaktraten abzuwarten – daran (und am konkreten Speichertakt) kann sich noch einiges verschieben. Somit läßt sich derzeit leider erst nur eine eher ungenaue Performance-Prognose abgeben. Aufgrund des beiderseitig starken Unterschieds bei theoretischer Rechenleistung und Speicherbandbreite ist letztlich aber auch von einem ebenso kräftigen Performance-Unterschied zwischen beiden GP104-basierten Karten ausgehen, welcher (je nach konkreten Taktraten) bei etwa +30-35% zugunsten der GeForce GTX 1080 liegen sollte. Dies würde dann umgerechnet einen FullHD Performance-Index der GeForce GTX 1070 von geschätzt ~670-730% ergeben, zuzüglich eines 4K Performance-Index von geschätzt ~90-95%.

GeForce GTX 970 GeForce GTX 980 GeForce GTX 980 Ti GeForce GTX 1070
Chipbasis nVidia GM204, 5,2 Mrd. Transist. in 28nm auf 398mm² Chipfläche nVidia GM200, 8 Mrd. Transist. in 28nm auf 601mm² Chipfläche nVidia GP104, 7,2 Mrd. Transist. in 16nm auf ~300mm² Chipfläche
Architektur Maxwell 2, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Technik 4 Raster-Engines, 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 224 Bit GDDR5-Interface 4 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit GDDR5-Interface 6 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 96 ROPs, 384 Bit GDDR5-Interface geschätzt: 2048-2304 Shader-Einheiten, sicher: 256 Bit GDDR5-Interface
Rechenleistung 3,92 TFlops
(Ø-Chiptakt: 1178 MHz)
4,69 TFlops
(Ø-Chiptakt: 1144 MHz)
6,27 TFlops
(Ø-Chiptakt: 1114 MHz)
6,5 TFlops
Speicherausbau 4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5 6 GB GDDR5 8 GB GDDR5
Ref./Herst./OC // // // //?
Ausgänge DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-D, HDMI 2.0b, 3x DisplayPort 1.4
FullHD Perf.Index 520% 600% 730% geschätzt ~670-730%
4K Perf.Index 64% 77% 100% geschätzt ~90-95%
Listenpreis 329$ 499$ 649$ 449$  (Herstellerdesigns angeblich ab 379$, erhältlich zwei Wochen nach Launch)
Release 19. September 2014 31. Mai 2015 10. Juni 2016

Treffen diese Performance-Prognosen zu, würde dies die GeForce GTX 1070 knapp unterhalb die Performance einer GeForce GTX 980 Ti führen (und deutlich oberhalb einer GeForce GTX 980) – womit diese Karte in der Tat mehr Aufmerksamkeit verdient, denn genau so etwas stellt sich der Käufer einer 70er Karte des nVidia-Nummernschemas unter einer sinnvollen Aufrüstung vor. Der Preispunkt von 449 Dollar für die Referendesigns ist zwar ein wenig zu hoch für eine typische 70er Karte, aber eventuell können dies die Herstellerdesigns wieder herausreißen, welche nVidia für ab 379 Dollar angesetzt hat. Schafft nVidia bei der GeForce GTX 1070 einen Straßenpreis von beachtbar unter 400 Dollar zu etablieren, dürfte die Karte ebenfalls zum Markterfolg werden. In Euroland dürfte dies schwieriger werden, denn selbst US-Preise von 379 Dollar ergeben hierzulande (zum aktuellen Dollar-Kurs und mit Mehrwehrsteuer) knapp 400 Euro, landen also an einer verkaufspsychologischen Barriere. Damit ist leider auch dieser Karte nVidias aktuelle Strategie der Grafikkarten-Preiserhöhungen anzusehen, wenn auch nicht so drastisch wie bei der GeForce GTX 1080.

Die von nVidia genannten 6,5 TFlops theoretische SinglePrecision-Rechenleistung sind im übrigen über verschiedene Wege zu erreichen: Niedrigere Taktraten oder/und Abspeckungen bei der Anzahl der aktiven Shader-Einheiten – wobei natürlich ein Mix aus beiden Methoden am wahrscheinlichsten ist. Denkbar wäre beispielsweise eine Auflösung mit 2304 Shader-Einheiten und dann einem Boosttakt von ~1410 MHz, was recht zaghaft gemessen an den Taktraten der GeForce GTX 1080 wäre. Auf nur 2048 Shader-Einheiten wäre dieselbe Rechenleistung mit einem Boosttakt von ~1586 MHz zu erreichen, was deutlich griffiger klingt. Andere Auflösungen sind aber genauso denkbar und letztlich ist es auch ziemlich egal, in welcher Kombination diese Rechenleistung erzielt wird. Probleme in diese Richtung hin, das besonders niedrigere Taktraten nachfolgend Overclocker herausfordern würden, braucht nVidia aufgrund des abriegelnden Power-Limits im eigentlichen nicht zu fürchten – durch jenes Mittel kann nVidia schließlich selber festlegen, welchen Overclocking-Spielraum es gibt.

Inhalt abgleichen