20

Erster (angeblicher) 3DMark13-Wert zur Turing-basierten GeForce GTX 1170 aufgetaucht

Im Spekulations-Thread des 3DCenter-Forums zu nVidias Turing-Generation ist ein Screenshot mit einem angeblichen Benchmarkwert der GeForce GTX 1170 unter dem 3DMark13 "FireStrike" aufgetaucht. Jener Screenshot kommt aus dem Overclockers UK Forum, stammt jedoch original aus dem polnischen Forum von FrazPC, ist dort aber leider nicht wirklich zu finden gewesen. Angeblich ist hierbei der Wert einer EVGA-Grafikkarte zu sehen, welche ein Performance-Level sogar knapp oberhalb der GeForce GTX 1080 Ti erreicht. Die Karte selber soll dabei mit gleich 16 GB Grafikkartenspeicher ausgerüstet sein, die angegebenen Taktraten sehen allerdings mit 2512/2552 MHz etwas seltsam aus. Der sehr hohe Chiptakt von 2512 MHz könnte aus generell höheren Taktraten, einem geänderten Boost-Verhalten oder einfach nur Übertaktung resultieren, der ebenfalls hohe Speichertakt von 2552 MHz ist dagegen schwer einzuordnen: Für GDDR5X oder GDDR6 würde dies ganze 20 Gbps ergeben – eine Übertaktung, welche derzeit kaum erreichbar scheint. Nur im Sinne von der Verwendung von GDDR5-Speicher ergäbe diese Taktrate Sinn – dies wären dann 5000 MHz DDR, was sowohl mittels Übertaktung erreichbar ist, also auch von einige Speicherchip-Herstellern inzwischen schon als default-Taktrate angeboten wird.

Technik 3DM13 FS Score 3DM13 FS GPU Quelle(n)
GeForce GTX 1170 nVidia GT104 (Turing), 2512/2552 MHz (OC?), 16 GB 22989 29752 Leak aus dem FrazPC-Forum
GeForce GTX 1080 Ti nVidia GP102 (Pascal), 1480/1582/2750 MHz, 11 GB GDDR5X 22808 28391 Guru3D & KitGuru
Radeon RX Vega 64 AMD Vega 10, 1247/1546/945 MHz, 8 GB HBM2 19200 22931 Guru3D & KitGuru
GeForce GTX 1080 nVidia GP104 (Pascal), 1607/1733/2500 MHz, 8 GB GDDR5X 19370 21478 Guru3D & KitGuru
Radeon RX Vega 56 AMD Vega 10, 1156/1471/800 MHz, 8 GB HBM2 16842 20463 Guru3D & KitGuru
GeForce GTX 1070 Ti nVidia GP104 (Pascal), 1607/1683/4000 MHz, 8 GB GDDR5 17145 19915 Guru3D & KitGuru
GeForce GTX 1070 nVidia GP104 (Pascal), 1506/1683/4000 MHz, 8 GB GDDR5 16229 18016 Guru3D & KitGuru

Allerdings darf bezweifelt werden, das eine Karte mit GDDR5-Speicher und einem 256 Bit Speicherinterface die notwendige Speicherbandbreite aufbringen kann, um sich mit einer GeForce GTX 1080 Ti anzulegen. Vielleicht kann dies unter dem 3DMark13 im FullHD-Test funktionieren, aber unter höheren Auflösungen sowie unter realen Spielen wäre eine solche GeForce GTX 1170 dann ziemlich bandbreitenlimitiert (nur 20% mehr Bandbreite als eine GeForce GTX 1070, nur 66% des Bandbreiten-Niveaus der GeForce GTX 1080 Ti). Gänzlich unmöglich ist diese Ansetzung allerdings nicht: Wie schon bei GeForce GTX 1070/1080 der Pascal-Generation durchgespielt, könnte in der Turing-Generation allein die größere GeForce GTX 1180 auf Basis desselben GT104-Chips dann den neuen Speichertyp (GDDR6) tragen, eine solche GeForce GTX 1180 hätte dann auch umgehend keine Bandbreiten-Sorgen mehr. Am Ende kann man jedoch allein schon bezüglich der technischen Daten durchaus Bedenken ob einer möglichen Fälschung anmelden – was mit dem 3DMark13 bekannterweise nicht wirklich schwierig zu bewerkstelligen ist. Doch auch ohne dieser begründeten Bedenken gilt generell die Vorsicht vor solcherart Vorab-Ergebnissen – zwar sind viele davon korrekt, aber dennoch mogeln sich immer wieder einzelne Fälschungen darunter. Auf die Goldwaage zu legen sind diese Ergebnisse somit nicht – und daneben gilt einzurechen, das hier auch eine Übertaktung der GeForce GTX 1170 mit im Spiel sein könnte.

Denn von der insgesamten Ergebnis-Höhe wäre es sicherlich arg überraschend, wenn die GeForce GTX 1170 als zweitstärkste GT104-Grafikkarte (und damit insgesamt nur drittstärkste Grafikkarte des Turing-Portfolios) das bisherige Spitzenmodell in Form der GeForce GTX 1080 Ti sogar leicht überrunden könnte – dies sollte eigentlich die Aufgabe der GeForce GTX 1180 sein. Zwar hat nVidia dieses Kunststück auch schon zwischen Maxwell- und Pascal-Generation bewerkstelligen können (GeForce GTX 1070 leicht schneller als die GeForce GTX 980 Ti), aber dem lag auch der große Sprung von der 28nm- auf die 16nm-Fertigung zugrunde – etwas, was nVidia zumindest unter Verwendung der 12nm-Fertigung diesesmal kaum erneut erreichen kann. Auch bezüglich des reinen Ergebnisses sind somit Bedenken anzumelden, ob jenes nicht doch zu gut ist – und damit unglaubwürdig. Unmöglich ist das ganze allerdings nicht, auch nicht unter der 12nm-Fertigung: Unter Zusammenschluß der Punkte größere Chipfläche, nochmals höhere Stromverbrauchs-Effizienz und Übertaktung wäre ein solches Ergebnis im besten Fall doch realisierbar. Man sollte allerdings nicht enttäuscht sein, wenn dieser Fall dann doch nicht eintritt – bei diesem Ergebnis handelt es sich wie gesagt eher um einen "Best-Case", die Chance hierauf ist nicht wirklich hoch.

Interessant daneben ist noch, das sich die benutzte Grafikkarte als EVGA-Modell gemeldet hat. Dies bedeutet (sofern das ganze keine Fälschung darstellt), das die Grafikkarten-Hersteller nicht nur mit von nVidia gelieferten Testsamples herumspielen, sondern vielmehr schon die Entwicklung eigener Grafikkarten bewerkstelligen konnten – ansonsten würde die im Grafikkarten-BIOS hinterlegte Herstellerkennung nicht auf den Grafikkarten-Hersteller hinweisen, sondern noch auf nVidia selber. Aufgrund der Verschiebung des Turing-Launches steht nVidia augenscheinlich nunmehr schlicht mehr Zeit zur Verfügung, um die Grafikkarten-Hersteller rechtzeitig mit Informationen und Samples zu beliefern, auf das jene mit ihren eigenen Grafikkarten-Designs zeitnaher zum Launch fertig werden können als dies bei anderen Grafikkarten-Launches zu sehen war. Dies wäre dann eine sehr nützliche Verwendung jener Zeitreserven, welche sich nVidia mittels der Turing-Verschiebung aufgebaut hat. Im selbigen Fall (rechtzeitige Information der Grafikkarten-Hersteller) sollte es zudem alsbald auch noch mehr Leaks zu nVidias Turing-Generation geben.

Nachtrag vom 22. Juli 2018

Die Betrachtung des kürzlichen 3DMark13-Wertes zur GeForce GTX 1170 in unserem Forum sowie anderswo im Netz ist recht schwankend – zwischen Hoffung auf derart viel Performance und gleichzeitiger Sorge vor einem Fake. Ein interessanter Standpunkt, welcher beides miteinander verbindet, wurde dabei sogar mehrfach genannt: Wahrscheinlich ist der Benchmark selber Fake, aber der Performance-Punkt könnte am Ende dennoch hinkommen. In jedem Fall ist eine Fälschung spielend einfach zu erreichen, wie der Tech Report demonstriert – und natürlich zeigen inzwischen einfach zu viele Anzeichen auf genau diese Auflösung. Zudem stand von Anfang an der Punkt im Raum, das der angebliche Benchmark-Wert eigentlich etwas zu hoch für eine GeForce GTX 1170 ausfällt, welche schließlich ja nur die zweitschnellste HighEnd-Lösung und damit die drittschnellste insgesamte Lösung im kommenden Turing-Portfolio darstellen dürfte. Im Vergleich zu anderen Generationswechseln bei nVidia fällt auf (Refresh-Generationen nicht einbezogen, da auf gleichen Grafikchips basierend), das nVidia es früher durchaus hinbekommen hat, mit der nur zweitschnellsten HighEnd-Lösung einer neuen Generation die frühere Enthusiasten-Lösung der jeweils alten Generation zu überrunden – dies allerdings immer nur dann, wenn es einen kräftigen Fortschritt bei der Fertigungstechnologie gab.

Generationswechsel Fertigung alte Enhusiasten-Lösung neue HighEnd-Lösung #2 neue HighEnd-Lösung #1
Fermi -> Kepler 40nm -> 28nm GeForce GTX 580 @ 280% GeForce GTX 670 @ 330% GeForce GTX 680 @ 360%
Kepler -> Maxwell 28nm -> 28nm GeForce GTX 780 Ti @ 530% GeForce GTX 970 @ 510% GeForce GTX 980 @ 600%
Maxwell -> Pascal 28nm -> 16nm GeForce GTX 980 Ti @ 750% GeForce GTX 1070 @ 800% GeForce GTX 1080 @ 960%
Pascal -> Turing 16nm -> 12nm GeForce GTX 1080 Ti @ 1150% GeForce GTX 1170 @ ? GeForce GTX 1180 @ ?
Performance-Angaben gemäß dem FullHD Performance-Index

Beim Generationswechsel zwischen Kepler und Maxwell, wo dann jedoch keine neue Fertigungstechnologie zur Verfügung stand, wurde dieser enorme Performancesprung hingegen nicht erzielt – die GeForce GTX 970 landete seinerzeit noch hinter der GeForce GTX 780 Ti (mit dem seinerzeitigen Performance-Ergebnis von 490% sogar noch klarer als heuer mit 510%). Bei diesem bezüglich des Fertigungsprozesses unveränderten Generationswechsel brauchte es dann in der Tat die schnellste HighEnd-Lösung, um besser als die frühere Enthusiasten-Lösung herauskommen. Dabei hatte die Maxwell-Generation mit größeren Chipflächen sowie einem erheblichen und sicherlich nicht so einfach zu wiederholenden Effizienzvorteil schon alle Register gezogen, was man sonst noch so tun kann, wenn man kein neues Fertigungsverfahren zur Verfügung hat. Aber der Vorteil eines (klar) besseren Fertigungsverfahrens ist halt nicht wirklich ersetzbar – was nun für den anstehenden Generationswechsel von Pascal auf Turing bedeutet, das hierbei eher der frühere Generationswechsel von Kepler auf Maxwell als Vergleichsmaßstab taugt, als denn andere Generationswechsel. Damit ist es kaum zu erwarten, das eine GeForce GTX 1170 die jetzige GeForce GTX 1080 Ti schlagen kann, dies dürfte wegen des geringen Vorteils beim Wechsel von der 16nm- auf die 12nm-Fertigung dann doch der GeForce GTX 1180 vorbehalten sein.

Demzufolge muß jetzt auch noch nicht befürchtet werden, das mittels Turing die Grafikkarten-Preise durch die Decke gehen – wenngleich natürlich trotzdem gilt, das nVidia sich mittels Turing derzeit nur selber Konkurrenz macht und rein technisch somit alles verlangen könnte. Aber rein praktisch sinken die Kartenverkäufe erheblich, wenn gewisse Preismarken überschritten werden, ganz egal der dabei gebotenen Performance. Die Grafikkarten-Käufer selbst des Enthusiasten-Segments sind einfach nicht bereit, in Masse oberhalb gewisser Preispunkte zu gehen – wie kürzlich schon mittels einer Umfrage belegt. nVidia ist somit zu einer politischen Preisfestsetzung gezwungen – und da man sowieso schon vergleichsweise hohe Preise hat, sollte es eigentlich nicht mehr wesentlich weiter oben gehen können. Beim Turing-Launch dürfte dann auch eine gewisse Erfahrung ob des aktuellen nVidia-Releaseschemas existieren, womit man weniger bereit ist, einer GeForce GTX 1180 besonders viel Geld hinterzuwerfen – wohlwissend, das da ja sowieso noch eine (schnellere) GeForce GTX 1180 Ti folgen wird. Eine große Rolle dürfte auch die Speicherbestückung bezüglich der Turing-Preise spielen: Sofern nVidia bei den kommenden HighEnd-Modellen wieder nur 8 GB Speicher bietet, muß man sich preislich vermutlich eher bedeckt halten – nur dann, wenn es mehr Grafikkartenspeicher gibt, wären höhere Preislagen überhaupt verkaufspsychologisch darstellbar.