22

Hardware- und Nachrichten-Links des 21./22. Juli 2018

Die Betrachtung des kürzlichen 3DMark13-Wertes zur GeForce GTX 1170 in unserem Forum sowie anderswo im Netz ist recht schwankend – zwischen Hoffung auf derart viel Performance und gleichzeitiger Sorge vor einem Fake. Ein interessanter Standpunkt, welcher beides miteinander verbindet, wurde dabei sogar mehrfach genannt: Wahrscheinlich ist der Benchmark selber Fake, aber der Performance-Punkt könnte am Ende dennoch hinkommen. In jedem Fall ist eine Fälschung spielend einfach zu erreichen, wie der Tech Report demonstriert – und natürlich zeigen inzwischen einfach zu viele Anzeichen auf genau diese Auflösung. Zudem stand von Anfang an der Punkt im Raum, das der angebliche Benchmark-Wert eigentlich etwas zu hoch für eine GeForce GTX 1170 ausfällt, welche schließlich ja nur die zweitschnellste HighEnd-Lösung und damit die drittschnellste insgesamte Lösung im kommenden Turing-Portfolio darstellen dürfte. Im Vergleich zu anderen Generationswechseln bei nVidia fällt auf (Refresh-Generationen nicht einbezogen, da auf gleichen Grafikchips basierend), das nVidia es früher durchaus hinbekommen hat, mit der nur zweitschnellsten HighEnd-Lösung einer neuen Generation die frühere Enthusiasten-Lösung der jeweils alten Generation zu überrunden – dies allerdings immer nur dann, wenn es einen kräftigen Fortschritt bei der Fertigungstechnologie gab.

Generationswechsel Fertigung alte Enthusiasten-Lösung neue HighEnd-Lösung #2 neue HighEnd-Lösung #1
Fermi -> Kepler 40nm -> 28nm GeForce GTX 580 @ 280% GeForce GTX 670 @ 330% GeForce GTX 680 @ 360%
Kepler -> Maxwell 28nm -> 28nm GeForce GTX 780 Ti @ 530% GeForce GTX 970 @ 510% GeForce GTX 980 @ 600%
Maxwell -> Pascal 28nm -> 16nm GeForce GTX 980 Ti @ 750% GeForce GTX 1070 @ 800% GeForce GTX 1080 @ 960%
Pascal -> Turing 16nm -> 12nm GeForce GTX 1080 Ti @ 1150% GeForce GTX 1170 @ ? GeForce GTX 1180 @ ?
Performance-Angaben gemäß dem FullHD Performance-Index

Beim Generationswechsel zwischen Kepler und Maxwell, wo dann jedoch keine neue Fertigungstechnologie zur Verfügung stand, wurde dieser enorme Performancesprung hingegen nicht erzielt – die GeForce GTX 970 landete seinerzeit noch hinter der GeForce GTX 780 Ti (mit dem seinerzeitigen Performance-Ergebnis von 490% sogar noch klarer als heuer mit 510%). Bei diesem bezüglich des Fertigungsprozesses unveränderten Generationswechsel brauchte es dann in der Tat die schnellste HighEnd-Lösung, um besser als die frühere Enthusiasten-Lösung herauskommen. Dabei hatte die Maxwell-Generation mit größeren Chipflächen sowie einem erheblichen und sicherlich nicht so einfach zu wiederholenden Effizienzvorteil schon alle Register gezogen, was man sonst noch so tun kann, wenn man kein neues Fertigungsverfahren zur Verfügung hat. Aber der Vorteil eines (klar) besseren Fertigungsverfahrens ist halt nicht wirklich ersetzbar – was nun für den anstehenden Generationswechsel von Pascal auf Turing bedeutet, das hierbei eher der frühere Generationswechsel von Kepler auf Maxwell als Vergleichsmaßstab taugt, als denn andere Generationswechsel. Damit ist es kaum zu erwarten, das eine GeForce GTX 1170 die jetzige GeForce GTX 1080 Ti schlagen kann, dies dürfte wegen des geringen Vorteils beim Wechsel von der 16nm- auf die 12nm-Fertigung dann doch der GeForce GTX 1180 vorbehalten sein.

Demzufolge muß jetzt auch noch nicht befürchtet werden, das mittels Turing die Grafikkarten-Preise durch die Decke gehen – wenngleich natürlich trotzdem gilt, das nVidia sich mittels Turing derzeit nur selber Konkurrenz macht und rein technisch somit alles verlangen könnte. Aber rein praktisch sinken die Kartenverkäufe erheblich, wenn gewisse Preismarken überschritten werden, ganz egal der dabei gebotenen Performance. Die Grafikkarten-Käufer selbst des Enthusiasten-Segments sind einfach nicht bereit, in Masse oberhalb gewisser Preispunkte zu gehen – wie kürzlich schon mittels einer Umfrage belegt. nVidia ist somit zu einer politischen Preisfestsetzung gezwungen – und da man sowieso schon vergleichsweise hohe Preise hat, sollte es eigentlich nicht mehr wesentlich weiter oben gehen können. Beim Turing-Launch dürfte dann auch eine gewisse Erfahrung ob des aktuellen nVidia-Releaseschemas existieren, womit man weniger bereit ist, einer GeForce GTX 1180 besonders viel Geld hinterzuwerfen – wohlwissend, das da ja sowieso noch eine (schnellere) GeForce GTX 1180 Ti folgen wird. Eine große Rolle dürfte auch die Speicherbestückung bezüglich der Turing-Preise spielen: Sofern nVidia bei den kommenden HighEnd-Modellen wieder nur 8 GB Speicher bietet, muß man sich preislich vermutlich eher bedeckt halten – nur dann, wenn es mehr Grafikkartenspeicher gibt, wären höhere Preislagen überhaupt verkaufspsychologisch darstellbar.

Noch viel intensiver wird dann die kürzliche Meldung zu 16-Kern-Prozessoren im normalen Consumer-Segment mittels AMDs Zen-2-Generation in unserem Forum diskutiert. Gerade gegenüber dem Status Quo vor dem Eintritt von AMDs Zen-Architektur ins Marktgeschehen ist dies ein enormer (doppelter) Dimensionssprung: Während bis zum Jahr 2016 Vierkern-Prozessoren lange Zeit die Angebotsspitze im normalen Consumer-Segment dominierten, wird AMD dies nun nach nur drei Jahren auf gleich 16-Kern-Prozessoren steigern. Ob AMD jene ManyCore-Prozessoren noch zu den üblichen Preislagen herausbringt, bleibt sicherlich abzuwarten – allerdings existieren hier sozusagen natürliche Linien mittels des Threadripper-Preisgefüges oder auch den aktuellen Preisen für Ryzen-Achtkerner, kann AMD also kaum vollens mit der Preiskeule zuschlagen. Gut möglich, das AMD selbst Zen 2 noch auf vergleichsweise humanen Preispunkten ähnlich wie in der ersten Ryzen-Generation bringt (Ryzen 7 1800X startet seinerzeit mit einem Listenpreis von 499 Dollar) – die Chipfläche eines 7nm-Dies sollte schließlich sogar etwas kleiner als bei einem aktuellen 16nm- oder 12nm-Die ausfallen.

Davon abgesehen ist natürlich die große Frage zwischen den Diskutierenden, was man denn nun mit den vielen CPU-Kernen anfangen kann. Die Meinungen hierzu gehen weit auseinander: Die einen freut es einfach, das es nach den Jahren der geringen Fortschritte im CPU-Bereich mal wieder wirklich vorangeht – und man verweist auch auf den Punkt, das kein Software-Entwickler irgendwelche Multithread-Optimierungen anfängt, sofern es keine breit verfügbaren Prozessoren hierfür gibt (ein typisches Henne/Ei-Problem). Die anderen sehen die Schwierigkeit, genau dies in der Mehrzahl der typischen Consumer-Software umzusetzen – was zumeist Spiele sind. Die Ironie liegt ja darin, das jetzt schon die vorhandenen ManyCore-Prozessoren des HEDT-Segments ihre Vorteile nur unter Anwendungs-Software zeigen können – und dort auch zumeist nur unter Anwendungen, die der Normalbürger eher selten wirklich benutzt (Videorendering) oder wo ein sich ergebender Performance-Gewinn kaum eine praktische Relevanz entwickelt (Packprogramme, Office-Anwendungen). Dort, wo Mehrleistung in jedem Fall noch verpulvert werden könnte (Spiele), kommen ManyCore-Prozessoren allerdings nur auf unterdurchschnittliche Ergebnisse, müssen sich zumeist den Consumer-Prozessoren mit deutlich geringerer Kern-Anzahl geschlagen geben.

(vorläufiger) Index zur Spiele-Performance  (FullHD 1% min)
100% Core i7-8700K 6C +HT, 3.7/4.7 GHz, 95W TDP, 359$
8C +SMT, 3.7/4.3 GHz, 105W TDP, 329$ Ryzen 7 2700X 90% Core i7-7700K 4C +HT, 4.2/4.5 GHz, 91W TDP, 339$
~90% Core i9-7900X 10C +HT, 3.3/4.3 GHz, 140W TDP, 989$
~90% Core i7-7820X 8C +HT, 3.6/4.3 GHz, 140W TDP, 589$
~88% Core i7-7800X 6C +HT, 3.5/4.0 GHz, 140W TDP, 383$
16C +SMT, 3.4/4.0 GHz, 180W TDP, 999$ Threadripper 1950X ~84%
8C +SMT, 3.6/4.0 GHz, 95W TDP, 349$ Ryzen 7 1800X 83%
12C +SMT, 3.5/4.0 GHz, 180W TDP, 799$ Threadripper 1920X ~82%
8C +SMT, 3.6/4.0 GHz, 180W TDP, 449$ Threadripper 1900X ~81%
Dieser Index basiert speziell bei den HEDT-Prozessoren zumeist nur auf wenigen Meßwerten, ist also mit etwas Spielraum zu sehen.

Natürlich existieren derzeit keine Spiele, welche wegen dieses Performance-Rückstands auf einem ManyCore-Prozessor irgendwelche Leistungsprobleme hätten – was aber um so mehr die Frage aufwirft, was man mit diesen im Spiele-Alltag nunmehr anfangen soll. Kurzfristig dürfte sich hierbei kaum eine Lösung ergeben – aber natürlich hat der CPU-Käufer immer noch die Wahl, wieviele CPU-Kerne für die konkrete Aufgabenstellung sinnvollerweise zu kaufen sind. Die ManyCore-Prozessoren drücken im Endeffekt auch die Preise der "normalen" Modelle mit 4-8 CPU-Kernen herunter, haben demzufolge indirekt auch sehr positive Auswirkungen für alle CPU-Käufer. Und langfristig kann man sich Hoffnungen darauf machen, das die Spieleentwickler dieser enormen Zunahme bei der Anzahl der CPU-Kerne irgendwann Rechnung tragen – und die damit angebotene Rohleistung auch wirklich ausnutzen. Einfach wird dies allerdings nicht werden, da eine Mehrkern-Optimierung mit steigender Kern-Anzahl speziell im Spiele-Bereich immer schwerer zu realisieren ist, zudem die einfach zu erzielenden Optimierungen mehrheitlich bereits erreicht wurden.