22

Hardware- und Nachrichten-Links des 22. Juli 2016

Zur ziemlich überraschend vorgestellten Titan X (nicht nur das "GTX" fehlt im offiziellen Namen, sondern auch das "GeForce") gibt es natürlich reichlich Diskussionen – meistens allerdings nicht zur Karte selber, sondern eher zu weiteren GP102-Varianten. Der bei der Titan X offensichtlich nicht voll ausgenutzte GP102-Chip könnte zum einen im Vollausbau noch für eine hypothetische "Titan Black" verwendet werden, zum anderen wird allgemein noch eine weitere Salvage-Version unter der sich automatisch anbietenden Namensgebung "GeForce GTX 1080 Ti" erwartet. Bei letzterer wird es interessant werden zu sehen, wie nVidia jene bei der Speichermenge versucht zu beschneiden, damit man nicht dieselben 12 GB Speicher wie bei der Titan X anbietet: Nur 6 GB sind sicherlich zu wenig gegenüber den bereits existierenden 8 GB bei der GeForce GTX 1080 – und 12 GB würde wie gesagt dem Standard der Titan X entsprechend und somit letztere entwerten.

An dieser Stelle könnten dann erstmals die besonderen Möglichkeiten von GDDR5X genutzt werden, da dort auch Speicherchips mit "krummen" Speichermengen von 0,75 und 1,5 GB pro Speicherchip spezifiziert wurden. Bei 12 Stück Speicherchips (die Anzahl ergibt sich automatisch durch das 384 Bit breite Speicherinterface) und der Verwendung von 0,75-GB-Chips kann man auf einer Speicherbestückung von 9 GB landen – nicht schlechter als bei der GeForce GTX 1080, aber noch nicht auf dem Niveau der Titan X und damit die ideale Speicherbestückung einer GeForce GTX 1080 Ti. Die Frage ist natürlich, ob die Speicherchiphersteller jene 0,75-GB-Chips auch wirklich herstellen bzw. ob deren Produktion nur für einen einzelnen Abnehmer nicht eventuell zu teuer ist. In dieser Frage muß man sich schlicht überraschen lassen. Offen ist zudem natürlich auch die generelle Ausrichtung einer GeForce GTX 1080 Ti: Man kann jene durchaus langsamer werden lassen als die Titan X – oder auch ähnlich schnell mit jedoch besseren Übertaktungseigenschaften, so wie es bei der GeForce GTX 780 Ti der Fall war.

In diesen Fragen dürfte nVidia wohl eher abwarten und schauen, wie sich der Markt entwickelt bzw. was AMD mit seinen Vega-Chips als Konkurrenz-Angebote aufbieten kann. Demzufolge kann es gut und gerne passieren, das weitere GP102-Varianten erst ein Thema des Jahres 2017 sind – nicht, weil nVidia nicht könnte, sondern weil man derzeit überhaupt nichts tun muß. Schon GeForce GTX 1070 & 1080 stehen derzeit konkurrenzlos da, die Titan X ist es sowieso. Zwischen GeForce GTX 1080 und Titan X ist – den hohen Preisen zur GeForce GTX 1080 "gedankt" – auch kein besonders extremer Preisabstand zu sehen, welcher jetzt unbedingt noch eine weitere Grafikkarte in der Mitte dessen bedingt. Dies könnte sich zu einem späteren Zeitpunkt ergeben, wenn die Preise zur GeForce GTX 1080 etwas gesunken sind – dann wäre eine GeForce GTX 1080 Ti auf einem Listenpreis von 999 Dollar eine gute Annahme. Aber wie gesagt dürfte nVidia derzeit das weitere Geschehen abwarten und daher diese Karte nicht so schnell herausbringen, wie es sich einige erhoffen.

Derweil wird in unserem Forum darüber diskutiert, wieso AMD bei der Recheneffizienz weiterhin bemerkbar zurückliegt respektive die GCN4-Architektur von Polaris in dieser Frage keinen wirklich großen Schritt nach vorn gemacht hat. Lesenswerte Postings hierzu sind No.1 & No.2 – wobei deren verschiedenen Gedankenansätze auf zwei große Punkte hinauslaufen: Erstens hat die GCN-Architektur einen prinzipbedingten Nachteil, da jene als Allzweckwaffe konzipiert ist – man kann alle Arten von Anwendungen recht einfach damit abdecken, insbesondere auch HPC-Lösungen. nVidia hat sich hingegen in seinen letzten beiden Architektur-Generationen (Maxwell & Pascal) immer weiter von diesem Ansatz entfernt, am Ende steht in der Pascal-Architektur dann gar die Abtrennung der HPC-Aufgaben in Form eines eigenen Chips (GP100) – womit man die Gaming-Chips um so expliziter nur auf diesen Einsatzzweck hin ausrichten kann. Und zweitens zeigt sich letztlich auch nur das viel höhere Forschungsbudget von nVidia – während AMD hingegen diverse Kürzungsrunden durch hat, welchen auch viel Manpower zum Opfer fiel.

nVidia investiert nicht nur mehr Geld ins Chipdesign, sondern auch in die Softwareoptimierung, welche das Maximum aus dem Chip herauspresst – augenscheinlich so viel mehr, das hierbei ernsthafte Unterschiede zu AMD erreicht werden können. Für derart tiefgehende Feinarbeit hat AMD einfach nicht das Geld (um sich die dafür benötigte Manpower einkaufen zu können), dafür sah die AMD-Geschäftsentwicklung in den letzten Jahren zu schlecht aus. AMD kann eben nur mit seinen arg begrenzten Ressourcen arbeiten – und so lange es der Wettbewerb wirklich wissen will, hat man eigentlich keine großen Chancen. Gegenüber nVidia sehen AMDs Karten damit immer etwas ungünstig aus – gegenüber Intel hat AMD dagegen bessere Karten, da Intel zuletzt den technischen Fortschritt kaum noch gepuscht und sich eher aufs Geldverdienen konzentriert hat. Regulärerweise kann AMDs "entwicklungskostenoptimierter" Ansatz jedoch nur eine gewisse Zeit funktionieren – langfristig müssen echte Erfolge (samt Einnahmen & Gewinnen) her, denn technischen Wettbewerb auf diesem hohen, sehr kostenintensiven Niveau kann man unmöglich auf längere Sicht bestehen, wenn man ein viel kleineres Forschungsbudget ins Feld führt.

In den News des 19./20. Juli war noch ein dicker Zahlendreher-Fehler: Die relative Differenz beim Chippreis zwischen GM206 und GP106 (19,90 zu 33,30 Dollar) wird durch die abweichende Chipfläche (227 zu 200mm²) erhöht und nicht abgesenkt. Im Endeffekt kostet nVidia die Pascal-Fertigung somit chipflächennormiert satte 90% mehr – zumindest bezogen auf dieses Beispiel von GM206 & GP106, leider gibt es kein weiteres Datenmaterial zu dieser Thematik. Ganz grob und nur auf den Grafikchip selber bezogen dürfte nVidia bei Pascal die Grafikchips nur glatt halbieren – wenn man keine Kostensteigerung (beim Grafikchip) haben wollte. Nicht eingerechnet ist hierbei natürlich der Punkt, das kleinere Grafikchips dann die Tendenz zu kostengünstigeren Grafikboards auslösen, gerade wenn die Stromversorgung weniger leistungsfähig ausfällt. Am Ende der Geschichte steht für den Grafikchip-Entwickler deshalb immer ein Mix der Eigenschaften: Nicht ganz so große Grafikchip, um die Kostenlage nicht explodieren zu lassen – aber natürlich auch keine halbierten Grafikchips, denn damit erreicht man letztlich viel zu wenig Mehrperformance.