15

Hardware- und Nachrichten-Links des 15. Februar 2019

Wie in unserem Forum richtig angemerkt, wird der TU116-Chip von GeForce GTX 1660 & 1660 Ti eine nominell eher seltsame Konstruktion: Fast genauso groß wie der GP104-Chip von GeForce GTX 1070, 1070 Ti und 1080, aber in der Spitze vermutlich klar langsamer als jener. Denn eine GeForce GTX 1080 (Perf.Index 960%) wird wohl weiterhin deutlich vor der GeForce GTX 1660 Ti herauskommen, welche im FullHD Performance-Index derzeit auf einen Wert von ca. 770-820% geschätzt werden kann. Die GeForce GTX 1660 Ti kommt damit eher denn auf der Performance-Höhe der GeForce GTX 1070 (Perf.Index 800%) heraus – welche allerdings die kleinste GP104-basierte Grafikkarte darstellt. So gesehen könnte sich nVidia die Auflage neuer Turing-Beschleuniger in diesem Preissement eigentlich fast sparen – und die alten Pascal-Beschleuniger weiter benutzen, der Kostenfaktor dürfte schließlich (bei gleicher Chipfläche) ähnlich liegen. Gegen diese These spricht allerdings der Punkt, das sich neue Angebote prinzipiell besser als alte Angebote verkaufen.

Pascal Turing
Chipfläche ~300mm² GP104 auf 314mm²
max. 2560 SE @ 256 Bit GDDR5X-Interface
max. 4K Perf.Index 132% (GTX1080)
TU116 auf ~285mm²
max. 1536 SE @ 192 Bit GDDR6-Interface
max. 4K Perf.Index ~100-105% (GTX1660Ti)
Chipfläche ~450mm² GP102 auf 471mm²
max. 3840 SE @ 384 Bit GDDR5X-Interface
max. 4K Perf.Index 173% (GTX1080Ti)
TU106 auf 445mm²
max. 2304 SE @ 256 Bit GDDR6-Interface
max. 4K Perf.Index 151% (RTX2070-FE)
jeweilige Vorteile effizienter pro Chipfläche unter heutigen Spielen effizienter pro Shader-Einheit unter heutigen Spielen, zuzüglich RayTracing-Feature (nicht bei TU116/TU117) sowie modernere Architektur mit eventuell weiteren Effizienzverbesserungen unter zukünftigen Spielen

Es lohnt sich halt meistens doch, mit ähnlicher Kostenlage etwas neues mit letztlich gleicher Performance aufzulegen, das neue Angebot verkauft sich dann besser als wenn man das alte Angebot einfach behalten hätte. Im Fall der GeForce GTX 1660 Ti kommt noch hinzu, das andere Punkte die Karte als leicht kosteneffizienter für nVidia erscheinen lassen: Die TDP dürfte mit um die 120 Watt geringer als jene der GeForce GTX 1070 (150W) ausfallen, womit die Grafikplatinen einfacher bzw. kleiner ausfallen können. Es gibt zudem 2 GB weniger Grafikkartenspeicher, auch dies spart dann noch einmal etwas ein. Letztlich zeigt sich dies auch am Preispunkt, welchen nVidia für die GeForce GTX 1660 Ti wohl bei 279 Dollar ansetzen wird – die GeForce GTX 1070 ging dagegen seinerzeit mal für 379 Dollar in den Handel und blieb auch lange Zeit auf dieser Preislage (ist inzwischen im Abverkauf natürlich günstiger zu bekommen). Hinzu kommt als internes Argument bei nVidia sicherlich auch der Punkt, das man mittels des TU116-Chips letztlich die Turing-Architektur im ganzen stärkt – was wichtig für deren möglichst breite Nutzung bei den Spieleentwicklern ist. Für nVidia spricht also sehr viel dafür, lieber einen neuen Turing-Beschleuniger als einen alten Pascal-Beschleuniger zu verkaufen.

Und für die Gamer muß dies auch kein Nachteil sein, immerhin begründet sich die nahezu gleich große Chipfläche (bei deutlich weniger Shader-Einheiten) primär durch Architektur-Verbesserungen, welche die Karte ihre Arbeit effizienter erledigen lassen und zukünftig eventuell auch noch für größere Performance-Differenzen sorgen können, als es heute der Fall ist. An dieser Stelle werden gern die Architektur-Verbesserungen von Turing vergessen, weil das Hauptaugenmerk bei Turing eher in Richtung der RayTracing-Funktionalität ging – dabei ist Turing aber auch in Fragen der konventionellen Grafikchip-Architektur deutlich anders aufgebaut. Ob es ein solch großer Sprung ist wie von Kepler zu Maxwell, muß sich dann noch im langfristigen Einsatz erweisen: Derzeit ist der Effizienzsprung bei Pascal zu Turing noch nicht so hoch – es gibt aber durchaus das Potential, das sich dies später noch verbessern könnte. In jedem Fall kann man jetzt schon sagen, das Turing-Beschleuniger für die gleiche Performance mit deutlich geringerer Anzahl an Shader-Einheiten (bei nahezu denselben Taktraten) auskommen, hier in jedem Fall ein Effizienzvorteil vorliegt. Das jener Transistoren und somit Chipfläche kostet, ist dann wiederum obligatorisch.

Aus dem Forum von Battlefield.com (via PC Games Hardware) kommt ein Diskussionsbeitrag, welcher die Radeon VII und generell AMDs Ansatz der MultiCore-Optimierung als besser geeignet für Battlefield V und weitere Spiele auf Basis der Frostbite-Engine geeignet ansieht. Grundlage hierfür ist die Beobachtung, das die CPU-Belastung auf der AMD-Grafikkarte gleichförmiger über alle CPU-Kerne verläuft, während bei nVidia-Grafikkarten meist einzelne Kerne voll ausgelastet werden und damit potentiell eher limitieren können. Die Grundlage für dieses Verhalten soll in der Treiber-eigenen MultiCore-Optimierung bei nVidia liegen – welche nVidia in der Vergangenheit wie bekannt entscheidend geholfen hat, nun aber bei seitens des Spieleentwicklers auf MultiCore-Umgebungen optimierten Spieletitel durchaus auch in ihr Gegenteil umschlagen kann. So zumindest die These aus dem Forum von Battlefield.com – welche sich interessant anhört, allerdings aufgrund nur einzelner Benchmarks bzw. Diagrammen nicht wirklich als bewiesen gelten kann.

Wenigstens wird der Gehalt diese These durch das bekannte Verhalten gestärkt, das AMD-Grafikkarten unter DirectX 11 schneller CPU-limitiert als nVidia-Grafikkarten sind, jener Effekt aber unter dem für eine CPU-Entlastung sorgenden DirectX 12 dann wiederum aufgehoben ist. Ob nVidia hier allerdings wirklich ein Nachteil unter zukünftigen Spielen droht, ist dann noch einmal eine ganz andere Geschichte – nVidia könnte schließlich auch einfach zum Modell von AMD übergehen bzw. je nach Spiel jeweils anders operieren. Die weiterhin aufgestellte These, das sich Battlefield V zukünftig unter AMD-Hardware besser entwickeln wird, kann somit letztlich nur durch die Praxis bewiesen werden – welche es schlicht abzuwarten gilt. Vermutlich dürfte aber eher der Punkt zutreffen, das keiner der Grafikchip-Entwickler für bereits veröffentlichte Spiele noch wirklich viel Arbeit investiert, so daß sich deren Performance auch über die Zeit kaum noch beachtbar verändern dürfte. Die Konzentration beider Grafikchip-Entwickler gilt halt üblicherweise deren Day-1-Treibern zum Spiellaunch – jene müssen gutklassig sein, etwaige Performanceverbesserungen danach werden dagegen üblicherweise kaum noch medial wahrgenommen.