7

Hardware- und Nachrichten-Links des 7. April 2020

Im Zuge der Vorstellung von nVidias "SUPER"-Refresh im Mobile-Segment fiel auf, das nVidia derzeit für die (weiterlaufende) "GeForce RTX 2060 Mobile" leicht abweichende Spezifikationen auf der Produkt-Webseite gegenüber den ursprünglichen Angaben zur Vorstellung dieser Mobile-Lösung im Januar 2019 notiert: Der Spielraum beim Boosttakt von nunmehr 1185-1200 MHz gegenüber vorher fest 1200 MHz mag keinen großen Unterschied ausmachen, aber der TDP-Spielraum von nunmehr 65-90 Watt ist deutlich größer als die ursprüngliche Angabe von 80-90 Watt. Damit sind auch vergleichsweise leichte Notebooks mit dieser "GeForce RTX 2060 Mobile" realisierbar, dann natürlich unter Inkaufnahme einer etwas niedrigeren Grafik-Performance. Im Zuge dessen wurde auch die Performance-Abschätzung zur GeForce RTX 2060 Mobile entsprechend angepasst – wobei selbige weiterhin unter dem Vorbehalt steht, das es sich hierbei nur um eine Abschätzung abhand von Taktraten, TDPs & Erfahrungswerten handelt. Möglicherweise kommen die Mobile-Beschleuniger wirklich näher an ihre Desktop-Pendants heran, dies bedingt allerdings einen besseren Beweis als die kürzlichen 3DMark-Messungen.

GeForce RTX 2060 MaxQ & Mobile GeForce RTX 2060 Desktop (Ref.)
Hardware TU106, 1920 SE @ 192 Bit GDDR6 TU106, 1920 SE @ 192 Bit GDDR6
Taktraten 960/1185-1200/≤3500 MHz 1365/1680/3500 MHz
Speicherausbau 6 GB GDDR6 6 GB GDDR6
TDP konfigurierbar 65 bis 90 Watt (GSP) 160 Watt (GCP)
UltraHD Perf.Index je nach Taktrate/TDP ~70-90% 123%

Eine Analyse bei der PC Games Hardware geht der Frage nach, wie gut sich (hochklassige) QuadCore-Prozessoren heutzutage noch in Spielen schlagen. Als Testobjekt wurde dabei ein (auf 4.8 GHz hochgezogener) Core i7-7700K als letztes Top-Modell auf Vierkern-Basis gegen den 16-Kerner Ryzen 9 3950X gestellt, wobei mit 0,1% Perzentil, Adaptive STDEV fps & Stuttering Time gleich drei verschiedene Methoden benutzt wurden, um die wirkliche Spielbarkeit abseits der reinen durchschnittlichen Framerate darzustellen. Je eingehender man sich diesen Werten beschäftigt, um so geringer werden dann die Abstände zwischen 4- und 16-Kerner – wobei der Vierkerner natürlich nur wegen seiner guten Taktrate mithalten kann, welche der 16-Kerner (default 3.5/4.7 GHz) im Spieleeinsatz eigentlich nie erreicht. Den ganz großen, sofort ersichtlichen Unterschied zugunsten des 16-Kerners gibt es – abgesehen von den durchschnittlichen Frameraten unter der allerdings CPU-limitiernden Auflösung von 1280x720 – eigentlich nicht. Dies soll dann natürlich auch keine Aufforderung zum Neukauf von Vierkern-Prozessoren sein – aber zumindest zwingt die aktuelle Software-Lage noch nicht dazu, ein vorhandenes gutklassiges Vierkern-Modell umgehend abzustoßen.

Die große Frage ist dann allerdings, wie sich diese Entwicklung in absehbarer Zukunft gestaltet. Auf der einen Seite gibt es die Argumentation, das nachdem zuerst Zweikerner und dann Vierkerner gut von modernen Spielen ausgelastet werden konnten, dies auch eines Tages auf Achtkerner zutreffen dürfte. Hierbei zieht man genauso die kommenden NextGen-Spielekonsolen als Maßstab heran, welche wie bekannt beiderseits mit einem Zen-2-basierten Achtkerner aufwarten können. Die Gegenseite gibt allerdings zu bedenken, das es bei Videospielen in aller Regel nicht unendlich viele Möglichkeiten gibt, die anstehende CPU-Arbeit aufzuteilen bzw. derart gleichmäßig aufzuteilen, das man größere Prozessoren als Vierkerner auch anständig auslasten kann. Einfach nur einen beliebigen Arbeitsschritt auf einen anderen CPU-Thread auszulagern, bringt schließlich nichts, wenn selbiger nur minimale Prozentanteile an Rechenzeit benötigt und somit nicht für eine spürbare Entlastung sorgt. Die wirklich hauptsächlichen Rechenzeit-Verbraucher dagegen auf mehrere CPU-Threads aufzuteilen, ist manchmal technisch nicht möglich, manchmal auch extrem aufwendig – und wird daher nur dann gemacht, wenn es gar nicht mehr anders geht, ansonsten aber eher vermieden. Langfristig wird sicherlich auch diese Problematik einer Lösung zugeführt werden – aber kurzfristig könnten viele Spieleentwickler erst einmal mit dem heftigen Schub bei der CPU-Performance mittels der NextGen-Konsolen zufrieden sein.

Derzeit werden in der IT-Presse teilweise wieder die Fortschritte des chinesischen Halbleiterfertigers SMIC erwähnt – dies jedoch unter dem Stichwort einer angeblichen "7nm-Fertigung". Allerdings ist der "N+1" Prozeß von SMIC von echten 7nm-Produkten von Samsung & TSMC noch einigermaßen weit entfernt, denn bei einem Logik-Flächenreduktion von -63% (Gesamt-Flächenreduktion von -55%) zuzüglich einem Taktraten-Plus von +20% oder einer Stromverbrauchs-Ersparnis von -57%, alles gerechnet gegenüber der 14nm-Fertigung, landet man grob in der Klasse der 10nm-Fertigung. Zudem ist speziell der "N+1" Prozeß auch eher für kostengünstige Produkte der Massenfertigung gedacht – während der nachfolgende "N+2" dann gewisse Verbesserungen zugunsten besonders performanter Chips bringen soll, dafür aber auch mehr kostet. Vorbehaltlich einer exakten Einstufung dieser Halbleiterfertigung beispielsweise seitens WikiChip sollte man hierbei nicht unbedingt von einem 7nm-Node, sondern eher von einem besseren 10nm-Node ausgehen. Jener reicht aber trotzdem aus, um Chinas langfristigen Planungen zu genügen, sich auch in der Halbleiterfertigung von der westlichen Welt unabhängig zu machen – und natürlich dürfte es auch nach N+1 & N+2 bei SMIC mit weiteren Fertigungsstufen weitergehen.