13

Hardware- und Nachrichten-Links des 13. November 2018

Mit einem Statement gegenüber Notebookcheck ist AMD in der Frage der IPC-Zugewinne von Zen 2 auf die Bremse getreten. Man erklärt hierbei, das die (selber) ausgemessenen +29,4% unter einer spezifischen Aufgabenstellung aus dem Finanzbereich zustandekommen – und damit nicht zu verallgemeinern sind. Ähnliches war bereits zu erwarten, denn jene +29% (gegenüber Zen 1) sind einfach zu viel für eine reine Architektur-Optimierung, dies würde eher denn einer neuen Architektur entsprechen. Sicherlich kann AMD hierbei auch gut von der (nominell) verdoppelten FPU-Performance profitieren – wobei selbige natürlich auch andere Benchmarks beeinflußen kann, dies hängt einfach davon ab, wieviel FPU-Code die jeweilige Anwendung trägt. Man kann somit jene +29% als einen Bestcase ansehen – und davon ausgehend schätzen, das es im Durchschnitt auf 10-15% mehr IPC-Performance hinauslaufen könnte. Dies wäre immer noch sehr stattlich, denn gemeinsam mit dem erwarteten Taktratenschritt sollte somit auf angenommen 4.5 GHz eine insgesamte Performance-Steigerung von +35-40% gegenüber Zen 1 herauskommen (entspricht ca. +20-25% gegenüber Zen+).

The data in the footnote represented the performance improvement in a microbenchmark for a specific financial services workload which benefits from both integer and floating point performance improvements and is not intended to quantify the IPC increase a user should expect to see across a wide range of applications.
Quelle:  AMD-Statement gegenüber Notebookcheck vom 13. November 2018

Damit würde man beispielsweise den Core i9-9900K in der Anwendungs-Performance glatt einholen bzw. leicht überbieten können – eine auch schon hohe Zielsetzung. Denn immerhin hat Intel beim Core i9-9900K wirklich alles an Reserven in die Waagschale geworfen, was noch mitnehmbar war, inklusive auch eines die TDP klar durchbrechenden realen Stromverbrauchs. Wenn AMD beispielsweise diese Anwendungs-Performance erreichen könnte, selbige allerdings ohne den (klaren) Bruch der TDP erzielt, hätte man einen wirklichen Gewinner an der Hand. Allerdings wären auch alle Ergebnisse nur in der Nähe der Intel-Performance schon als gutklassig zu betrachten, bedenkt man aus welcher Ausgangslage AMD in diesen Wettbewerb mit Intel gegangen ist. Sobald AMD mittels Zen 2 Intel bei der Insgesamt-Performance auf gleicher Kern-Anzahl halbwegs einholen könnte, würde sich im übrigen die interessante Situation ergeben, das Intel dann plötzlich gezwungen wäre, preislich zu reagieren, wenn man auf Technik-Seite keinen wirklichen Vorsprung mehr innehat. Das CPU-Jahr 2019 wird damit sicherlich sehr spannend werden.

Im Zuge der Meldung über AMDs RayTracing-Antwort gab es im Forum einige interessante Kommentare, welche sich auf die RayTracing-Durchsetzung beziehen. So wird bezweifelt, das so bald wirklich reine RayTracing-Beschleuniger geben kann, aus zwei Gründen: Erstens einmal wird dies aufgrund des enormen Leistungsbedarfs von vollständigem RayTracing noch vergleichsweise lange brauchen. Heutige Beschleuniger sollen hierzu nicht nur im Maßstab von 4-5x zu langsam sein, sondern hingegen eher im Maßstab 300-500x. Es bleibt zu hoffen, das es real nicht ganz so viel ist bzw. das diverse Rendering-Tricks zur Leistungseinsparung gefunden werden können. Denn für für 300-500x höhere Rohleistung würde man regulär 9-10 Fullnodes in der Fertigungstechnologie benötigen, die dann auch jeweils eine glatte Performance-Verdopplung aufbieten müssen. Ob dies mit Silizium-basierter Technik noch hinzubekommen sein wird, wäre zu bezweifeln – denn dies entspräche hochgerechnet einer Silizium-basierten Fertigungstechnologie auf 0,02mm², was auf die Größe einzelner Atome hinausläuft.

Und zweitens wird (korrekterweise) angemerkt, das sich viele Dinge auch in Zukunft mit Rasterizer-Grafik effektiver lösen lassen als mittels RayTracing – was ja gerade in Bezug auf die vorgenannte Performanceproblematik eine sicherlich notwendige Entlastung bringen kann. Somit dürfte es kaum reine RayTracing-Beschleuniger in absehbarer Zukunft geben, jene werden immer einen (nicht unwesentlichen) Rasterizer mit sich bringen – und somit auch immer Abwärtskompatibilität zu den aktuellen und vergangenen Spielen auf reiner Rasterizer-Grafik bieten. Beide Anmerkungen laufen allerdings auch darauf hinaus, das die These, die übernächste Spielekonsolen-Generation könnte bereits mit einer reinen RayTracing-Grafiklösung antreten, kaum zu halten ist. Gleichfalls ergibt sich aber auch, das die RayTracing-Durchsetzung wahrscheinlich einen viel längeren Zeitraum in Anspruch nehmen könnte – was wiederum bedeutet, das alle Zukunftspläne eher defensiv auszulegen sind. Möglicherweise tritt AMD auch deswegen gegenüber RayTracing derzeit noch teilweise zurückhaltend auf, weil man bei dem zu erwartenden Zeitbedarf zur RayTracing-Durchsetzung sich nicht schon ganz am Anfang voll verausgaben muß.

Heise notieren die Vorstellung einer nVidia Quadro RTX 4000 auf Basis des TU106-Chips, welcher auch bei der GeForce RTX 2070 zum Einsatz kommt. Der relevante Punkt ist hierbei, das beide TU106-Ausführungen den Vollausbau dieses Grafikchips tragen – womit man annehmen darf, das nVidia durchaus noch eine (zusätzliche) Salvage-Lösung des TU106-Chips bringen dürfte. Dies wäre denkbar in Form einer "GeForce RTX 2060 Ti" für das Desktop-Segment, eventuell auch als "GeForce RTX 2060 Ti" mit gänzlich deaktivierter RayTracing-Fähigkeit – oder auch in Form von Mobile-Beschleunigern auf Turing-Basis, hierzu gibt es ja bereits erste Anzeichen. Ob diese üblicherweise nur bei wenigen hochgezüchteten (echten) Gaming-Notebooks verkauften Mobile-Lösungen als Salvage-Lösung für den TU106-Chip in der reinen Stückzahl ausreichend sind, bleibt abzuwarten bzw. kann sowieso nur nVidia richtig einschätzen. Andererseits handelt es sich bei der benutzten 12nm-Fertigung auch nur um eine kleine Verbesserung der zwei Jahre alten 16nm-Fertigung von TSMC, die hierbei erreichte Fertigungsausbeute sollte inzwischen mehr als nur hochklassig sein.

Videocardz zeigen dagegen anhand einer chinesischen Händerlistung zu einer GeForce GTX 1060 GDDR5X auf, das jene Karte tatsächlich zu 99% auf dem GP104-Chip von GeForce GTX 1070/1080 basiert – und nicht dem GP106-Chip der GeForce GTX 1060. Dafür spricht ausreichend eindeutig das exakt von der GeForce GTX 1080 übernommene Platinen-Layout der gezeigten Grafikkarte – was für eine Grafikkarte mit dem deutlich kleineren GP106-Chip sicherlich unnötig ist. Sogar die SLI-Anschlüsse wurden dabei ausgeführt – wobei unsicher ist, ob nVidia selbige für die GeForce GTX 1060 GDDR5X aktiviert, technisch wäre der zugrundeliegende GP104-Chip hierzu natürlich in der Lage. Die GeForce GTX 1060 GDDR5X scheint die Taktraten der regulären GeForce GTX 1060 6GB zu übernehmen, ergo gibt es mit 8,8 Gbps nur eine um 10% höhere Speicherbandbreite. Interessant wird noch werden, wie hoch das Power-Limit der Karte gesetzt wird bzw. ob der nahezu halbierte GP104-Chip auf nur 120 Watt TDP tatsächlich dieselben Taktraten und damit dieselbe Performance wie die reguläre GeForce GTX 1060 auf Basis des GP106-Chips erzielt.