24

Hardware- und Nachrichten-Links des 24. Juni 2020

Ein erster Testbericht zu AMDs-Mobilelösung Radeon RX 5600M auf Navi-10-Basis bei Notebookcheck spricht selbiger eine durchaus konkurrenzfähige Performance zu. So kommt die Radeon RX 5600M unter den Spiele-Tests um immerhin bis auf -2,6% an den Mittelwert der getesteten Modelle zur GeForce RTX 2060 Mobile heran – was bedeutet, das je nach Gestaltung des konkreten Notebooks die AMD-Lösung auch eine gleichwertige oder sogar minimal bessere Performance als eine solche nVidia-Lösung bieten kann. Die exakten Testwerte darf man hierbei sowieso nicht auf die Goldwaage legen, denn je nachdem wieviele Notebooks zu diesem Mittelwert beitragen, kann sich das Endergebnis deutlich verändern. Dies ist gut zu sehen an den Werten zur GeForce GTX 1660 Ti Mobile, welche ungewöhnlich nahe an Radeon RX 5600M und GeForce RTX 2060 Mobile herankommt – erzielt über reihenweise Benchmarks, wo nur sehr wenige Notebooks teilnahmen und somit einzelne aus der Reihe schiessende Geräte den ganzen Durchschnitt verfälschen können (bzw. dies wohl auch getan haben).

GeForce GTX 1660 Ti Mobile GeForce RTX 2060 Mobile Radeon RX 5600M
Technik TU116, 24 CU @ 192 Bit GDDR6, ≤1455/≤1590/3000 MHz, 60-80W GSP TU106, 30 SM @ 192 Bit GDDR6, ≤1005/≤1560/3500 MHz, 65-115W GSP Navi 10, 36 CU @ 192 Bit GDDR6, ≤1190/3000 MHz, 60-?W TDP
3DMark13 FireStrike (GPU) 14793 16187 18807
3DMark13 TimeSpy (GPU) 5631 6163 6312
Schnitt aus 19 Spiele-Benchmarks 96,7% (?) 100% 97,4%
gemäß der Ausführungen von Notebookcheck

In der Realität muß die Performance-Differenz zwischen GeForce GTX 1660 Ti und GeForce RTX 2060 natürlich nicht besonders groß sein, sollte das kleinere Modell jedoch nicht gerade in einem halben Dutzend Benchmarks geradezu schneller als das größere Modell herauskommen – und somit den Performance-Durchschnitt auf eine (angebliche) Differenz von nur -3,3% herunterdrücken. Eine andere Problematik offenbaren die 3DMark-Werte, welche zwischen Radeon RX 5600M und GeForce RTX 2060 Mobile klar zugunsten der AMD-Lösung sprechen, während der Performance-Schnitt der Spiele-Benchmarks eher einen groben Gleichstand mit leichter Tendenz zugunsten von nVidia ergibt. Dies zeigt darauf hin, dass die gerade unter Leakern gern benutzten 3DMark-Werte eigentlich nicht gut für eine Vorab-Performanceeinschätzung zu gebrauchen sind, gerade wenn es um einen Hersteller-übergreifenden Vergleich geht. Aber auch nominell sind die erzielten 3DMark-Werte zu hoch: Jene suggerieren im Vergleich zu Desktop-Grafikkarten für Radeon RX 5600M & GeForce RTX 2060 Mobile ein Performance-Level á GeForce GTX 1660 Super (siehe Guru3D), unter realen Spielen läuft es aber eher auf ein Performance-Level á GeForce GTX 1650 Super hinaus (siehe Guru3D).

Nach den vielen verschiedenen Ampere-Spezifikationen der letzten Tage gibt es auch zu "Big Navi" mal eine diesbezügliche Wortmeldung – wenngleich die Chance darauf, das selbige Spezifikationen korrekt sind, ziemlich gering ist. Ausgangspunkt ist ein inzwischen privat geschaltetes Video von AdoredTV, der Sinninhalt ist in unserem Forum notiert. Danach soll Navi 21 mit 80 Shader-Clustern an einem 512 Bit GDDR6-Speicherinterface antreten, was jetzt erst einmal nicht wirklich außergewöhnlich wäre. Selbst der Speichertakt von 5000 Mhz QDR (ausgehend von 20 Gbps) ist vielleicht machbar, die genannten 2760 MHz Chiptakt sind hingegen leicht absurd. Zwar hat AMD mit Navi 1X einen erheblichen Sprung bei den Taktraten gemacht, aber gerade deswegen ist nachfolgend nicht ein noch größerer Taktratensprung zu erwarten. Ausgehend vom bislang mit Grafikkarten erreichten Taktraten-Niveau dürfte es nachfolgend nur noch eher langsam vorwärts gehen, selbst der PS5-SoC mit seinen gleich ≤2230 MHz ist hierfür keine Maßgabe. Die laut dem AdoredTV-Gerücht dann 400 Watt TDP dieser Navi-21-Karte wären zwar folgerichtig, es ist aber eher unwahrscheinlich, dass man so etwas tatsächlich baut – dies wäre ein zu großer Sprung gegenüber den bisherigen Grafikkarten.

Navi 21
514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP

Quelle:  AdoredTV, gesichert im 3DCenter-Forum am 11. Juni 2020

Schließlich geht jede HighEnd-Grafikkarte oberhalb der bislang üblichen 250 Watt das Risiko ein, medial entsprechend abgestraft zu werden – sofern man dafür nicht klar die allerbeste Performance hinlegt. Dies vorab zu planen, ist allerdings ausgesprochen riskant, dafür müsste man eine Performance-Abschätzung zum NextGen-Produkt der Konkurrenz ein paar Jahre vor dessem Erscheinen treffen. Zudem besteht eine zusätzliche Problematik hoher TDPs darin, dass die Konkurrenz selbige genauso ansetzen könnte – dann wird eben auch deren Spitzenchip entsprechend hochgeprügelt, womit wieder ein Performance-Gleichstand herauskommt und der eigentliche Vorteil der Aktion verlorengeht. Bislang waren jedenfalls alle Grafikkarten mit TDPs oder Realverbrauchswerten klar oberhalb von 250 Watt eher denn Grafikkarten, welche mit Macht in Richtung einer vergleichbaren Performance gebracht wurden, welche ergo auf einem effizienten Stromverbrauchs-Niveau von der Performance her zurückgelegen hätten. Mit der Brechstange ausgehend von einem sowieso gutem Grafikchip durch das Hochjubeln des Stromverbrauchs sich bei der Performance einen Vorteil zu erzwingen, ist hingegen kaum jemals passiert – eben weil dieses Mittel der Konkurrenz schließlich jederzeit genauso zur Verfügung steht.

Diese These hat auch dann auch eine Bewandtnis bezüglich der zum GA102-Chip kolportierten TDPs von 320-350 Watt. Jene sind aus den vorgenannten Gründen grundsätzlich in Frage zu stellen, gleichfalls kommt hier aber auch noch das Plausibilitäts-Argument hinzu: Wenn nVidia zwischen Turing TU102 und Ampere GA102 von 754mm² auf 627mm² Chipfläche herunterkommt, die Anzahl der Shader-Cluster nur von 72 auf 84 steigert, das Speicherinterface gleich breit bleibt (und somit nur höhere Taktraten im Spiel sind), dann sind angesichts des Sprungs von der 12nm-Fertigung auf 7nm TSMC oder 8nm Samsung nicht gerade hochgehende Stromverbrauchswerte zu erwarten – sondern eher denn ein geringerer Stromverbrauch als bei der Turing-Generation. In der vorhergehenden Pascal-Generation, wo die seinerzeit benutzte 16nm-Fertigung am Puls der Zeit war, kam man für das Spitzenmodell GeForce GTX 1080 Ti mit einem realen Stromverbrauch von 238 Watt aus, die GeForce GTX 1080 lag mit 175 Watt Realverbrauch sogar klar unterhalb der 200-Watt-Marke. In den vorherigen nVidia-Generationen lief dies ähnlich, nur Turing war diesbezüglich (resultierend aus dem geringen Fertigungssprung) die Ausnahme. Da bei der Ampere-Generation die Chipfertigung nunmehr aber wieder "eingetaktet" ist, sind somit eigentlich wieder nVidia-übliche Stromverbrauchswerte zu erwarten – gerade da der Hardware- und (nominelle) Performance-Sprung augenscheinlich nicht großartig ausfallen.