23

Hardware- und Nachrichten-Links des 22./23. Juni 2019

Von den kürzlich bestätigten drei neuen Navi-Chips (neben dem bekannten "Navi 10" der Radeon RX 5700 Serie) sind "Navi 12" & "Navi 14" als kleinere Grafikchips vergleichsweise einfach zu erklären bzw. abzuschätzen – was beim mutmaßlich größeren "Navi 21" Grafikchip dann nicht mehr ganz so einfach ist. Sicherlich dürfte jener beachtbar größer werden als Navi 10 – aber wie groß, hängt dann auch davon ab, welche Marktsegmente AMD mit diesem bedienen will. Geht es einfach nur um eine HighEnd-Ausführung innerhalb der Navi-Serie, ist dies etwas anderes als wenn gleichzeitig das Profi-Segment mit abgedeckt werden muß. Neben der FP64-Fähigkeit (welche allerdings keinen großen Transistoren-Aufwand erfordert, wie an der geringen Differenz von Vega 10 zu Vega 20 zu sehen) betrifft dies vor allem das Speicherinterface: Bei einer reinen Consumer-Karte könnte AMD die GDDR6-Schiene weiter reiten, ein 384 Bit GDDR6-Interface würde gute Speicherbandbreiten sowie eine Speichermenge von 12 GB zur Verfügung stellen, was zumindest konkurrenzfähig gegenüber den (derzeit) von nVidia maximal gebotenen 11 GB Grafikkartenspeicher wäre. Ist dagegen eine gleichzeitige Verwendung auch im Profi-Bereich angedacht, dann spricht alles erneut für ein HBM2-Interface, wo man auf mehr Bandbreite kommen kann – und was nebenbei auch beim Power-Budget besser aussieht als große GDDR-Interfaces.

Annahmen zu: AMD Navi 21

  • gedacht als HighEnd/Enthusiasten-Cip oberhalb von Navi 10, eine Zweitverwendung im Profi-Segment ist nicht unwahrscheinlich
  • Grafikchip-Architektur ist RDNA1 (größere Chance) oder RDNA2 (kleinere Chance)
  • Chipfertigung in TSMCs' 7FF oder 7FF+
  • geschätzt 380-440mm² Chipfläche
  • angenommen 64-80 Shader-Cluster mit 4096-5120 Shader-Einheiten
  • Speicherinterface ist entweder 384 Bit GDDR6 oder 2048-4096 Bit HBM2
  • Stromverbrauch dürfte nahe an die 300-Watt-Grenze gehen
  • Speicherbestückung ist (je nach Speicherinterface) 12 GB GDDR6, 12 GB HBM2 oder 16 GB HBM2
  • sollte sich in der Spitze durchaus mit einer GeForce RTX 2080 Ti anlegen können
  • Verkaufsname sollte regulär die "Radeon RX 5800" Serie sein, denkbar ist aber auch ein (teilweiser?) Sondername
  • Terminlage ist derzeit nur ungenau das Jahr 2020

Selbiges Power-Budget dürfte beim Navi-21-Chip eine wichtige Rolle spielen, denn AMD wird sicherlich erneut daran interessiert sein, den Stromverbrauch nicht oberhalb 300 Watt zu treiben. Davon ausgehend kann man schon ganz vernünftig einschätzen, wie groß der Navi-21-Chip werden wird, wobei natürlich (je nach Taktrate) ein gewisser Spielraum bleibt: 64-80 Shader-Cluster aka 4096-5120 Shader-Einheiten, ein 384 Bit GDDR6- oder ein 2048-4096 Bit HBM2-Speicherinterface (wenn es HBM2 wird, werden es sicherlich 4096 Bit, aber diese müssen für Gaming-Lösungen natürlich nicht vollständig verwendet werden). Dies dürfte auf eine Chipfläche von 380-440mm² herauskommen, wobei noch abzuwarten gilt, ob Navi 21 bereits zum "7nm+" Refresh von AMDs RDNA-Architektur gehört (und damit wohl schon zu "RDNA2"). Terminlich passiert sicher nichts vor dem nächsten Jahr – wobei dies natürlich lang ist und es einen erheblichen Unterschied ausmachen wird, ob Navi 21 nun Jahresanfang oder Jahresende 2020 antritt. In letzterem Fall muß sich AMD höchstwahrscheinlich schon mit nVidias eigener 7nm-Generation auseinandersetzen, würde Navi 21 (wie schon Vega 20) einen zu spät antretenden Kontrahenten zu einer (dann) früheren nVidia-Serie darstellen. Denn die vermutete Navi-21-Hardware reicht wohl aus, um sich selbst mit der GeForce RTX 2080 Ti anzulegen – aber für diesen Zweikampf muß wie gesagt auch der Launchtermin frühzeitig genug angesetzt sein.

Laut PCGamesN wird AMD den 16-Kerner Ryzen 9 3950X bei der Fertigung mit den besten verfügbaren Core-Dies bestücken, sprich also ein sogenanntes "Binning" durchführen. Laut AMD soll dies geschehen, damit der Ryzen 9 3950X die beste Gaming-CPU (von AMD) wird – wofür dann vor allem viel Takt auf einigen wenigen Kernen dieses 16-Kern-Monsters benötigt würde. Natürlich kann es sich bei diesen Aussagen auch nur um viel Wind um nichts handeln, denn wegen des höheren maximalen Boost-Takts muß der Ryzen 9 3950X sowieso entsprechend in der Chipfertigung selektiert werden. Aber sofern hier mehr als dieser kleine Kern Wahrheit drinsteckt, könnte AMD natürlich auch speziell nach diesen Core-Dies fahnden, welche hohe Taktraten im Vier- bis Achtkern-Betrieb zulassen, um gerade im Spiele-Einsatz gut dazustehen. Wenn eine gute Skalierung bei der Anwendungs-Performance eine Rolle spielt, kann AMD auch nach diesen Core-Dies schauen, welche auf gleichem Takt mit besonders wenig Spannung auskommen – weil dies dann hilft, wenn unter derselben TDP Achtkerner, 12-Kerner und 16-Kerner sich miteinander messen sollen. Denn sobald es um das volle Ausfahren der Prozessoren-Power (unter Anwendungs-Benchmarks) geht, dürften die nominellen Taktraten schnell Makulatur sein – und es nur noch darum gehen, wie effektiv die Prozessoren arbeiten, um auf Basis dieser Effizienz so viel Taktrate wie möglich unter derselben TDP herausholen.

Kerne Basetakt MaxBoost TDP
Ryzen 9 3950X 16C/32T 3.5 GHz 4.7 GHz 105W
Ryzen 9 3900X 12C/24T 3.8 GHz 4.6 GHz 105W
Ryzen 7 3800X 8C/16T 3.9 GHz 4.5 GHz 105W

Golem haben einen feinen Artikel aufgelegt, welcher den Linux-Umstiegs eines Gamers begleitet. Augenscheinlich ist das ganze durchaus handelbar, zumindest wenn man solcherart Artikel & Anleitungen zur Hand hat, welche einem mögliche Fallstricke vorab zu umgehen helfen. In der Verbindung mit Steams Linux-Plattform "Steam Play" hat man dann durchaus schon einmal einen großen Spiele-Katalog zur Verfügung, welcher auf seine Kompatibilität mit Linux hin bereits geprüft ist – und wo es eigentlich genauso komfortabel wie unter Windows direkt ins Spiel geht. Bei einer hierfür testweise angesetzten Steam-Bibliothek sank zwar die Anzahl der direkt unterstützten Spiele von 408 (Windows) auf 136 (Linux) – aber dies ist eigentlich auch schon ein gutes Ergebnis, zu früheren Zeiten wäre hierzu eine Zahl im niedrigen einstelligen Bereich normal gewesen. Zudem kann man auch bei den fehlenden Spieletiteln noch Glück haben, dies erfordert dann allerdings eine manuelle Herangehensweise bzw. zumindest das Studium entsprechender Erfahrungsberichte anderer Linux-Gamer. Die zur Grafikkarten-Performance unter Linux angetretenen Benchmarks gehen dann kreuz und quer: Manchmal ist Linux gleichauf, manchmal auch um die Hälfte zurückliegend, gleiches gilt für AMD- und nVidia-Hardware. Grob gesehen braucht man wohl 10-15% mehr Grafik-Performance unter Linux, um auf die gleichen fps-Werte wie unter Windows zu kommen – was eigentlich zu schultern ist.

XFX Radeon RX 590 Fatboy 8GB GeForce GTX 1060 Gaming 6GB
Windows vs. Linux -18,7% -11,1%
Windows vs. Steam Play 4.2 -25,2% -10,4%
Windows vs. Linux oder Steam Play 4.2 (jeweils das bessere) -15,2% -10,1%
basierend auf Messungen unter 4 Spiele-Benchmarks seitens Golem

Neuere Benchmarks seitens PCGamer bestätigen die kürzlich getroffene Aussage, das man sich von den Verbesserungen des Windows-Schedulers zugunsten von Ryzen-Prozessoren mehr oder weniger nichts versprechen sollte. Denn auch bei PCGamer zeigt das Meßergebnis auf unbedeutsame Differenzen hin, welche sich nochmals klarer zwischen Anwendungs-Performance (bewegt sich gar nichts) und Spiele-Performance (durchschnittlich +1%) unterscheiden. Beim Blick auf die Detail-Ergebnisse zeigt sich, das (zumindest bei PCGamer) die meiste Anwendungs-Software sogar minimal verliert, allein ein größerer Gewinn unter dem Geekbench reißt es dann wieder heraus. Unter den Spiele-Benchmarks ergibt sich dann erneut das schon zuletzt aufgezeigte Bild: Einzelne Titel reagieren mit 2-4% Performancegewinn, die anderen bleiben komplett unbeindruckt oder gehen teilweise (minimal) ins Minus. Mittels dieser Benchmarks wird speziell die Scheduler-Verbesserung bei der Erkennung der CCX-Module ausgetestet, die zweite Scheduler-Verbesserung zugunsten eines superschnellen Taktraten-Wechsels ist dagegen nur unter Ryzen 3000 verfügbar – ist aber für Benchmarks sowieso nicht von Relevanz. In der Summe kann man damit diese Scheduler-Verbesserung unter "übliche kleine Zugewinne im Laufe der Zeit" einbuchen, die von AMD genannten großen Zugewinne sind augenscheinlich extreme Ausreißer.

Windows 10 v1809 Windows 10 v1903 Differenz
Ryzen 7 2700X  @ Anwendungen 100% 100,0% ±0
Ryzen 7 2700X  @ Spiele (3% Min-fps) 100% 101,0% +1,0%
basierend auf dem Test von PCGamer mit 12 Anwendungs- und 10 Spiele-Benchmarks (FullHD @ MaxQuality, 3% Min-fps)
Von den kürzlich bestätigten drei neuen Navi-Chips (neben dem bekannten "Navi 10" der Radeon RX 5700 Serie) sind "Navi 12" & "Navi 14" als kleinere Grafikchips vergleichsweise einfach zu erklären bzw. abzuschätzen - was beim mutmaßlich größeren "Navi 21" Grafikchip dann nicht mehr ganz so einfach ist. Sicherlich dürfte jener beachtbar größer werden als Navi 10 - aber wie groß, hängt dann auch davon ab, welche Marktsegmente AMD mit diesem bedienen will. Geht es einfach nur um eine HighEnd-Ausführung innerhalb der Navi-Serie, ist dies etwas anderes als wenn gleichzeitig das Profi-Segment mit abgedeckt werden muß. Neben der FP64-Fähigkeit (welche allerdings keinen großen Transistoren-Aufwand erfordert, wie an der geringen Differenz von Vega 10 zu Vega 20 zu sehen) betrifft dies vor allem das Speicherinterface: Bei einer reinen Consumer-Karte könnte AMD die GDDR6-Schiene weiter reiten, ein 384 Bit GDDR6-Interface würde gute Speicherbandbreiten sowie eine Speichermenge von 12 GB zur Verfügung stellen, was zumindest konkurrenzfähig gegenüber den (derzeit) von nVidia maximal gebotenen 11 GB Grafikkartenspeicher wäre. Ist dagegen eine gleichzeitige Verwendung auch im Profi-Bereich angedacht, dann spricht alles erneut für ein HBM2-Interface, wo man auf mehr Bandbreite kommen kann - und was nebenbei auch beim Power-Budget besser aussieht als große GDDR-Interfaces.




Annahmen zu: AMD Navi 21

gedacht als HighEnd/Enthusiasten-Cip oberhalb von Navi 10, eine Zweitverwendung im Profi-Segment ist nicht unwahrscheinlich
Grafikchip-Architektur ist RDNA1 (größere Chance) oder RDNA2 (kleinere Chance)
Chipfertigung in TSMCs' 7FF oder 7FF+
geschätzt 380-440mm² Chipfläche
angenommen 64-80 Shader-Cluster mit 4096-5120 Shader-Einheiten
Speicherinterface ist entweder 384 Bit GDDR6 oder 2048-4096 Bit HBM2
Stromverbrauch dürfte nahe an die 300-Watt-Grenze gehen
Speicherbestückung ist (je nach Speicherinterface) 12 GB GDDR6, 12 GB HBM2 oder 16 GB HBM2
sollte sich in der Spitze durchaus mit einer GeForce RTX 2080 Ti anlegen können
Verkaufsname sollte regulär die "Radeon RX 5800" Serie sein, denkbar ist aber auch ein (teilweiser?) Sondername
Terminlage ist derzeit nur ungenau das Jahr 2020