21

AMDs Ryzen 5 3500 & 3500X zeigen sich mehrfach in Fernost

Nachdem von den weiteren Programm-Ergänzungen zum Ryzen 3000 Portfolio bis auf den offiziell schon angekündigten Ryzen 9 3950X (welcher nunmehr auf den November verschoben wurde) bislang nicht viel in der Praxis zu sehen war, kommen per Planet 3DNow! und ComputerBase nunmehr aus Fernost neue, deutlich konkreter wirkende Informationen zu Ryzen 5 3500 & 3500X. Bislang war nur letztgenannter bekannt, der Ryzen 5 3500 ist somit gänzlich neu im Spiel. Bei beiden neuen Prozessoren handelt es sich um Sechskerner mit deaktiviertem SMT – was sie somit direkt mit Intels Core-i5-Riege vergleichbar macht, wo es ebenfalls 6 CPU-Kerne samt deaktiviertem HyperThreading gibt. Die Taktraten beider neuen Ryzen-Prozessoren belaufen sich auf 3.6/4.1 GHz, die Hardware-Differenz liegt dann allein beim Level3-Cache: Der größere Ryzen 5 3500X erhält die vollen 32 MB, der kleinere Ryzen 5 3500 muß mit einer Abspeckung auf nur 16 MB Level3-Cache leben. Dies stellt aber immer noch das Cache-Niveau der Ryzen 1000/2000 Generation dar und ist ganz nebenbei auch jederzeit deutlich mehr als bei Intels Core i5, wo es bestenfalls 9 MB Level3-Cache gibt.

20

Hardware- und Nachrichten-Links des 20. September 2019

Wie AMD mittels offiziellem Blog-Eintrag mitteilt, wird der noch ausstehende Ryzen 9 3950X verschoben – vom September auf den November 2019. Mit dem ursprünglich angekündigtem September-Launch wäre es wie zu sehen knapp geworden, zuletzt ging eine Terminlage von "30. September" durch die Gerüchteküche. Das kann aber auch der Termin für eine andere AMD-Vorstellung sein – beispielsweise soll es zu diesem Tag ein neues Monitoring-SDK geben, um die anliegenden Boost-Taktraten von Ryzen 3000 genauer auslesen zu können. Die Verschiebung begründet AMD offiziell mit der hohen Nachfrage nach der Ryzen-3000-Serie – wobei daran der Ryzen 9 3950X mit seinen (realtiv gesehen) eher kleineren Stückzahlen kaum etwas großartig verändern dürfte. Gut möglich, das AMD nach der medialen Ausbreitung der Boosttakt-Problematik nun noch gewissenhafter das Silizium selektieren muß, um die immerhin 4.7 GHz maximalen Boosttakt für den Ryzen 9 3950X auch in der Praxis zu erreichen.

Kerne Takt L2+L3 TDP Kühler Liste Straße Release
Ryzen 9 3950X 16C/32T 3.5/4.7 GHz 8+64 MB 105W Wraith Prism LED 749$ - November 2019
Ryzen 9 3900X 12C/24T 3.8/4.6 GHz 6+64 MB 105W Wraith Prism LED 499$ 529€ 7. Juli 2019
Ryzen 7 3800X 8C/16T 3.9/4.5 GHz 4+32 MB 105W Wraith Prism LED 399$ 389-400€ 7. Juli 2019
Ryzen 7 3700X 8C/16T 3.6/4.4 GHz 4+32 MB 65W Wraith Prism LED 329$ 327-340€ 7. Juli 2019
Ryzen 5 3600X 6C/12T 3.8/4.4 GHz 3+32 MB 65W Wraith Spire 249$ 238-250€ 7. Juli 2019
Ryzen 5 3600 6C/12T 3.6/4.2 GHz 3+32 MB 65W Wraith Stealth 199$ 188-200€ 7. Juli 2019
19

Hardware- und Nachrichten-Links des 19. September 2019

Die chinesische Webseite ITHome (maschinelle Übersetzung ins Deutsche) bringt aus Industrie-Kreisen neue Informationen über die GeForce GTX 1650 Ti mit. Danach soll jene Karte nunmehr am 22. Oktober antreten, nachdem zuletzt ein Vorstellungstermin Ende September bis Anfang Oktober gemeldet wurde. Nach wie vor gibt es keine genauen technischen Daten zur Karte, so das prinzipiell noch alles zwischen den 896 Shader-Einheiten der GeForce GTX 1650 sowie den 1408 Shader-Einheiten der GeForce GTX 1660 möglich erscheint. Es wäre allerdings sehr überraschend, wenn es mehr als die 1024 Shader-Einheiten des TU117-Chips wären – weil im gegenteiligen Fall der größere TU116-Chip (in einer ziemlich heftigen Abspeckung) bemüht werden müsste. Dies passt allerdings wenig zum nunmehr genannten Preispunkt beim (umgerechnet) um die 155 Dollar herum – dies erscheint für eine TU116-basierte Karte als zu niedrig und passt eher zu einer TU117-basierten Karte.

GeForce GTX 1650 GeForce GTX 1650 Ti GeForce GTX 1660 GeForce GTX 1660 Super GeForce GTX 1660 Ti
Chipbasis nVidia TU117 nVidia TU117 nVidia TU116 nVidia TU116 nVidia TU116
Technik 2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5-Interface (Salvage) 2 Raster-Engines, 16 Shader-Cluster, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5/GDDR6-Interface (Vollausbau) 3 Raster-Engines, 22 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR5-Interface (Salvage) 3 Raster-Engines, 22 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR6-Interface (Salvage) 3 Raster-Engines, 24 Shader-Cluster, 1536 Shader-Einheiten, 96 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR6-Interface (Vollausbau)
Taktraten 1485/1665/4000 MHz (DDR) ? 1530/1785/4000 MHz (DDR) ?/?/3500 MHz (QDR) 1500/1770/3000 MHz (QDR)
Rohleistungen 3,0 TFlops & 128 GB/sec ~3,5 TFlops & 128-192 GB/sec 5,0 TFlops & 192 GB/sec ~5 TFlops & 336 GB/sec 5,4 TFlops & 288 GB/sec
Speicher 4 GB GDDR5 4 GB GDDR5 oder GDDR6 6 GB GDDR5 6 GB GDDR6 6 GB GDDR6
TDP (GCP) 75W unbekannt 120W unbekannt 150W
FHD Perf.Index 450% grob geschätzt ~490-550% 690% grob geschätzt: ~750-790% 790%
Listenpreis 149$ angeblich ~155$ 219$ unbekannt 279$
Release 23. April 2019 angeblich 22. Oktober 2019 14. März 2019 unbekannt 22. Februar 2019
Alle Daten zu GeForce GTX 1650 Ti & GeForce GTX 1660 Super sind derzeit reine Annahmen (bzw. basieren auf unbestätigten Gerüchten).
18

Hardware- und Nachrichten-Links des 18. September 2019

Die PC Games Hardware (gestern schon verlinkt) berichten über eine Treiber-Notiz zugunsten von AMD Navi 12 – womit jener Grafikchip somit nochmals besser bestätigt wird. Bislang ist allerdings weiterhin unklar, wie Navi 12 einzuordnen ist – größer oder kleiner als Navi 14, zu welchem 24 Shader-Cluster aka 1536 Shader-Einheiten faktisch bestätigt sind. Es gibt hierzu sowohl Anzeichen, das Navi 12 größer sei als der Navi-10-Chip der Radeon RX 5700 Serie – als auch die grundsätzliche Überlegung, das AMD besser daran wäre, mit diesen Grafikchips der RDNA1-Generation ohne RayTracing eher das Portfolio nach unten hin abzurunden und den Angriff auf die Leistungsspitze dann der RDNA2-Generation mit RayTracing im nächsten Jahr zu überlassen. Denn auch wenn zu Navi 12 die Zielsetzung noch nicht bekannt ist, zeigt der Treiber-Eintrag deutlich auf ein absehbares Release hin – womöglich noch in diesem Jahr, in jedem Fall nicht erst tief im Jahr 2020. Die Frage der Einordnung von Navi 12 berührt dann letztlich auch, welche Lücken noch für Navi 21 & 23 übrig bleiben – woraus sich bislang zwei primäre Auflösungen ergeben. Dies passiert natürlich ohne jeden Anspruch auf Korrektheit und Vollständigkeit, andere Auflösungen sind zudem genauso noch möglich:

Grafikkarten-Serie Grafikchip: Auflösung #1 Grafikchip: Auflösung #2
Enthusiast Radeon RX 5900 Serie Navi 23 (H2/2020) Navi 23 (H2/2020)
HighEnd Radeon RX 5800 Serie Navi 12 (Winter 2019/20) Navi 21 (H2/2020)
Midrange Radeon RX 5700 Serie Navi 10 (Juli 2019) Navi 10 (Juli 2019)
Mainstream Radeon RX 5600 Serie Navi 14 (Herbst 2019) Navi 14 (Herbst 2019)
LowCost Radeon RX 5500 Serie Navi 21 (H2/2020) Navi 12 (Winter 2019/20)
Alle Angaben (außerhalb Navi 10) sind natürlich voll spekulativ. Navi 1X Chips: 7nm & RDNA1, Navi 2X Chips: 7nm+ & RDNA2.
17

Hardware- und Nachrichten-Links des 17. September 2019

Von TweakTown kommt eine der inzwischen arg seltenen Betrachtungen zur MultiGPU-Performance, durchgeführt mittels zweier GeForce RTX 2070 Super Grafikkarten und damit unter SLI bzw. NVLink. Hierbei wurden exemplarisch vier Spiele mit dem SLI-Gespann gegen potente Einzel-Karten durchgetestet, darunter auch eine Titan RTX. Der Test kann damit also nicht demonstrieren, wie weit SLI heutzutage noch nutzbar ist – es ist eher denn eine Ausarbeitung, wie schnell SLI kommt, sofern jenes Spiele-seitig überhaupt funktioniert. Auf den ersten Blick zu erkennen ist die Abhängigkeit von der UltraHD-Auflösung – denn selbst schon unter WQHD sind die Performance-Gewinne von SLI zu klein, um wirklich griffig zu sein. Aber auch unter der UltraHD-Auflösung skaliert ein SLI-Gespann von zwei GeForce RTX 2070 Super Grafikkarten bemerkbar besser als ein SLI-Gespann von zwei GeForce RTX 2080 Ti Karten – bei diesen schnellen Modellen wird es dann wohl schon zum Problem, jenen ausreichend CPU-Performance zum Ausspielen der vorhandenen Grafik-Power zur Verfügung zu stellen. Sobald dann jedoch alle Bedingungen stimmen, kann sich SLI immer noch als leistungsstark präsentieren – und beispielsweise zu geringerem Geldeinsatz eine GeForce RTX 2080 Ti rein nominell abziehen.

WQHD UltraHD Listenpreis
Titan RTX 120,4% 143,1% 2499$
GeForce RTX 2080 Ti SLI 135,6%  (SLI: +15,7%) 204,9%  (SLI: +50,8%) 2398$
GeForce RTX 2080 Ti 117,2% 135,9% 1199$
GeForce RTX 2070 Super SLI 129,2%  (SLI: +29,2%) 160,2%  (SLI: +60,2%) 998$
GeForce RTX 2070 Super 100% 100% 499$
gemäß den Ausführungen seitens TweakTown
16

Hardware- und Nachrichten-Links des 16. September 2019

Die ComputerBase berichtet über ein aufgetauchtes Tiger-Lake-Sample, welchem sich ein neuer Wert für den Level3-Cache entlocken ließ – 12 MB bei einem Vierkerner, somit umgerechnet 3 MB pro CPU-Kern und damit eine Steigerung um +50% gegenüber der Skylake-Architektur und allen nachfolgenden Intel-Generationen. Bei Ice Lake wird Intel wie schon bekannt den Level2-Cache verdoppeln sowie den Level1-Instruktionen-Cache vergrößern, der Level3-Cache bleibt in dieser CPU-Generation allerdings noch unangetastet. Insofern ist hier bei diesen beiden 10nm-Generationen eine deutliche Bewegung hin zugunsten größerere Caches zu erkennen – welche wohl aus zwei Gründen erfolgt: Zum einen läßt sich über solche Maßnahmen zumeist immer noch etwas mehr IPC herausholen, was gerade dann, wenn es IPC-technisch kaum noch weitergeht, interessant wird. Und zum anderen dürfte Intels 10nm-Fertigung sicherlich winzige CPU-Kerne erzeugen, wo man dann allein aus Gründen der besseren Wärmeabgabe ein gewisses Mindestmaß an Die-Fläche antrebt. Für diesen Zweck setzt man gern mehr Level3-Cache an, weil sich die benötigte Fläche somit recht einfach (und ohne größere Nebenwirkungen) erreichen läßt.

L1 Daten L1 Instr. L2-Cache L3-Cache
Skylake – Comet Lake 32 kByte 32 kByte 256 kByte (inkl.) 2 MByte (inkl.)
Skylake-SP/X (inkl. Cascade Lake) 32 kByte 32 kByte 1024 kByte (inkl.) 1408 kByte (exkl.)
Ice Lake 32 kByte 48 kByte 512 kByte (inkl.) 2 MByte
Tiger Lake ? ? ? 3 MByte
AMD Zen/Zen+ 32 kByte 64 kByte 512 kByte (inkl.) 2 MByte (exkl.)
AMD Zen 2 32 kByte 32 kByte 512 kByte (inkl.) 4 MByte (exkl.)
Alle Angaben immer pro CPU-Kern.
15

Hardware- und Nachrichten-Links des 14./15. September 2019

Semiconductor Engineering haben mit Bill Dally und Jonah Alben von nVidia über zukünftige Chipentwicklungen gesprochen. Interessant sind hierbei insbesondere die Aussagen zu Chiplet-Verfahren im Grafikchip-Bereich, an welchen nVidia Grundlagen-Arbeit betreibt und sich bezüglich der Möglichkeiten dieses Ansatzes auch recht optimistisch gibt. Bezüglich des praktischen Einsatzes dieser Möglichkeiten zeigt man sich dagegen noch arg zugeknöpft: Einen Einsatz in absehbarer Zukunft (innerhalb der Nodes 7nm & 5nm) wollte man nicht bestätigen – hierbei sieht man den Punkt, wo Chiplets mehr Nutzen als Aufwand bringen, als noch nicht erreicht. Die Grundlagen-Arbeit daran diente wohl bislang nur dazu, jene Möglichkeit zukünftig im Portfolio zu haben – griffbereit für den Zeitpunkt, wo man jene wirklich braucht. Dies ist dann sicherlich auch keine Aussage dazu, ob es überhaupt jemals zu einem Chiplet-Einsatz im Grafikchip-Bereich kommen wird. Dies erfordert neben der technischen Realisierung von Chiplets eben dann doch noch erhebliche Anstregungen, um das Vorhandenensein mehrere Grafikchips treiberseitig so zu kaschieren, das die damit betriebene Software letztlich nur "einen" Grafikchip sieht – und somit keine eigenen Anstregungen unternehmen muß, mehrere Grafikchips vernünftig auszulasten. Die bisherigen Ansätze hierzu wie SLI & CrossFire haben diese Aufgabe der jeweilige Software aufgebührdet, konnten sich aber wie bekannt letztlich nicht halten – und dürften, da nun einmal in der Nische verschwunden, auch nicht wiederkommen. Die nächste MultiChip-Grafiklösung wird diese Problematik also in Hardware bzw. im Treiber angehen müssen – hier liegt die eigentlichen Schwierigkeit des Chiplet-Ansatzes im Grafikchip-Bereich.

15 15

Als wie kritisch wird die Problematik der maximalen Boost-Taktraten von Ryzen 3000 angesehen?

Die Problematik der (teilweise nicht erreichten) maximalen Boost-Taktraten von Ryzen 3000 ist sicherlich der Diskussionsstoff der letzten Wochen, mit teilweise sehr konträren Ansichten hierzu. Mittels dieser Umfrage soll die Möglichkeit zu einer Bewertung dieses Falls gegeben werden – ob jener schwer, minderschwer oder gar nicht relevant ist. Ausgangsbasis hierfür ist natürlich der Auslieferungszustand bei Ryzen 3000 – sprich, es soll die eigentliche Problematik bewertet werden und nicht jener Stand, den AMD nach eventuellen BIOS-Fixes (die derzeit sowieso noch nicht in vollen Umfang vorliegen) eventuell noch erreichen kann.
PS: Diskussion zur Umfrage und zum Umfrageergebnis in unserem Forum

15

Umfrage-Auswertung: Wieviel Speicher ist im Hauptrechner verbaut (2019)?

Eine noch auszuwertende Umfrage vom Juni-Anfang ging wieder einmal der Frage nach der im Hauptrechner verbauten Speichermenge nach – in Nachfolge gleichlautender Umfragen vom Februar 2010, Oktober 2012, August 2014 sowie dem Mai 2016. Mit der 2019er Umfrage gab es mehr Antwortoptionen bei den Speichermengen oberhalb von 32 GB, welche derzeit (kumuliert) auch schon von 3,6% der Umfrageteilnehmer genutzt werden. Dagegen ist die Anzahl der Umfrageteilnehmer mit weniger als 4 GB Speicher im Hauptrechner auf nunmehr nur noch 0,4% zurückgegangen, unterhalb von 8 GB sind kumuliert auch nur noch 2,0% der Umfrageteilnehmer unterwegs. Jene früher diese Umfragen mal dominierende Frage zum Überspringen der 4-GB-Grenze kann somit als absolut beantwortet betrachtet werden.

13

Hardware- und Nachrichten-Links des 13. September 2019

Die bei TechPowerUp regelmäßig aufgelegten Reviews zu den Herstellerdesigns zur GeForce RTX 2080 Super geben einen passablen Einblick in das, was die Grafikkarten-Hersteller mit ihren Karten-Designs noch auf das Referenzdesign seitens nVidia oben drauf legen können. Im Gegensatz zur gleichen Betrachtung bei GeForce RTX 2060 Super & 2070 Super fehlen hier allerdings Karten-Designs, welche überhaupt nur 5% Mehrperformance (oder mehr) herausholen können. Die maximale Mehrperformance (der getesteten Karten-Modelle) liegt bei gerade einmal +3%, was aus Performance-Sicht wenig erbaulich ist – vermutlich aber schlicht nur darauf hinzeigt, das bei einer schon seitens nVidia an ihr Limit getriebenen Grafikkarte (wie der GeForce RTX 2080 Super) eben nicht mehr viel zu holen ist. Das Augenmerk der Grafikkarten-Käufer kann somit eher in Richtung des Kühlsystems zu Geräuschentwicklung und Chip-Temperatur gehen, genauso natürlich auch in Richtung Overclocking-Eignung bezüglich des größtmöglichen Spielraums beim Power-Limit.

Taktraten GPU-Takt Power-Limit Verbr. Perf. Temp. Lautstärke
GeForce RTX 2080 Super FE 1650/1815/3875 MHz Ø 1919 MHz 250W (max. 280W) 243W 100% 78°C 36 dB(A)
EVGA Black 1650/1815/3875 MHz Ø 1950 MHz 250W (max. 292W) 260W +1% 77°C 38 dB(A)
EVGA FTW 3 Ultra 1650/1845/3875 MHz Ø 1989 MHz 270W (max. 351W) 237W +3% 68°C 36 dB(A)
MSI Gaming X Trio 1650/1845/3875 MHz Ø 1972 MHz 250W (max. 285W) 247W +3% 72°C 32 dB(A)
Palit White GameRock Premium 1650/1860/3875 MHz Ø 2008 MHz 250W (max. 330W) 276W +3% 74°C 33 dB(A)
Zotac AMP Extreme 1650/1875/3875 MHz Ø 1993 MHz 280W (max. 308W) 255W +3% 84°C 37 dB(A)
Performance gemäß der Messungen unter der WQHD-Auflösung in 21 Test-Spielen, gemäß den Ausführungen von TechPowerUp
Inhalt abgleichen