9

News des 9. August 2023

Bei eTeknix @ YouTube hat man sich den Treiber-Gewinn der Arc-Grafikkarten seit ihrem Release vor gut einem Jahr angesehen. Seinerzeit ging man davon aus, dass Intels Grafikkarten sich mittels kommenden besseren Treibern durchaus noch stärker positionieren könnten, diese Benchmarks mit 10 standardmäßigen Spiele-Titeln sprechen dann allerdings eine andere Sprache. So gibt es durchaus gewisse Gewinne über bessere Treiber mit der Zeit zu konstatieren, doch jene liegen durchgehend allein im höheren einstelligen Bereich, ergeben nirgendwo größere Beträge. Da auch die anderen Grafikchip-Entwickler letztlich kleinere Treiber-Verbesserungen mit der Zeit anbringen, ändert sich somit am insgesamten Performance-Bild nur geringfügig etwas.

Release-Treiber vs aktueller Treiber FullHD/1080p WQHD/1440p
Sparkle Arc A750 "Titan" OC 88 → 94 fps  (+7%) 69 → 73 fps  (+6%)
Sparkle Arc A380 "Elf" 67 → 73 fps  (+9%) 28 → 30 fps  (+7%)
Vergleich von Release-Treiber vs aktueller Treiber gemäß der Benchmarks von eTeknix @ YouTube im Durchschnitt von 10 Spielen

Vor allem sind grobe +5% im insgesamten Performance-Bild (nicht unähnlich den an dieser Stelle ermittelten Zahlen) sicherlich deutlich weniger, als was man sich zum seinerzeitigen Arc-Release noch als eventuell ungehobenes Performance-Potential versprochen hatte. Letztlich hat Intel somit das Bild nur etwas aufhübschen können, aber keine gravierenden Performance-Reserven gehoben. Jene existier(t)en derweil sicherlich, aber eben nur unter einzelnen, meist älteren Spielen. Dort konnte neuere Intel-Treiber durchaus viel herausholen bzw. die Arc-Grafikkarten auf ein normales Performance-Niveau führen. Dies zählt dann aber eher unter "Bugfixing", wenn eine vorher unterirdische Performance in einem einzelnen Spieletitel somit "normalisiert" wurde. In der Summe wurde die Arc-Performance somit schon mit den Release-Treibern nicht wirklich falsch ausgemessen, außerhalb der (seinerzeit) nicht unterstützten Spiele-Titel.

VideoCardz berichten über einen ersten Geekbench-Test zum Core i5-14600KF, in welchem selbiger seinen Vorgänger um +6% beim Singlethread-Test sowie um +17% beim Multithread-Test schlagen konnte. Dies gibt der Vergleich mit dem offiziellen Durchschnittswert zum Core i5-13600K her, was allerdings somit teilweise verfälschend sein kann: Denn jener Durchschnittswert umfasst alle bei der Geekbench-Datenbank jemals eingereichten Benchmark-Resultate zu diesem Prozessor im Geekbench 6.x – und dies obwohl zwischen Geekbench 6.0 und 6.1 kleinere, aber beachtbare Performance-Differenzen liegen sollen. Wieviel dieses Performance-Gewinns zwischen Core i5-13600K und Core i5-14600KF somit dem neuen Prozessor geschuldet ist und wieviel dieser kleinen Benchmark-Verfälschung, läßt sich nicht ermitteln – womit die Geekbench-Resultate aus der Geekbench-Datenbank derzeit (leider) nahezu wertlos sind.

YouTuber RedGamingTech bringt im Video mit den Zen-5-Benchmarks auch noch eingewisses Update zu den Grafikplänen von AMD, diesesmal die RDNA5-Generation betreffend: Jene soll nun mit multiplen GCDs erscheinen – selbige Planung schon für RDNA4 ist somit nur aufgeschoben, aber nicht aufgehoben. Zudem spricht man von einem vergleichsweise frühen RDNA5-Erscheinen nach RDNA4, im Idealfall schon Ende 2025. Selbst wenn es etwas später wird, deutet dies darauf hin, dass RDNA5 ebenfalls noch unter der 3nm-Fertigung antreten soll, da die nachfolgende Fertigungsstufe bei TSMC sicherlich erst mit 2-Jahres-Abstand verfügbar werden dürfte. Mit der gleichen Fertigung dürfte es sich nochmals lohnen, auf multiple GCDs zu gehen, da man hiermit die Größengrenzen monolithischer Chips einfacher hinter sich lassen kann.

RDNA 5 is now the multi compute die (originally it was RDNA 4, but issues scuppered things)
Earliest launch of RDNA 5 is Q4 2025, but that is optimistic. Min of 6 quarters after RDNA 4 debut.
Also heard of "N36" – a huge RDNA 3 based GCD, 400mm2, but it seems *VERY* unlikely AMD will release this. No specs associated with the chip, unfortunately.

Quelle:  RedGamingTech @ YouTube am 8. August 2023

Interessant ist daneben die Erwähnung eines "Navi 36" Grafikchips als nochmals größere Ausführung von Navi 31. Aus der angegebenen Die-Fläche von 400mm² kann man schlußfolgern, dass hiermit grob ~130 Shader-Cluster realisierbar sind, sogar unter einem noch größeren Speicherinterface (512 Bit). Bei gleichem Speicherinterface wie Navi 31 (384 Bit) wäre sogar noch mehr drin, dies läßt sich dann allerdings nur noch grob auf ~140-150 Shader-Cluster schätzen. Ironischerweise dürfte dies beiderseits nicht dazu ausreichen, um nVidia zu schlagen, denn nVidia könnte dagegen jederzeit den AD102-Chip im Vollausbau mit 144 Shader-Clustern stellen. Da nVidia aktuell bei der Shader-Cluster-normierten Performance klar vorn liegt (GeForce RTX 4080 mit 76 SM klar schneller als Radeon RX 7900 XT mit 84 CU), würden somit auch 150 Shader-Cluster auf AMD-Seite nicht für einen Performance-Sieg reichen. Denkbarerweise deswegen dürfte AMD diesen Chip nie tatsächlich realisieren, einmal abgesehen vom wahrscheinlich exorbitanten Stromverbrauch.

Heise berichten über neue CPU-Sicherheitslücken, welche man grob dem Komplex "Spectre & Meltdown" zuordnen kann und von AMD wie Intel wiederum mittels BIOS-Updates aus der Welt geschafft werden sollen. Generell läßt sich im Rückblick sagen, dass es diesbezüglich im Consumer-Segment kaum jemals zu wirklichen Gefahren gekommen ist, da dort einfachere Wege zur Datenausspähung existieren, wenn man einmal schon auf einem Ziel-System ist. Interessant sind diese Angriffe primär für Cloud- und Server-Systeme mit verschiedenen Kunden per System – um aus dem eigentlich abgeschotteten eigenen System auszubrechen und auf Daten eines anderen Kunden zugreifen zu können. Und selbst dies dürfte vermutlich recht selten tatsächlich vorkommen, handelt es sich doch um einen vorsätzlichen Angriff auf ein explizites Ziel – sprich etwas, was eher nur im Rahmen von Wirtschafts- oder staatlicher Spionage passiert.

Davon abgesehen ist für die allermeisten dieser Angriffe immer HyperThreading bzw. SMT von höherem Nutzen, da der Angreifer somit auf demselben physikalischen Kern operieren kann wie das Zielsystem. Möglicherweise aus dieser Warte heraus kommt daher das kürzliche Gerücht, Intel könnte HyperThreading ab Arrow Lake oder aber (wahrscheinlicher) ab Lunar Lake abschaffen – zugunsten sogenannter "Rentable Units" (RU). Jene könnten durchaus dieselbe Aufgabe übernehmen, dürften dabei dann aber grundsätzlich besser abgesichert sein – so zumindest eine mögliche Erklärung zu diesen RUs. Generell gesprochen könnte Intel ab Lunar Lake und dessen Nachfolgern mit seinem neuen Kern-Ansatz auch einen grundsätzlich neuen Sicherheits-Ansatz bringen, welcher sich eben aus den Erfahrungen des Themenkomplex "Spectre & Meltdown" ergibt. Dies steht dann langsam wirklich zur Debatte, denn im Zuge des fortschreitenden Cloud-Computings muß dessen Sicherheit vor Datenspionage endlich grundsätzlicher angegangen werden.