28

Radeon RX Vega M GH von Intels Kaby-Lake-G erreicht Grafik-Performance zwischen GeForce GTX 1050 Ti & 1060

An dieser Stelle leider bislang noch nicht thematisiert wurden die Benchmarks von Intels Kaby-Lake-G mit AMD-Vega-Grafik seitens der koreanischen Webseite Playwares.com von Anfang des Monats (dort leider sehr schnell wieder entschwunden, eine Kopie des ganzen ist noch bei WCCF Tech zu finden). Dabei hatte man einen Intel "Hades Canyon" NUC mit Core i7-8809G und demzufolge einer Radeon RX Vega M GH im Test, sprich der schnellsten angebotenen CPU/GPU-Kombination. Der Test lief leider ohne jede vergleichende Benchmarks ab, so das die meisten der aufgestellten Resultate nicht zu einer exakten Performance-Einordnung taugen – allenfalls kann man sagen, daß das System normalerweise flüssige fps-Werte bei aktuellen Spieletiteln unter der FullHD-Auflösung mit (meistens) bestmöglicher Grafikqualität ausgeworfen hat. Dafür lassen sich allerdings (unter Zuhilfenahme von Vergleichswerten aus dem Web) die Benchmark-Resultate der theoretischen Testprogramme ganz gut für eine Performance-Einordnung benutzen – was erstaunlicherweise bis jetzt kaum jemand getan hat (Bildchen posten hat halt Vorrang vor echter Einordnung der vorliegenden Informationen).

GTX 1050 Ti Mobile GTX 1060 Mobile Radeon RX Vega M GH GTX 1050 Ti GTX 1060 6GB
Technik nVidia GP107, 768 SE, 128 Bit GDDR5 SI, 1493/1620/3500 MHz, 64W TGP nVidia GP106, 1280 SE, 192 Bit GDDR5 SI, 1404/1670/4000 MHz, 80W TGP Vega, 1536 SE, 1024 Bit HBM2 SI, 100W TDP (CPU+GPU) nVidia GP107, 768 SE, 128 Bit GDDR5 SI, 1290/1382/3500 MHz, 75W GCP nVidia GP106, 1280 SE, 192 Bit GDDR5 SI, 1506/1708/4000 MHz, 120W GCP
3DMark13 FireStrike (GPU) 7791 11447 10147 7894 12647
3DMark13 FireStrike Extreme (GPU) 4433 3683 6160
3DMark13 FireStrike Ultra (GPU) 2265 1773 3009
3DMark13 TimeSpy (GPU) 2326 3576 2902 2213 4128
Superposition 1080p Medium ~7950 5969 ~5300 ~9000
Superposition 1080p High 4055 ~3750 ~6600
Superposition 4K Optimized 2412 ~2200 ~4100
3DC Perf.Index ~360% ~480-500% ~420-460% 360% 590%
basierend auf den Benchmarks von Playwares.com; Vergleichswerte aus dem Internet zusammengesucht
27

Hardware- und Nachrichten-Links des 26./27. März 2018

Auf seiner Hausmesse GTC 2018 hatte nVidia augenscheinlich nichts zu zukünftigen Grafikchip-Architekturen zu sagen – das Thema war hingegen einmal mehr "Volta": Vorgestellt wurde eine GV100-basierte Quadro-Karte, eine Tesla V100 mit nunmehr gleich 32 GB Speicher sowie ein neuer GPU-Cluster DGX-2, welcher mit einem NVSwitch immerhin 16 GV100-Grafikchips für insgesamt 81.920 Shader-Einheiten verbindet. Auch gab es (schon seit längeren) keine neue nVidia-Roadmap – aus selbigen hatte man früher immer noch eine grundsätzliche Marschrichtung bei nVidia erkennen können. Doch die letzten bekannten nVidia-Roadmaps enden mit "Volta" im Jahr 2017 – für das "danach" hat nVidia nunmehr seit einigen Jahren nichts offizielles mehr verlauten lassen. Natürlich ist es möglich, das von der Nachfolge-Generation jetzt im März eben einfach noch nichts spruchreifes existiert, das man damit also einfach noch nicht angeben konnte. Dennoch ist es etwas verwunderlich, das nVidia keinerlei Zukunftsperspektiven aufzeigt – gegenüber dem Gamer kann man dies ja so handhaben, jene müssen sowieso das nehmen, was vorgesetzt wird.

27

Vorab-Test von Ryzen 2 zeigt 8-9% mehr Anwendungs-Performance an

Das französische Printmagazin 'Canard PC' liefert einen ersten, allerdings etwas verfrühten Hardware-Test zu Ryzen 2 ab, Kopien der dort erzielten Ergebnisse finden sich auf Reddit sowie bei Videocardz. Getestet wurden hierbei Ryzen 5 2600, Ryzen 5 2600X und Ryzen 7 2700X auf allerdings nur einem A320-Mainboard, welches somit die die Ryzen-2-Features "XFR2 Enhanced" (nicht das normale XFR2) sowie Precision Boost Overdrive nicht ausführen kann. Zudem liegt laut der ComputerBase derzeit noch kein finales BIOS für die mit Ryzen 2 kommenden X470-Mainboards vor, insofern können Canard PC mit diesem Test sicherlich noch nicht diesen Stand abbilden, welcher sich dann beim kommenden Ryzen-2-Launch am 19. April ergeben wird. Und dennoch sind die Ergebnisse nicht uninteressant, ergibt sich eine gute erste Ahnung dazu, was für eine Mehrperformance AMD mit Ryzen 2 in der "Zen+" Architektur-Ausbaustufe hat erreichen können.

Technik Anwendungen Spiele (1080p) Differenz
Ryzen 7 2700X Zen+, 8C +SMT, 3.7/4.35 GHz, 105W TDP 175% 104,0% Taktraten: +2,7%/+6,1%
Anwendungen: +8,7%
Spiele (1080p): +3,4%
Ryzen 7 1800X Zen, 8C +SMT, 3.6/4.1 GHz, 95W TDP 161% 100,6%
Ryzen 5 2600X Zen+, 6C +SMT, 3.6/4.25 GHz, 95W TDP 138% 102,8% Taktraten: ±0%/+3,7%
Anwendungen: +8,7%
Spiele (1080p): +4,6%
Ryzen 5 1600X Zen, 6C +SMT, 3.6/4.1 GHz, 95W TDP 127% 98,3%
Ryzen 5 2600 Zen+, 6C +SMT, 3.4/3.9 GHz, 65W TDP 128% 99,9% Taktraten: +6,3%/+5,4%
Anwendungen: +7,6%
Spiele (1080p): +4,4%
Ryzen 5 1600 Zen, 6C +SMT, 3.2/3.7 GHz, 65W TDP 119% 95,7%
basierend auf den Benchmarks von Canard PC (Printausgabe)
26

AMDs HBCC-Feature kann (in der richtigen Situation) bis zu 70% Mehrperformance bringen

In unserem Forum hat man sich in zwei (schon etwas zurückliegenden) Postings (No.1 & No.2) mit den Performance-Auswirkungen von AMDs HBCC-Feature der Vega-Grafikkarten in Extremfällen beschäftigt. Das Feature wurde von AMD vor und während des Vega-Launches einigermaßen in den Vordergrund gestellt, hat sich allerdings bislang als bei weitem nicht so praxiswirksam erwiesen, wie gedacht – teilweise aber auch nur, weil die passenden Testszenen fehlten bzw. nicht offensichtlich vor der Nase lagen. Selbige wurden nun aber unter Wolfenstein II: The New Colossus gefunden: In zwei Szenen kann das HBCC-Feature seine erhebliche Schlagkraft mit Performancezugewinnen von 68-70% sehr eindrucksvoll unter Beweis stellen. In beiden Fällen halfen allerdings auch extreme Auflösungen samt extremer Settings der ganzen Sache auf der Sprünge – sprich, die Vega-Grafikkarte musste vorsätzlich in eine Situation gebracht werden, wo deren 8 GB Grafikkartenspeicher wirklich nicht mehr ausreicht.

HBCC=off HBCC=on (12 GB) Differenz
Wolfenstein II @ 4K (Streaming=Extreme), Szene 1 41 fps 69 fps +68%
Wolfenstein II @ 5K (Streaming=Extreme), Szene 2 30 fps 51 fps +70%
basierend auf Benchmarks aus dem 3DCenter-Forum: No.1 & No.2; mit Dank an Foren-User 'dargo'
25

Hardware- und Nachrichten-Links des 24./25. März 2018

Die GameZone berichtet über AMDs RayTracing-Ansatz in der Engine "ProRender" bzw. dem Entwickler-Paket "Radeon Rays 2.0". Beides bezieht sich allerdings nicht auf die angekündigte Treiber-Unterstützung für RayTracing auf aktueller AMD-Hardware, sondern stellt "nur" Entwicklerwerkzeuge dar – wie es selbige inzwischen sogar einige zum Thema "RayTracing" gibt. Relevant ist das ganze, weil jene Entwicklerwerkzeuge unter Vulkan laufen – womit dann bestätigt wäre, das auch die alternative LowLevel-API über diese Fähigkeit verfügen wird. Damit erwirbt sich Microsoft ergo mittels seines "DirectX RayTracing" (DXR) keinen technologischen Vorsprung, sondern beide LowLevel-APIs werden in diese Richtung hin nutzbar sein. Interessanterweise sollen sogar dieses Jahr noch erste Spiele erscheinen, welche diese AMD/Vulkan-Möglichkeit nutzen – jene müssten dann ergo unter der Vulkan-API erscheinen, was im Sinne eines gesunden Wettbewerbs der Grafik-APIs nur zu begrüßen wäre. Wie üblich bei AMD, sind diese Tools frei mit jeglicher Hardware nutzbar, nicht also wie nVidias RayTracing-Ansatz "RTX" auf das GameWorks-Programm und damit nVidia-eigene Hardware beschränkt. Allenfalls die intensive Nutzung von Asynchronous Compute bei AMDs RayTracing-Ansatz dürfte anderer Hardware nicht so schmecken – wobei dies dann eher den Anlaß ergeben sollte, bei der Asynchronous-Compute-Performance entsprechend nachzulegen.

25 25

Was ist eine vernünftige Anzahl an CPU-Kernen im Notebook?

Es wurde mit der Meldung über die Benchmark-Werte zu Intels kommenden Sechskern-Prozessoren für den Notebook-Einsatz schon angeschnitten: Ab einem gewissen Performance-Niveau sind (noch) mehr CPU-Kerne im Notebook nicht unbedingt förderlich, weil es (im Gegensatz zum Desktop) deren Negativ-Effekte wie stärkere Netzteile, Kühler und Akkus, höheres Gewicht mit potentiell geringerer Akkulaufzeit sowie letztlich einer potentiell geringeren Lebenserwartung zu beachten gilt. Die Frage ist also, was als eine vernünftige, sprich eine üblicherweise ausreichende Anzahl an CPU-Kernen im Notebook angesehen wird. Hierbei soll es also nicht darum gehen, was man sich noch maximal vorstellen kann bzw. was man maximal noch mitnehmen würde – sondern eher das andere Ende der Skala, was das niedrigste Niveau ist, um sich als "gut ausgerüstet" zu betrachten. Es geht dabei aber auch nicht um das niedrigstmögliche Niveau – sondern jenes Niveau, wo man nicht mehr meckern kann, was aus Performance-Sicht eben ausreichend und vernünftig ist.

Anmerkung I: Diese Umfrage bezieht sich damit logischerweise auf eine typische Notebook-Verwendung als mobiler Begleiter. Wer sein Notebook hingegen als Workstation oder Gaming-Maschine verwendet, hat ganz natürlicherweise andere Anforderungen – die mit dieser Umfrage jedoch nicht betrachtet werden sollen.
Anmerkung II: Diese Umfrage bezieht sich auf die üblichen CPU-Kerne von AMD und Intel aus deren regulären Prozessoren-Architekturen. Die jeweiligen LowPower-Architekturen (AMD Jaguar & Intel Atom) sind hiermit nicht gemeint, da vom Performance-Niveau her absolut nicht vergleichbar.

2-Kerner ohne HT/SMT
1% (11 Stimmen)
2-Kerner mit HT/SMT
16% (299 Stimmen)
4-Kerner ohne HT/SMT
17% (313 Stimmen)
4-Kerner mit HT/SMT
54% (1000 Stimmen)
6-Kerner
5% (97 Stimmen)
mehr als 6 Kerne
7% (123 Stimmen)
Gesamte Stimmen: 1843
23

Hardware- und Nachrichten-Links des 23. März 2018

Als erstes Spiel mit realem Einsatz von "DirectX Raytracing" gilt das für den Herbst avisierte "Metro Exodus" – zu welchem es nunmehr auch noch eine entsprechende Video-Demonstration gibt. Laut der PC Games Hardware sind die Reaktionen hierauf allerdings eher denn lauwarm, der auf der Entwickler-Webseite zu sehende Screenshot würde wohl mehr Eindruck machen. Viele Betrachter können in dem Demo-Video keine echte Verbesserung durch RayTracing erkennen, teilweise kommt sogar der "Downgrading"-Vorwurf auf. Spielentwickler "4A Games" hat sich hiermit also eher selber geschlagen – und gleichzeitig indirekt einen wichtigen Punkt angesprochen: Denn es ist natürlich unsicher, ob RayTracing bei heutiger Hardware überhaupt zu einem sinnvollen, sprich die Bildqualität wirklich verbessernden Einsatz in realen Spielen kommen kann. Die bislang gezeigten Tech-Demos können halt nur die Möglichkeiten aufzeigen – nicht aber die Realität eines echten Spiels abbilden, wo jeder Effekt immer auch gegengecheckt wird gegen die Frage, ob der Optikgewinn den Performanceverlust sowie die dafür notwendige Arbeitszeit wert ist.

Inhalt abgleichen