Von Hardware Unboxed [2] kommt ein derzeit vielbeachtetes wie auch vieldiskutiertes [3] YouTube-Video, welches womöglich auf Performance-Probleme von nVidia-Grafikkarten mit kleineren Prozessoren hindeutet. Diese Kombination wird selten getestet (vor allem nicht vergleichend), womit eine solche Problematik durchaus unerkannt durchrutschen könnte. Für ihren Test haben sich Hardware Unboxed primär auf "Watch Dogs: Legion" konzentriert, welches unter der FullHD-Einstellung mit "Medium"-Bildqualitätspreset dann schon in erheblichen Maßstab an der CPU-Performance hängt, womit sich Leistungsunterschiede verschiedener Prozessoren gut darstellen lassen. Die allererste im Video gezeigte Benchmark-Grafik liefert umgehend den Blick auf das Ärgernis: Die nominell viel schnellere GeForce RTX 3090 ist mit langsameren Prozessoren beachtbar langsamer als eine Radeon RX 5700 XT oder gar eine Radeon RX 5600 XT:
Sicherlich werden in einem CPU-limitierten Umfeld die Performance-Differenzen zwischen verschiedenen Grafikkarten teilweise arg zusammengedrückt oder können bei totaler CPU-Limitierung auch einmal ganz verschwinden – sie sollten sich nur niemals ins Negative umkehren, sprich kleinere Grafikkarten als "schneller" herauskommen lassen. Allerdings enthält diese Benchmark-Grafik genauso bereits einen Ansatz zur Entkräftung der aufgestellten These: Denn die nVidia-Karten kommen in diesem Test durchgehend schlechter weg, selbst unter einem Ryzen 5 5600X. Dies wird mit der allerersten von Hardware Unboxed in deren Video dargebotenen Benchmark-Grafik nicht deutlich, weil dort die Werte zur Radeon RX 6900 XT weggelassen wurden. Unter Hinzunahme von deren Werten wird jedoch klarer, dass die niedrigen Performance-Werte der nVidia-Karten nicht zwingend mit einer schwächeren Performance unter kleineren Prozessoren zu erklären sind – sondern in diesem Fall die nVidia-Hardware einfach generell langsamer läuft:
Noch deutlicher wird dies, wenn man sich rein auf die Spitzen-Grafikkarten konzentriert und dort die Differenz-Werte zwischen den kleineren Prozessoren zum Ryzen 5 5600X ermittelt. Jene zeigen an, dass AMD- und nVidia-Hardware ziemlich gleichförmig in diesem Test mit kleineren Prozessoren verlieren – beispielsweise im Fall des Ryzen 5 1600X die Radeon RX 6900 XT (–40% zum Ryzen 5 5600X) sogar minimal stärker als die GeForce RTX 3090 (–39%). Die Skalierung mit der vorhandenen Prozessoren-Power ist ergo ähnlich bis gleich, womit vielmehr die allgemeine fps-Höhe auf nVidia-Seite anzumängeln wäre – was dann eher ein Problem der generellen nVidia-Performance in diesem Test darstellt, nicht jedoch ein Problem allein bei kleineren Prozessoren. Natürlich kann man auch dies bemängeln bzw. wird damit der Punkt, dass die GeForce RTX 3090 unter diesem Test teilweise unterhalb von Radeon RX 5600 XT und 5700 XT herauskommt, bestenfalls etwas abgeschwächt – jedoch nicht aus der Welt geschafft.
WDL @ FHD "Medium" | i3-10100 | 1600X | 2600X | 3600X | 5600X |
---|---|---|---|---|---|
Radeon RX 6800 | 110 (–30%) | 100 (–36%) | 112 (–29%) | 139 (–11%) | 157 |
Radeon RX 6900 XT | 111 (–34%) | 100 (–40%) | 112 (–33%) | 130 (–22%) | 167 |
GeForce RTX 3090 | 94 (–33%) | 85 (–39%) | 93 (–34%) | 113 (–19%) | 140 |
GeForce RTX 3070 | 93 (–31%) | 83 (–39%) | 91 (–33%) | 109 (–19%) | 135 |
GeForce RTX 2080 Ti | 95 (–27%) | 83 (–36%) | 93 (–28%) | 109 (–16%) | 130 |
Watch Dogs Legion @ FullHD "Medium"; alle Werte-Angaben in fps, Differenz-Werte immer zum Ryzen 5 5600X; Benchmark-Werte gemäß den Ausführungen von Hardware Unboxed @ YouTube [2] |
Eventuell besser geeignet für die ursprüngliche These einer schwächeren nVidia-Performance unter kleineren Prozessoren ist daher der ebenfalls angestellte Benchmark-Vergleich mit "Horizon Zero Dawn" unter der FullHD-Einstellung mit "Original"-Bildqualitätspreset (was im groben "Medium" entspricht). Hierbei ergibt sich nicht mehr der Störpunkt einer generell schwächeren nVidia-Performance selbst mit einem starken Ryzen 5 5600X Prozessor – GeForce RTX 3090 und Radeon RX 6900 XT kommen mit dieser CPU grob in etwa gleichstark heraus. Trotzdem kommen die AMD-Grafikkarten weiterhin besser mit den kleineren Prozessoren zurecht: Auch hier gewinnt wieder die (nominell deutlich langsamer) Radeon RX 5700 XT teilweise gegenüber der GeForce RTX 3090 – zumindest im Vergleich unter dem Ryzen 5 1600X. Gegenüber der GeForce RTX 3070 wird es deutlicher, dabei gewinnt die genannte AMD-Grafikkarte alle Tests unter den kleineren Prozessoren:
In diesem Fall stimmen dann auch die Differenzwerte zur aufgestellten These: Die Radeon RX 6900 XT verliert durchgehend klar weniger an Performance mit den kleineren Prozessoren als beide nVidia-Grafikkarten. Im Fall von "Horizon Zero Dawn" unter den gewählten Settings (FullHD mit "Original"-Bildqualitätspreset) kann man also durchaus sagen, dass (neuere) nVidia-Hardware schlechter mit kleineren Prozessoren zusammenarbeitet, hierbei mehr Performance verliert als (neuere) AMD-Hardware. Die aufgestellte These kann somit zumindest unter diesem Einzelfall mit einem (einzelnen) Beleg ausgestattet werden. Woran dies konkret hängen mag, liegt dagegen noch im Feld der Diskussionen zu diesem Fall. Hardware Unboxed gehen in ihrem Video von einem größerem Treiber-Overhead seitens nVidia aus – was insofern ungewöhnlich wäre, als dass nVidia in der Vergangenheit eigentlich genau für das Gegenteil bekannt war.
HZD @ FHD "Original" | i3-10100 | 1600X | 2600X | 5600X | |
---|---|---|---|---|---|
Radeon RX 6900 XT | 164 (–15%) | 138 (–28%) | 148 (–23%) | 192 | |
GeForce RTX 3090 | 136 (–27%) | 109 (–42%) | 125 (–33%) | 187 | |
GeForce RTX 3070 | 118 (–20%) | 98 (–34%) | 109 (–26%) | 148 | |
Horizon Zero Dawn @ FullHD "Medium"; alle Werte-Angaben in fps, Differenz-Werte immer zum Ryzen 5 5600X; Benchmark-Werte gemäß den Ausführungen von Hardware Unboxed @ YouTube [2] |
Allerdings erscheint die Aussagekraft der bisher hierzu zu sehenden Benchmarks als noch zu gering, um jetzt schon von einer generellen "nVidia-Schwäche bei Low-End CPUs" zu sprechen (Wortwahl "Low-End CPUs" seitens Hardware Unboxed). Denn einer der beiden Benchmark läßt eine alternative Deutung zu, nur der zweite Benchmark ist dann weitgehend eindeutig – und dann war das Testfeld zu Ende. Normalerweise müsste das ganze unter einer größeren Anzahl an Spieletiteln belegt werden, gerade wenn man von einer generellen "Schwäche" spricht. Der kolportierte Treiber-Overhead müsste schließlich unter allen (API-gleichen) Spielen wirken, ergo sollte dessen Effekt unter nahezu jedem Spieletitel zu sehen sein. Dies sollte dann aber auch wenigstens einmal großflächig belegt werden.
Zudem gilt die generelle Einschränkung, dass der beobachtete Effekt wirklich nur unter FullHD und einer Medium-Bildqualität existiert. Sobald Auflösung oder Bildqualität höher angesetzt werden, wird alles umgehend wieder "normal" und kommen keine so beachtbaren Differenzen zwischen AMD- und nVidia-Grafikkarten unter kleineren Prozessoren heraus. Dies bedeutet, dass jenes Thema nur eine kleine Gruppe an Gamern tatsächlich betrifft: Nutzer schneller nVidia-Grafikkarten auf kleineren Prozessoren unter FullHD auf mittlerer Bildqualität. Angesichts der Kombination von Bildqualitätssettings mit Grafikkarten-Power trifft dies wohl nur auf High-fps-Gamer zu, vorzugsweise im kompetiven Bereich. Jene dürften zum größeren Teil jedoch sowieso höhere Auflösungen bevorzugen bzw. oftmals schnellere Prozessoren einsetzen, was die Gruppe der betroffenen Anwender nochmals verkleinert.
Nichtsdestotrotz ist nunmehr das Thema aufgeworfen und wartet auf eine Reaktion nVidias. In der Zwischenzeit könnte man allerdings durchaus daran gehen, die aufgestellte These mittels neuem Datenmaterial besser abzustützen – Benchmarks unter weiteren Spielen mit ähnlicher Performance-Charakteristik wären hierzu willkommen. Eventuell entdeckt man bei entsprechenden Tiefen-Benchmarks auch klarere Fälle oder gar einen (besseren) Hinweis auf die Ursache des ganzen. Allerdings sollte man dies auch wirklich Ergebnis-offen testen, denn die vorstehend dargelegten Benchmarks unter zwei Spieletiteln rechtfertigen eigentlich noch keine generelle Aussage. Das Fragezeichen im Titel unserer Meldung wurde nicht von ungefähr notiert – die These wurde aufgeworfen, aber eben noch nicht ausreichend eindeutig bewiesen.
PS:
Dieser Beitrag wurde am 14. März 2021 zuerst einmal als News-Meldung veröffentlicht, mit Wirkung vom 28. März 2021 dann zu einem "Artikel" aufgewertet. Die Gründe hierfür sind: Zum einen wurde die ursprüngliche These, welche in der Original-Meldung nicht ausreichend klar bewiesen wurde, nun mittels umfangreicher Benchmarks deutlich besser belegt. Um zum anderen haben sich zu diesem Thema eine Vielzahl an Nachträgen (siehe nächste Artikel-Seite) ergeben bzw. sind weitere zu erwarten, womit die Auslagerung in die besser wieder findbare Form eines "Artikel" sinnvoll erschien.
Nachtrag vom 15. März 2021
In der Frage der möglichen Schwäche von nVidia-Grafikkarten unter kleineren CPUs kommt von Igor's Lab [12] ein gewichtiger Debatten-Beitrag, welcher die Zielrichtung der Problematik eventuell verändert: Dabei deuten die dort angestellten Benchmarks unter "Horizon Zero Dawn" eher auf eine generelle Schwäche von nVidia-Grafikkarten unter kleineren Auflösungen hin. Damit würde die Problematik weiterhin CPU-bezogen bleiben, sich aber nicht nur auf kleinere Prozessoren-Modelle beschränken. So zeigte sich zum einen eine GeForce RTX 3090 gegenüber der Radeon RX 6900 XT unter einem potenten Achtkern-Prozessor erst unter der 4K-Auflösung überlegen, unter FullHD und 720p gewinnt hingegen die AMD-Karte. Jene Auflösungsskalierung geht sogar so weit, dass nominell deutlich schnellere nVidia-Grafikkarten unter 720p gegenüber langsameren AMD-Karten zurückstecken müssen, wie im Vergleichs von GeForce RTX 3060 Ti gegen Radeon RX 5700 XT:
Als Auflösung bieten Igor's Lab dann die These auf, dass es an der konkreten Umsetzung von Asynchronous Compute bei nVidia hängt – jenes Feature soll bei nVidia-Grafikkarten nach wie vor nicht so gut wie bei AMD-Grafikkarten umgesetzt sein. Dies könnte zumindest erklären, wieso der Fall nur unter DirectX-12-Spielen auftritt bzw. wieso wie hier bei "Horizon Zero Dawn" zu sehen auch hochklassige Prozessoren wie der Ryzen 7 5800X einen Effekt zeigen. Allerdings müsste auch diese These nunmehr mittels weiterer Benchmarks untermauert werden – sofern die These stimmt, sollte man unter allen DirectX-12-Titel mit Asynchronous Compute irgendetwas in diese Richtung messen können, bei den Titeln ohne Nutzung von Asynchronous Compute hingegen nichts. Igor's Lab geben selber an, für diese Tests derzeit nicht die Zeitreserven zu haben, ergo nimmt man sich dieser These hoffentlich noch von anderer Stelle aus an bzw. stellt eigene Benchmarks oder/und eigene Thesen zur weiteren Erforschung dieses Falls auf.
Nachtrag vom 16. März 2021
Gewichtiges Daten-Material zur Frage der unter kleineren CPUs schwächelnden nVidia-Grafikkarten liefert die PC Games Hardware [17] mittels eines expliziten Tests des CPU-Limits auf Radeon RX 6900 XT und GeForce RTX 3090 unter gleich 19 Spieletiteln. Mit der Ansicht der Einzel-Benchmarks dieses Artikels (leider ohne die jeweils benutzte Grafik-API notiert, teilweise liefert ein anderer PCGH-Artikel [18] hierzu die fehlenden Hintergründe) ergibt sich schon der gesuchte "rauchende Colt", die nachfolgende Zusammenfassung der vorliegenden Benchmarks macht es eindeutig: nVidia hat ganz deutlich ein Problem mit dem CPU-Limit speziell unter DirectX-12-Titeln – jenes liegt klar höher als bei vergleichbar schnellen AMD-Grafikkarten. Denn es ergibt sich mit diesen Benchmarks eine extrem augenscheinliche Diskrepanz je nach benutzter Grafik-API [19]: Unter DirectX 11 liegt die nVidia-Karte mit +11,5% vorn, unter DirectX 12 hingegen die AMD-Karte mit (ähnlich hohen) +10,6%.
Radeon RX 6900 XT | GeForce RTX 3090 | |
---|---|---|
Schnitt aller Benchmarks auf 1280x720 ( 19 Tests) | 100% | 101,7% |
Schnitt nur unter DirectX 11 (8 Tests) | 100% | 111,5% |
Schnitt nur unter Vulkan (3 Tests) | 100% | 109,0% |
Schnitt nur unter DirectX 12 (8 Tests) | 100% | 90,4% |
gemäß der Ausarbeitung der PC Games Hardware [17] mit einem Ryzen 3 3100 |
Die sich daraus ergebende Ergebnis-Differenz von über 20 Prozentpunkten zwischen beiden Teil-Daten ist um so bemerkenswerter, als dass im ingesamten Schnitt aller Messungen ein eher zu erwartendes Ergebnis mit +1,7% zugunsten der GeForce RTX 3090 herauskommt. Die Vulkan-API ist hingegen in diesem Fall eher auf der Seite von DirectX 11 bzw. zeigt ein zu dieser sehr ähnliches Ergebnis – die Problematik liegt also nicht generell bei LowLevel-APIs, sondern allein im Feld von DirectX 12. Das Insgesamt-Ergebnis zerfällt somit in zwei Teilgebiete (DirectX 11 & Vulkan vs. DirectX 12), deren Teilergebnisse sich vollkommen konträr gegenüberstehen – was in dieser Eindeutigkeit wirklich selten zu sehen ist (und somit einen Hintergrund haben wird). Bemerkbar ist zudem die Gleichförmigkeit der Ergebnisse unter DirectX 12: Wirklich alle getesteten DirectX-12-Titel schlagen zugunsten von AMD aus, der AMD-Vorteil liegt zudem nirgendwo unterhalb von +5%.
Beides deutet auf eine allgemeingültige und vor allem bestimmende Erklärung hin, nicht also nur einen Seiteneffekt oder nur unter bestimmten Konstellationen auftretende Problematik. Damit darf es erst einmal als erwiesen gelten, dass nVidia hier ein Problem mit der CPU-Performance (unter DirectX 12) hat. Inwiefern dies tatsächlich nur auf kleinere Prozessoren zutrifft, können diese (alleinig unter einem Ryzen 3 3100 durchgeführten) Benchmarks nicht aufzeigen – zuletzt hatte es ja Anzeichen gegeben, dass auch größere Prozessoren-Modelle unter nVidia-Hardware genauso betroffen sind. Ebenfalls nicht im Test stand mit diesen PCGH-Benchmarks, ob das ganze dan auch Auswirkungen unter real genutzten Auflösungen hat – erst dann könnte man wirklich von einem "Ausbremsen" sprechen. Aber als Beweis, dass es sich hierbei nicht nur um einen Effekt unter zwei Spieletiteln handelt (und es sich damit um so mehr lohnt, der Sache nachzugehen), sind diese Benchmarks hochwertvoll.
Nachtrag vom 19. März 2021
Vom russischen GameGPU [21] (maschinelle Übersetzung ins Deutsche [22]) kommt eine Ausarbeitung zur Prozessoren-Abhängigkeit von GeForce- und Radeon-Grafikkarten>, welche für die laufende Debatte als weitere Fakten-Grundlage dienlich sein kann. Hierbei wurde wiederum unter 1280x720 und somit nahezu vollständig CPU-limitiert gemessen, im Test waren jedoch zwei eigentlich sehr unterschiedliche Grafikkarten: Zwischen Radeon RX Vega 64 "LC" und GeForce RTX 3090 steht gemäß des 3DC FullHD Performance-Index [23] ein Performancesprung von +103% – sprich grob dem Doppelten, was die GeForce-Lösung in diesem Vergleich schneller sein sollte. Dies muß sich natürlich unter CPU-limitierten Szenarien keineswegs in dieser Höhe zeigen – aber das Benchmark-Ergebnis von GameGPU, wo die ältere Radeon-Lösung mit dem leicht schwächeren Prozessor (Ryzen 5 3600) gleich um +16% vor der schnellsten je gebauten GeForce-Lösung auf dem leicht stärkeren Prozessor (Ryzen 5 3600X) herauskommt, sollte wiederum auch nicht möglich sein.
Vega64 LC @ R5-3600 | 3090 @ R5-3600X | |
---|---|---|
Nominal-Performance gemäß 3DC FullHD Perf.Index [23] | 1000% | 2030% |
Schnitt 5 DX12-Benchmarks @ 1280x720 | 116,2% | 100% |
gemäß der Ausarbeitung von GameGPU [21] |
Damit steht bewiesen, dass die CPU-Schwäche von nVidia-Hardware unter DirectX 12 auch dazu führen kann, dass nicht nur die gleichwertige AMD-Hardware schneller herauskommt, sondern dass sogar nominell viel schwächere AMD-Hardware (samt schwächerer CPU-Power) an nVidia vorbeiziehen kann. Dies ist sicherlich nur ein gewisser Teilaspekt, welcher allerdings durchaus nützlich erscheint bei der Ursachenforschung. Denn aufgrund der Klarheit der Ergebnisse ist es nicht unwahrscheinlich, dass hier ein Fehler des nVidia-Treibers oder eine komplett liegengelassen (Nicht-)Optimierung zu sehen ist – sprich, eventuell per Treiber-Update lösbare Probleme. Weitere Benchmark-Belege werden jedoch benötigt für die Frage, wie stark dieser Effekt auf kleineren Grafikkarten ausfällt und vor allem wie stark der Effekt auf tatsächlich genutzte Auflösungen durchschlägt. Im Debatten-Ausgangspunkt in Form des Videos von Hardware Unboxed wurde der Effekt unter FullHD mit Medium-Bildqualität sowie teilweise auch unter WQHD mit Medium-Bildqualität beobachtet – allerdings nur unter 2 Spieletiteln, was zu wenig für eine generelle Aussage ist.
Nachtrag vom 26. März 2021
Hardware Unboxed haben auf YouTube [24] ihre These einer schwächeren nVidia-Performance unter kleineren Prozessoren mittels weiterer umfangreicher Benchmarks auf nochmals bessere Füße gestellt. Zuerst wurde der Testaufbau des ersten Videos [2] unter mehr Spieletiteln repliziert – wobei durchgehend DirectX-12-Titel zum Einsatz kamen, ein zusätzlicher Test unter "Rainbow Six: Siege" (Vulkan-API) zeigte hingegen keinerlei beachtbare Ausschläge. Die nachfolgende Index-Tabelle zu diesen HWU-Benchmarks vergleicht die durchschnittliche Performance generell zum Ryzen 5 5600X samt Radeon RX 6800 XT – die nachfolgend jeweils in kleiner Schrift notierten Differenz-Werte hingegen immer zum Ryzen 5 5600X auf der jeweils gleichen Grafikkarte. Somit kann man sehen, inwiefern eine einzelne Grafikkarte eventuell stärker mit kleineren Prozessoren einbricht als eine nominell ähnlich schnelle Grafikkarte.
FullHD @ "Medium" | R5-1400 | 9400F+2666 | 9400F+3200 | R5-5600X |
---|---|---|---|---|
Radeon RX 6800 XT | 48,1% (–51,9%) | 66,7% (–33,3%) | 74,5% (–25,5%) | 100% |
GeForce RTX 3080 | 40,1% (–54,5%) | 57,8% (–35,0%) | 65,5% (–26,3%) | 88,9% |
Radeon RX 5600 XT | 45,6% (–22,9%) | 51,7% (–12,6%) | 57,4% (–2,9%) | 59,2% |
GeForce RTX 2060 | 38,5% (–31,2%) | 47,5% (–15,2%) | 56,0% (–4,5%) | 56,0% |
Durchschnitt von 6 Spiele-Tests unter DirectX 12 mit FullHD-Auflösung @ "Medium"-Bildqualität; Nominal-Werte verglichen zum Ryzen 5 5600X @ Radeon RX 6800 XT, Differenz-Werte verglichen zum Ryzen 5 5600X auf jeweils derselben Grafikkarte; alle Benchmark-Werte gemäß der Ausarbeitung von Hardware Unboxed @ YouTube [24] |
Bei den von Hardware Unboxed angestellten Benchmarks ist dies augenscheinlich bei Radeon RX 5600 XT vs. GeForce RTX 2060 der Fall, wo die nVidia-Lösung doch klar stärker von kleineren Prozessoren getroffen wird als die AMD-Lösung. Im Spitzenfeld zwischen Radeon RX 6800 XT vs. GeForce RTX 3080 ist jene Differenz weniger klar ausgeprägt, beide Grafikkarten verlieren zumeist halbwegs ähnlich stark durch die kleineren Prozessoren. Wichtig ist daher, dass mittels dieses breiteren Benchmark-Feldes nachgewiesen werden konnte, dass Situationen, wo die GeForce RTX 3080 von kleineren AMD-Grafikkarten vernascht werden, eben keine Einzelfälle sind – sondern sich dieser Effekt auch im Durchschnitt mehrerer Spiele-Benchmarks einwandfrei nachweisen läßt. Vorstehende Benchmarks zeigen beispielsweise die (nominell grob halb so schnelle [23]) Radeon RX 5600 XT beachtbar vor der GeForce RTX 3080 herauskommend, sofern man einen Ryzen 5 1400 Prozessor einsetzt.
Noch deutlicher wird der Fall bei den zusätzlich angestellten Benchmarks mit einem Core i7-4790K – welcher eventuell auch der praxisnähere Bezug ist als ein Ryzen 5 1400: Unter diesem früheren Spitzen-Modell von Intel gewinnt eine Radeon RX 6700 XT problemlos gegenüber einer GeForce RTX 3080, welcher ihrerseits bereits eine Radeon RX Vega 56 auf den Fersen ist. Auch bei den anderen Konstellationen werden die nVidia-Karten deutlich nach unten gereicht, teilweise ist dies sogar unter der Vulkan-API (mit allerdings nur zwei Spiele-Tests) zu sehen. Damit kann der Effekt zumindest unter DirectX 12 im Setting "FullHD mit Medium-Bildqualität" als einwandfrei bewiesen gelten – nVidia-Grafikkarten verlieren hierbei deutlich gegenüber AMD-Grafikkarten. Augenscheinlich gilt der Effekt aber auch wirklich nur in dieser speziellen Bildqualitäts-Konstellation, schon unter der High-Bildqualität oder einer höheren Auflösung dürfte jener (von Einzelfällen abgesehen) wieder verschwinden. Unter DirectX 11 ergibt sich hingegen gemäß den abschließend seitens Hardware Unboxed angestellten Benchmarks keinerlei Effekt bzw. sind teilweise sogar Vorteile zugunsten von nVidia-Grafikkarten zu sehen.
FullHD @ "Medium" | 5x DX12 | 2x Vulkan | 3DC FHD-Index |
---|---|---|---|
Radeon RX 6800 XT | 100% | 100% | 1840% |
Radeon RX 6700 XT | 98,3% | 99,8% | 1490% |
GeForce RTX 3080 | 86,5% | 96,7% | 1900% |
Radeon RX Vega 56 | 85,7% | 91,0% | 840% |
GeForce RTX 3060 Ti | 78,8% | 88,6% | 1420% |
GeForce GTX 1080 | 77,2% | 85,6% | 960% |
Radeon RX 580 | 73,0% | 69,2% | 590% |
GeForce GTX 1060 | 67,0% | 49,2% | 590% |
Durchschnitt von 5 Spiele-Tests unter DirectX 12 sowie 2 Spiele-Tests unter Vulkan, jeweils mit FullHD-Auflösung @ "Medium"-Bildqualität; alle Benchmark-Werte gemäß der Ausarbeitung von Hardware Unboxed @ YouTube [24] |
Nachtrag vom 28. März 2021
Die zuletzt bereits in Tabellen-Form gezeigten Aussagen [25] des letzten HWU-Videos [24] zur nVidia-Schwäche mit kleineren CPUs unter DirectX12 sind möglicherweise mittels der nachfolgenden Darstellung in Diagramm-Form nochmals besser zu erfassen: Benutzt wurden hierbei allein die Ergebnisse unter Core i5-9400F (mit DDR4/2666) sowie Core i7-4790K als wohl eher in der Praxis vorkommend als denn ein Ryzen 5 1400. Ausgangspunkt des ganzen ist grundsätzlich, dass beide Diagramme nach der nominellen FullHD-Performance sortiert sind, die Balkenlänge also von oben nach unten immer kleiner werden sollte (GeForce GTX 1060 und Radeon RX 580 dürfen gleich schnell sein). Wie auf den ersten Blick zu sehen, fallen hierbei die nVidia-Grafikkarten allesamt aus der Spur bzw. bieten weniger Performance, als von jenen normalerweise zu erwarten wäre. Über die Wahl der beiden Intel-Prozessoren entfällt auch die Frage, ob hierbei irgendein SAM/rBAR-Effekt im Spiel sein könnte – jenes Feature gibt es zumindest für den Core i7-4790K ganz gewiß nicht mehr.
Nochmals drastischer wird es, wenn man dies gegenüber der Nominal-Performance auf Basis des 3DC FullHD Performance-Index [23] vergleicht: Dessen völlig andere (viel stärkere) Skalierung wäre dabei zu beachten, aber es reicht der Blick hin zu vollkommen eindeutigen Situationen im Stil von besser/schlechter. So sollte die GeForce RTX 3080 eigentlich oberhalb der Radeon RX 6800 XT herauskommen, nicht gerade unterhalb. Doch selbst wenn die allerneuesten Benchmark-Ergebnisse unter FullHD [30] eher zugunsten von AMD ausfallen, darf hierbei keine derart große Differenz herauskommen. Nochmals eindeutiger wird es dann bei GeForce RTX 2060 gegen Radeon RX 5600 XT (nVidia-Karte sollte etwas vorn liegen), GeForce RTX 3060 Ti gegen Radeon RX 6700 XT (AMD-Karte sollte nur einen geringen Vorsprung haben), Radeon RX Vega 56 gegen GeForce RTX 3060 Ti und GeForce GTX 1080 (AMD-Karte sollte deutlich zurückliegen, gegenüber der 3060Ti sogar massiv) und Radeon RX 580 gegen GeForce GTX 1060 (sollten gleich schnell sein).
Insofern kann man durchaus von einer Problemlage für nVidia reden – welche speziell unter DirectX 12 existiert, die Ergebnisse unter Vulkan sind nicht ganz eindeutig (zu wenige Testspiele) und unter DirectX 11 ergeben sich eher umgekehrte Tendenzen. Klar muß allerdings auch sein, dass dieser nVidia-Nachteil an einer Stelle existiert, wo die CPU-Performance die Gesamt-Performance bereits dominiert. Auch die AMD-Karten skalieren in diesem Vergleich (logischerweise) schlecht, zwischen Radeon RX Vega 64 und 6800 XT gibt es gerade einmal +17% Mehrperformance – nominell sollte es mehr als das Doppelte sein. nVidias Problem liegt also nur dort, wo sich größere Grafikkarten sowieso nicht lohnen, egal ob von AMD oder nVidia kommend. Dass die Problematik genauso auch unter Situationen auftritt, wo normalerweise echte Differenzen zwischen (verschieden leistungsstarken) Grafikkarten existieren, wurde hingegen bislang nicht nachgewiesen (Einzelfälle sind kein "Nachweis"). Das Ausbleiben dieser Messungen deutet vielleicht sogar darauf hin, dass es da nichts zu holen gibt – dass sich also schon unter FullHD mit "High"-Bildqualität bereits wieder ein "normales" Bild zeigt.
Somit wäre dann allerdings darüber nachzudenken, ob in diesem Fall auch wirklich eine Praxisrelevanz existiert: Denn nVidia ist hierbei (nach bisherigem Wissen) allein schlechter unter Settings, wo wegen eines bestimmenden CPU-Limits sowieso nur noch sehr abgeschwächte Performance-Unterschiede zwischen den Grafikkarten existieren und sich somit nirgendwo wirklich schnelle Grafikkarten lohnen. Anstatt an dieser Stelle die Grafikkarte zu wechseln, wäre in einer solchen Situation viel eher ein CPU-Upgrade zu empfehlen, dies würde gravierend mehr bringen. Dies gilt natürlich nur insofern, als dass jemand tatsächlich FullHD mit (durchgehender) "Medium"-Bildqualität auf einem schwächeren Prozessor mit einer Grafikkarte á Radeon RX 580 oder GeForce GTX 1060 oder stärker benutzt. Jene Grafikkarten sind auch heutzutage zumeist zu einer "High"-Bildqualität unter FullHD in der Lage – was die Problematik in einer Grafikkarten-Limitierung verschwinden läßt und wie gesagt die Frage nach der Praxisrelevanz dieses Falls aufstellt.
Verweise:
[1] http://www.3dcenter.org/users/leonidas
[2] https://www.youtube.com/watch?v=JLEIJhunaW8
[3] https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605303
[4] http://www.3dcenter.org/dateien/abbildungen/Watch-Dogs-Legion-Benchmarks-by-Hardware-Unboxed.jpg
[5] http://www.3dcenter.org/abbildung/watch-dogs-legion-benchmarks-hardware-unboxed
[6] http://www.3dcenter.org/dateien/abbildungen/Watch-Dogs-Legion-Benchmarks-Teil2-by-Hardware-Unboxed.jpg
[7] http://www.3dcenter.org/abbildung/watch-dogs-legion-benchmarks-teil-2-hardware-unboxed
[8] http://www.3dcenter.org/dateien/abbildungen/Horizon-Zero-Dawn-Benchmarks-by-Hardware-Unboxed.jpg
[9] http://www.3dcenter.org/abbildung/horizon-zero-dawn-benchmarks-hardware-unboxed
[10] https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605325
[11] http://www.3dcenter.org/artikel/schwaecheln-nvidia-grafikkarten-mit-kleineren-prozessoren
[12] https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/
[13] http://www.3dcenter.org/dateien/abbildungen/Horizon-Zero-Dawn-Radeon-RX-6900XT-vs-GeForce-RTX-3090-by-IgorsLab.png
[14] http://www.3dcenter.org/abbildung/horizon-zero-dawn-radeon-rx-6900-xt-vs-geforce-rtx-3090-igors-lab
[15] http://www.3dcenter.org/dateien/abbildungen/Horizon-Zero-Dawn-Radeon-RX-5700XT-vs-GeForce-RTX-3060Ti-by-IgorsLab.png
[16] http://www.3dcenter.org/abbildung/horizon-zero-dawn-radeon-rx-5700-xt-vs-geforce-rtx-3060-ti-igors-lab
[17] https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Radeon-Geforce-CPU-Limit-Test-1368614/
[18] https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Leistung-2021-1366846/
[19] http://www.3dcenter.org/newskategorie/grafik-apis
[20] http://www.3dcenter.org/abbildung/ryzen-3-3100-1280x720-radeon-rx-6900-xt-vs-geforce-rtx-3090
[21] https://gamegpu.com/%D0%B1%D0%BB%D0%BE%D0%B3%D0%B8/sravnenie-protsessorozavisimosti-geforce-i-radeon-v-dx12
[22] https://translate.google.com/translate?sl=ru&tl=de&u=https://gamegpu.com/%25D0%25B1%25D0%25BB%25D0%25BE%25D0%25B3%25D0%25B8/sravnenie-protsessorozavisimosti-geforce-i-radeon-v-dx12
[23] http://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
[24] https://www.youtube.com/watch?v=G03fzsYUNDU
[25] http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-maerz-2021
[26] http://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i5-9400F.png
[27] http://www.3dcenter.org/abbildung/hardware-unboxed-6-directx12-spiele-fullhd-medium-mit-core-i5-9400f
[28] http://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i7-4790K.png
[29] http://www.3dcenter.org/abbildung/hardware-unboxed-5-directx12-spiele-fullhd-medium-mit-core-i7-4790k
[30] http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6700-xt/launch-analyse-amd-radeon-rx-6700-xt-seite-2
[31] http://www.3dcenter.org/artikel/schwaecheln-nvidia-grafikkarten-mit-kleineren-prozessoren/schwaecheln-nvidia-grafikkarten-mi