25

News des 24./25. Juni 2023

VideoCardz zeigen diverse 3DMark13-Werte zur GeForce RTX 4060 non-Ti, welche wohl aus den Kreisen der Hardwaretester stammen. Jene testen die Karte derzeit für deren Launch am 28. Juni (Marktstart einen Tag später). Dabei erzielte die GeForce RTX 4060 non-Ti gegenüber der GeForce RTX 3060 12GB unter dem FireStrike-Test ein Performance-Plus von +19,8%, unter TimeSpy hingegen gleich +30,4%. Im Mittel der 7 3DMark-Tests sollen es hingegen +23% sein – was etwas mehr ist, als was nVidia selber der GeForce RTX 4060 non-Ti in diesem Vergleich zutraut (+18%). Denkbarerweise skalieren die 3DMark-Tests allerdings etwas stärker gegenüber der realen Spiele-Performance, auch im Vergleich von GeForce RTX 3060 Ti zu 4060 Ti war selbiger Effekt schon zu sehen.

3060Ti → 4060Ti 3060 → 4060
Geekbench 5 OpenCL +17,8% +18,3%
Geekbench 5 Vulkan +15,5% +17,0%
3DMark13 FireStrike (GPU) +17,4% +19,8%
3DMark13 TimeSpy (GPU) +14,7% +30,4%
nVidias Spiele-Benchmarks (FullHD) +13,3% +18,0%
reale Spiele-Performance (FullHD, Raster) +11,6% geschätzt +15½-16%

Andererseits ist der TimeSpy-Vorteil der GeForce RTX 4060 non-Ti eine hohe Hausnummer, möglicherweise werden es also tatsächlich mehr als die von nVidia versprochenen +18% sowie die von uns (darauf basierend) prognostizierten +16%. Einen gänzlichen Ausbruch aus diesem Werte-Korridor kann es natürlich nicht geben, dafür ist die GeForce RTX 4060 non-Ti auf Basis des kleinsten Ada-Lovelace-Chips (AD107) viel zu schwachbrüstig bei der reinen Hardware-Grundlage gestaltet (24 Shader-Cluster an einem 128 Bit Speicherinterface, nur 24 MB Level2-Cache). Selbst bei einer etwas stärker als erwarteten Performance dürfte sich die GeForce RTX 4060 non-Ti somit weiterhin unterhalb des Performance-Levels der GeForce RTX 3060 Ti einordnen müssen. Und falls sich unsere eigene Prognose bestätigen sollte, dann sogar mit beachtbarer Differenz (mehr als 10%) zur genannten Ampere-Karte.

Eine interessante Testreihe zur VRAM-Frage von Grafikkarten kommt von Igor's Lab: Hierbei hat man die Grafikkartenspeicher-Menge künstlich limitiert und konnte somit dieselben (leistungsfähigen) Grafikkarten mit sowohl unterschiedlichen wie auch gezielten VRAM-Mengen ausmessen. Getestet wurde dabei allein mittels "The Last of Us, Part 1" unter der 4K-Auflösung mit reinen Minimum-Frameraten (P1 low), jene Messungen und deren Resultate können somit keinen Allgemeingültigkeits-Anspruch erheben. Aber es konnte ein auffällig unterschiedliches Verhalten von AMD- gegenüber nVidia-Grafikkarten herausgearbeitet werden, sobald man an die Grenze der notwendigen VRAM-Belegung kommt: Die AMD-Grafikkarte benötigte generell mehr Speicher, um wirklich zufrieden zu sein – und verlor dann beachtbar an Performance, wenn zu wenig Speicher da war.

Die nVidia-Grafikkarte war in fast allen Einzelpunkten besser: Sowohl wurde weniger maximale VRAM-Menge zur Spieldarstellung benötigt, als auch war das Performance-Ergebnis bei mangelhafter VRAM-Ausstattung besser. Allerdings gab es einen sehr auffälligen Unterschied bzw. Lapsus gegenüber AMD: Zwischen 8 und 12 GB VRAM-Menge brach die nVidia-Karte massiv ein – ausgerechnet die Speichermenge der GeForce RTX 3080 von 10 GB lieferte somit das (mit Abstand) schlechteste Ergebnis ab. Laut Igor's Lab soll dies auch unter anderen Spielen derart auftreten und auf die generelle Regel hinauslaufen, dass man nVidia-Karten nicht im Grenzbereich von deren VRAM-Bestückung betreiben sollte. Sprich mit einer vorhandenen 8-GB-Karte (von nVidia) sollte man eine VRAM-Auslastung von etwas darunter ansteuern, sagen wir 6-7 GB. Treibt man mit einer 8-GB-Karte (von nVidia) hingegen den VRAM-Bedarf auf nahezu 8 GB hoch, so soll jene auffallend unrund laufen.

An dieser Stelle wäre es allerdings dennoch besser, diese These mittels weiterer Benchmarks von anderen Spielen zu belegen – gerade wenn man daraus eine allgemeingültige Regel aufstellen wollte. Außerhalb dieses Punkts ist die Speicherverwaltung bei nVidia augenscheinlich klar besser, denn die nVidia-Hardware verbraucht weniger VRAM im Maximum und liefert bessere Frametimes selbst bei (klar) zu geringer Speicherausstattung. Letzteres wird dann natürlich erreicht über fehlende, zu spät erscheinende oder grob aufgelöste Texturen – aber dies ist bei Speichermangel normal und kann kein Grafikchip-Entwickler gänzlich anders lösen. Nur um Grenzbereich von knapp zureichender Speicherausstattung scheint das ansonsten hochgelobte nVidia-Speichermanagment zu versagen – ein Punkt, der wie gesagt noch besser belegt werden muß, daneben jedoch selbst nur im Einzelfall ein Thema für nVidias Treiber-Team sein sollte.

Die bislang noch fehlende Performance-Einordnung von GeForce RTX 4060 Ti & Radeon RX 7600 in den 3DCenter Performance-Index hat den simplen Hintergrund, dass sich spätestens mit den Werten der letzten Launch-Analyse eine augenscheinlich andere Performance-Skalierung schnellerer Grafikkarten speziell unter der FullHD-Auflösung ergeben hat. Gewisse Differenzen zum allgemeinen Index sind immer möglich, aber die hierbei festgestellten Unterschiede sind größeren Umfangs und vor allem mit zunehmender Grafikkarten-Stärke ebenfalls zunehmend (in der Spitze sogar über 10% Zuwachs). Anzunehmenderweise handelt es sich um einen Ausdruck der in den letzten zwei Jahren beachtbar gewachsenen CPU-Power speziell für den Spiele-Bereich – basierend auf schneller Generations-Abfolge sowie Sonder-Produkten wie AMDs X3D-Modellen.

Damit passt die generelle Index-Höhe nicht mehr, diese neue (stärkere) Skalierung müsste entsprechend eingearbeitet werden. Leider haben die zum letzten Grafikkarten-Launch aufgestellten Benchmark-Ergebnisse sich noch als etwas zu wenig in der Anzahl erwiesen, um ein möglichst genaues neues Performance-Bild zu formen. Diese Aufgabe wird somit auf nach den Launch der GeForce RTX 4060 non-Ti verschoben, welche hoffentlich nochmals mehr FullHD-Benchmarks mitbringt, um diese Neuordnung des 3DCenter Performance-Index im FullHD-Bereich dann durchführen zu können. Unter der UltraHD/4K-Auflösung ändert sich hingegen augenscheinlich so gut wie gar nichts: Jene Werte werden zur Kontrolle genauso mit erfasst werden, aber der erste Blick zeigt schon auf keinerlei derart grob abweichende Performance-Skalierung hin. Kleinere Verschiebungen wären allerdings auch beim UltraHD/4K-Index noch denkbar.

FullHD/1080p 3DC-Index ComputerBase PCGH TechPowerUp TechSpot
Radeon RX 7900 XTX 294,6% 336,7% 331,0% 310,0% -
Radeon RX 7900 XT 272,0% 301,5% 299,3% 284,3% 288,7%
Radeon RX 6950 XT 241,9% 252,1% 259,7% - 271,0%
Radeon RX 6800 XT 218,3% 221,8% 231,3% 225,7% -
GeForce RTX 4090 322,6% 381,9% 373,1% 337,1% -
GeForce RTX 4080 289,2% 331,7% 320,9% 304,3% -
GeForce RTX 4070 Ti 254,8% 280,4% 270,5% 271,4% 275,8%
GeForce RTX 4070 218,3% 231,4% 229,5% 228,3% 230,6%
GeForce RTX 3090 Ti 247,3% 273,9% 263,4% 267,1% -
GeForce RTX 3080 Ti 229,0% 254,7% 240,3% 244,3% -
GeForce RTX 3080 10GB 214,0% 232,9% 224,3% 224,3% -
GeForce RTX 3070 176,3% 181,2% 177,6% 180,0% 180,6%
GeForce RTX 2080 Ti 169,9% - 177,2% 177,1% -
GeForce RTX 2060 6GB 100% ~100% 100% 100% 100%
"3DC-Index" = bisheriger FullHD Performance-Index, zum besseren Vergleich normalisiert auf die GeForce RTX 2060 6GB = 100%; andere Wertequellen: RX7600-Launchreviews von ComputerBase, PC Games Hardware, TechPowerUp & TechSpot