Der TechSpot hat sich ausführlich damit auseinandergesetzt, was für eine Grafikkarten-Performance unter Medal of Honor: Warfighter notwendig ist. Das Shooterspiel setzt auf die von Battlefield 3 bekannte FrostBite-Engine 2.0 (was keinerlei Unterstützung für DirectX9-Hardware sowie Windows XP bedeutet) und ist damit ähnlich zu Battlefield 3 durchaus Hardware-fordernd, wenngleich für heutige Performance- und HighEnd-Grafikkarten dann doch zu bewältigen. Unter der höchsten Bildqualitätsstufe "Ultra Quality" (was 4x Multisampling Anti-Aliasing einschließt) ist das Spiel aber durchaus ein guter Prüfstein für aktuelle Grafikkarten – gerade weil man zu den vom TechSpot ermittelten Frameraten noch einige Reserven einplanen sollte, da es im Spiel auch noch langsamere Szenen als der Start der ersten Singleplayer-Mission gibt:
Medal of Honor: Warfighter – 1680x1050 Ultra Quality + 4xMSAA (Quelle: TechSpot) | ||||||
---|---|---|---|---|---|---|
AMD HD5000 | AMD HD6000 | AMD HD7000 | nVidia GF400 | nVidia GF500 | nVidia GF600 | |
zu langsam | 55x0 Serie 5670 DDR3/GDDR5 57x0 Serie |
6570 DDR3/GDDR5 6670 DDR3/GDDR5 6750 DDR3/GDDR5 6770 |
7750 DDR3 | 430 440 DDR3/GDDR5 450 DDR3/GDDR5 |
630 DDR3/GDDR5 640 |
|
20-24 fps | 5830 | 6790 | 7750 GDDR5 7750-900 |
460SE 768/1024MB 465 |
550Ti | 650 |
25-29 fps | 5850 | 6850 | 7770 | 460 768/1024MB | 560SE | |
30-39 fps | 5870 | 6870 6950 6970 |
470 | 560 560Ti |
650Ti | |
40-49 fps | 7850 | 480 | 560Ti-448 570 |
660 | ||
ab 50 fps | 7870 7950 7950-Boost 7970 7970-GHz |
580 | 660Ti 670 680 |
Sehr bemerkenswert bei allen Benchmarks unter diesem Spiel ist der große Vorteil der neuen Architekturen von AMD (GCN) und nVidia (Kepler): Beispielsweise sollte eine Radeon HD 7850 im gewöhnlichen etwas langsamer als eine Radeon HD 6970 sein, unter Medal of Honor: Warfighter rennt die neuere Karte der älteren jedoch regelmäßig davon. Bei nVidia ist der Effekt genauso da, wenngleich vielleicht nicht ganz so stark wie bei AMD. Damit kann es passieren, daß eine neue Mainstream-Grafikkarte das Spiel noch gerade so spielbar auf den Bildschirm bringen kann, eine ältere, nominell gleichstarke Karte dies aber nicht mehr schafft.
Medal of Honor: Warfighter – 1920x1200 Ultra Quality + 4xMSAA (Quelle: TechSpot) | ||||||
---|---|---|---|---|---|---|
AMD HD5000 | AMD HD6000 | AMD HD7000 | nVidia GF400 | nVidia GF500 | nVidia GF600 | |
zu langsam | 55x0 Serie 5670 DDR3/GDDR5 57x0 Serie 5830 |
6570 DDR3/GDDR5 6670 DDR3/GDDR5 67x0 Serie |
7750 Serie | 430 440 DDR3/GDDR5 450 DDR3/GDDR5 460SE 768/1024MB |
550Ti | 630 DDR3/GDDR5 640 650 |
20-24 fps | 5850 | 6850 6870 |
7770 | 460 768/1024MB 455 |
560SE | |
25-29 fps | 5870 | 6950 | 560 | 650 Ti | ||
30-39 fps | 6970 | 7850 | 470 480 |
560Ti 560Ti-448 570 |
650 Ti | |
40-49 fps | 7870 7950 |
580 | 660 660Ti |
|||
ab 50 fps | 7950 Boost 7970 7970 GHz |
670 680 |
In der Frage AMD oder nVidia gibt es dagegen keine größeren Überraschungen: Die Grafikkarten der jeweils neuen Generationen kommen in etwa dort heraus, wo man sie erwartet. Zu beachten wäre, daß der TechSpot schon mit den neuesten Beta-Treibern getestet haben, somit gerade der Leistungssprung von AMD unter dem Engine-gleichen Battlefield 3 auch hier zu beobachten ist und daher an der absoluten Leistungspitze beispielsweise die (normale) Radeon HD 7970 leicht vor die GeForce GTX 680 plaziert ist. Bei den älteren Grafikkarten der ersten beiden DirectX11-Generationen ist dagegen nVidia augenscheinlich klar im Vorteil, hier liegt die GeForce GTX 560 Ti regelmäßig vor der ansonsten als schneller eingeschätzten Radeon HD 6970 – und zwar trotz des Speichermengen-Vorteils der AMD-Karte.
Medal of Honor: Warfighter – 2560x1600 Ultra Quality + 4xMSAA (Quelle: TechSpot) | ||||||
---|---|---|---|---|---|---|
AMD HD5000 | AMD HD6000 | AMD HD7000 | nVidia GF400 | nVidia GF500 | nVidia GF600 | |
zu langsam | 55x0 Serie 5670 DDR3/GDDR5 57x0 Serie 58x0 Serie |
6570 DDR3/GDDR5 6670 DDR3/GDDR5 67x0 Serie 68x0 Serie 6950 |
77x0 Serie | 430 440 DDR3/GDDR5 450 DDR3/GDDR5 460/SE Serie 465 470 |
550Ti 560SE 560 560Ti 560Ti-448 |
630 DDR3/GDDR5 640 650 650Ti |
20-24 fps | 6970 | 7850 | 480 | 570 | 660 | |
25-29 fps | 7870 | 580 | 660Ti | |||
30-39 fps | 7950 7950-Boost |
670 680 |
||||
40-49 fps | 7970 7970-GHz |
Dies ändert sich erst ab 2560x1600, wo die GeForce GTX 560 Ti 1GB dann klar gegenüber der Radeon HD 6970 2GB verliert – für diese Auflösung sind 2 GB Grafikkartenspeicher faktisch Pflicht (mehr nützt aber auch nichts, wie die identische Performance zwischen GeForce GTX 680 2GB und 4GB beweist). Allerdings steigen unter dieser Auflösung auch die Anforderungen an die Rechenleistung und Speicherbandbreite enorm nach oben, so daß man unter 2560x1600 nur noch mit ausgewachsenenen HighEnd-Grafikkarten (mit mindestens 2 GB Speicher) auf vernünftige Frameraten kommen kann und keine heutige SingleChip-Grafikkarte die 50-fps-Marke erreicht.
Wenn die im konkreten Fall erzielte Performance nicht ausreichend für eine flüssige Framerate ist, empfiehlt sich der Blick zur High-Bildqualität des Spiels, mittels welcher man üblicherweise die Frameraten gegenüber der Ultra-Bildqualität verdoppeln kann. Der TechSpot hat hierzu ebenfalls umfangreiche Messungen vorgenommen, aus denen sich ergibt, daß man unter 1920x1200 auch mit älteren Performance-Modellen wie GeForce GTX 460 und Radeon HD 6850 noch halbwegs anständige Frameraten knapp oberhalb von 30 fps erreichen kann. Die vorstehenden Auflistungen und auch Performance-Aussagen beziehen sich dagegen allein auf die Ultra-Bildqualität des Spiels.
Bezüglich der benötigten CPU-Performance unter Medal of Honor: Warfighter hat der TechSpot recht erstaunliche Ergebnisse ermittelt: Angeblich skaliert das Spiel kaum mit der zur Verfügung stehenden CPU-Performance, selbst ein nur zweikerniger Athlon II X2 erreicht noch 78 fps – und böte damit eine ausreichende Grundlage selbst für die schnellsten HighEnd-Grafikkarten. Allerdings muß man diese Messungen etwas bezweifeln: Vom Engine-gleichen Battlefield 3 ist deutlich anderes bekannt, noch dazu wo die FrostBite-Engine 2.0 auf Vierkern-Prozessoren optimiert ist und beim Einsatz von Zweikern-Modellen bekannterweise klar an Performance verliert. Möglicherweise macht dem TechSpot hier die gewählte Testsequenz einen Strich durch die Rechnung bzw. würde eine andere Testsequenz andere Ergebnisse bei der benötigten CPU-Performance aufzeigen.