11

Die Grafikkarten-Performance unter The Evil Within

Bei seinem Release im Oktober gegenüber den anderen Spiele-Blockbustern etwas untergegangen, wollen wir uns nachträglich noch die Grafikkarten-Performance unter "The Evil Within" anschauen, zu welchem entsprechende Artikel seitens der PC Games Hardware, von Notebookcheck und GameGPU vorliegen. Das Survival-Horror-Spiel auf Basis einer modifizierten id-Tech-5-Engine schockte bei der seinerzeitigen Bekanntgabe der Systemanforderungen mit dem Wunsch nach Core-i7-Prozessor, GeForce GTX 670 oder besser und gleich 4 GB Grafikkartenspeicher – wobei sogar betont wurde, daß unterhalb von 4 GB Grafikkartenspeicher die "optimale Darstellung des Spiels" nicht garantiert werden könne. In der Praxis hat sich dies als ziemlicher Unsinn herausgestellt, für FullHD konnte die PCGH eine Speicherbelegung von 1,6 GB ermitteln, für UltraHD dann 2,5 GB – und nirgendwo gab es auffällige Performance-Einbrüche nur wegen des Grafikkartenspeichers, laufen laut GameGPU sogar Grafikkarten mit 1,5 oder nur 1 GB Grafikkartenspeicher vernünftig mit.

An Bildqualitätsoptionen bietet das Spiel relativ wenige an, so daß die Hardware-Anforderungen zwischen den verschiedenen Bildqualitäten nicht besonders groß sind. Als Anti-Aliasing werden FXAA, MLAA und SMAA geboten, wobei allen Testern letztgenannte Variante am besten gefallen hat. Als allesamt Weichzeichner-Effekte dürfte der Performance-Einfluß dieser Anti-Aliasing-Verfahren sowieso eher gering sein. Damit man unter The Evil Within überhaupt mehr als 30 fps sehen kann, ist zuerst der nominelle 30-fps-Lock des Spiels zu lösen, was bei der GameStar (inklusive auch Ausführungen zum Abschalten der 21:9-Balken) erläutert wird. Wie zuletzt schon so vorexerziert, haben wir für unsere Frameraten-Einschätzung einen Mittelwert aus den drei vorliegenden Tests gebildet. Dies ergibt eine mittlere Spiel-Performance – keine Leerlauf-Performance, aber auch keine absolute WorstCase-Performance, gewisse Reserven darf man also gern einplanen:

The Evil Within – 1920x1080 MaxQuality & SMAA (Quellen: PCGH, Notebookcheck & GameGPU)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7790 260 650Ti-Boost 750
30-39 fps 7850 260X
265
660
660Ti
750Ti
40-49 fps 7870
7870-Boost
7950
7950-Boost
270
270X
670
680
760
50-59 fps 7970
7970-GHz
280
285
280X
770
ab 60 fps 290
290X
Titan 780
Titan Black
780Ti
970
980

The Evil Within kommt mit den allermeisten der heutigen modernen Grafikkarten zurecht, gute Frameraten mit gewissen Reserven gibt es bei AMD ab Radeon HD 7870 sowie Radeon R9 270, bei nVidia ab GeForce GTX 670 sowie GeForce GTX 760. Sogar ältere Modelle kommen laut den Tests von GameGPU teilweise noch gut mit: Eine GeForce GTX 580 erreicht über 40 fps, im 30-fps-Feld liegen GeForce GTX 560 Ti-448, GeForce GTX 570, Radeon HD 6950 und 6970. Zwischen AMD und nVidia gibt es hier auf den ersten Blick keine echten Auffälligkeiten, auf den zweiten Blick kommen die AMD-Grafikkarten überall etwas besser weg: So gewinnt beispielsweise die Radeon R9 280X gegenüber der (nominell gleich schnellen) GeForce GTX 770 oder kommt an der absoluten Leistungspitze die Radeon R9 290X fast an die Werte der (nominell klar schnelleren) GeForce GTX 980 heran.

The Evil Within – 2560x1600 MaxQuality & SMAA (Quelle: GameGPU)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870
7870-Boost
270
270X
670 760
30-39 fps 7950
7950-Boost
7970
7970-GHz
280
285
280X
680 770
40-49 fps 290 Titan 780
Titan Black
50-59 fps 290X 780Ti 970
980

Unter 2560x1600 geht die Performance sehr maßgeblich zurück, bieten umgehend nur noch HighEnd-Grafikkarten ab Radeon R9 290 oder GeForce GTX 780 Frameraten ab 40 fps an. Zwar kann sich die GeForce GTX 980 an der absoluten Leistungsspitze hier deutlicher von der Radeon R9 290X absetzen, ansonsten bleibt das Bild jedoch gleich, daß die AMD-Beschleuniger unter "The Evil Within" überall etwas besser mitkommen. Die PCGH sowie GameGPU bieten dann noch weiterführende Benchmarks unter UltraHD an, welche jedoch keinerlei erbauliche Frameraten offerieren: 40 fps erreicht unter 4K keine derzeitige SingleChip-Grafikkarte.

Irgendwelche echten Probleme bezüglich des Grafikkartenspeichers sind wie gesagt nirgendwo zu sehen, dafür wird fast überall von einer hohen Anforderungen an die CPU-Leistung für hochklassige Frameraten berichtet. Dabei mag das Spiel in erster Linie nicht mehr Rechenkerne, sondern vielmehr die neueste Intel-Architektur "Haswell": Denn laut GameGPU erreicht selbst ein zweikerniger Core i3-4330 noch 61 fps (und damit nur unwesentlich weniger als Vier- und Sechskerner von Haswell), kommt aber klar schneller heraus als sogar ein Sechskerner von Ivy Bridge oder alle AMD-Modelle. Für Frameraten ab 40 fps sollte es in jedem Fall ein moderner Intel-Prozessor ab Sandy Bridge sein, bei AMD kommen nur die Centurion-Modelle auf diese Marke. Die ganz hohen Frameraten, zu welchen Radeon R9 290X, GeForce GTX 970 & 980 durchaus in der Lage sind, erreicht man wohl nur mit einem stark übertakteten Intel-Prozessor neueren Baudatums.

9

Hardware- und Nachrichten-Links des 9. Dezember 2014

Die ComputerBase hat sich die Performance einer Reiher älterer und neuerer Grafikkarten-Treiber im Vergleich angesehen, hierbei fehlt allerdings noch der neue Omega-Treiber von AMD. In dem Artikel ging es aber eher um die Treiberentwicklung über einen längeren Zeitraum, hierfür ging man bei AMD bis zum Catalyst 13.1 und bei nVidia bis zum GeForce-Treiber 320.49 zurück. Sobald halbwegs neue Treiber-Versionen vorliegen, gab es jedoch keine beachtbare Performancegewinne mehr – und wenn, dann fanden jene nur unter neu herausgekommenen Spieletitel statt, nicht mehr unter älteren Spieletiteln. Eine echte Performance-Verbesserung im Laufe der Treiber-Entwicklung findet also nicht statt, vielmehr werden die Treiber seitens der Grafikchip-Entwickler auf neu herauskommende Spiele angepasst und dies bildet dann die eher singulär zu nennenden Performance-Verbesserungen. Damit muß man bei eher sporadischer Spielenutzung sicherlich nicht immer jeden neuen Treiber mitnehmen – legt man sich dagegen ein neues Spiel zu, bevorzugt einen Triple-A-Titel, kann sich die Suche nach einem entsprechend angepassten Treiber um so stärker lohnen.

Die ursprüngliche Meldung zu AMDs "Virtual Super Resolution" enthielt leider einen Fehler, welcher nVidias DSR Anti-Aliasing Unrecht tat: Beide Features funktionieren im Zusammenspiel mit dem Treiber nach dem Prinzip, daß die Features im Treiber nur grundsätzlich freigeschaltet werden, im Spiel dann aber erst durch die Wahl der jeweiligen VSR- bzw. DSR-Auflösung endgültig festgelegt werden. In dieser Frage sind also beide Features gleich praxistauglich, weil man natürlich nur über diesen Weg für jedes Spiel einen anderen Downsampling-Multiplikator bzw. eine andere interne Render-Auflösung benutzen kann. Der Fehler in der ursprünglichen Meldung basierte auf einem Copy&Paste-Irrtum unsererseits, darf aber natürlich trotzdem nicht passieren, wurde jedoch schnell über die Experten unseres Forums entdeckt, gemeldet und korrigiert. Wir bitten um Entschuldigung für diesen Lapsus.

Nachdem es zuletzt eher nach weiteren Broadwell-Verzögerungen aussah, berichten TweakPC nunmehr von demnächst vorzustellenden Notebooks mit Core i5-5200U Prozessor aus der Broadwell-Architektur. Mit diesem Einstiegs-Modell aus dem Core-i5-Bereich (bedeutet bei Notebooks zwei CPU-Rechenkerne mit HyperThreading und Turbo-Mode) kann Intel mittels der 14nm Broadwell-Architektur die Taktraten steigern, der Core i5-5200U kommt mit 2.2/2.7 GHz daher, der vorhergehende Core i5-4200U aus der 22nm Haswell-Architektur nur mit 1.6/2.6 GHz. Gut möglich, daß insbesondere die bei der TDP stark beschnittenen Modelle wie eben diejenigen der U-Serie (15W TDP) stark von der 14nm-Fertigung profitieren – nicht in Form eines niedrigeren Stromverbrauchs, sondern in Form höherer unter Last erreichbarer Taktraten zum gleichen Stromverbrauch. Bei den Watt-stärkeren Modellen und insbesondere im Desktop-Bereich dürfte sich dieser Vorteil dann wieder relativieren und es eher um die (geringen) Pro/MHz-Vorteile von Broadwell gehen.

WinFuture berichten über Überlegungen seitens Microsoft, zukünftig stärker auf Abo-Modelle zu setzen. Windows 10 soll aber keinesfalls als Lockvogel-Angebot dienen, dürfte demzufolge weiterhin einen regulären Preis in ähnlicher Höhe wie bisher besitzen. Allenfalls für diese Geschäftsbereiche, wo Windows wenig verbreitet ist – Smartphones & Tablets – könnte Microsoft sein bisheriges Angebot halten, daß Windows bis zu einer gewissen Gerätegröße (für die OEMs) kostenlos ist. In Nebenbereichen dürfte Microsoft aber sicherlich das Abo-Modell ausbauen, so bei Office und OneDrive – wobei sich die Methode augenscheinlich bewährt hat, selbiges in einer zeitlich limitierten kostenlosen Variante den Betriebssystemen beizulegen. Allerdings kann an dieser Stelle auch neues Ungemach mit den Wettbewerbshütern drohen, denn hier nutzt Microsoft natürlich wieder seinen Standortvorteil bei Betriebssystemen für andere Produkte aus, wo noch Wettbewerb existiert – wie einstmals im Browser-Krieg.

9

nVidias GeForce GTX 960 kommt angeblich Ende Januar 2015

Die SweClockers (maschinelle Übersetzung ins Deutsche) berichten zur GeForce GTX 960 auf GM206-Basis, welche auf der CES Anfang Januar 2015 als Presse-Preview gezeigt werden und dann ein paar Wochen später in den Handel gelangen soll. Aufgrund der unsicheren Informationslage zur GeForce GTX 960 sowie dem GM206-Chips ist es bei dieser Meldung wichtig, zwischen dem zu unterscheiden, was SweClockers direkt gehört haben und was sie zusätzlich als Annahme dazuschreiben – weil teilweise bei anderen Meldungen zum Thema diese Annahmen dann plötzlich als feststehende Fakten notiert werden (und am besten noch neue Annahmen aus diesen heraus gedichtet werden).

Was SweClockers wissen wollen, ist, daß die GeForce GTX 960 auf dem GM206-Chip basiert, aber nur ein 128 Bit DDR Speicherinterface samt 2 GB Grafikkartenspeicher trägt. Die Performance soll trotz der niedrigeren Spezifikationen im Rahmen der GeForce GTX 770 liegen. Eine Annahme ist dagegen, daß das ganze zwischen 249 und 299 Dollar kosten soll – was zwar zur Zielsetzung "obere Mittelklasse" passt, sich aber am Ende doch zu stark mit dem Listenpreis der GeForce GTX 970 von 329 Dollar beißen würde. Generell betrachtet passt hier aber sowieso einiges nicht zusammen, denn mit einem 128 Bit DDR Speicherinterface wird es nVidia schwer fallen, diese Leistungsklasse zu erreichen, mit nur 2 GB Grafikkartenspeicher ist zudem eine Absatzchance auf diesem Preis- und Performanceniveau eine Illusion (wie die Radeon R9 285 leidvoll zu berichten weiß).

Was genau passiert, läßt sich leider trotz dieser Informationen nicht sicher sagen, einzig allein der Termin steht wohl fest. Möglich sind prinzipiell zwei große Wege: Erstens eine weitere Grafikkarte auf Basis des GM204-Chips mit nochmals weiteren Abspeckungen gegenüber der GeForce GTX 970. Denkbar sind hierbei eine geringere Anzahl an Shader-Einheiten sowie ein auf 192 Bit DDR beschnittenes Speicherinterface, an dem dann nur 3 GB Grafikkartenspeicher hängen – vollkommen ausreichend für diesen Preisbereich und vor allem eine gute Abgrenzung nach oben hin zur GeForce GTX 970. Eine Performance im Rahmen der GeForce GTX 770 wird allerdings mit dem GM204-Chip gar nicht so einfach zu realisieren sein, dafür muß man jenen wirklich sehr brutal abspecken. Machbar ist dies prinzipiell allerdings doch, wie die GeForce GTX 970M (Niveau GeForce GTX 670, etwas besser als die GeForce GTX 760) beweist.

Der zweite große Weg geht über den GM206-Chip, egal wie dessen Hardware nun aussieht. Man diskutiert schon eine ganze Weile, ob es nun 1024 oder 1280 Shader-Einheiten werden – währenddessen man sich die ganze Zeit ziemlich sicher war, daß der Chip ein 192 Bit DDR Speicherinterface trägt. Dies macht einfach Sinn, es ist hübsch symetrisch zwischen GM107 (128 Bit DDR) und GM204 (256 Bit DDR) liegend und ermöglicht zudem auf einfache Art und Weise die für dieses Preis- und Performancesegment derzeit passende Speichergröße von 3 GB. Ein 128 Bit DDR Speicherinterface am GM206-Chip würde sehr deutlich überraschen und außerdem (wie gesagt) die Frage aufwerfen, ob man damit überhaupt eine Performance wie bei der GeForce GTX 770 erreichen kann. Bei einem 192 Bit DDR Speicherinterface erscheint dies (auf 1024 oder 1280 Shader-Einheiten) absolut möglich, der GM206-Chip könnte ergo den GK104-Chip schlicht günstiger und mit einem moderneren Featureset ersetzen.

Technik mögliche Performance möglicher Preis
Hauptvariante 1:
Abspeckung des GM204-Chips
1280 oder 1408 Shader-Einheiten an einem 192 Bit DDR Speicherinterface mit 3 GB Speicher, vergleichsweise moderate Taktraten GeForce GTX 770 und etwas besser 250-270 Euro
Hauptvariante 2:
Vollausbau des GM206-Chips
1024 oder 1280 Shader-Einheiten an einem 192 Bit DDR Speicherinterface mit 3 GB Speicher, vergleichsweise normale Taktraten GeForce GTX 680 bis 770 230-250 Euro
Nebenvariante 1:
GM206-Chip mit 128-Bit-Interface
1024 Shader-Einheiten an einem 128 Bit DDR Speicherinterface mit 2 GB Speicher, vergleichsweise hohe Taktraten bestenfalls GeForce GTX 760 bis 670 190-210 Euro

Als Namen bieten sich beiderseits "GeForce GTX 960 Ti" oder "GeForce GTX 965" an – die Namenswahl "GeForce GTX 960" wäre dagegen zu niedrig gegriffen, würde keinen Platz für den GM206-Chip bzw. weitere Varianten dieses Chips lassen. An dieser Stelle kann man sich aber natürlich auch irren und nVidia plant für weitere, noch kleinere Maxwell-Grafikkarten eventuell mit der "GeForce GTX 950 Serie" – dies bliebe abzuwarten. Sofern nVidia Ende Januar wirklich eine Grafikkarte für das obere Mittelklasse-Segment vorstellen will, dürfte sie jedenfalls mit einiger Sicherheit in einer der beiden vorgenannten Varianten erscheinen, irgendwie das Performance-Feld der GeForce GTX 770 erreichen und damit voraussichtlich einen Preispunkt von 230 bis 250 Euro besetzen.

9

AMD stellt Omega-Treiber mit "Virtual Super Resolution" vor

Einen Tag später als ursprünglich avisiert hat AMD heute seinen "Wundertreiber" Catalyst 14.12 mit Beinamen "Omega" offiziell vorgestellt und bietet jenen zum Download an. Der neue Treiber bringt sowohl Performance-Verbesserungen, die übliche Liste an Bugfixes als auch einen ganzen Strauß an neuen Features mit, allen voran natürlich das Downsampling-Feature "Virtual Super Resolution" (VSR), mittels welchem AMD diesbezüglich mit nVidias "Dynamic Super Resolution" (DSR) gleichzuziehen versucht.

Leider klappt dies in dieser ersten VSR-Version noch nicht gänzlich, denn AMDs Downsampling-Lösung ist bei weitem nicht so flexibel ausgeführt wie nVidias DSR. So stehen faktisch allen modernen nVidia-Grafikkarten jeweils alle DSR-Optionen 1.2, 1.5, 1.78, 2.0, 2.25, 3.0 und 4.0 zur Verfügung, irgendwelche Limitationen bezüglich Grafikkarten oder/und Auflösungen sind nicht bekannt. AMDs VSR bietet hingegen abhängig von Auflösung und Refreshrate nur gewisse Multiplikatoren an, die zudem auch nur einem Teil der aktuellen AMD-Grafikkarten – Radeon R9 285, 290, 290X und 295X2 – zur Verfügung stehen:

Radeon R9 290, 290X & 295X2 Radeon R9 285 nVidia Fermi, Kepler & Maxwell
1920x1080 @ 60 Hz 1.78 (2560x1440)
2.78 (3200x1800)
1.78 (2560x1440)
2.78 (3200x1800)
4.0 (3840x2160)
unabhängig von Auflösung und Refreshrate:
1.2
1.5
1.78
2.0
2.25
3.0
4.0
1920x1080 @ 120 Hz 1.11 (1920x1200)
1.52 (2048x1536)
1.11 (1920x1200)
1.52 (2048x1536)
1920x1200 @ 60 Hz 1.36 (2048x1535)
1.78 (2560x1600)
1.36 (2048x1535)
1.78 (2560x1600)
4.0 (3840x2400)
2560x1440 @ 60 Hz 1.56 (3200x1800) 1.56 (3200x1800)

Der wichtige Modus 4.0 wird somit nur auf der Radeon R9 285 unter FullHD angeboten, die viel potenteren Radeon R9 290, 290X und 295X2 Karten müssen sich mit "krummen" Zwischenmodi zufriedengeben. Sicherlich sind diese Karten (wie auch die schnellsten nVidia-Modelle) zu langsam für Downsampling mit vierfacher Pixelanzahl unter den allerneuesten Spielen – aber zum Aufhübschen von älteren Spielen kann man eigentlich niemals genügend große Downsampling-Modi haben. Die Nutzer von 2560er Monitoren werden sogar nur noch mit einem einzelnen und zudem eher mittelprächtigem Zwischenmodus abgespeist, für Nutzer von 144-Hz-Monitoren gibt es gar keine entsprechenden Modi mehr. In jedem Fall bietet nVidia hier viel mehr Optionen und Möglichkeiten, geht der erste Vergleichspunkt klar an nVidia.

Bezüglich der Einbindung im Treiber & Spiel gleichen sich VSR und DSR: Beides wird im Treiber freigeschaltet, im Spiel selber wählt man dann die konkret genutzte VSR/DSR-Auflösung aus (in der ersten Version dieser Meldung wurde diese Funktionalität fälschlicherweise nVidia abgesprochen). Dafür scheint AMD mit VSR die minimal bessere Bildqualität mit etwas weniger Weichzeichnereffekt zu bieten – obwohl es im Gegensatz zu nVidia keine Möglichkeit gibt, irgendetwas in dieser Frage zu regeln. Einige Hardware-Tester sehen AMD in dieser Frage jedenfalls geringfügig vorn. Ganz allgemein wird zudem auch die gute Kantenglättung selbst bei den eigentlich ungeliebten Zwischenmodi (alles unterhalb von 4.0) gelobt – möglicherweise kommen jene Zwischenmodi ja doch ganz gut an, dies muß dann die Praxis zeigen.

Als vorläufiges Zwischenfazit zu "Virtual Super Resolution" ist es nicht verkehrt, was AMD hier in kurzer Zeit aus dem Boden gestampft hat – und man sollte den Zwischenmodi wohl eine Chance geben, ehe man jene generell verteufelt, nur weil sie "krumme" Auflösungs-Multiplikatoren mitbringen. Trotzdem wäre eine höhere Auswahlmöglichkeit bezüglich der VSR-Modi und vor allem ein tieferer Grafikkarten-Support anzuraten – AMD will in dieser Frage mit einer zweiten VSR-Version im ersten Quartal 2015 nachlegen. Möglicherweise wird VSR auch erst richtig nutzvoll auf einem der kommenden AMD-Grafikchips, wie dem für den gleichen Zeitraum zu erwartenden Fiji-Chip.

Wie schon erwähnt hat AMD mit dem Omega-Treiber auch noch eine ganze Reihe weiterer neuer Features realisiert, die nachfolgend verlinkten Artikel haben sich auch mit diesen eingehend beschäftigt. Hervorzuheben sind hierbei der Support von FreeSync, für welches es im neuen Jahr dann endlich entsprechende Monitore geben soll, sowie die neuen Video-Features "Contour Removal" (Entfernung von Komprimierungsartefakten), "Fluid Motion Video" (Einfügen von Zwischenframes für höheren Flüssigkeitseindruck), "1080p Detail Enhancement" (Detailschärfung auf FullHD-Niveau) und "Ultra-HD-Like Experience" (Detailschärfung von FullHD- auf UltraHD-Niveau). Allerdings funktionieren jene neuen Features nur jeweils auf bestimmten AMD-Grafikkarten, wobei sich ganz nebenbei auch die verschiedenen Featurelevel der GCN-Architektur genau ablesen lassen:

GCN 1.0 GCN 1.1 GCN 1.2
Grafikkarten R7 240 & 250 Serien, R7 265, R9 270 & 280 Serien R7 260 Serie, R9 290 Serie R9 285
FreeSync -
Contour Removal -
Fluid Motion Video -
1080p Detail Enhancement - -
Ultra-HD-Like Experience  (außer 240/250)
VSR x1.78 (@ 1920x1080/60Hz) -  (nur 290er Serie)
VSR x2.78 (@ 1920x1080/60Hz) -  (nur 290er Serie)
VSR x4.0 (@ 1920x1080/60Hz) - -

Welche dieser Features AMD den GCN-basierten Grafikkarten der Radeon HD 7000 Serie noch zukommen läßt, ist dato unklar – technisch wäre sicherlich einiges möglich, rein praktisch muß AMD hier nichts mehr tun, wird die Radeon HD 7000 Serie faktisch nicht mehr verkauft. Allen Grafikkarten der GCN-Architektur kommen dagegen die Performanceverbesserungen des Omega-Treibers zugute – wobei sich die Hardware-Tester dato nicht ganz einig sind, wie hoch diese Performanceverbesserungen zu beziffern sind: Es schwankt je nach Testbericht zwischen 0% und 8%, wobei letzteres allein durch einen einzelnen Treiber schon sehr gut wäre. In jedem Fall scheinen die Performanceverbesserungen allerdings in einzelnen Spieletitel zu liegen und treten nicht durchgehend auf.

In der Summe der Dinge wird AMDs Omega-Treiber bislang durch die Hardware-Tester ziemlich positiv aufgenommen – und das Vorhandensein von praktisch in jedem Spiel funktionierendem Downsampling Anti-Aliasing auch für AMD-Grafikkarten ist nun wirklich nur positiv zu werten, unabhängig gegenüber der nVidia-Methode existierenden Unterschieden. Die übrigen Bugfixes, Performanceverbesserungen und neuen Features runden das Bild eines durchaus gelungenen Treibers ab. Einzig allein wird nunmehr die Frage aufgeworfen, wann AMD es schafft, mal wieder eine Grafikkarten-Serie aufzulegen, welche von LowCost nach HighEnd Featuregleichheit aufbietet. Derzeit ist das AMD-Portfolio in drei Architekturstufen zerrissen, welche ihre kleinen Differenzen nunmehr immer deutlicher aufzeigen.

Nachtrag vom 12. Dezember 2014

Die PC Games Hardware hat eine feine Zusammenfassung der AMD-Aussagen notiert, welche AMD in einer Foren-Fragestunde auf Tom's Hardware abgegeben hat. Wichtigster Punkt dürfte dabei der weitere VSR-Ausbau sein, welchen AMD versprach: So soll es zukünftig 4K-VSR (sprich Multiplikator 4.0, von FullHD auf UltraHD) bei allen Grafikkarten ab der Radeon R7 260 geben. Dagegen ist die Unterstützung der Radeon HD 7000 Serie vermutlich nicht geplant – diesbezüglich sagte man zwar nichts aus, aber indirekt läßt sich dies erkennen, wenn auch weiterhin die Radeon HD 7790 kein FreeSync bekommen soll, die gleichfalls Bonaire-basierte Radeon R7 260 Serie hingegen schon. Die hierzu vorgetragene Erklärung eines (angeblich) veränderte Display-Controllers bei der Radeon R7 260 ist eine Nebelkerze, der verbaute Grafikchip ist zwischen allen drei Bonaire-Grafikkarten absolut identisch. AMD will schlicht nichts mehr für die Radeon HD 7000 Serie tun – was in Ordnung geht, wird diese schließlich nicht mehr verkauft, die Nutzer müssen das halt nur klar wissen.

8

Hardware- und Nachrichten-Links des 8. Dezember 2014

Laut Fudzilla lautet der Codename der nächsten AMD-Grafikkarten-Generation nicht "Pirate Islands", sondern "Caribbean Islands" – was problemlos möglich sein kann, schließlich sind dies teilweise sogar deckungsgleiche Begriffe, waren die karibischen Inseln seinerzeit für ihre gefährlichen Gewässer bekannt. Zudem wirft AMD gern mal Codenamen um, oder operiert nach außen hin mit einer anderen Namensgebung als intern. Einzig "Fiji" würde nicht mehr wirklich zu den "Caribbean Islands" passen – aber auch hier sind Umbennungen und Neudeutungen jederzeit möglich, AMD verfolgt leider kein konsequentes bzw. von außen erkennbares Namensschema. In jedem Fall scheint seitens AMD ab dem Frühling 2015 eine komplett neue Grafikkarten-Reihe in Form der Radeon R300 Serie anzutreten. Ein eher spannenderer Punkt an dieser wird sein, wieviel davon wirklich auf neuen Grafikchips basiert – und wieviele Rebrandings dabei sind. AMD hatte in letzter Zeit die starke Tendenz, bei neuen Grafikkarten-Serien immer nur teilweise mit neuen Grafikchips zu operieren – die Volcanic-Islands-Generation hat beispielsweise als neuen Grafikchip eigentlich nur Hawaii, alles andere gab es vorher schon.

So lange kein neues Fertigungsverfahren oder kein grundsätzlicher Architektursprung ansteht, benötigt AMD auch nicht zwingend neue Grafikchips für alle Marktsegmente. Daher kann es gut und gerne passieren, daß in der kommenden Radeon R300 Serie wieder nur der Fiji-Chip wirklich neu ist, der Rest des Portfolios auf Rebrandings basiert. Anbieten würden sich hierfür die technologisch neueren Chips Bonaire, Tonga und Hawaii, sowie die mit vergleichsweise kleiner Chipfläche günstig herstellbaren Oland und Pitcairn. Ob AMD alle diese Chips in die Radeon R300 Serie mitnimmt, wäre aber zu bezweifeln – für eine neue Generation reichen drei Chips, die Lücken werden mit dem Abverkauf der dann alten Radeon R200 Serie gefüllt. Viel lieber würden die meisten Grafikkarten-Enthusiasten natürlich durchgehend neue Grafikchips mit HBM-Einsatz für alle Marktsegmente sehen. Aber vermutlich wird es HBM-Speicher in diesem allerersten Versuch nur beim Fiji-Chip geben, erst eine nachfolgende Chip-Generation (Radeon R400 Serie in 14/16nm anno 2016?) dürfte diesen Speicher dann auch für andere Preissegmente ansetzen.

Die ComputerBase hat sich nVidias Mobile-Topmodell GeForce GTX 980M in Form des Tests eines damit ausgerüsteten Schenker-Notebooks angesehen. Die Performance-Messungen erfolgten dabei auch gegen gewöhnliche Desktop-Grafikkarten, womit sich die seltene Gelegenheit eines Direktvergleichs von Mobile- gegen Desktoplösungen ergibt. Die GeForce GTX 980M kommt hierbei etwas besser als die GeForce GTX 770 (Perf.Index 380%) und etwas schlechter als die GeForce GTX 780 (Perf.Index 440%) heraus, man kann sie daher auf einen Performance-Index von 410% einordnen – also ziemlich gleich unserer bisherigen Schätzung zum Launch dieser Mobile-Beschleuniger. Auffallend ist zudem, daß der Boost-Takt dieser Mobile-Lösung im Gaming-Alltag nicht ganz gehalten werden kann: Die nominellen Taktraten liegen auf 1038/1126/2500 MHz, unter Last geht es laut der ComputerBase aber auf 1101 MHz Chiptakt herunter. Der Unterschied ist eigentlich nicht großartig, aber im Desktop-Bereich können viele nVidia-Grafikkarten ihre Boost-Taktraten dagegen überbieten, anstatt sie nur zu halten.

Die PC Games Hardware hat sich die Preisentwicklung von Spiele-Blockbustern angesehen, um der Frage nachzugehen, was dran ist an der These, bewußt später zum günstigeren Preis zu kaufen. Dabei kommen aber nicht wirklich große Preisnachlässe in kurzer Zeit heraus – erst, wer ein halbes Jahr oder mehr warten kann, spart mehr als nur ein paar Kröten. Den größten Unterschied gibt es vorher nur zwischen dem Vorbesteller- und dem Erstverkaufstag-Preis, hier liegen gern einmal 10-15 Euro Preisdifferenz dazwischen. Das größere Problem der Spielepublisher dürften aber inzwischen eher jene Spielekäufer sein, welche nicht aus Preisgründen warten, sondern weil sie sich verbuggte Spiele am Launchtag und auch Wochen danach nicht antun wollen – und schlicht abwarten, bis der Patchstand des Spiels einen Kauf auch wirklich rechtfertigt. Je mehr Spielekäufer nach dieser Devise handeln, um so weniger sind monströse Verkaufszahlen aus den ersten Wochen vermeldbar, der durchschnittliche Absatzpreis leidet natürlich auch unter diesen späten Verkäufen.

8

Die Grafikkarten-Performance unter Lords of the Fallen

Seitens HT4U, der PC Games Hardware und AnandTech hat man sich eingehend mit der Grafikkarten-Performance unter Lords of the Fallen beschäftigt. Das Spiel auf Basis der Fledge-Engine kommt mit Systemanforderungen eines QuadCore-Prozessors ab der Core-2-Serie, gleich 6 GB Hauptspeicher, 64-Bit-Windows und einer DirectX-11-Grafikkarte ab Leistungsklasse GeForce GTX 460 daher, benötigt allerdings im Grafikkarten-Bereich in der Praxis (sehr) deutlich potenteres für die bestmögliche Bildqualität.

Erstaunlicherweise bietet das Spiel keinerlei Anti-Aliasing-Optionen, selbst ein Postprocessing-Filter wie FXAA oder SMAA fehlt – und für Downsampling Anti-Aliasing dürften nur die allerwenigsten Grafikkarten genügend Performance-Reserven besitzen. Dafür gibt es einen umfangreichen Einsatz von nVidias PhysX, welches allerdings bis auf einen Effekt ("Turbulence") auch von AMD-Grafikkarten darstellbar ist – auf diesen wird dann natürlich der Prozessor und nicht die Grafikkarte belastet. Dies ist pro Forma zum Nachteil für AMDs Grafikkarten – allerdings scheint deren Nachteil weniger im fehlenden PhysX zu liegen, denn selbst bei den Benchmarks der PCGH, wo PhysX auf nVidia-Grafikkarten von der CPU ausgeführt wurde, liegen AMDs Grafikkarten zurück. Ob hier weitere Gameworks-Optimierungen Schuld sind oder Lords of the Fallen generell nVidia deutlicher liegt, muß offenbleiben.

Getestet wurde von allen drei Webseiten durchgehend mit der maximalen Detailstufe "Ultra", aber ohne das nur durch nVidia-Grafikkarten darstellbare Turbulence-Feature aus PhysX. Alle drei Webseiten haben sich hierfür unterschiedliche Szenen im Spiel herausgesucht, die gemessenen Frameraten sind bei HT4U und PCGH eher niedriger, bei AnandTech eher höher. Die nachfolgende Tabelle arbeitet dann mit einem Mix der Frameraten aus diesen drei Artikeln – stellt also eine niedrige Durchschnitts-Performance dar, welche im Spiel in einigen Szenen jederzeit noch unterboten werden kann und daher zur Einplanung von ein paar Frameraten-Reserven anhält.

Lords of the Fallen – 1920x1080 MaxQuality (Quellen: HT4U, PCGH & AnandTech)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870
7870-Boost
270
270X
650Ti-Boost 750Ti
30-39 fps 7950
7950-Boost
280
285
660
660Ti
40-49 fps 7970
7970-GHz
280X 670 760
50-59 fps 290 680 770
ab 60 fps 290X Titan 780
Titan Black
780Ti
970
980

Gut zu sehen ist der klare nVidia-Vorteil unter Lords of Fallen – bei welchem sich wie gesagt derzeit nicht sagen läßt, ob jener aus PhysX, Gameworks oder aber einer allgemeinen nVidia-Lastigkeit stammt. In der Praxis führt dieser nVidia-Vorteil dazu, das ein Mainstream-Modell wie die GeForce GTX 750 Ti noch mitnotiert werden konnte, während bei AMD die nominell viel stärkere Radeon R9 270 das langsamste notierbare Modell darstellt. Für gute Frameraten wie entsprechende Reserven sind beiderseits aber wenigstens Modelle des unteren HighEnd-Segments vonnöten – bei AMD ab der Radeon HD 7970, bei nVidia ab der GeForce GTX 670 oder 760. An der Leistungsspitze tummeln sich dann fast nur noch nVidia-Modelle: Gleich sechs nVidia-Grafikkarten gelingt der Sprung über die 60-fps-Marke, während die Radeon R9 290X als einziges AMD-Modell diese Marke (denkbar knapp) nimmt.

Vom Grafikkartenspeicher genehmigt sich Lords of the Fallen einen kräftigen Zug: Laut den Ausführungen der PCGH sind selbst 1,5 GB Grafikkartenspeicher unter FullHD nicht genug, erst unter 2 GB verschwinden die allermeisten Nachladeruckler. Für absolut optimalen Spielgenuß sind aber selbst unter FullHD 3 GB Grafikkartenspeicher empfohlen – das Spiel nutzt den Speicher auch voll aus, belegt so viel wie vorhanden ist. Ein beachtbarer Einfluß auf die Frameraten ist unter FullHD aber noch nicht feststellbar, jedenfalls nicht ab wenigstens 2 GB Grafikkartenspeicher.

Lords of the Fallen – 2560x1440 MaxQuality (Quellen: HT4U, PCGH & AnandTech)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7950
7950-Boost
7970
280
285
660Ti 760
30-39 fps 7970-GHz 280X
290
670
680
770
40-49 fps 290X 780 970
50-59 fps Titan Titan Black
780Ti
980

Unter 2560x1440 wird der Vorteil der nVidia-Grafikkarten noch offensichtlicher, kommt die Radeon R9 290X gerade mal so über die 40-fps-Marke, während nVidia gleich vier Grafikkarten im Feld von 50 fps und mehr positionieren kann. Aber auch die Anforderungen an den Grafikkartenspeicher steigen: Laut den Ausführungen der PCGH sollte es unter 2560x1440 in jedem Fall eine 3-GB-Grafikkarte sein, selbst die rein bei den Frameraten gut mitkommenden 2-GB-Grafikkarten bieten (wegen Nachladerucklern) hier letztlich keinen flüssigen Spieleindruck. Für gute Frameraten mit Reserven kommt man unter 2560x1440 aber sowieso kaum an echten HighEnd-Boliden ab AMD Radeon R9 290X oder nVidia GeForce GTX 780 vorbei.

Alle drei Webseiten haben zudem weitere Tests unter der 4K-Auflösung von 3840x2160 angestellt, welche jedoch für keine Grafikkarte befriedigende Frameraten aufzeigen konnten: Selbst die GeForce GTX 980 schafft hier im Mittel der drei Tests keine 30 fps. Die PCGH bietet zudem noch CPU-Kernskalierungstests, aus welchen zu entnehmen ist, daß Lords of the Fallen mit bis zu vier Rechenkernen erstklassig skaliert, zwei weitere Rechenkerne dann noch mit geringem Effekt zu nutzen weiß und mit noch mehr Rechenkernen dann kein Performancegewinn mehr herauskommt. Die eigentlich spannende Frage, ob das Spiel auch auf gutklassigen Zweikernern läuft – was angesichts der mittelprächtigen CPU-Belastung naheliegt – konnte leider nicht beantwortet werden.

Inhalt abgleichen