28

News des 28. April 2008

Die ComputerBase sowie Golem haben sich mit dem 3DMark Vantage das neue Grafikkarten-Benchmarkprogramm aus dem Hause Futuremark angesehen. Als reiner Direct3D10-Benchmark setzt der 3DMark Vantage zwingend auf Windows Vista, extra DirectX9-Tests werden nicht mehr angeboten. Dies schließt natürlich viele Systeme ohne Windows Vista und Direct3D10-Karte aus, für den Test neuer Hardware – und dafür ist der Benchmark nun einmal gedacht – stellt das allerdings keine relevante Einschränkung dar. Im Benchmark selber erscheinen die vier angebotenen Qualitäts-Voreinstellungen – Entry, Performance, High und Extreme Visual Quality – als sehr nützlich, ermöglichen diese doch einen sinnvollen Performance-Vergleich sehr verschieden schneller Grafikkarten.

Denn gerade LowCost-Grafiklösungen wurden im bisherigen 3DMark06 oftmals mit einer Grafikqualität konfrontiert, welche diese Karten in der Realität dann doch nie nutzen würden, weil es einfach zu langsam werden würde. Gleichfalls durfte beim 3DMark06 die Grafikqualität aber auch wieder nicht zu hoch werden, um diesen Karten noch irgendwie eine Chance zu lassen – was wiederum schlecht für den Vergleich echter HighEnd-Lösungen ist. Mit dem 3DMark Vantage schafft man diese Problematik aus der Welt, die vier Grundeinstellungen sollten genügend Platz sowohl nach unten als nach oben hin bieten. Allerdings stehen diese vier Qualitäts-Voreinstellungen nur in der Bezahl-Version zur Verfügung.

Leider nicht angegangen hat man dagegen die Problematik, daß es für die Grafikchip-Entwickler viel zu einfach ist, ihre Treiber auf den 3DMark zu optimierten und damit eine höhere Spieleperformance vorzutäuschen als dann im Gamer-Alltag wirklich vorhanden ist. Zwar lassen sich Treiber-Optimierungen auf Benchmarks nie wirklich ausschließen, aber man kann sie durchaus minimieren – gerade bei einem dedizierten Benchmark, welcher nicht Teil eines regulären Spiels ist. Erreichen kann man dies schlicht mit einer sehr abwechslungsreichen Benchmark-Sequenz (welche dann natürlich auch recht lang wird), in welcher möglichst viele in Spielen zu erwartende Szenarien sowie unterschiedlichste 3D-Techniken breit zum Einsatz kommen.

Ziel würde es dabei sein, eine solche Szenen- und Technik-Vielfalt zu schaffen, daß eine umfassende Optimierung auf den Benchmark auch automatisch einer breiten Masse an Spielen zu gute kommen würde. Sehr schade, daß man die Problematik der nun einmal zu erwartenden Benchmark-Optimierungen bei einer Entwicklungszeit von nunmehr zwei Jahren und dem (zeitsparenden) Verzicht auf die Kompatibilität zu DirectX9-Beschleunigern nicht angegangen hat, obwohl das Optimierungs-Problem gerade bei den 3DMark-Benchmarks doch nun schon seit Jahren bekannt ist. So lautet leider auch beim 3DMark Vantage die Frage wiederum nicht, wessen Grafik-Hardware hier besser ist, sondern wer die besseren Optimierungen auf diesen Benchmark hinbekommt.

Overclock3D haben einen ersten Artikel zur Asus EAH3850 Trinity, der TripleChip-Grafikkarte auf Basis dreier Radeon HD 3850 (RV670) Grafikchips. Etwas abweichend von diesen taktet die Asus-Karte allerdings mit 660/850 MHz, während eine gewöhnliche Radeon HD 3850 mit 670/830 MHz an den Start geht. Dieser Unterschied dürfte allerdings kaum relevant sein, von der Performance her ist schlicht dasselbe wie bei drei mittels CrossFire verbundenen Radeon HD 3850 512MB Karten zu erwarten. Der Artikel von Overclock3D ist diesbezüglich leider nicht besonders aussagekräftig, da hier nur gegen eine Radeon HD 3850 X2 verglichen wurde, welche natürlich zumeist klar geschlagen wird.

Wie The Inquirer berichten, hat nVidia einmal mehr Intel den Fehdehandschuh hingeworfen, indem man dem weltgrößten Prozessoren-Hersteller die Aussage "Basically the CPU is dead." vor den Latz knallte. Dies geht natürlich auch auf Intels letzte Initiativen zurück, wonach man gewöhnliche Grafikbeschleuniger als Auslaufmodelle bezeichnete – und letztlich basiert ja auch Intels kommende Grafiklösung Larrabee auf einer Vielzahl an x86-Cores. Dabei ist die nVidia-Aussage unter einem gewissen Blickwinkel noch nicht einmal falsch, wenngleich natürlich nur, wenn man unter "dead" die Performance-Entwicklung bei CPUs betrachtet.

Denn hier passt durchaus das früher schon von nVidia angeführte Beispiel: Wenn man eine HighEnd-CPU mit LowCost-Grafikkarte paart und gegen eine LowCost-CPU mit HighEnd-Grafikkarte stellt, gewinnt in jedem Fall letztere Kombination mit Abstand. Dies bezieht sich natürlich nur auf die Spiele-Performance, aber auf der anderen Seite wird das System mit LowCost-CPU unter dem Windows-Alltag in den allermeisten Fällen auch nicht wirklich langsamer als das System mit der HighEnd-CPU sein, ergibt sich hier kein wirklich spürbarer Nachteil. Die Bedeutung der CPU rutscht derzeit sowohl für Alltagsanwendungen als auch den Gelegenheits-Spieler erheblich ab, wird hier in aller Regel maximal Mainstream-Kost benötigt.

Dagegen kann man bei der Grafikkarte immer klotzen statt kleckern, gibt es hier eigentlich keine zu schnelle Lösung: Denn erst einmal kann man eine "zu hohe" Leistung zumeist in höhere Auflösungen und/oder höhere Filtersettings investieren, zum anderen bedeutet eine "zu schnelle" Grafikkarte natürlich auch immer eine höhere Zukunftssicherheit – und letztere wird bei Grafikkarten für gewöhlich viel schneller aufgefressen als einem lieb ist. Daß die meisten Anwender eigentlich keine besonderen Entwicklungen bei der CPU-Power mehr benötigen (und wenn dann nur für Spiele), Grafikkarten aber nie schnell genug sein können, kann man also durchaus so stehen lassen. Hinzu kommt der bekannte theoretische Ansatz, daß dedizierte Spielebeschleuniger (Grafikkarten) eigentlich immer performanter sein müssten als wenn man Allzweck-Rechenwerken (CPUs) dieselbe Aufgabe aufbürdet.

Trotzdem hat Intel in diesem Spiel seine Chancen: Denn in der Halbleiterfertigung ist Intel nun einmal allen anderen weit voraus, gerade ATI und nVidia, welche auf Auftragsfertiger (TSMC und UMC) angewiesen sind, können hier nicht wirklich mitreden. Somit könnte Intel den Nachteil, welche es mit sich bringt, eine CPU als Grafikbeschleuniger zu mißbrauchen, einfach durch höhere Taktraten ausgleichen – welche man aus der eigenen, besseren Fertigung zieht. Schon beim Larrabee-Projekt, welches noch in Form von extra Grafikkarten geplant wird, dürfte Intel diesen Vorteil in die Waagschale werfen und damit eventuelle Nachteile seines Designs gegenüber den alteingesessenen Grafikchip-Schmieden übertünchen. Technisch mögen dedizierte Grafikchips immer besser geeignet sein zur Spieledarstellung – aber Intel hat die größere Markmarkt und könnte daher langfristig durchaus auch das eigentlich ungeeignetere Produkt (CPUs) für diesen Anwendungszweck durchdrücken.