4

News des 4. Oktober 2010

Die PC Games Hardware hat sich mit der Grafikkarten-Performance unter Gothic 4: Arcania beschäftigt. Das Spiel erstaunte schon vorab mit teilweise sehr hohen Hardware-Anforderungen – und kann dies im Praxistest auch bestätigen, trotz daß derzeit kein Anti-Aliasing möglich ist. Unterhalb einer früheren HighEnd-Lösung oder einer neueren Performance-Lösung braucht man gar nicht erst anzutreten, mit Mainstream-Grafikkarten bzw. älteren 3D-Boliden ist das Spiel – zumindest auf maximalen Grafikdetails – nicht sinnvoll nutzbar. Damit sind – typisch für diese Art von Spiel – gar nicht wirklich hohe Frameraten notwendig, ab 20 fps in dem von der PCGH angetretenem Test kann man schon zufrieden sein. Allerdings ist auch dies schon für viele Grafikkarten eine zu hohe Hürde:

Gothic 4 weitgehende Spielbarkeit sorgenfreie Performance
1680x1050
MaxQ noAA
AMD RV7xx: ab Radeon HD 4850
AMD RV8xx: ab Radeon HD 5750

nVidia GT2xx: ab GeForce GTX 260
nVidia GF1xx: ab GeForce GTX 460
AMD RV8xx: ab Radeon HD 5850
nVidia GF1xx: ab GeForce GTX 470
1920x1200
MaxQ noAA
AMD RV7xx: ab Radeon HD 4870
AMD RV8xx: ab Radeon HD 5770

nVidia GF1xx: ab GeForce GTX 460
AMD RV8xx: ab Radeon HD 5850
nVidia GF1xx: ab GeForce GTX 470
2560x1600
MaxQ noAA
AMD RV8xx: ab Radeon HD 5850
nVidia GF1xx: ab GeForce GTX 470
 
Bemessungsgrundlage in diesem Spiel und Benchmark: weitgehende Spielbarkeit ab 20 fps, sorgenfreie Performance ab 30 fps

Gothic 4 trennt hierbei wirklich die Spreu vom Weizen und es bleiben nur die aktuellen Top-Modelle sowie teilweise die Top-Modelle der letzten Generation übrig, mittels welcher dieses Spiel – auf maximaler Grafikqualität – spielbar ist. Eine besondere Affinität des Spiels zu dem einen oder anderem Hersteller ist im übrigen nicht zu sehen, alle Grafikkarten ordnen sich halbwegs dort ein, wo man sie erwarten würde. Die Nutzung von nur 512 MB Grafikkarten-Speicher auf AMD-Karten ist bis zur Auflösung von 1680x1050 problemlos möglich, ab 1920x1200 bricht dann aber die Framerate massiv ein und das Spiel wird klar unspielbar (bei nVidia wurde diesbezüglich nur die sowieso zu langsame GeForce 8800 GT getestet, generell sollte dies bei nVidia nicht anders liegen als bei AMD). Gleich 2048 MB Grafikkartenspeicher bringen dagegen keinen Vorteil in der Framerate, selbst nicht unter der superhohen Auflösung von 2560x1600.

Keine Nennung in vorstehender Auflistung konnten Grafikkarten á Radeon HD 5670, GeForce GTS 250, GeForce GTS 450 und kleiner finden – weil sie allesamt selbst unter 1680x1050 zu langsam für 20 fps sind. Hier ist vielleicht doch ein kleiner Unterschied zwischen AMD und nVidia festzustellen: Bei AMD halten Radeon HD 5750 & 5770 ganz gut mit, während die im gleichen Preisfeld befindliche nVidia-Lösung GeForce GTS 450 doch durchgehend zu langsam für Gothic 4 ist. Allerdings würde es sich natürlich anbieten, für solcherart zu schwache Grafikkarten neben der bestmöglichen Grafikqualität auch eine Medium-Grafikqualität oder eine Medium/High-Mixqualität zu definieren, welche die Bildraten von Mainstream-Grafikkarten in ein anständiges Territorium verschiebt und dann auch einen sinnvollen Vergleich dieser Mainstream-Modelle unter Gothic 4 ermöglicht.

BSN berichten über eine bei der US-amerikanischen Händlerkette "Best Buy" aufgetauchte GeForce GT 430 DDR3, welche dort zu einem Preis von 109,95 Dollar zu haben ist. Dies hat BSN wohl zu der falschen Annahme verleitet, die Karte könnte sich in irgendeiner Form mit der GeForce GTS 250 messen – dem ist aber bei weitem nicht so, die ausreichend bekannten Hardware-Daten zur GeForce GT 430 inklusive der sich daraus ergebenden Rohleistungen sprechen klar dafür, daß die Karte sich schon an der GeForce GT 240 arg abarbeiten wird müssen, da die ältere der beiden Karten zu einer ähnlichen Rechenleistung und Speicherbandbreite eine klar höhere Texturierleistung mitbringt, was die neuere der beiden Karten nur mit einer verdoppelten ROP-Leistung kontern kann. Demzufolge dürfte sich die GeForce GT 430 nach Launch auch im Preisfeld der GeForce GT 240 aufhalten – kürzlich wurden hierzu Preise von 69 Euro für die DDR3-Version und 89 Euro für die GDDR5-Version genannt.

Davon abgesehen ist das Auftauchen dieser Karte bei "Best Buy" auch deswegen interessant, weil diese unter dem nVidia-Label und nicht unter dem Label eines der bekannten Grafikkarten-Herstellers angeboten wurde. Wie nochmals BSN in Erfahrung bringen konnten, geht dies primär auf die Aufgabe des früheren nVidia-Grafikkartenherstellers BFG zurück, der einen größeren Deal mit "Best Buy" hatte und für den nVidia nun einspringt. Allerdings kann man einen solchen Schritt natürlich auch immer in diese Richtung hin deuten, daß damit der generelle Einstieg von nVidia ins Retail-Geschäft vorbereitet oder wenigstens angetestet würde – nicht wenige der bisher mit nVidia-Chips operierenden Grafikkartenhersteller dürften ähnliche Überlegungen damit verbinden. Dabei ist es eigentlich noch gar nicht so lange her, wo der – später von nVidia geschluckte – 3D-Pionier 3dfx an eben dieser Strategie zugrundeging, weil es zum einen heftige Kosten bedeutete und zum anderen auch die Marketingmacht minimiert.

Dabei wird öfters (bei der beliebten Klage über zu viele Wettbewerber im Markt) unterschätzt, daß 10 bis 15 Grafikkartenanbieter einfach vielmehr Marketing-Trommelwirbel veranstalten können als eine größere Firma – und damit viel mehr potentielle Kunden ansprechen können als es nur eine Firma tun könnte. Da der zukünftige Grafikchip-Markt zudem wahrscheinlich sogar stärker in Richtung Retail gehen wird (durch die integrierten Grafikchips in den kommenden Prozessoren entfällt der ganze volumenstarke LowCost-Markt), wird das Marketing zukünftig wichtiger werden und damit die Chancen einer einzelnen Firma eher geringer ausfallen. Sollte nVidia (oder AMD) wirklich allein als Grafikkarten-Hersteller auftreten wollen, bedeutet dies in jedem Fall erst einmal einen heftigen Verlust an Marktanteilen, weil man allein gar nicht so schnell in all die Nischen und regionalen Märkte reingehen kann, wo jetzt die einzelnen Grafikkarten-Hersteller sitzen. Diese ehemalige Idee von 3dfx ist ergo nach wie vor eine schlechte Idee und es bleibt zu hoffen, daß der nVidia-Deal mit "Best Buy" eine einmalige Angelegenheit bleibt.