1

News des 31. Januar/1. Februar 2009

Bei Bjorn3D hat man sich die Performance verschiedener HighEnd-Grafikkarten unter Mirror's Edge angesehen. Besondere Aussagen lassen sich leider nicht treffen, weil man unerklärlicherweise die ATI-Karten unter 8x Anti-Aliasing und die nVidia-Karten unter 16x Anti-Aliasing getestet hat. Zumindest läßt sich erkennen, daß das Spiel selbst dann (mit den benutzten HighEnd-Grafikkarten) jederzeit im überaus klar spielbaren Frameratenbereich bleibt, also eher das genaue Gegenteil eines Hardware-Fressers ist. Dies gilt selbst dann, wenn man die zusätzlich zuschaltbare PhysX-Engine des Spiels mit einer einzelnen nVidia-Grafikkarte ausführt, wo also die Grafikkarte sowohl das normale Rendering als auch die Physik-Berechnung übernimmt: Der Performanceverlust ist angesichts der allgemein sehr hohen Frameraten zumindest in diesem Spiel nicht weiter tragisch.

Zumindest für Mirror's Edge muß sich also niemand eine extra nVidia-Grafikkarte nur zur Physik-Berechnung in den Rechner hängen, das Spiel hat mehr als genügend Performancereserven, so daß dies auch die erste Grafikkarte mit erledigen kann. Dies gilt natürlich nur für nVidia-Modelle, die ATI-Modell stürzen heftig ab, wenn sie PhysX mit berechnen sollen – wobei die Berechnung dann über die CPU läuft. Allerdings stört hier wieder das gewählte 8x Anti-Aliasing bei den ATI-Karten, denn trotz des heftigen Frameratendrops könnte es beim eher gängigen 4x Anti-Aliasing selbst für die ATI-Karten dazu reichen, um mit PhysX auf spielbare Frameraten zu kommen (unter 1280x1024 erreichen diese ja selbst die ATI-Karten mit PhysX und 8xAA schon 30 fps, wenngleich die Minimumwerte klar zu niedrig liegen). In diesem Punkt ist der Test leider wenig aussagefähig, bleiben entscheidende Fragen offen.

In einem Posting unseres Forums wird über die Erfahrungen mit einer Sparkle GeForce 9600 GT 2048MB berichtet. Die Karte wurde dabei bewußt für GTA IV erstanden, da das Spiel in den Maximaleinstellungen doch nach sehr viel Grafikkartenspeicher verlangt – und trotzdem noch hier und da noch Nachladeruckler auftreten. Letzteres konnte mit der 2048-MB-Karte einhundertprozentig verhindert werden, allerdings liegt die Grundperformance der GeForce 9600 GT zu niedrig, um auf anständige Frameraten unter GTA IV (mit maximalen Einstellungen wie gesagt) zu kommen. Dazu trägt natürlich auch bei, daß es sich hierbei wieder nur um eine Karte mit DDR2-Speicher handelt, welche ihren Speicher also nur mit 400 MHz taktet anstatt der regulären 900 MHz bei der GeForce 9600 GT mit GDDR3-Speicher.

Hier wird ergo sehr viel an möglicher Performance liegengelassen – wobei eine GeForce 9600 GT mit 2 GB GDDR3-Speicher auf 900 MHz auch nicht ganz billig ist. Ob man mit dieser Grafikkarte unter GTA IV und maximalen Einstellungen überhaupt zufrieden wird, wäre also trotzdem zu bezweifeln, dafür ist diese klare Mainstream-Grafikkarte einfach nicht gebaut. Andere Karten mit 2 GB Speicher sind allerdings schwer am Markt zu finden – es gibt hier derzeit nur noch die Radeon HD 4850 mit 2048 MB. Diese dürfte dann die notwendige Grundperformance für GTA IV mitbringen und mittels der 2 GB Speicher dann auch jede Nachladeruckler vermeiden, sozusagen das Non-Plus-Ultra für GTA IV. Allerdings auch nur singulär für dieses Spiel, andere Spiele sind derzeit noch weit davon entfernt, in irgendeiner Form von 2-GB-Grafikkarten zu profitieren. Vielmehr ist es sogar so, daß die allermeisten Spiele bei 2-GB-Grafikkarten derzeit minimal an Performance verlieren, weil die Verwaltung des größeren Speichers auch etwas an Leistung kostet.

Bei TweakTown ist man der Frage nachgegangen, was schneller ist: Quad-SLI mittels zweier GeForce GTX 295 Karten oder Triple-SLI mittels dreier GeForce GTX 285 Karten. Dabei treten vier gegen drei Grafikchips an, allerdings sind die drei GeForce GTX 285 Karten klar höher getaktet und verfügen über die größeren Speicherinterfaces. Von der insgesamten Rechenleistung her steht dieser Vergleich also 2385/3577 GFlops (2xGTX295) vs. 2125/3188 GFlops (3xGTX285), bei der Speicherbandbreite sind es 448 GB/sec (2xGTX295) vs. 477 GB/sec (3xGTX285) – insgesamt ist dies also eher ausgeglichen als unbedingt vorteilhaft für die vier Grafikchips. Und in dieser ausgeglichenen Situation scheinen dann die drei Grafikchips effizienter zusammenzuarbeiten, sie sind über alle Benchmarks betrachtet etwas schneller.

Der Unterschied ist allerdings zumeist eher gering – zudem kann man natürlich auch vermuten, daß mit der weiteren MultiGPU-Anpassung der nVidia-Treiber die Variante mit den vier Grafikchips (2xGTX295) irgendwann an Effizienz gewinnen und dann an der Variante mit den drei Grafikchips (3xGTX285) vorbeiziehen könnte. Die Variante mit vier Grafikchips (2xGTX295) ist zudem einfach zu bauen, weil dafür nur zwei (als DualSlot ausgeführte) Grafikkarten-Steckplätzen benötigt werden, bei der Variante mit den drei Grafikchips (3xGTX285) wird ja gleich ein Mainboard mit drei als DualSlot ausgeführten Grafikkarten-Steckplätzen vonnöten. Geringfügige Vorteile hat die Variante mit zwei GeForce GTX 295 Karten unter Quad-SLI auch beim Overclocking, da aufgrund der niedrigeren Standardtakte ein höherer relativer Overclocking-Gewinn zu erwarten ist. Auch der etwas geringere Kostenpunkt spricht für diese Variante – selbst wenn es bei 1000-Euro-Anschaffungen (rein für Grafikkarten) wohl nicht mehr wirklich um den Preis geht ;).

In den News des 17./18. Januar hatten wir geschrieben, daß ein potentieller Grund für den großen Level3-Cache beim Phenom II Prozessor eine bessere Wärmeverteilung auf dem Die wäre. Dies ist jedoch für diese Prozessoren nicht mehr korrekt bzw. stimmt bei Level3-Cache allgemein nicht mehr. Früher konnte man so etwas mal machen – bei den deutlich kleineren Level1- und Level2-Caches früherer Prozessoren. Diese Caches mussten dann aber auch intelligent zwischen die eigentlichen Ausführungseinheiten plaziert werden (wofür sich gewöhnlich nur Level1-Cache richtig eignet), ansonsten ergibt sich kein Effekt der Wärmeverteilung. Heutzutage werden die groß gewordenen Level2- und Level3-Caches gewöhnlich separat auf dem Die plaziert (Die-Shot des Phenom I, die Cache-Bausteine in der Mitte sind sehr gut zu erkennen), können also nichts mehr zur Wärmeableitung beitragen. Damit stimmt diese von uns in der vorgenannten News geäußerte These beim Phenom II (und auch bei allen anderen moderen Prozessoren) nicht mehr.

Der Planet 3DNow! berichtet zu einem Problem der integrierten Grafiklösungen der aktuellen AMD-Chipsätze 780G und 790GX, welche unter Windows XP keine saubere 2D-Beschleunigung bieten. Das Problem läßt sich zwar durch niedrige Auflösungen, Multimonitoring-Betrieb oder/und den Verzicht auf die ClearType-Schriftartenglättung mindern, ist aber weiterhin deutlich nachweisbar. Vor allem aber verschwindet das Problem sofort, wenn man Windows Vista anstatt von Windows XP wählt – die Chipsätze können es also, wenngleich eben nicht unter Windows XP. Bemerkenswert ist hierbei, daß sich AMD laut den Aussagen des Planet 3DNow! doch lange geziert hat (und noch ziert), daß Problem offiziell anzukennen – nicht gerade ein Ruhmesblatt für AMDs Kundenfreundlichkeit.