21

News des 21. Juni 2011

HardOCP haben sich mit der Frage auseinandergesetzt, wie die DualChip-Grafikkarten Radeon HD 6990 & GeForce GTX 590 unter CrossFire/SLI performen. Um vier Grafikchips zusammenarbeiten zu lassen, ist dies die derzeit am ehesten machbare Lösung – die andere Variante von vier SingleChip-Grafikkarten scheitert zumeist an den dafür benötigten speziellen Mainboards (für vier DualSlot-Grafikkarten) und Gehäusen (für diese übergroßen Mainboards). CrossFire & SLI mit Radeon HD 6990 und GeForce GTX 590 geht aber auch so schon in Grenzbereiche, da zum einen mit vier Grafikchips hier und da Probleme in diversen Spielen auftreten (und zwar deutlich mehr Probleme als bei früheren Tests mit "nur" drei Grafikchips) und zum anderen angesichts der extremen Rohpower dieser beiden Lösungen die verbaute Speichermenge oftmals zum Bremsschuh wurde.

2560x1600, tlw. AA 5760x1200, tlw. AA
Radeon HD 6990 CrossFire vs.
GeForce GTX 590 SLI
+12,2% +35,2%
(ohne Crysis: -0,5%)

Dies zeigt sich dann auch in den reinen Performance-Messungen, welche die Radeon HD 6990 CrossFire vorn sehen, obwohl im Vergleich der einzelnen Grafikkarten Radeon HD 6990 und GeForce GTX 590 als ziemlich gleichschnell angesehen werden. Der deutliche Vorteil der Radeon HD 6990 CrossFire unter 5760x1200 begründet sich allerdings primär auf einem extremen Vorteil unter Crysis, ohne dieses Spiel wären Radeon HD 6990 CrossFire und GeForce GTX 590 SLI unter 5760x1200 gleich schnell. Allerdings sind wohl zu wenige Ergebnisse unter 5760x1200 vorhanden, um diese Auflösung wirklich werten zu können (nur zwei bzw. drei mit Crysis) – die Ergebnisse unter 2560x1600 sind da eher konstanter und zielführender. Davon ausgehend scheint es fast so, als würde der Mehrspeicher der Radeon HD 6990 diese bevorteilen und wäre die GeForce GTX 590 mit verdoppelter Speichermenge möglicherweise viel performanter.

Nachprüfen läßt sich dies derzeit mangels entsprechender DualChip-Karten mit verdoppelter Speichermenge nicht direkt, ein ebensolcher Vergleich mit SingleChip-Karten wäre allerdings machbar: Beispielsweise in Form von jeweils drei GeForce GTX 580 Karten, einmal mit den regulären 1536 MB und einmal mit 3072 MB Grafikkartenspeicher. Unter den angesetzten hohen Auflösungen und im CrossFire- bzw. SLI-Modus dürften sich dann wahrscheinlich endlich einmal Vorteile für diesen Mehrspeicher zeigen, welcher unter üblicherweise genutzten Auflösungen nicht der Rede wert ist. Anwender, welche System mit drei oder vier Grafikchips und solcherart hohen Auflösungen planen, sollten auf jeden Fall die Problematik des Grafikkartenspeichers mit einbeziehen und hierbei eher klotzen statt kleckern, damit der MultiGPU-Effekt nicht auf der Hälfte stehenbleibt. Ausgehend von DualChip-Grafikkarten ist dabei natürlich AMD erst einmal im Vorteil durch die default-Ausstattung mit gleich 2048 MB Grafikkartenspeicher pro Grafikchip.

Bei TweakTown hat man sich die PCI-Express-Performance von nVidias NF200-Chip auf einem P67-Mainboard angesehen. Der NF200-Chip wird gern bei MultiGrafikkarten-fähigen P55- und P67-Mainboards zur Erweiterung der PCI Express Lanes verbaut, da bei diesen Mainboards die CPU selber (über ihr integriertes PCI Express Interface) nur 16 PCI Express Lanes für die Grafikkarten zur Verfügung stellt. Im SLI/CrossFire-Modus müssen sich die Grafikkarten das PCI Express Interface der CPU teilen und erhalten somit jeweils nur 8 PCI Express Lanes – durch den NF200-Chip erhalten beide Grafikkarten dann wieder jeweils 16 PCI Express Lanes. Mittels des Asus Maximus IV Extreme Mainboards haben TweakTown dann ausgemessen, wieviel Performance-Unterschied zwischen beiden Möglichkeiten existiert.

1680x1050 noAA 1920x1200 noAA 2560x1600 noAA 1920x1200 2x/4xAA
NF200 (x16/x16) vs.
original (x8/x8)
+1,8% +0,3% +0,4% -2,1%

Das herauskommende Ergebnis zeigt dabei unserer Meinung nach deutlich in die Richtung, besser die Finger vom NF200-Chip zu lassen: Je Grafikkarten-limitierter die Szenerie wird, um so marginaler wird der Vorteil des NF200-Chips, unter Anti-Aliasing ist dann sogar der Original-Zustand mit der schwächeren PCI-Express-Anbindung (geringfügig) schneller. In jedem Fall zeigen sich nirgendwo beachtbare Vorteil des NF200-Chips – was aber auch wiederum nicht so überraschend kommt, denn im eigentlichen ist der ganze Ansatz verlorene Liebesmüh: Der NF200-Chip kann zwar den einzelnen Grafikkarten jeweils 16 PCI Express Lanes zur Verfügung stellen, die Anbindung zum PCI Express Interface der CPU bleibt aber weiter auf 16 PCI Express Lanes insgesamt limitiert, bei zwei Grafikkarten also 8 PCI Express Lanes pro Grafikkarte.

Gemäß der ehernen Regel, daß eine Kette nur so stark ist wie ihr schwächstes Glied, ist mit dem NF200-Chip letztlich gar nichts gewonnen, das System kann dadurch (rein theoretisch) gar nicht schneller werden. In der Praxis sieht es dann so aus, daß der NF200-Chip eine bessere Lastverteilung vornimmt als die statische Aufteilung der PCI Express Lanes von 8 für die eine Grafikkarte und 8 für die andere Grafikkarte – womit dann am Ende doch ein kleiner Performance-Gewinn durch den NF200-Chip steht. Dieser kann allerdings nur in Situationen realisiert werden, wo sehr viel PCI Express Bandbreite benötigt wird – dies trifft üblicherweise auf sehr hohe Frameraten zu, sprich unter niedrigen Auflösungen und ohne Anti-Aliasing.

Sinken die Frameraten durch den Einsatz regulärer Auflösungen und von Anti-Aliasing dagegen, verflüchtigt sich dieser Effekt des NF200-Chips weitestgehend und es tritt dafür ein anderer Effekt auf: Durch die Signalumwandlung im NF200-Chip entstehen zusätzliche Latenzen, die dann die Performance auch wieder leicht nach unten beeinflussen. Beide kleinen Nebeneffekte sind in obigen Benchmark-Resultaten zu sehen – der große Performance-Effekt durch den NF200 durch dessen höhere PCI Express Bandbreite ist dagegen nicht zu sehen, weil dieser auch nicht wirklich existiert. In der Summe lohnt der NF200-Chip zumindest für Systeme mit zwei Grafikkarte nicht, hierfür reicht die Anbindung über PCI Express 2.0 x8/x8 am Ende doch aus.