9

News des 9. November 2007

Sowohl Legion Hardware als auch AnandTech haben sich die mit Unreal Tournament 3 zu erwartende Performance anhand der Beta-Demo angesehen, wobei erstgenannte Seite ihr Gewicht mehr auf Grafikkarten und letztgenannte mehr auf die CPUs gelegt hat. Generell präsentiert sich das Spiel von der Performance her derzeit durchaus als "NextGen" – ohne allerdings wie noch Crysis selbst gutklassige Mainstream-Karten gleich zum Runterschalten auf Medium-Settings zu zwingen. Trotzdem reicht es unterhalb der aktuellen Performance- und HighEnd-Generation nicht aus, um im HighQuality-Modus noch Anti-Aliasing zu aktivieren – mit Ausnahme der DirectX9 Performance- und HighEnd-Karten von ATI auf nicht all zu hoher Auflösung. Hier liegt gleich eine der allerersten Beobachtungen: Die ATI-Karten – ob DirectX9 oder Direct3D10 – laufen unter Unreal Tournament 3 generell besser als gewöhnlich.

So konnte man zwischen Radeon X1950 XTX und GeForce 7900 GTX eine satte Differenz von 50 Prozent ermitteln, während bei den Direct3D10-Karten die Radeon HD 2600 XT regelmäßig vor der GeForce 8600 GTS und die Radeon HD 2900 XT regelmäßig und deutlich vor der GeForce 8800 GTS lag. Gleichfalls fällt die gewisse Bevorzugung von Direct3D10-Karten auf: Selbst die GeForce 8600 GT liegt noch weit vor der GeForce 7900 GT, während die Radeon HD 2600 XT fast auf das Leistungsniveau einer Radeon X1950 Pro kommt – was angesichts des Performanceabstands, welcher sonst zwischen diesen beiden Karten liegt, auch schon eine Leistung ist. Bei der CPU-Performance gibt es hingegen sehr widersprüchliche Aussagen zwischen den beiden Testberichten. Wenigstens läßt sich jedoch sagen, daß das Spiel durchaus mit QuadCore-Prozessoren umgehen und aus diesen noch einiges an Leistung gegenüber DualCore-Modellen herauskitzeln kann, während hingegen die Größe des Level2-Caches nur mittelmäßiges und der FSB-Takt kaum ein Gewicht haben.

Bei Hard Tecs 4U hat man sich mit der GeForce 8800 GT im Praxiseinsatz und dort insbesondere dem Themenkomplex Temperaturen, Kühlung & Lüfter beschäftigt. Dabei zeigte sich primär, daß die bei dieser Karte seitens nVidia und den Grafikkarten-Herstellern angesetzte Kühllösung sicherlich nicht unterdimensioniert ist, sondern sogar einige Reserven zu haben scheint. Diese werden dann jedoch bei 3700 Lüfter-Umdrehungen in der Minute samt 42,7 dB(A) bzw. 5,0 sone Geräuschbelastung allein nur durch den Lüfter erzielt. Das Problem der GeForce 8800 GT ist also weniger, daß die Karte nicht auch unter ungünstigen Bedingungen oder/und Overclocking kühlbar wäre, sondern dann recht schnell die Umdrehungen und damit das Lüftergeräusch hochzieht. Zu Standard-Taktraten, bei guter Gehäusedurchlüftung und nicht zu hohen Außentemperaturen sollte das alles kein Thema sein – aber schon bei geringen Abweichungen davon reagiert der Lüfter. Insofern ist sicherlich die gesamte Kühlung der GeForce 8800 GT im SingleSlot-Design nicht als auf Kante gebaut zu bezeichnen – sobald es aber um eine leise Kühlung geht, ist die Karte sicherlich an der Grenze des machbaren.

Wie der Heise Newsticker berichtet, will Intel den zukünftigen Einsatz von Rambus-Speichern erneut überdenken, ohne daß bislang allerdings konkrete Produkte geplant sind oder es überhaupt Informationen darüber gibt, in welche Richtung Intel hier denkt. Allgemein sind die Chancen von Rambus' XDR-RAM auf dem PC eher gering einzuschätzen: Beim PC-Hauptspeicher regieren mit dem Erscheinen der Nehalem-Architektur vollständig die integrierten Speicherinterfaces – welche nun einmal auf SDRAM festgelegt sind, womit der Weg für andere Speicherarten praktisch verbaut ist. Bliebe noch der Grafikkartenspeicher: Bei diesem wird aber nun GDDR5 mit Taktraten von bis zu 2500 MHz den Markt aufrollen, was an einem 512 Bit DDR Speicherinterface satte 298 GB/sec ergibt – hier kann selbst die neue XDR-Taktstufe mit ihrerseits beachtlichen 286 GB/sec nicht dagegen ankommen. Gut ist Rambus' XDR in erster Linie dann, wenn aus Platz- oder Kostengründen nur recht kleine Speicherinterfaces zur Verfügung stehen, weil XDR auch mit diesen kleinen Speicherinterfaces schon hohe Bandbreiten zur Verfügung stellen kann. Womöglich will Intel ja genau auf solche Anwendungszwecke hinaus.