25

News des 25. März 2009

Expreview bringen das Gerücht, die GeForce GTX 275 würde mit niedrigeren Taktraten antreten als bislang bekannt – ohne dies allerdings genauer auszuführen. Für den Augenblick bliebe dies ganz streng abzuwarten, wenngleich mangels fester Informationen so etwas natürlich im Bereich des Möglichen liegt. Eher wahrscheinlich ist da aber die zweite Information, wonach der eigentliche Marktstart der GeForce GTX 275 erst am 13. April über die Bühne gegen soll, während der offizielle Launch weiterhin am 6. April stattfinden wird. ATIs Radeon HD 4890 wurde wie bekannt auf den 9. April verschoben, so daß – sollte diese Informationen zutreffen – beide neuen Karten nicht gerade am selben Tag erscheinen würden.

Beim Overclockers Club gibt es einen weiteren Testbericht einer 2-GB-Grafikkarte in Form einer Radeon HD 4870 aus der "Varpor X" Serie von Sapphire. Die Karte tritt auf Standard-Taktraten (750/1800 MHz) an und wurde u.a. gegen eine auf den gleichen Taktraten laufende 1024-MB-Version von Diamond sowie eine ab Werk auf 780/2000 MHz MHz übertaktete 1024-MB-Version von Sapphire verglichen. Dabei setzte man Auflösungen bis zu 2560x1600 ein, kommt ergo auch in jenes Feld, wo die 2-GB-Grafikkarte ihre Vorteile haben sollte. Anti-Aliasing wurde wo möglich aktiviert – wobei man üblicherweise 4x Anti-Aliasing einsetzte, bei den Hardwarefressern Crysis Warhead und Far Cry 2 jedoch sinnvollerweise nur 2x Anti-Aliasing benutzte. Die erzielten Werte sind hier und da nicht vollständig erklärbar, trotzdem kann man anhand dieser Zahlen gut genug erkennen, was ausgehend von einer regulären Radeon HD 4870 1024MB mehr lohnt: Der Mehrspeicher oder eine übertaktete Karte?

Vorteil gegenüber regulärer Radeon HD 4870 1GB (750/1800) 2GB-Karte (750/1800) übertaktete 1GB-Karte (780/2000)
1280x1024 + AA +3,6% +2,8%
1680x1050 + AA +1,0% +4,7%
1920x1200 + AA +2,8% +4,4%
2560x1600 + AA +5,2% +7,6%

Denn trotz daß die 2-GB-Karte in den Prozentwerten mit höheren Auflösungen immer besser wird, so gilt doch bei dieser klar zu sagen, daß deren bessere Durchschnittsperformance unterhalb von 2560x1600 faktisch nur durch ein Spiel (von sieben im Testfeld) erzeugt wird, ansonsten die 2-GB-Karte also keinerlei Vorteile gegenüber der 1-GB-Version vorzeigen kann. Dagegen erscheint die ab Werk übertaktete Karte die bessere Wahl zu sein, da sich deren bessere Durchschnittsperformance zum einen mehr oder weniger in jedem Spiel zeigt – und sie zum anderen auch nahezu überall vor der 2-GB-Karte liegt, selbst und gerade unter der Auflösung von 2560x1600. Insofern wäre in diesem Vergleich die übertaktete 1-GB-Karte doch vorzuziehen, während die auf regulären Taktraten laufende 2-GB-Version derzeit wohl nur etwas für spezielle Anwendungsfälle ist.

In Sachen 512 oder 1024 MB Grafikkartenspeicher waren hingegen HT4U bei ihrem Test der MSI R4830 T2D512 (Radeon HD 4830) unterwegs, da sich dort auch Benchmarks von GeForce 9800 GTX+ / GTS 250, Radeon HD 4850 und Radeon HD 4870 jeweils in 512- und 1024-MB-Version finden lassen. Getestet wurde hierbei bis zur Auflösung von 1920x1200 jeweils mit 4x Anti-Aliasing (wo möglich) und 16x anisotropen Filter, was natürlich in den höchsten Auflösungen bei einigen Spielen zu eher theoretischen Trockenübungen in Form von klar unspielbaren Frameraten führte. An der grundsätzlichen Aussage des Zahlenmaterials ändert dies jedoch glücklicherweise nichts, denn hier zeigen sich doch schon eindeutige Präferenzen zugunsten der 1024-MB-Lösungen.

Vorteil 1024 vs. 512 MB Radeon HD 4850 Radeon HD 4870 GeForce 9800 GTX+
GeForce GTS 250
1280x1024 4xAA +3,9% +0,6% +7,5%
1680x1050 4xAA +4,7% +5,1% +9,1%
1920x1200 4xAA +5,0% +6,9% +23,0%

Allerdings muß auch klar gesagt werden, daß auch in diesem Fall die Vorteile der 1024-MB-Karten keineswegs durchgängig sind, sondern einige wenige Spiele massiv gewinnen, während der Großteil der Spiele gar keine (oder nur sehr geringe) Unterschiede selbst hoch bis auf 1920x1200 zeigt. Die Durchschnittswerte trügen hier also, das Feld unterteilt sich streng in Spiele mit hohen Vorteilen unter 1024 MB Grafikkartenspeicher und solche Spiele fast ohne jede Reaktion auf den Mehrspeicher. Aber wie an dieser Stelle schon öfters erwähnt, dreht sich die Welt ja weiter und sind in Zukunft mehr Spiele zu erwarten, welche 1024 MB Grafikkartenspeicher auch ausnutzen – insofern wäre diese Speicherbestückung beim Neukauf einer Performance- oder HighEnd-Grafikkarte wohl immer vorzuziehen, sofern der Mehrpreis sich im Rahmen hält.

Der vorverlinkte Artikel seitens HT4U birgt noch in einem anderen Punkt Gesprächsstoff: Denn es wurden auch mit den getesteten Grafikkarten neue Stromverbrauchsmessungen durchgeführt, welche das interessante Ergebnis zu tage brachten, daß die Stromverbrauchswerte des Gesamtsystems unter BioShock durchgängig fast genauso hoch ausfielen wie unter dem FurMark – welcher wie bekannt die TDP einiger HighEnd-Grafikkarten deutlich sprengt. Natürlich wäre hier immer der Effekt des Gesamtsystems zu beachten: So dürfte unter BiosShock auch die CPU gut belastet sein, während dies unter dem FurMark eventuell gänzlich anders ist. Allerdings deuten einige interne Messungen bei HT4U, welche derzeit noch nicht veröffentlich sind, in diese Richtung, daß man sowohl unter BioShock wie auch Unreal Tournament III klar höhere Stromverbrauchswerte nur für die Grafikkarte erzielen kann als unter Crysis Warhead und damit auch dem 3DMark06.

Auch seitens der PCGH gab es eine Wortmeldung, nach welcher inzwischen Tests gefunden wurden, welche über den Stromverbrauch von Crysis Warhead hinausgehen. Insofern könnte sich demnächst auch eine neue Betrachtungsweise in Bezug auf die Leistungsaufnahme von Grafikkarten bzw. den dafür am besten passenden Benchmark ergeben. Dann könnte es für die Grafikchip-Entwickler unter Umständen tatsächlich noch einmal eng werden mit deren TDP-Angaben: Zwar ist derzeit noch nicht sicher, daß diese auch unter Spielen übertroffen werden können, aber es geht mit neueren Benchmarks und Meßmethoden wohl schon ziemlich nahe an die Grenze dieser von den Grafikchip-Entwicklern immerhin als das "unter Praxisbedingungen maximal Mögliche" definierten Angabe.

Der Planet 3DNow! macht auf möglicherweise kommende Inkompatibilitäten bei Intels Sockel 1156 für die Mainstream- und LowCost-Prozessoren der Nehalem-Architektur aufmerksam. So sollen zwar neben diesen noch dieses Jahr erscheinenden Prozessoren auch deren 2010er Nachfolger noch in diesem Sockel laufen, allerdings ist seitens Intel für das nächste Jahr auch ein Update der Spannungsversorgungs-Spezifikation geplant. Damit könnten die 2010er Prozessoren trotz des gleichen Sockels nicht mehr in den 2009er Sockel-1156-Platinen betreibbar sein – was zwar mit den derzeit vorliegenden Informationen nicht sicher gesagt werden kann, aber aufgrund der Historie von Intel in solcherart Fällen absolut nicht unwahrscheinlich ist.

Weiterführend wird dann allerdings noch von einem Sockel 1155 berichtet, welcher die Inkompatibilität zwischen 2009er und 2010er Mainstream- und LowCost-Prozessoren manifestieren soll. Hier gab es allerdings schon zu Zeiten der CeBIT klare Aussagen, daß der Sockel 1155 nicht mehr in den Markt kommt, sondern daß sich Intel entschlossen hat, Mainstream- und LowCost-Plattformen geschlossen unter dem Sockel 1156 laufen zu lassen. Insofern erscheint ein erneutes Auftauchen dieses Sockels als eher unwahrscheinlich – was aber natürlich nichts an der möglichen Inkompatibilität auf der Ebene der Spannungsversorgung ändert. PS: Bei dem 2010er Update der HighEnd-Linie von Intel mit Codenamen "Gulftown" wird es gemäß früheren Informationen allerdings nicht zu solchen Problemen kommen, dort sollen sich die kommenden 32nm HighEnd-Prozessoren auch in aktuellen X58-Platinen (nach einem BIOS-Update) betreiben lassen.

Shortcuts: Die PC Games Hardware hat von einigen aktuellen Grafikchips die Heatspreader entfernt und die Chipgrößen nachgemessen – wobei letztlich ungefähr dasselbe herauskam, was die Grafikchip-Entwickler offiziell angeben. Der Planet 3DNow! berichtet über eine Auflistung von ASRock-Mainboards, welche die BIOS-seitige Modifikation eines Phenom II X3 in einen Phenom II X4 sowie die Freischaltung der vollen 6 MB Level3-Cache der Phenom II Prozessoren beherrschen. Bedingung hierfür ist natürlich immer ein Prozessor, bei welchem diese ursprünglich deaktivierten Hardware-Einheiten seitens AMD nicht ordentlich deaktiviert wurden und wo diese dann auch vollkommen fehlerfrei sind, was natürlich niemand vorab garantieren kann.