28

News des 28. Dezember 2010

Bei TechPowerUp ist die Anzahl der erfolgreich zur Radeon HD 6970 freigeschalteten Radeon HD 6950 Karten inzwischen erheblich auf über 40 Stück gewachsen – und bisher gab es keinen einzigen Fehlversuch, was schon sehr beachtenswert ist. Der Kartenhersteller scheint auch keine Rolle zu spielen, da Karten von acht verschiedenen Herstellern erfolgreich freigeschaltet wurden. Bisher beziehen sich diese Erfolge natürlich nur auf Karten im AMD-Referenzdesign – wobei, wenn AMD die Grafikchips nicht per Laserlock limitiert, müsste der BIOS-Mod eigentlich auch bei den kommenden Eigen-Designs der Grafikkartenhersteller funktionieren. Es bleibt nur die Frage offen, wie lange das gut geht und ob AMD nicht entweder plangemäß oder aber aufgeschreckt durch diese Meldungen bei zukünftigen Chipchargen wieder zum (undurchdringbaren) Laserlock greift.

Tom's Hardware haben sich an einen Artikel zu den realen, zusätzlichen Stromkosten von HighEnd-Grafikkarten gewagt. Dafür hat man zuerst anhand von Praxisbeobachtungen verschiedene Nutzerprofile erstellt (welche enthalten, wieviel Zeit der Anwender mit welchen Anwendungen verbringt) und dann anhand dessen den hochgerechneten Stromverbrauch zuerst mit einer stromsparenden Basis-Grafikkarte (Radeon HD 5450) und dann mit verschiedenen HighEnd-Grafikkarten ermittelt. Dabei kamen ganz interessante Werte heraus, vor allem wenn man die Ergebnisse mit den sonst üblichen Stichproben-Messungen vergleicht (bei dem angegebenen Mehrverbrauch handelt es sich um den jährlichen Mehrverbrauch gegenüber einer Radeon HD 5450):

TDP Idle/Spiele (HT4U) Mehrverbrauch "Normaluser" (THG) Mehrverbrauch "Enthusiast" (THG) Mehrverbrauch "Gamer" (THG)
Radeon HD 5850 151W 20W/111W 79 kWh 137 kWh 316 kWh
Radeon HD 5870 188W 21W/158W 117 kWh 169 kWh 391 kWh
Radeon HD 6850 127W 18W/113W 83 kWh 139 kWh 321 kWh
Radeon HD 6870 151W 18W/124W 98 kWh 149 kWh 343 kWh
Radeon HD 6950 200W 20W/150W 119 kWh 172 kWh 398 kWh
Radeon HD 6970 250W 22W/205W 150 kWh 230 kWh 531 kWh
GeForce GTX 460 768MB 150W 14W/113W 113 kWh 158 kWh 366 kWh
GeForce GTX 465 200W 26W/168W 146 kWh 212 kWh 490 kWh
GeForce GTX 470 215W 31W/191W 156 kWh 247 kWh 571 kWh
GeForce GTX 480 250W 49W/249W 165 kWh 300 kWh 693 kWh
GeForce GTX 570 219W 24W/199W 149 kWh 244 kWh 564 kWh
GeForce GTX 580 244W 31W/247W 155 kWh 256 kWh 591 kWh

Dadurch, daß bei der THG nicht nur reine Last- und Idle-Verbrauchszahlen gemessen wurden, sondern auch noch der Verbrauch im Office-Alltag und beim Video-Schauen einfließt und daß das alles dann auch noch zeitmäßig je nach Nutzerprofil gewichtet wird, kommen dann doch andere Verhältnisse heraus als bei den sonst üblichen Verbrauchsmessungen. So kommen die AMD-Grafikkarten bis zur Radeon HD 6950 sehr gut weg (nur die Radeon HD 6970 fällt ein wenig aus dem Rahmen), während die nVidia-Grafikkarten durchweg die höchsten realen Verbrauchswerte aufweisen. Hier dürften sich vor allem AMDs teilweise deutliche Vorteile beim Idle-Verbrauch bezahlt machen, denn je nach Nutzungsprofil macht der Idle-Verbrauch einen Großteil der Zeit vor dem Computer aus. In der Summe hält AMD also weiterhin einen gewissen Vorteil beim Stromverbrauch, wenngleich der reine Spieleverbrauch der Radeon HD 6900 Serie eigentlich etwas anderes vermuten lassen würde.

Gegenüber den aktuellen nVidia-Grafikkarten sind die Vorteile zwar nicht mehr besonders groß – vergleicht man jedoch mit einigen noch im Markt befindlichen älteren HighEnd-Boliden von nVidia, so haben diese einen teilweise so deutlich höheren Stromverbrauch, daß sich dies sogar in einer deutlich abweichenden Stromrechnung bemerkbar machen wird. Krassestes Beispiel ist die GeForce GTX 470, welche im Performance- und Preisfeld der Radeon HD 6870 liegt und laut Hochrechnung der THG im Jahr Strom-Mehrkosten von 50 Euro für einen Gamer haben soll. Das sind rund ein Viertel der Anschaffungskosten und wenn man diese Mehrkosten auf eben den Grafikkartenpreis mit aufschlägt, sieht die Situation für die nVidia-Grafikkarte in diesem Vergleich plötzlich sehr ungünstig aus. Allerdings ist dies eher die Ausnahme, im Vergleich "neu gegen neu" wie bei Radeon HD 6970 gegen GeForce GTX 570 ergibt sich nur ein eher unmerkbarer Vorteil von 7 Euro weniger Stromkosten pro Jahr bei der AMD-Grafikkarte.

Ein anderer "alt vs. neu" Vergleich ist dagegen das nVidia-interne Aufeinandertreffen von GeForce GTX 480 gegen GeForce GTX 570, wo die neuere Karte mit einem Vorteil von immerhin 28 Euro weniger Stromkosten pro Jahr aufwarten kann. Allerdings beziehen sich alle diese Stromkosten-Angaben immer nur auf das Gamer-Profil mit heftiger Spielenutzung – bei einer maßvollen Spielenutzung wie im Enthusiasten-Profil werden die Stromkosten-Unterschiede erheblich auf rund die Hälfte der vorgenannten Beträge eingedampft und erreichen dann zumeist nur noch eher unerhebliche Größen. Ob der Stromverbrauch ein Kostenfaktor ist, den man beim Kauf mit betrachten sollte, hängt eben ganz stark von dem eigenen Nutzungsverhalten ab – erst bei Vielnutzern ergeben sich wirklich beachtbare Unterschiede.