14

News des 14. Mai 2009

Der Heise Newsticker berichtet über eine Intel-Aussage, wonach der Larrabee-Grafikchip erst im ersten Halbjahr 2010 antreten wird. Damit bestätigen sich frühere Vermutungen, daß Intels Aussagen vom "Jahresende 2009" sich eher nur auf erste lauffähige Chips, aber noch nicht auf lieferfähige Produkte bezogen haben. Genauer wollte man den Auslieferungstermin seitens Intel im übrigen noch nicht eingrenzen, da derzeit nicht klar ist, wieviele Chip-Steppings man bis zur Design-Vollendung benötigt. Demzufolge kann man wohl annehmen, daß Larrabee bei optimalen Verlauf irgendwann im ersten Quartal (aber sicherlich noch nicht direkt zum Jahresanfang) antreten wird, bei nicht so optimalen Verlauf dann im zweiten Quartal 2010.

Gleichfalls bestätigte Intel, daß Larrabee von Anfang an in mehreren Varianten für verschiedene Leistungsbereiche erscheinen wird – bei dem sehr skalierbaren Design natürlich kein Wunder. Intel will also auch schon mit dem ersten Larrabee-Entwurf gleich alle Marktsegmente abdecken. Allerdings steht nach wie vor die Frage offen, wie hoch die schnellste Larrabee-Variante hinauskommt – ob man sich gleich im ersten Entwurf mit den HighEnd-Boliden von ATI und nVidia anlegen kann, ist nach wie vor offen. Insbesondere in Punkto Spielekompatibilität muß das Larrabee-Treiberteam erhebliche Vorbehalte auf dem Weg räumen, welche durch die "Arbeit" des Treiberteams für die integrierten Grafikchips von Intel im Raum stehen.

TweakPC haben sich mit der CrossFire-Skalierung der Radeon HD 4770 beschäftigt, welche – wie schon einmal ausgeführt – eine der wenigen Fälle darstellt, wo zwei kleinere Karten im CrossFire-Verbund eine einzelne größere Karte im Preis/Leistungsverhältnis schlagen können. TweakPC haben dies allerdings noch weiter getrieben und sich auch die Performance von drei und gar vier Radeon HD 4770 Karten im CrossFire-Verbund angesehen – sehr interessant in diesem Zusammenhang sind die Auslastungsdiagramme, welchen zu entnehmen ist, wie die Skalierung mit steigender Anzahl der Grafikchips dann langsam abnimmt. Denn leider bietet nur einfaches CrossFire mit zwei Grafikkarten eine wirklich effiziente Lösung bei der Radeon HD 4770, mit mehr Grafikchips geht die Skalierung dann langsam aber merkbar zurück.

Dabei dürfte man aufgrund der (relativ) niedrig angesetzten Klasse des RV740-Grafikchips normalerweise viel seltener in CPU-Limits geraten als wenn man selbiges mit einer Radeon HD 4890 versuchen würde – insofern ist die Radeon HD 4770 eigentlich ein perfektes Testgerät für Triple- und Quad-CrossFire. Allerdings wird die Karte nicht unerheblich durch die verbauten nur 512 MB Speicher ausgebremst, jedenfalls in den höheren Auflösung und dann, wenn es um HighEnd-Performance auf dem Niveau einer Radeon HD 4870 X2 geht. Somit kann ein Quad-CrossFire-Gespann aus vier Radeon HD 4770 512MB Karten dann doch nicht mit den aktuellen HighEnd-Lösungen konkurrieren, selbst wenn es einige der Benchmarks bei TweakPC gewinnt – andere aber dafür mangels Speicher gar nicht erst bestreiten kann oder diese nur unterdurchschnittlich langsam funktionieren.

Radeon HD 4770 512MB Dual CrossFire Triple CrossFire Quad CrossFire
1680x1050 4xAA +70,3% +108,7% +141,5%
1920x1200 4xAA +68,6% +115,6% +148,6%
2560x1600 4xAA +66,8% +120,4% +159,3%

Dennoch sind die Effizienz-Werte der Radeon HD 4770 unter CrossFire nicht wirklich schlecht (wir haben für obige Zahlen allerdings hier und da auf Werte ohne Anti-Aliasiung zurückgegriffen – da, wo die Performance mit Anti-Aliasing unter 2560x1600 dann unterirdisch wurde): Mit der zweiten Karte gewinnt man im Schnitt 70 Prozent, mit drei Karten kommt man auf etwas mehr als das Doppelte der Performance und mit vier Karten gewinnt man rund das anderthalbfache. Wenn wir die Skalierung unter 1920x1200 mal als Mittel nehmen, dann lautet die Effizienz folgendermaßen: Die zweite Karte ist zu 69 Prozent effizient (Umsetzung der zusätzlichen Hardware-Power in Leistung), zweite und dritte Karte sind zusammen zu 58 Prozent effizient und zweite, dritte und vierte Karte sind zusammen dann nur noch zu 50 Prozent effizient.

Noch etwas aussagekräftiger wird die Rechnung, wenn man sich nur die Effizienz ansieht, welche die dritte Karte zusätzlich mitbringt, ausgehend schon von zwei Karten: Der theoretisch maximale Performanceschub liegt bei 50 Prozent, real erreicht man allerdings 33,8 Prozent – eine Effizienz von immerhin 68 Prozent. Ausgehend von drei Karten bringt dagegen die vierte Karte keine annähernd so gute Effizienz mehr: Der theoretisch maximale Performanceschub liegt hier bei nur noch 33,3 Prozent, der reale Leistungsgewinn bei 10,2 Prozent – eine Effizienz von unterirdischen 31 Prozent. Auch wenn die Prozentzahlen in obiger Tabelle also auf den ersten Blick nach mehr ausssehen: Die vierte Karte (bzw. genauer der vierte Grafikchip) lohnt bei CrossFire selbst in diesem nahezu idealen Modell kaum, der Leistungsgewinn ist mit 10 Prozent vernachlässigbar, weil die CrossFire-Effizienz überhalb von drei Grafikchips maßgeblich in den Keller geht.

Nochmals der Heise Newsticker berichtet über ein Forschungsprojekt einer US-Universität, welches die Energieeffizienz von Computern maßgeblich erhöhen soll. Bisherige Stromsparfunktionen basieren auf der jeweils aktuellen Rechnerauslastung, die Forscher wollen nun aber physiologische Parameter wie den Hautwiderstand oder Augenbewegungen des Rechnerbenutzers mit einbeziehen. Zusammen mit weiteren Konzepten verspricht man sich um die 50 Prozent Energieeinsparung – welches wir allerdings anzweifeln müssen. Denn die Stromsparfunktionen heutiger CPUs sind wirklich gut ausgereift, hier läßt sich kaum noch etwas einsparen und wenn dann würde man nur über ein paar Watt reden.

Denn die Realität sieht schließlich so aus, daß ein normaler Heim- oder Büro-PC, wenn er nicht gerade zum Spielen oder zum Berechnen einer größeren Aufgabe verwendet wird, sich die meiste Zeit nur langweilt: Texte schreiben, Surfen, Diagramme erstellen, etc. belasten heutige Prozessoren nur minimal – die CPU ist hierbei deutlich mehr im Idle-Modus als unter Last. Sicherlich läßt sich auch hier noch etwas einsparen, passend wäre beispielsweise ein genereller Stromsparmodus wie es diesen bei einigen Notebooks gibt – wo also die CPU selbst unter Last nicht höher als eine gewisse Taktrate (samt angepasster niedriger Spannung) geht. Aber je niedriger man mit der CPU-Stromaufnahme kommt, um so mehr rücken die anderen Verbraucher in einem PC-System ins Blickfeld.

Und bei denen fehlen zumeist wirklich griffige Stromsparfunktionen bzw. sind diese oft nur Nebenprodukte eines Idle-Modus (wie bei Festplatten). Zu denken wäre hier primär an Grafikkarte und Mainboard, aber auch die Effizienz des Netzteils ist eine wichtige Größe. Bei letzteren bewegt sich ja derzeit etwas – viel zu gewinnen ist hier natürlich auch durch die Wahl des richtigen und eines nicht maßlos überdimensionierten Modells. Bei Grafikkarten gibt es inzwischen vernünftige Modelle mit stromsparendem 2D-Modus (Radeon HD 4670 mit 9W idle und 23W 2D-Last), allerdings verbrauchen die Modelle des Performance- und HighEnd-Segments selbst im 2D-Betrieb teilweise soviel wie eine ausgewachsene QuadCore-CPU unter Vollast (Radeon HD 4870 mit 65W idle und 80W 2D-Last) – hier liegt noch deutliches Einsparpotential.

Selbiges liegt genauso auch bei den Mainboards, wo es eigentlich noch nie irgendeinen Ansatz zu Stromsparfunktionen gegeben hat – und dies, obwohl die meisten Boards durchgehend klar mehr verbrauchen als eine im 2D-Betrieb befindliche CPU. Aber hier liegt in erster Linie die Aufgabe bei der Herstellerindustrie, für durchgängig stromsparende Komponenten zu sorgen – durch weitere Minimierungen der CPU-Last läßt sich unserer Meinung nach nur noch recht wenig gewinnen. Aber gerade im Mainboard-Bereich sollten die CPU-Entwickler ansetzen, da sie ja auch mit ihre eigenen Mainboard-Chipsätze entwerfen. Bei den Netzteilen ist eine positive Entwicklung wie gesagt schon sichtbar, während bei den Grafikkarten die Sache leider nur auf kleiner Flamme kocht.

Dabei sind hier die wohl größten Einsparungen mit geringstem Aufwand möglich: Durch klare Takt- und Spannungsabsenkungen im 2D-Modus sollte sich auch jeder HighEnd-Bolide bei der Stromaufnahme zähmen lassen. Funktionieren tut das natürlich nur, wenn die Grafikchip-Entwickler entsprechend deutliche Takt- und Spannungsabsenkungen ansetzen – in einigen Fällen sind die Absenkungen bisher nämlich nur eher halbherzig umgesetzt, womit auch der Stromspareffekt auf der halben Strecke stehenbleibt. Hier gibt es in jedem Fall noch einiges nachzuholen für die Grafikchip-Entwickler – aber wie gesagt auf einem Feld, wo man mit wohl nur recht geringem Aufwand viel erreichen kann in Punkto Stromersparnis. Demzufolge wäre es eigentlich an der Zeit, diese Problematik einmal anzupacken: Denn mehr als 20 Watt muß eine Grafiklösung im Windows-Betrieb wirklich nicht ziehen.