5

News des 5. August 2008

Wir hatten in unserem früheren Artikel "Der Trend zum Billig-Computer" unter anderem auch ein Billig-PC-System zusammengestellt, welches preislich nicht den Vergleich zu den teuersten Vertretern der Nettop-Klasse scheuen muß, allerdings natürlich deutlich mehr Performance unter der Haube hat. Zu diesem Artikel gab es den berechtigten und damit auch an dieser Stelle genannten Einwand, daß das von uns seinerzeit angesetzte Netzteil à 25 Euro ein wenig zu knapp bemessen sei: Sicherlich gibt es Netzteile in der gewünschten 350W-Leistungsklasse zu diesem Preis, allerdings bekommt man dafür kaum Qualität. Und an dieser Stelle sollte man nicht unbedingt sparen, ein nicht qualitatives Netzteil führt auf jeden Fall zu mehr Problemen als es an Geldersparnis einbringt.

Schon für einen geringen Betrag mehr gibt es die Angebote von bekannten Markenherstellern, wo man sich dann auch sicher sein kann, daß die angegebene Leistung erreicht wird und daß das Netzteil allgemein nach hohen Standards gebaut wurde (eine Hilfe, gute von schlechten Netzteilen zu unterscheiden, gibt ein Artikel der PC Games Hardware). Gerade wenn man auch noch eine leistungsfähige Grafikkarte verbaut, ist das Erreichen (und Übertreffen) der Spezifikationen wichtig, weil heutige Grafikkarten selbst der 100-Euro-Klasse schon einige Anforderungen an das Netzteil stellen. Bei Grafikkarten geht es dabei fast ausschließlich um viel Power auf der 12V-Leitung, aus welcher sich die Grafikkarten speisen. Da an dieser 12V-Leitung aber auch noch andere gewichtige Abnehmer hängen, kann diese eigentlich gar nicht überdimensioniert ausgelegt sein.

Für Grafikkarten der früheren Mainstream-Generation (GeForce 8600 GT, Radeon HD 2600/3600) mit einem Strombedarf von bis zu 50 Watt kann man in aller Regel mit 16 bis 20 Ampere auf der 12V-Leitung weggekommen, was wohl die allermeisten Netzteile erreichen sollten. Allerdings sind diese Karten preislich nicht mehr im Mainstream-Segment zu finden – dort stehen inzwischen billig gewordene Beschleuniger des früheren Performance-Segments wie Radeon HD 3850/3870 und GeForce 9600 GSO/GT bis hin zur GeForce 8800 GT. Diese Karten verbrauchen für sich allein 60 bis 80 Watt, was ein Netzteil von über 20 Ampere und eher in Richtung 24 bis 26 Ampere auf der 12V-Leitung erfordert. Für die GeForce 9800 GTX/GTX+ sowie die Radeon HD 4850 Karten mit ihrem Strombedarf von 110 bis 120 Watt sollte es dann noch etwas mehr sein.

Wirklich extrem aufpassen muß man dann bei den Karten der neuen HighEnd-Generationen von ATI und nVidia. Radeon HD 4870, GeForce GTX 260 und 280 verbrauchen 150 Watt und mehr allein für die Grafikkarten, was nur noch wirklich leistungsfähige Netzteile bewältigen können. nVidia gibt hier beispielsweise für die GeForce GTX 260 ein 500W-Netzteil mit satten 36A auf der 12V-Leitung vor (die Radeon HD 4870 ist auf einen ähnlichen Wert zu schätzen), bei der GeForce GTX 280 soll es sogar ein 550W-Netzteil mit 40A auf der 12V-Leitung sein. Leider hat ATI bislang noch keine Angaben zur Radeon HD 4870 X2 herausgegeben, aber für diese demnächst erhältliche Karte ist sogar noch ein guter Zacken mehr zu erwarten.

Ein weiterer Einwand betrifft unseren aktuellen Artikel zu Intels Larrabee: Und natürlich stimmt es, daß Intel für das Raytracing-Renderingverfahren nicht zwingend auf OpenGL oder/und DirectX setzen muß, ausführbar wird Raytracing auf Larrabee auch ohne direkte Unterstützung durch diese 3D-APIs sein. Aber wie an dieser Stelle schon vorher ausgeführt: Will man Raytracing auf dem Spielesektor wirklich durchdrücken, muß man den Spieleprogrammierern ein Modell anbieten, welches nicht in einem doppelten Arbeitsaufwand für ATI/nVidia-Grafikchips auf der einen Seite und Intels Larrabee auf der anderen Seite mündet. Hier ist jedoch nicht zu sehen, wie kurz- und mittelfristig ein Weg an DirectX vorbeiführt – die Schnittstelle ist einfach zu bedeutend, als daß irgendetwas in Masse auch ohne diese gehen würde.

Und wieso sollten die Spieleprogrammierer auch unbedingt für einen neuen Grafikchip, dessen Markterfolg noch nicht klar ist und welcher keine Vorgänger mit ähnlicher Technologie (und damit schon eine gewisse Marktdurchdringung) vorzuweisen hat, eine extra Arbeit machen, welche sich auf den Grafikchips von ATI und nVidia dann nicht verwenden läßt? Intel wird hier einen langen, schweren Weg gehen, wo selbst die Aufnahme von Raytracing in DirectX (nicht vor Direct3D12) nur ein Puzzlesteinchen zur Durchsetzung von Raytracing sein kann. Insofern muß die Konzentration bei Larrabee derzeit ganz klar auf die Fähigkeiten zur Darstellung von "gewöhnlicher" Rasterizer-Grafik gehen, die Raytracing-Angelegenheit ist derzeit nicht viel mehr als eine Zugabe. Wenn es bereits zu Larrabee-Lebzeiten mehr wird, gut – aber man sollte nicht darauf setzen.

Daneben hat es reichlich weitere Artikel zu Larrabee gegeben, welche das Thema weiter vertiefen, besonders zu erwähnen ist hierbei die recht umfangreiche Arbeit seitens AnandTech. Desweiteren hat Intel auch noch ein Larrabee-PDF veröffentlicht, welches wohl Grundlage entsprechender Vorträge auf der Siggraph nächste Woche sein dürfte. Und letztlich hat man in unserem Forum die von Intel angegebenen Performance-Werte in allgemeinverständliche Zahlen umzurechnen versucht: Danach erreicht Larrabee mit je nach Meinung zwischen 12 und 25 Kernen sowie 1 GHz Takt in den von Intel getesteten Spielen in etwa die Performance einer Radeon HD 3870. Was sich jetzt ziemlich gut anhört, dürfte zum Launchtermin selbst mit 32 Kernen und dann 2 GHz Takt zwar noch kein allgemeines Mittelmaß, aber ganz sicher kein HighEnd mehr sein.

Allerdings ist diese Rechnung natürlich so grob, daß man derzeit nicht wirklich viel drauf setzen sollte: Erstens einmal hat sich Intel sicherlich diese Spiele herausgesucht, wo man relativ günstig dasteht – in der Breite der Spiele dürfte Larrabee zum jetzigen Zeitpunkt eher etwas schlechter aussehen. Zum anderen aber hat Intel noch über ein Jahr Zeit für Optimierungen und die für Grafikchips extrem wichtige Arbeit an den Treibern, hier kann noch wirklich viel an Performance gewonnen werden. Und letztlich sind die 32 Kerne und 2 GHz Takt derzeit auch nur eine Prognose, welche sich bestenfalls noch nach oben verschieben kann.

Wie nun sogar von Massenmedien vermeldet, hat das US-Heimatschutzministerium zugegeben, daß an US-Grenzkontrollen verdachtslos elektronische Datenträger jeglicher Ausführung (also nicht nur Laptops, sondern alles, womit sich Daten transportieren lassen) kontrolliert, kopiert und auch für eine tiefergehende Prüfung vorübergehend beschlagnahmt werden dürfen. Die Datenerhebung selber ist ausdrücklich nicht zweckgebunden, auch wenn sie unter den Deckmantel der Terrorbekämpfung gestellt wird – selbst also MP3-Daten auf dem Musikplayer können so zu Schwierigkeiten führen, von eventuell mitkopierten Geschäftsgeheimnissen ganz zu schweigen. Als besonderes Schmankerl oben drauf dürfen die gewonnenen Daten dann auch ohne Einschränkungen an andere US-Behörden weitergegeben werden.

Da es in den USA keinerlei ernstzunehmenden Datenschutz gibt (ganz besonders nicht für Ausländer), ist damit nicht gewährleistet, was mit diesen Daten letztlich passiert – im dümmsten Fall können diese somit sogar bei der Privatwirtschaft landen. Für Reisende in das "Land of the free" ist damit absolute Sparsamkeit bei der Mitnahme von elektronischen Datenträgern angesagt, dies geht wie gesagt hinunter bis zum einfachen Musikplayer. Geschäftsreisende sind wohl schon seit einiger Zeit dazu übergegangen, nur noch Notebooks mit frischem und ansonsten leerem Betriebssystem mitzunehmen, und sich die geschäftlich benötigten Daten dann innerhalb der USA über eine verschlüsselte Verbindung zum Firmenserver zu holen.

Absolut erbärmlich ist in diesem Zusammenhang das Verhalten der deutschen Bundesregierung zu nennen: Da durften ein paar Vertreter der Opposition ihren medienwirksamen, aber praktisch vollständig bedeutungslosen Protest ausdrücken – stattdessen wäre es aber die Aufgabe der Regierung gewesen, umgehend und mit Nachdruck darauf zu drängen, diese schwachsinnige Überwachungsmaßnahme sofort wieder abzuschaffen. Schließlich wird man nach der offiziellen Bestätigung dieser Überwachungsmaßnahme keinen einzigen Terroristen mehr fangen, eingeschränkt werden aber die Bürgerrechte normaler Leute und ganz nebenbei wird potentiell auch noch ein wenig Wirtschaftsspionage zuungunsten der Bundesrepublik getrieben.