5

News des 5. Februar 2009

Die PC Games Hardware hat sich damit beschäftigt, wie man den Stromhunger der GeForce GTX 280 durch ein verändertes Grafikkarten-BIOS mittels des Tools "NibiTor" etwas zähmen kann. Dabei hilft der Umstand, daß offensichtlich viele dieser Karten durchaus auch mit etwas niedrigeren Chipspannungen stabil laufen – und da die Chipspannung enormen Einfluß auf den Stromverbrauch hat, kann man hierbei Strom sparen und die Karte gleichzeitig kühler betreiben. Im besten Fall sind sogar Übertaktungen trotz abgesenkter Chipspannung möglich, offensichtlich existiert hier seitens der nVidia-Vorgaben doch eine gewisse Reserve. Aber: Leider ist der Winter nun einmal die beste Jahreszeit für Übertaktungen, weil einem nicht warme Außentemperaturen als Störquelle hineinspielen.

Dies bedeutet eben auch, daß Setups, die im Winter noch einwandfrei funktionieren, im Hochsommer eventuell Probleme machen. Es ist daher auf keinen Fall ratsam, auch die letzten Reserven ausnutzen, diese sollte man besser bestehen lassen. Insofern sind auch keine Wunderdinge von dieser Modifikation zu erwarten, jedenfalls nicht beim Stromverbrauch unter 3D-Last. Der Stromverbrauch unter 2D kann aber teilweise gut heruntergeschraubt werden, weil doch viele Karten hier keine Spannungsabsenkung ab Werk voreingestellt haben. In jedem Fall handelt es sich hierbei aber immer um eine Hardware-Modifikation, welche mit einem gewissen Restrisiko verbunden ist (gerade für die Nutzer ohne Unterstromversorgung beim BIOS-Flashen), und bei welcher man natürlich auch seine Garantie verliert. Die gezeigte Anleitung gilt darüber hinaus natürlich auch für alle anderen nVidia-Grafikkarten.

Dies gilt genauso auch für den im Forum der PCGH dargestellten Weg, die Chipspannungen mittels des RivaTuners unter Windows zu verändern, jenes Tool kann zudem auch einige ATI-Grafikkarten entsprechend modifizieren. Der große Vorteil ist hier, daß man nicht am BIOS seiner Grafikkarte herumspielen muß, nach einem Neustart sind die Änderungen wieder weg und die Chance, die Karte irreperabel zu beschädigen somit theoretisch kleiner. In der Praxis sind die für diese Spannungsänderung unter Windows notwendigen Schritte allerdings ziemlich fumelig zu erstellen (sobald es einmal funktioniert, kann man es dann aber autostarten lassen), so daß das Risiko von fatalen Nutzerfehlern bei dieser Variante sogar höher liegt. Beide Modifikationsmöglichkeiten sind also nur Nutzern zu empfehlen, die wirklich wissen, was sie da tun.

Auf News-AMD (man muß leider sehr weit nach unten scrollen, bei Tagesdatum 31. Januar zu finden) gibt es eine AMD Prozessoren-Roadmap, welche Phenom II Prozessoren mit 4 GHz Takt bis zum vierten Quartal 2010 voraussagt. Diese "Roadmap" entstand aber bewußt als Gedankenspielerei und ist damit leider kein Hinweis daraus, was AMD derzeit wirklich vorhat. Allerdings ist es auch wieder nicht so unwahrscheinlich, daß AMD den Phenom II in diesem doch durchaus langen Zeitraum bis auf 4 GHz bringen kann – "früher" hätte man 33 Prozent Taktratengewinn problemlos innerhalb eines Jahres geschafft. Eigentlich läuft die Sache eher umgedreht: AMD muß geradezu diese 4 GHz möglichst schnell erreichen, weil bei AMD vor dem Jahr 2011 keine neue Prozessorenarchitektur oder/und eine neue Fertigung ansteht und damit Taktratensteigerungen das einzige sind, womit AMD über die Jahre 2009 und 2010 mehr Leistung generieren kann.

Gerade ab dem Jahr 2010 wird sich AMD dann in erster Linie mit Nehalem-Prozessoren auseinandersetzen müssen, welche ja die Pro/MHz-Leistung weiter gesteigert haben. Damit benötigt AMD erneut mehr Taktrate, um gleichziehen zu können – oder ist wie derzeit dazu verdammt, weiterhin nur eine gute Konkurrenz im Mainstream-Bereich bilden zu können. Ganz grob überschlagen würde ein Phenom II auf 4 GHz auch gerade mal die Leistung eines Core i7 mit 3.4 GHz erreichen – das ist nichts, was Intel bei entsprechendem Willen nicht schon jetzt liefern könnte. Und wenn dann nächstes Jahr der Westmere-Core in 32nm bei Intels Core i7 antritt, wird sich Intel dann ziemlich sicher nicht mehr bei Taktraten à 3.4 GHz aufhalten. Um auch im HighEnd-Segment angreifen zu können, müsste AMD also schon dieses Jahr nahe der 4-GHz-Grenze kommen und jene dann nächstes Jahr deutlich durchbrechen.

Einige Artikel haben sich mit nVidias Ion-Plattform beschäftigt, mittels welcher nVidia Atom-basierte Netbooks und Nettops befeuern will. Und in der Tat zieht Ion bezüglich des Funktionsumfangs sehr vielversprechend aus – natürlich auch, weil Intels derzeit für die Atom-Prozessoren genutzten Chipsätze doch einigermaßen abgespeckt sind. Bezüglich der Standard-Performance kann es aber auch nVidias Ion nicht besser als die Intel-Angebote machen, hier dürfte in erster Linie der Atom-Prozessor selber limitieren. Einziges Performancefeld, wo der Ion damit punkten kann, ist der Spielebereich: Hier liegt nVidia gleich um Welten von Intel entfernt, kann die integrierte GeForce9-Grafik von Ion durchaus (auf niedrigen Bildqualitätseinstellungen) auch aktuelle Spiele ohne Bildfehler auf niedrigem Performanceniveau wiedergeben.

Interessanterweise scheint die benutzte Grafiklösung (vom Namen her eine GeForce 9400, aber nVidia ist bei der Namenswahl im integrierten Bereich oftmals nicht ganz korrekt) sogar noch durch die CPU maßgeblich ausgebremst zu werden, viele Spiele-Benchmarks liefen bei Benutzung eines DualCore-Atoms deutlich schneller ab. Rechnet man noch die Fähigkeit von Ion hinzu, auch HD-Videos recht problemlos abspielen zu können (was die Intel-Plattform derzeit nicht kann), erscheint Ion auf den ersten Blick fast schon als zwingendes Produkt im Kleingeräte-Bereich. Die Schwierigkeiten für nVidia kommen somit sicherlich nicht aus dem Bereich der Produktleistung, sondern sind eher aus politischer Sicht zu erwarten: Intel wird allein schon durch seine Preisgestaltung versuchen, Ion aus dem Atom-Markt herauszuhalten – und durch den Atom-Prozessor sitzt Intel hier auch klar am längeren Hebel.

Insofern würde es uns doch überraschen, wenn demnächst im Netbook-Bereich viele Atom-basierte Geräte mit der Ion-Plattform an den Start gehen. Das klar bessere Produkt zu haben, ist bei den aktuellen Markt- und Machtverhältnissen leider eben nicht immer ausreichend. Größere Chancen sind nVidia dagegen im Nettop-Bereich zuzurechnen, da hier die Spielefähigkeit und vor allem die Fähigkeit zum Abspielen von HD-Material wichtiger erscheinen als noch bei den Netbooks. Auch bei kleinen Notebooks könnte die Ion-Plattformen punkten, da neben dem Atom auch alle größeren Intel-Prozessoren unterstützt werden und die Plattform für Basis-Bedürfnisse als perfekt zugeschnitten erscheint. Gut möglich, daß für nVidias Ion-Plattform der größere Erfolg nicht bei den Netbooks liegt, sondern bei kleinen Notebooks und Mini-Rechnern der Nettop-Klasse.

Nachträglich noch zu erwähnen ist die schon am Montag verlinkte Geschichte um die Windows 7 Benutzerkontensteuerung, kurz UAC genannt. Sowohl Golem als auch Heise Security hatten zu dieser von Wortmeldungen berichtet, wonach diese Windows 7 UAC deutlich weniger sicher sei als die UAC von Windows Vista. Das Problem liegt wohl darin begraben, daß die Windows 7 UAC standardmäßig nur noch Änderungen von Programmen abfängt und keine Änderungen durch den Nutzer selber bemängelt, was in deutlich weniger UAC-Meldungen resultieren soll. Dies wäre nun erst einmal sehr positiv zu bewerten, leider läßt sich dieses System mit ein paar einfachen Tricks dahingehend ausnutzen, daß Schadprogramme die UAC ohne das Mitwissen des Benutzers abschalten können.

Das eigentliche sich dahinter verbergende Problem ist also vielmehr, daß man beim neuen UAC-Design nicht daran gedacht hat, daß Änderungen an der UAC selber generell bestätigt werden sollten, ganz egal ob diese vom Nutzer selber vorgenommen werden. Ein solches UAC-Verhalten würde schließlich auch nicht in deutlich mehr UAC-Warnmeldungen resultieren, aber eben verhindern, daß sich Programme über diverse Tricks an der UAC zu schaffen machen. Sehr typisch ist im übrigen hierzu die Microsoft-Antwort, nach der das ganze durchaus so gedacht sei – sprich: Its not a bug, its a feature. Insgesamt gesehen kann man auch deutlich sehen, wie wankelmütig Microsoft zum Thema Sicherheit ist – und wie sehr das Marketing alles durchdringt: Denn trotz enormen Gegenwind wurde die UAC für Windows Vista seinerzeit vehement verteidigt.

Nun hat man offenbar ausreichend viel Prügel für die UAC von Windows Vista bezogen, entschäft daher die neue bei Windows 7 – und wird auch diesesmal jene in den Himmel hochloben und selbst gegen vollkommen berechtigte Kritik bzw. 1a-Verbesserungsvorschlägen ohne Rücksicht auf Argumente oder Logik verteidigen. Wenn Betriebssystem-Sicherheit bei Microsoft aber letztlich weiterhin darauf basiert, was man an Rückmeldungen aus der nur an Schlagzeilen interessierten Mainstream-Presse bekommt (und nicht auf dem, was man an Rückmeldungen von ausgewiesenen Sicherheitsexperten bekommt), wird uns das Thema wohl noch eine lange Zeit beschäftigen.

Hier zeigt sich an einem typischen Beispiel, wie Microsoft Entwicklungsarbeit betreibt: Über zwei Betriebssystem-Versionen werden die Kunden mit vollkommen vermeidbaren Fehlern gequält, die wahrscheinlich auch jeder Softwaredesigner bei Microsoft bedauert, aber eben jeweils politische Entscheidungen der Management-Ebene darstellen. Denn wie man eine UAC derart gestaltet, daß sie so wenig wie möglich stört, aber dennoch die kritischen Punkte abdeckt, ist eigentlich eine Angelegenheit, die man in einer halben Stunde durchdiskutiert und entschieden haben kann – wenn es denn die Fachleute sind, welche dann auch die Entscheidung fällen dürfen.