30

News des 30. Juni 2008

Bei der PC Games Hardware hat man sich angeschaut, was zum einen PCI Express 2.0 und zum anderen eine Übertaktung des PCI-Express-Interfaces an Performance bringt. Beide Fälle erreichen ihre höhere Bandbreite durch einen höheren Interface-Takt, welcher bei PCI Express 2.0 schlicht auf dem doppelten von PCI Express 1.x liegt. Dies erbrachte unter Call of Duty runde 7 Prozent mehr Performance (interessanterweise selbst unter 1680x1050 mit 4x Anti-Aliasing), während dagegen unter Crysis sowie Uneal Tournament III kein bzw. teilweise sogar ein gegenteiliger Effekt durch PCI Express 2.0 festzustellen war. Offensichtlich kommt es auf das jeweilige Spiel an, ob es mit PCI Express 2.0 Performance-Gewinne – ähnlich lautet auch das Ergebnis eines ähnlichen Tests der ComputerBase, wo nur zwei von vier Spielen einen Effekt zeigten.

Da es sich in allen Fällen (Call of Duty, Oblivion, World in Conflict) nicht um Spiele handelt, welche als besondere Grafikkarten-Fresser bekannt sind, könnte man eventuell das vorläufige Urteil fällen, daß die Bandbreiten-Steigerung von PCI Express 2.0 wenn dann eher der CPU-Seite zugute kommt. Ob PCI Express 2.0 dann etwas bringt, wenn der Grafikkarte (aufgrund zu großer Texturen) der Speicher ausgeht, kann dagegen aufgrund dieser Benchmarks kaum beantwortet werden, dafür hätte man explizit solcherart Szenarien erzeugen müssen. Zudem kann von der Methode der Übertaktung von PCI Express zur Bandbreitensteigerung nur abgeraten werden, auch wenn die PCGH damit hier und da ein paar fps rausholen konnten. Allerdings dient der PCI Express Takt im gewöhnlichen auch noch als Maßgabe für andere Taktraten und kann somit eine Übertaktung dessen auch andere Komponenten in Mitleidenschaft ziehen.

Ein anderer Testbericht seitens Tom's Hardware geht vom Namen nach in dieselbe Richtung, rein praktisch wurden dort aber "nur" verschiedene PCI-Express-Bandbreiten getestet und nicht die Frage nach PCI Express 1.x gegen 2.0 gestellt. Allerdings läßt sich auch das natürlich verwenden – in der Frage, welche PCI-Express-Geschwindigkeit es denn heutzutage sein sollte. Dabei entspricht PCI Express 2.0 x8 in etwa der Bandbreite von PCI Express 1.x x16, selbst mit PCI Express x4 kommt man noch auf die Bandbreite von PCI Express 1.x x8. Die Testresultate zeigten erst einmal, daß sich oberhalb von PCI Express 2.0 x4 (vergleichbar mit PCI Express 1.x x8 und AGPx8) kaum noch etwas bewegt.

Der Unterschied zu PCI Express 2.0 x1 (vergleichbar mit PCI Express 1.x x2 und AGPx2) war allerdings erheblich, war aber auch nicht anders zu erwarten. Beachtenswert ist aber schon, daß zwischen PCI Express 2.0 x4 (vergleichbar mit PCI Express 1.x x8 und AGPx8) und PCI Express 2.0 x8 (vergleichbar mit PCI Express 1.x x16) schon hier und da gewisse Unterschiede im Bereich von zumeist ein bis zwei Prozent vermessen werden konnten, im Fall von Call of Duty ging diese Differenz aber auch schon einmal auf 12 Prozent hinauf, beim Flight Simulator X waren es sogar stolze 50 Prozent. Zu AGP-Zeiten konnte man die Faustregel aufstellen, daß sich oberhalb von AGPx4 eigentlich gar nichts mehr bewegt, heuer nun scheinen die Anforderungen gewachsen zu sein: Um auf der ganz sicheren Seite zu sein, sollte es besser PCI Express 2.0 x8 oder aber PCI Express 1.x x16 sein.

Eine Klasse darunter (PCI Express 2.0 x4 oder PCI Express 1.x x8 oder AGPx8) funktioniert derzeit sicherlich auch noch, allerdings gibt es hierbei schon Fälle, wo die Grafikkarte durch diese Anbindung etwas ausgebremst wird – und diese Fälle werden in Zukunft sicherlich zunehmen. Zudem sollte man bei DualChip-Grafikkarte (mit SLI/Crossfire onboard) keinesfalls unterhalb diese Empfehlungen gehen, sondern eher darüber – schließlich werden hier zwei Grafikchips auf nur einem Grafikkarten-Steckplatz betrieben und teilen sich dementsprechend dessen Bandbreite. PCI Express 1.x ist damit sicherlich noch nicht weg vom Fenster, da bei einem x16-Steckplatz derzeit wie gesagt noch eine perfekte Performance geboten wird, nichtsdestotrotz kann es natürlich bei Mainboard-Neukäufen gern schon PCI Express 2.0 sein, die entsprechenden Gerätschaften sind schließlich nicht teurer.

PCI Express 2.0 fähige Mainboard-Chipsätze gibt es von allen großen Chipsatz-Entwicklern für alle aktuellen Prozessoren. Bei AMD sind dies die Chipsätze 770, 780G, 790X und 790FX, bei Intel die Modelle X38, G43, G45, P43, P45 und X48 und bei nVidia die Chipsätze nForce 750a SLI, 780a SLI, 750i SLI, 780i SLI, 790i SLI, 790i Ultra SLI und GeForce 8200/8300 – wobei man bei den Modellen mit integrierter Grafiklösung (AMD 780G, Intel G43/G45 sowie nVidia GeForce 8200/8300) natürlich aufpassen muß, daß es dort auch einen extra Grafikkarten-Slot gibt, nur für die integrierten Grafikchips ist PCI Express 2.0 sicherlich zu schade. Bei den Grafikkarten sind dagegen bei ATI die komplette Radeon HD 3000/4000 Serien, bei nVidia die Grafikchips G94 (GeForce 9600 GT), G92 (GeForce 8800 GTS 512MB, GeForce 9800 GTX/GTX+/GX2) sowie natürlich die GeForce 200 Serie und bei S3 die Chrome 430/440 Karten nach dem PCI Express 2.0 Standard gebaut.

Die PC-Welt berichtet über die "nach Hause telefonieren" Funktionalität in Firefox & Thunderbird, welche nicht so recht zu dem ansonsten sehr positiven Bild dieser Anwendungen passen will. Wie gar nicht einmal selten in solchen Fällen steckt aber eine sinnvolle Idee hinter dieser Funktion: Nachdem es in der Vergangenheit zu Sicherheitsproblemen durch mit Malware verseuchten Extensions gekommen war, prüft Firefox nunmehr alle 24 Stunden, ob der Nutzer eventuell eine dieser schädlichen Extensions installiert hat und informiert gegebenenfalls den Nutzer darüber. Dafür gleicht sich der Browser natürlich auch mit einer von Mozilla gepflegten Liste an schädlichen Extensions im Internet ab – so weit, so gut.

Unklar ist aber, wieso der Browser dabei gleich umfangreiche Daten an Mozilla übermitteln muß, welche mit dem eigentlichen Sinn der Sicherheitsüberprüfung ("hole die aktuelle Schadsoftware-Liste") nichts zu tun hat. Sicherlich mögen Angaben über die Browser-Version, welches Betriebssytem der Nutzer verwendet, die IP-Adresse und somit den Standort des Surfers sowie andere Daten, die Mozilla verraten, wieviele aktive Nutzer Firefox und Thunderbird verwenden, nicht gerade unter eine Geheimhaltungsstufe fallen und auch kann man anerkennen, daß solcherart Daten den Firefox-Machern bei ihrer Arbeit eventuell weiterhelfen können – und trotzdem fällt eine mehr oder weniger heimliche Datenerhebung immer erst einmal negativ auf.

Vollens diskreditiert sich Mozilla aber dadurch, daß sich diese Phone-Home-Funktion nur zusammen mit der auf jeden Fall nützlichen Aktualisierung der Schadsoftware-Liste ausschalten läßt. Dies soll gegenüber dem Nutzer wohl bedeuten: Sicherheitsfeatures gibt es nur im Doppelpack mit Spionagefunktionen – und das ist etwas, was man eher von Microsoft, nicht aber von Mozilla erwartet. Hier liegt dann eben auch ein Hauptgrund dafür, wieso viele Nutzer eigentlich niemanden mehr vertrauen und es dann eigentlich nutzvolle Features wie die Aktualisierung einer Liste mit bekannter Schadsoftware (oder auch die Aktualisierung der Anti-Phishing-Liste in Firefox 2/3) teilweise so schwer haben, sich durchzusetzen.

Gerade wenn man Features einbindet, welche nur zusammen mit einer Phome-Home-Funktion sinnvoll sind, sollte man die gleichzeitige Übermittlung von allen möglichen anderen Daten tunlichst unterlassen (wenn nicht gar sowieso) und vor allem die User ständig aktiv darüber aufklären, warum diese Rückverbindung jetzt notwendig ist und was da exakt an Daten übertragen wird. Gleichzeitig sollte man alle – wenn auch nützlichen – Datensammelungen immer mit dem Nutzer abstimmen und sich immer dessen aktive Einwilligung holen – selbst wenn das bedeutet, daß man von deutlich weniger Nutzern die Daten erhält. Im gegenteiligen Fall kann man nämlich so enden wie Microsoft, wo selbst sinnvolle neue Ideen daran scheitern, daß die Nutzer dem Unternehmen in Datenschutz-Fragen absolut keinerlei Vertrauen mehr entgegenbringen (aufgrund der Microsoft-Historie kann man auch sagen: nicht mehr entgegenbringen können).

Bei der PC Games Hardware hat man sich angeschaut, was zum einen PCI Express 2.0 und zum anderen eine Übertaktung des PCI-Express-Interfaces an Performance bringt. Beide Fälle erreichen ihre höhere Bandbreite durch einen höheren Interface-Takt, welcher bei PCI Express 2.0 schlicht auf dem doppelten von PCI Express 1.x liegt. Dies erbrachte unter Call of Duty runde 7 Prozent mehr Performance (interessanterweise selbst unter 1680x1050 mit 4x Anti-Aliasing), während dagegen unter Crysis sowie Uneal Tournament III kein bzw. teilweise sogar ein gegenteiliger Effekt durch PCI Express 2.0 festzustellen war. Offensichtlich kommt es auf das jeweilige Spiel an, ob es mit PCI Express 2.0 Performance-Gewinne - ähnlich lautet auch das Ergebnis eines ähnlichen Tests der ComputerBase, wo nur zwei von vier Spielen einen Effekt zeigten.

Da es sich in allen Fällen (Call of Duty, Oblivion, World in Conflict) nicht um Spiele handelt, welche als besondere Grafikkarten-Fresser bekannt sind, könnte man eventuell das vorläufige Urteil fällen, daß die Bandbreiten-Steigerung von PCI Express 2.0 wenn dann eher der CPU-Seite zugute kommt. Ob PCI Express 2.0 dann etwas bringt, wenn der Grafikkarte (aufgrund zu großer Texturen) der Speicher ausgeht, kann dagegen aufgrund dieser Benchmarks kaum beantwortet werden, dafür hätte man explizit solcherart Szenarien erzeugen müssen. Zudem kann von der Methode der Übertaktung von PCI Express zur Bandbreitensteigerung nur abgeraten werden, auch wenn die PCGH damit hier und da ein paar fps rausholen konnten. Allerdings dient der PCI Express Takt im gewöhnlichen auch noch als Maßgabe für andere Taktraten und kann somit eine Übertaktung dessen auch andere Komponenten in Mitleidenschaft ziehen.

Ein anderer Testbericht seitens Tom's Hardware geht vom Namen nach in dieselbe Richtung, rein praktisch wurden dort aber "nur" verschiedene PCI-Express-Bandbreiten getestet und nicht die Frage nach PCI Express 1.x gegen 2.0 gestellt. Allerdings läßt sich auch das natürlich verwenden - in der Frage, welche PCI-Express-Geschwindigkeit es denn heutzutage sein sollte. Dabei entspricht PCI Express 2.0 x8 in etwa der Bandbreite von PCI Express 1.x x16, selbst mit PCI Express x4 kommt man noch auf die Bandbreite von PCI Express 1.x x8. Die Testresultate zeigten erst einmal, daß sich oberhalb von PCI Express 2.0 x4 (vergleichbar mit PCI Express 1.x x8 und AGPx8) kaum noch etwas bewegt.

Der Unterschied zu PCI Express 2.0 x1 (vergleichbar mit PCI Express 1.x x2 und AGPx2) war allerdings erheblich, war aber auch nicht anders zu erwarten. Beachtenswert ist aber schon, daß zwischen PCI Express 2.0 x4 (vergleichbar mit PCI Express 1.x x8 und AGPx8) und PCI Express 2.0 x8 (vergleichbar mit PCI Express 1.x x16) schon hier und da gewisse Unterschiede im Bereich von zumeist ein bis zwei Prozent vermessen werden konnten, im Fall von Call of Duty ging diese Differenz aber auch schon einmal auf 12 Prozent hinauf, beim Flight Simulator X waren es sogar stolze 50 Prozent. Zu AGP-Zeiten konnte man die Faustregel aufstellen, daß sich oberhalb von AGPx4 eigentlich gar nichts mehr bewegt, heuer nun scheinen die Anforderungen gewachsen zu sein: Um auf der ganz sicheren Seite zu sein, sollte es besser PCI Express 2.0 x8 oder aber PCI Express 1.x x16 sein.

Eine Klasse darunter (PCI Express 2.0 x4 oder PCI Express 1.x x8 oder AGPx8) funktioniert derzeit sicherlich auch noch, allerdings gibt es hierbei schon Fälle, wo die Grafikkarte durch diese Anbindung etwas ausgebremst wird - und diese Fälle werden in Zukunft sicherlich zunehmen. Zudem sollte man bei DualChip-Grafikkarte (mit SLI/Crossfire onboard) keinesfalls unterhalb diese Empfehlungen gehen, sondern eher darüber - schließlich werden hier zwei Grafikchips auf nur einem Grafikkarten-Steckplatz betrieben und teilen sich dementsprechend dessen Bandbreite. PCI Express 1.x ist damit sicherlich noch nicht weg vom Fenster, da bei einem x16-Steckplatz derzeit wie gesagt noch eine perfekte Performance geboten wird, nichtsdestotrotz kann es natürlich bei Mainboard-Neukäufen gern schon PCI Express 2.0 sein, die entsprechenden Gerätschaften sind schließlich nicht teurer.

PCI Express 2.0 fähige Mainboard-Chipsätze gibt es von allen großen Chipsatz-Entwicklern für alle aktuellen Prozessoren. Bei AMD sind dies die Chipsätze 770, 780G, 790X und 790FX, bei Intel die Modelle X38, G43, G45, P43, P45 und X48 und bei nVidia die Chipsätze nForce 750a SLI, 780a SLI, 750i SLI, 780i SLI, 790i SLI, 790i Ultra SLI und GeForce 8200/8300 - wobei man bei den Modellen mit integrierter Grafiklösung (AMD 780G, Intel G43/G45 sowie nVidia GeForce 8200/8300) natürlich aufpassen muß, daß es dort auch einen extra Grafikkarten-Slot gibt, nur für die integrierten Grafikchips ist PCI Express 2.0 sicherlich zu schade. Bei den Grafikkarten sind dagegen bei ATI die komplette Radeon HD 3000/4000 Serien, bei nVidia die Grafikchips G94 (GeForce 9600 GT), G92 (GeForce 8800 GTS 512MB, GeForce 9800 GTX/GTX+/GX2) sowie natürlich die GeForce 200 Serie und bei S3 die Chrome 430/440 Karten nach dem PCI Express 2.0 Standard gebaut.

Die PC-Welt berichtet über die "nach Hause telefonieren" Funktionalität in Firefox & Thunderbird, welche nicht so recht zu dem ansonsten sehr positiven Bild dieser Anwendungen passen will. Wie gar nicht einmal selten in solchen Fällen steckt aber eine sinnvolle Idee hinter dieser Funktion: Nachdem es in der Vergangenheit zu Sicherheitsproblemen durch mit Malware verseuchten Extensions gekommen war, prüft Firefox nunmehr alle 24 Stunden, ob der Nutzer eventuell eine dieser schädlichen Extensions installiert hat und informiert gegebenenfalls den Nutzer darüber. Dafür gleicht sich der Browser natürlich auch mit einer von Mozilla gepflegten Liste an schädlichen Extensions im Internet ab - so weit, so gut.

Unklar ist aber, wieso der Browser dabei gleich umfangreiche Daten an Mozilla übermitteln muß, welche mit dem eigentlichen Sinn der Sicherheitsüberprüfung ("hole die aktuelle Schadsoftware-Liste") nichts zu tun hat. Sicherlich mögen Angaben über die Browser-Version, welches Betriebssytem der Nutzer verwendet, die IP-Adresse und somit den Standort des Surfers sowie andere Daten, die Mozilla verraten, wieviele aktive Nutzer Firefox und Thunderbird verwenden, nicht gerade unter eine Geheimhaltungsstufe fallen und auch kann man anerkennen, daß solcherart Daten den Firefox-Machern bei ihrer Arbeit eventuell weiterhelfen können - und trotzdem fällt eine mehr oder weniger heimliche Datenerhebung immer erst einmal negativ auf.

Vollens diskreditiert sich Mozilla aber dadurch, daß sich diese Phone-Home-Funktion nur zusammen mit der auf jeden Fall nützlichen Aktualisierung der Schadsoftware-Liste ausschalten läßt. Dies soll gegenüber dem Nutzer wohl bedeuten: Sicherheitsfeatures gibt es nur im Doppelpack mit Spionagefunktionen - und das ist etwas, was man eher von Microsoft, nicht aber von Mozilla erwartet. Hier liegt dann eben auch ein Hauptgrund dafür, wieso viele Nutzer eigentlich niemanden mehr vertrauen und es dann eigentlich nutzvolle Features wie die Aktualisierung einer Liste mit bekannter Schadsoftware (oder auch die Aktualisierung der Anti-Phishing-Liste in Firefox 2/3) teilweise so schwer haben, sich durchzusetzen.

Gerade wenn man Features einbindet, welche nur zusammen mit einer Phome-Home-Funktion sinnvoll sind, sollte man die gleichzeitige Übermittlung von allen möglichen anderen Daten tunlichst unterlassen (wenn nicht gar sowieso) und vor allem die User ständig aktiv darüber aufklären, warum diese Rückverbindung jetzt notwendig ist und was da exakt an Daten übertragen wird. Gleichzeitig sollte man alle - wenn auch nützlichen - Datensammelungen immer mit dem Nutzer abstimmen und sich immer dessen aktive Einwilligung holen - selbst wenn das bedeutet, daß man von deutlich weniger Nutzern die Daten erhält. Im gegenteiligen Fall kann man nämlich so enden wie Microsoft, wo selbst sinnvolle neue Ideen daran scheitern, daß die Nutzer dem Unternehmen in Datenschutz-Fragen absolut keinerlei Vertrauen mehr entgegenbringen (aufgrund der Microsoft-Historie kann man auch sagen: nicht mehr entgegenbringen können).