25

News des 25. Februar 2009

Gemäß der französischsprachigen Webseite TT Hardware tritt die GeForce GTS 250 ab Anfang/Mitte März in drei verschiedenen Ausführungen an, wobei zumindest eine Ausführung abweichend zur ansonsten vollkommen identischen GeForce 9800 GTX+ ist: So wird es eine Version mit 512 MB GDDR3-Speicher und Taktraten von 738/1836/1100 MHz geben, sowie eine Version mit 1024 MB GDDR3-Speicher und Taktraten von 738/1836/1000 MHz – wie von der GeForce 9800 GTX+ her schon bekannt. Hinzu kommt aber noch eine 1024-MB-Ausführung mit Taktraten von 738/1836/1100 MHz – ergo auf Taktraten, welche es bei der GeForce 9800 GTX+ nur bei der 512-MB-Version gibt.

Diese Karte erscheint uns als besonders interessant, denn bisher bestand das Manko der GeForce 9800 GTX+ ja darin, daß deren Speichertakt gegenüber der 512-MB-Version abgesenkt ist und der Vorteil des größeren Speichers daher oftmals nicht besonders gut zum tragen kommt. Hierzu gab es schon entsprechende Benchmarks der PC Games Hardware auf Basis der GeForce 9800 GTX+, welche aber dankenswerterweise auch eine übertaktete GeForce 9800 GTX+ 1024MB auf den Taktraten 738/1836/1100 MHz ausgemessen haben – ganz so, wie jetzt auch diese eine Version der GeForce GTS 250 anzutreten scheint. Und mit dieser zehnprozentigen Erhöhung des Speichertakts sieht die Angelegenheit dann schon etwas freundlicher für die (taktgleiche) GeForce GTS 250 1024MB aus:

Vorteil 1024- gegenüber 512-MB-Version (taktgleiche GTS250) alle Spiele
(ohne CW)
ohne "Sonderfälle"
(CW, FO3, FC2)
1680x1050 4xAA +13% +2%
1680x1050 8xAA +16% +1%
1920x1200 4xAA +17% +3%
1920x1200 8xAA +38% +12%

Natürlich sind die Zugewinne außerhalb der wenigen Sonderfälle, wo der Mehrspeicher richtig massiv reinschlägt, nach wie vor nicht bemerkenswert – aber zumindest wird die GeForce GTS 250 1024MB auf 1100 MHz Speichertakt nicht mehr generell langsamer sein als die reguläre GeForce GTS 250 512MB. Irritierend für viele Käufer dürfte natürlich der Punkt werden, daß es wie gesagt zwei 1024-MB-Versionen dieser Karte geben wird: Eine mit 1000 MHz und die andere mit 1100 MHz Speichertakt – und dies ohne weitere Kennzeichnungen im Kartennamen oder sonst irgendwo. Abzuwarten bliebe natürlich noch, wie sich dies preislich niederschlägt – aber aus den Erfahrungen mit ähnlichen Fällen muß man leider erwarten, daß die Karten mit dem niedrigeren Speichertakt kaum zu besseren Preisen angeboten werden dürften.

TweakPC berichten über eine GeForce GTX 285 von Palit mit gleich 2 GB Grafikkartenspeicher. Da diese Grafikkarte "nur" über einen Grafikchip verfügt, stehen diesem die 2 GB Speicher auch uneingeschränkt zur Verfügung – bei den diversen DualChip-Grafikkarten mit 2 GB Speicher liegen ja pro Grafikchip jedesmal dieselben Daten im Grafikkartenspeicher, womit diese Grafikkarten logisch gesehen 1-GB-Modelle bleiben. Derzeit gibt es allerdings eigentlich keinen Anwendungszweck für eine Grafikkarte mit 2 GB Speicher pro Grafikchip – bis auf GTA IV: Dort ermöglicht der übergroße Speicher die Benutzung der maximalen Sichtweite, ohne daß Nachladeruckler ins Spiel kommen – und die generelle Leistungsfähigkeit der GeForce GTX 285 sollte dies dann auch auf exzellenten Frameraten ermöglichen (eine gute CPU vorausgesetzt).

Geht es nach Expreview, kommt ATIs RV790-Chip in 55nm ohne weitere Hardware-Einheiten, aber dafür mit einem deutlich höheren Chiptakt als bisher erwartet daher: Nunmehr sollen es 950/1800 MHz bei der Radeon HD 4970 sein, dies sind 27 Prozent mehr Rechenleistung gegenüber der Radeon HD 4870 (750/1800 MHz), dafür allerdings kein Stückchen mehr bei der Speicherbandbreite. Damit sind 15 bis 20 Prozent mehr reale Leistung zu erwarten – nicht verkehrt, aber ganz gewiß nicht das, was jetzt Radeon HD 4800 Besitzer von einem Umstieg auf RV790-Grafikkarten träumen lassen würde. Natürlich würde ein leichtes Update der Radeon HD 4800 Serie durchaus zur bisherigen ATI-Strategie passen, sich mit den eigenen SingleChip-Grafikkarten vorwiegend im Preisfeld von nicht deutlich mehr als 200 Euro herumzutreiben – allein, man hatte bisher ganz einfach deutlich mehr vom RV790-Chip erwartet.

Datenschutz.de vermeldet eine Warnung des World Privacy Forums, daß das Thema Datenschutz bei Cloud Computing bisher noch so gut wie gar nicht betrachtet wurde und es demzufolge mit hohen Risiken verbunden ist. Dies gilt es in der Tat ausdrücklich zu unterstreichen: Mittels Cloud Computing wird es den für alle an Daten interessierten Firmen und Organisationen deutlich einfacher, an eben diese heranzukommen – schon allein deshalb, weil der Nutzer von einer Datenanfrage in aller Regel nichts mitbekommt und sich demzufolge auch nicht gegen diese verteidigen kann. Den Anbietern von Cloud Computing wird in solchen Fällen sicherlich das Hemd näher als die Hose sein, so daß es selbst in juristisch eher zweifelhaften Fällen zur Datenherausgabe kommen wird. Dies gilt ganz besonders dann, wenn der Anbieter aus den USA heraus operiert, wo es selbst für US-Bürger nur ein schwaches Datenschutzrecht gibt, während Daten von Nicht-Amerikanern gesetzlich komplett schutzlos sind.

Zu bedenken wäre weiterhin der Fall des Konkurses eines Anbieters von Cloud Computing: Dann könnten alle eventuell doch vorhandenen Datenschutzregelungen über Bord gehen und die Daten durchaus als Konkursmasse jedem Interessenten feilgeboten werden. Insofern ist die ganze Euphorie über Cloud Computing doch ein wenig erstaunlich – aus Datenschutzsicht ist das ganze schon vom Ansatz her ein reines Desaster, welches auch durch nachträglich eingebaute Schutzmaßnahmen kaum noch zu retten sein dürfte. Sinn kann Cloud Computing wenn dann überhaupt nur für Großunternehmen haben, welche ihren Mitarbeitern somit ortsunabhängiges Arbeiten mit den Firmenanwendungen und -daten ermöglichen können – am besten auch realisiert nicht über einen (niemals hundertprozentig kontrollierbaren) externen Anbieter, sondern über die eigene IT-Abteilung.

Der Nutzen für Otto Normalsurfer beschränkt sich unserer Meinung nach aber auf den reinen Showeffekt, ansonsten überwiegen die Risiken aber ganz enorm: Man ist letztlich weder Herr über die eigenen Daten noch hat man Kontrolle darüber, wer alles mitliest. Wenn es wirklich um solche Fälle wie absolute Datensicherheit geht, kann man Backup-Dienstleister nutzen (natürlich verschlüsselt) – und das weltweite Arbeiten läßt sich mittels Netbook und Notebook ja auch ganz problemlos realisieren. Für Cloud Computing bleiben dann vielleicht noch ein paar Spezialfälle übrig (wie, das man für eine Aufgabe mal eine bestimmte Access-Version benötigt, sich diese aber nicht extra zulegen will), aber als massenhafte Anwendung sehen wir Cloud Computing aufgrund der niemals generell zu lösenden Sicherheits- und Datenschutzproblematik zumindest für Otto Normalsurfer nicht.