7

News des 7. März 2008

Gemäß Hard Tecs 4U soll der nVidia GT200 Grafikchip fertig sein für einen Launch in drei Monaten, was rechtzeitig für die Computex und damit vor allem für die gewöhnlich umsatzstarke Back-to-School-Saison in den USA wäre. Der GT200-Chip gilt als HighEnd-Lösung, welche zwischen die aktuelle G8x/G9x-Generation und den NextGen-Chip G100 dazwischengeschoben wurde, da sich letzterer verzögert – oder auch bewusst verzögert wird, da Direct3D11 offenbar noch nicht so schnell zur Verfügung steht. Dementsprechend soll der GT200 auch noch keine Direct3D11-Lösung sein, es wird dagegen für diesen Grafikchip die Unterstützung von Direct3D 10.1 angenommen. Von der Architektur her wird dem GT200 gemäß früheren Informationen eine an die aktuelle G8x/G9x-Chips angelehnte Architektur zugeschrieben, ohne allerdings ein reiner Refresh-Chip wie die derzeitigen G9x-Chips zu sein.

Dafür soll es deutlich mehr Performance geben, hierzu schwirren (natürlich unbestätigte) Angaben von dem Dreifachen der G80-Performance oder dem Doppelten der Rechenleistung einer GeForce 9800 GTX durch die Gegend. Unklar ist noch, inwiefern es GT200-Abwandlungen auch für andere Marktsegmente geben wird – wenn allerdings der G100-Chip und dessen Abwandlungen für LowCost-, Mainstream- und Performance-Segment nicht all zu bald erscheinen, wäre dies eigentlich folgerichtig anzunehmen. Interessant ist zudem noch die der vorverlinkten Meldung zu entnehmende Aussage eines nVidia-Partners, dass "dass nVidia momentan offenbar soviel in der Schublade liegen habe, dass Neuvorstellungen und Präsentationen vorgenommen werden könnten, wann sie wollten".

Damit bezieht man sich sicherlich erst einmal auf die noch kommenden GeForce9-Grafikkarten. Zudem zeigt die Aussage aber auch auf, dass nVidia durch die zwischenzeitliche Schwäche von ATI bei der R600-Generation (Radeon HD 2x00) inzwischen im Zeitplan so weit vorn steht, dass man neue Grafikchips allem Anschein nach nicht mehr herausbringt, wenn sie fertig sind – sondern erst dann, wenn es denn passend erscheint. Und wenn man es sich genau betrachtet und feststellt, dass nVidia derzeit immer noch G80-Chips an der Spitze seines Portfolios stehen hat, obwohl dieser vor anderthalb Jahren im November 2006 vorgestellt wurde, dann kann man schon sagen, dass ATI es in dieser Zeit nicht verstanden hat, nVidia bezüglich der Performance wirklich unter Druck zu setzen.

Denn dass ein HighEnd-Grafikchip nach anderthalb Jahren immer noch an der Leistungsspitze steht, hat es in der jüngeren Grafikkarten-Vergangenheit eigentlich nicht gegeben. Aber natürlich dürften sich die Entwickler bei nVidia überhaupt nicht auf diesem Erfolg ausgeruht und in der Zwischenzeit fleißig an neuen Grafikchips gearbeitet haben. Insofern ist es durchaus vorstellbar, dass nVidia auf einer Reihe von mehr oder weniger spruchreifen Entwicklungen sitzt und diese erst dann raushaut, wenn die Konkurrenz zu nahe kommt. Für ATI wird damit die Situation nicht einfacher, denn es steht zu erwarten, dass nVidia für alles, was ATI so in nächster Zeit plant, schon jetzt eine Antwort in der Hinterhand bereithält.

Wie der Heise Newsticker berichtet, hat Belkin auf der CeBIT eine Lösung zur Funkübertragung von HD-Bildsignalen präsentiert. Technisch benutzt man dabei eine WLAN-Lösung mit Kanalbündelung, um die hohen für HD-Fernsehen benötigen Datenraten (bei 1080p24 runde 4 GBit/sec) realisieren zu können. Allerdings soll das ganze mit 600 Euro noch reichlich kosten, eventuell gehen die Preise hierfür aber auch im Laufe der Zeit herunter. Ironie am Rande ist, dass durch den Umstand, dass Signale mit dem HDCP-Kopierschutz nicht komprimiert werden können, die ankommenden HDCP-Signale für die Funkübertragung erst entschlüsselt und nach der Funkübertragung wieder verschlüsselt werden ;). Wahrscheinlich bedeutet das aber nicht, dass dann ein unverschlüsselten Signal übertragen wird – Belkin wird wohl schlicht eine der üblichen WLAN-Verschlüsselungen verwenden, welche dann auch das gleichzeitige (und angesichts der Datenraten auch notwendige) Komprimieren der Daten möglich macht.

Der Kurier berichtet über einen Fall, wo die Online-Durchsuchung auch schon in Österreich in einem Fall von Terrorismus-Verdacht angewandt wurde. Zwar gibt es in Österreich ebenso wie in Deutschland noch keine gesetzliche Grundlage, die Ermittler beriefen sich allerdings auf den (richterlich für diesen Fall erlaubten) großen Lauschangriff, um auf den Computer des Verdächtigen eine Software zu schleusen, welche die Tastatureingaben protokollierte und aller 60 Sekunden einen Screenshot des Bildschirms schoss. Über den ermittlungstechnische Sinn dieser Maßnahme können wir mangels weiterer Informationen zu diesem konkreten Fall kaum urteilen, mitzunehmen ist aus diesem Einzelfall aber vor allem die Kreativität der Beamten zur Verschleierung der Tatsache, dass man es mit einer der Online-Durchsuchung gleichzusetzenden Maßnahme zu tun hat.

Insbesondere hervorzuheben ist dabei die Aussage eines Ermittlers vor Gericht, wonach es sich schließlich nicht um eine Online-Durchsuchung, sondern "nur" um eine "Online-Überwachung" gehandelt hätte. Dies ist allerdings aus zweierlei Sicht Nonsens: Erstens einmal ist eine Live-Überwachung faktisch noch invasiver als nur das nachträgliche Durchfilzen einer Festplatte. Und zweitens sind die technischen Ansetzungen bei beiden Maßnahmen die absolut selben: Es wird ohne Wissen des Computer-Besitzers (was der Beamte vor Gericht im übrigen erstaunlicherweise bestritt) eine Software auf dessen Computer gebracht, welche diesen in der einen oder anderen Form ausspioniert. Ob man sich hierbei dann auf Live-Daten beschränkt oder gleich die komplette Festplatte filzt, ist nur noch eine Unterscheidung niedrigeren Ranges – noch dazu, wo es technisch keinerlei Unterschied gibt, dieselbe Spionage-Software prinzipiell für alle diese Zwecke eingesetzt werden kann.

Dieses Beispiel aus Österreich zeigt damit, dass der Fall Online-Durchsuchung leider noch lange nicht ausgestanden ist – vielmehr weichen die Überwachungs-Beführworter einfach auf andere Namensnennungen aus. In Österreich erfindet man so die "Online-Überwachung", in Deutschland die "Quellen-TKÜ". Beide Möglichkeiten sollen dann an weniger Regeln gebunden werden, womit den Ermittlern ein höherer Spielraum zum Einsatz solcherart Maßnahmen bleibt. Beide Möglichkeiten verletzen aber weiterhin strikt das zumindest in Deutschland deklarierte Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme – denn ob man mit diesen nur bestimmte Daten erfasst, ändert nichts daran, dass durch diese die Integrität des jeweiligen Computers zweifelsfrei kompromittiert wird. Aufgrund des vorgenannten Grundrechts müssten also auch in diesen Fällen, wo weniger Daten erhoben werden als durch einen kompletten Festplatten-Scan möglich, die gleichen hohen gesetzlichen Hürden wie bei der regulären Online-Durchsuchung gelten. Setzt sich diese Auslegung nicht durch, dann kommt die Online-Durchsuchung dann doch noch – durch die Hintertüren "Online-Überwachung" oder "Quellen-TKÜ".