1

News des 1. April 2009

Laut Fudzilla soll es bei ATI derzeit keine Pläne für eine DualChip-Grafikkarte auf Basis des kommenden RV790-Chips geben. Dies verwundert ein wenig, denn bei runden 10 Watt mehr Verlustleistung pro Grafikchip sollte dies nun kein unlösbare Aufgabe für die ATI-Techniker sein. Gut möglich, daß die eigentlichen Gründe eher im produktstrategischen Bereich liegen: Die Radeon HD 4850/4870 X2 Karten laufen gut und es gibt derzeit keinen Grund, bei diesen etwas zu ändern. Zudem muß ATI immer auch mit an die mittelfristige Zukunft denken, wo die ersten DirectX11-Chips die aktuellen HighEnd-Angebote möglichst eindrucksvoll schlagen können sollen – und wenn man jetzt etwas auf die Bremse geht, wird das nächste HighEnd-Projekt von ATI natürlich dafür um so mehr Eindruck machen.

Gemäß dem GPUCafé gab es kurzzeitig eine europäische Listung einer GeForce GTX 275 zu einem Preis von 249 Euro. Dies wäre angesichts des anvisierten Listenpreises von 249 Dollar und des aktuellen Dollar/Euro-Kurses recht viel, aber dieser Listenpreis ist zum einen noch nicht sicher und zum anderen sind Vorlaunch-Preise auch nie so eng zu sehen. Fudzilla berichten hingegen zu geplanten übertakteten Versionen dieser Karte, welche gemäß nVidia-Empfehlungen bis auf 670/1404/1175 hinaufgehen sollen – gegenüber den regulären Frequenzen von 633/1404/1134 ist dies allerdings nur ein kleiner Sprung. Hier ist von der Radeon HD 4890 OC deutlich mehr zu erwarten, wo ausgehend von 850/1950 MHz sicherlich mit den besten Exemplaren die 950/2100 MHz zu knacken sind.

Wie Bit-Tech ausführen, denkt nVidia darüber nach, die eigene Physik-Engine PhysX auch über die offene Programmierschnittstelle OpenCL zu unterstützen – und nicht wie bisher an das Vorhandensein von nVidias Programmierschnittstelle CUDA und damit einen nVidia-Beschleuniger zu binden. Damit könnten langfristig eventuell auch ATI-Grafikkarten PhysX nutzen – womöglich mit Einschränkungen, aber immerhin. Ein wirkliches Zusammengehen der verschiedenen Physik-Standards ist dies aber noch nicht – dies wird wohl erst mit einer einheitlichen Physik-Engine kommen, welche es jedoch nicht mehr in DirectX11 geschafft hat und somit kaum vor dessen Nachfolgeversion in ein paar Jahren ansteht.

Zu dem an dieser Stelle schon einmal genannten Streamingspiele-Dienst OnLive gibt es in unserem Forum eine angeregte Diskussion darüber, inwiefern dieser Dienst seine hochfliegenden Ziele überhaupt verwirklichen kann. Als Knackpunkt hierzu wird der Punkt der Latenzen angesehen: Denn im Gegensatz zum herkömmlichen Online-Gaming existieren diese nicht nur in der Außenwirkung des lokalen Charakters (sprich Waffenwirkung auf andere Charaktere), sondern auch schon direkt auf dem eigenen System: Jede minimale Eingabe wird zwar vom eigenen Computer registriert, aber nicht auf diesem ausgeführt, sondern auf dem zentralen Server – womit schon allein die Bewegung des eigenen Charakters zur trägen Angelegenheit werden sollte.

OnLive verspricht demgegenüber nun ein revolutionäres System entgegenzustellen, welches die Latenzen massiv senkt: Man spricht von einer Latenzzeit von nur 1ms. Da sich aber auch OnLive nicht über die Gegegebenheiten des von ihnen nicht kontrollierbaren Internets hinwegsetzen können, kann damit kaum die eigentliche Pingzeit gemeint sein, sondern nur andere sich ergebende Latenzen: Wie beispielsweise diejenige bei der Dekomprimierung des ankommenden gestreamten Bildsignals. Dies wäre in der Tat ein hoher technischer Fortschritt, würde aber im konkreten Fall nicht das eigentliche Problem der im Internet vorhandenen Latenzen lösen. Faktisch dürfte OnLive unter diesen Voraussetzungen nur dort gut laufen, wo mittels hochstabiler Internetzugänge mit Fastpath-Option Pings von 20-30ms normal sind.

Selbst unter diesen optimalen Bedingungen dürfte die Latenz im Spiel dann aber eher bei 80-100ms liegen (zweimal Ping zuzüglich Zeit für die Bildberechnung, Komprimierung und Dekomprimierung, etc.) – und hier muß OnLive erst noch den Beweis antreten, ob man Spiele mit einer dauerhaften 0,1sec Eingabeverzögerung nicht als grundsätzlich "schwammig" empfindet. Für gewisse Arten von (schnellen) Spielen wird dieses Modell wohl nie etwas taugen. Aber natürlich zielt OnLive auch eher auf den Markt der Gelegenheitsgamer ab, welche sich nicht ständig einen teuren Spielerechner hinstellen wollen, nur um ab und zu mal zu spielen (was aber auch falsch ist: es reicht heutzutage ein Billig-Computer, man muß es nur clever anpacken). Nicht von der Hand zu weisen ist jedoch der Punkt, daß OnLive wesentlich einfacher ist – man muß sich eben keinen Kopf mehr über die eigene Hardware machen.

Und für einen Zweck erscheint OnLive schon jetzt als sehr geeignet: Dem Antesten neuer Spiele in ihrem Auslieferungsstadium, um zu sehen, ob einem die Sache zusagen könnte. Da es für viele Spiele keine Demo-Versionen mehr gibt oder aber diese nicht in jedem Punkt aussagekräftig sind, kann man OnLive durchaus dazu nutzen, erst einmal in ein Spiel hineinzuschauen und zu erkunden, ob sich hier auch eine Langzeitmotivation ergeben kann. Die mit OnLive verbundenen Einschränkungen in Form des Eingabelags und der (komprimierten) 1280x720 Grafik zählen für diesen Anwendungszweck sicherlich kaum. Ob das System allerdings seitens OnLive dafür gedacht ist, wäre zu bezweifeln – bei passender Preisgestaltung (Pay per Use) kann man OnLive dafür aber "ausnutzen". Abgesehen von der aktuellen Nutzbarkeit sind aber vor allem die Zukunftsperspektiven von OnLive beachtenswert: Sofern man das Latenzproblem halbwegs im Griff hat, läßt sich beispielsweise die verfügbare Auflöung mit der Zeit sicherlich deutlich steigern.

Potentiell kann so ein Cloud-Computing-Rendering sogar eine bessere Bildqualität als der HighEnd-Rechner zu Hause erzeugen, weil man extrem performancefressende Optikeffekte im Rechenzentrum sicherlich effektiver umsetzen kann (bessere Lastverteilung) als auf dem heimischen Computer. Hier kann man dann auch ein Anwendungsfeld speziell für Intels Larrabee-Beschleuniger sehen, welche durch ihre CPU-Nähe sehr gut dafür geeignet sein dürften, in einem Verbund mit (vielen) anderen Larrabee-Einheiten an verschiedenen Aufgaben herumzurechnen. Ob es allerdings jemals zum großen Durchbruch von OnLive oder ähnlich gelagerten Diensten kommt, hängt unserer Meinung nach weiterhin am Latenzproblem: Normalerweise bräuchte man eine neue Internetstruktur, um diesem Problem wirklich begegnen zu können, denn alles überhalb von (heutzutage nur in einem internen Netzwerk realisierbaren) 30ms wird echten Spielern dauerhaft nicht gefallen können.

Gulli berichten über ein schlimmes Urteil des Landgerichts Karlsruhe in Fragen der Linkhaftung. Nach Ausführung des Gerichts ist es dabei größtenteils egal, wie tief eine Linkkette geht – prinzipiell kann man für jeden Link haftbar gemacht werden, auch wenn dieser "erst über eine Kette von Links anderer Anbieter erreichbar" ist. Ob sich die Richter dies wirklich durch den Kopf gehen lassen haben, darf arg bezweifelt werden, denn aufgrund der Struktur des Internets ist jeder Link des Internets ganz prinzipiell mit jedem anderem Link verbunden. Und ähnlich wie bei Personen – im Durchschnitt kennt jede Person jede andere Person auf dem Globus über nur sechs Verbindungen – dürfte auch bei Links die Anzahl der notwendigen Verbindungen untereinander im Durchschnitt deutlich niedriger sein als man gemeinhin annehmen würde.

Das Urteil ist um so relevanter, als daß wir – wie es der betroffene Blogger in der Realität getan hat – seinerzeit genauso mit dem Gedanken gespielt hatten, auf die Auswertung der dänischen Internet-Sperrliste zu verlinken. Diese Auswertung kann nämlich in der aktuellen Diskussion um Netzsperren eine wertvolle Information beisteuern: Nämlich wie unglaublich ineffektiv diese Sperrlisten doch in der Praxis sind, da die dänische Sperrliste bei härtestmöglicher Auslegung mindestens 84 Prozent legale Inhalte enthält. Selbst wenn der Auswerter bei seiner Arbeit damit das Gesetz brechen musste, ist doch nach den Regeln der Verhältnismäßigkeit die Erlangung dieser Information viel wichtiger einzuschätzen als die (in bester Absicht) begangene Gesetzesübertretung. Doch geht es nach dem Landgericht Karlsruhe, darf man in Deutschland noch nicht einmal über diese Auswertung selber diskutieren – geschweige denn dem mündigen Bürger den Link zu dieser in die Hände geben, damit er sich grundgesetzkonform selber seine Meinung bilden kann.