27

News des 27. Februar 2007

Wie Golem berichten, haben Forscher der Universität Saarland wohl einen Quantensprung in Bezug auf die Realisierbarkeit von Raytracing auf normaler Computer-Hardware hingelegt, welchen sie auch auf der CeBIT nächsten Monat demonstrieren wollen. Dabei benutzt man gewöhnliche Grafikkarten als Raytracing-Beschleuniger (da es allein über die CPU immer noch deutlich zu langsam ist) – der Clou hierbei ist jedoch, dass die von der Universität erarbeitete Software die Raytracing-Beschleunigung rund 30mal schneller erledigen kann als frühere Lösungen von Raytracing über Grafikkarten. So will man eine Leistung von 50 Millionen Strahlen pro Sekunde erreichen, bei komplexen Szenen noch bis zu 11 Millionen Strahlen pro Sekunde ...

... Gegenüber gegenüber einem Core 2 Extreme QX6700 wäre dies natürlich ein erheblicher Fortschritt, denn diese CPU erreicht laut einem früheren ComputerBase-Artikel unter Quake 4 runde 5 Millionen Strahlen pro Sekunde. Die Lösung der Universität Saarland hat somit das Potential, Raytracing auch schon heutzutage zu ermöglichen: Unter einer Auflösung von 1024x768 würde man bis zu 63 fps erreichen können, selbst unter 1280x1024 noch bis zu 38 fps, zumindestens in einer optimistischen Rechnung. Allerdings entwickeln sich Hard- und Software ja ständig rasant weiter, schon die nächste oder übernächste Grafikchip-Generation könnte über ausreichend Rechenpower verfügen, so das Raytracing selbst bei anspruchsvollen Szenen lösbar wäre ...

... Dies mag allerdings nicht bedeuten, dass wir Raytracing so schnell in Computerspielen sehen werden, davor liegen einige Stolpersteine: Zuerst einmal werden die Forscher der Universität Saarland die Schlagkräftigkeit ihrer Lösung in der Praxis nachweisen müssen, vorher ist die ganze Angelegenheit nur rein theoretischer Natur. Dann müsste wohl noch etwas abgewartet werden, ehe die verfügbare Computerhardware schnell genug ist, um Raytracing auch für hohe Auflösungen zu ermöglichen. Und danach lauert dann erst die eigentliche Titanenaufgabe: Die Spiele-Entwickler müssten von Raytracing überzeugt werden. Dies wird sich jedoch nur realisieren lassen, wenn jene einen Vorteil durch Raytracing sehen – allein das Raytracing-Engines einfacher zu schreiben sind, ist da noch nicht überzeugend genug ...

... Leider ermöglicht Raytracing kaum eine Kostenersparnis bei der Spiele-Entwicklung, da dort der größte Kostenfaktor die Content-Erstellung ist und sich dies mit Raytracing auch nicht ändert. Raytracing hat nur dann eine Chance, wenn es eine bessere Grafik ermöglicht, welche auf dem gewöhnlichen Weg nicht mehr flüssig realisiert werden könnte. Aus der bisherigen Schwäche von Raytracing (der Performance) muß also eine Stärke werden – womit sich schon erahnen lässt, wie weit der Weg für Raytracing sein wird. Allerdings spielt hier durchaus die Zeit für Raytracing: Während beim gewöhnlichen Rendering immer komplexere Szene die benötigte Rechenleistung glasklar exponentionell nach oben schnellen lassen, gilt für Raytracing der umgekehrte Effekt: Ab einem gewissen Maß an Komplexität steigt der Leistungsbedarf nicht mehr bzw. nur noch geringfügig an – egal wieviel komplexer und detaillierter man die Grafik dann noch macht ...

... In diesem Augenblick also, wo die Spieleentwickler sehen, dass eine gewünschte Grafikqualität mit Raytracing machbar wäre, mit dem gewöhnlichen Rendering (zum gleichen Zeitpunkt) aber noch nicht, wird Raytracing seine Chance haben. Dennoch wird es von diesem Zeitpunkt an auch noch einmal Jahre brauchen, ehe (angesichts der Entwicklungszeiten heutiger A-Titel) erste entsprechende Spiele im Markt erscheinen werden. Selbst bei einem wirklich optimalen Verlauf auf der Hardware-Seite ist mit Raytracing bei Computerspielen also nicht vor fünf Jahren zu rechnen. Doch andererseits: Da wirklich schwer einzuschätzen ist, ab welchem Zeitpunkt Raytracing die schnellere Lösung darstellt, können durchaus auch noch 20 weitere Jahre ins Land gehen.

Bei HKEPC ((maschinelle Übersetzung ins englische) gibt es erneut Angaben zu ATIs geplantem Mainstream Direct3D10-Grafikchip RV630. Diese entsprechen weitestgehend jenen Angaben, welche bereits Anfang des Monats bekannt wurden – damit wurde also auch der Stromverbrauch von 75, 93 bzw. 128 Watt für die einzelnen RV630-Varianten wiederholt. Nach wie vor stellen gerade diese Angaben einen starken Hinweis darauf dar, dass die R6xx-Familie wirklich ausgesprochene Stromfresser darstellen werden, denn Mainstream-Grafikkarten ziehen gewöhnlich zwischen 25 und 50 Watt – und nicht hinauf bis auf 128 Watt. Ob damit der R600-Chip selber wirklich bis zu 270 Watt erreichen wird, ist nicht gesagt, aber es wird wohl doch deutlich über G80-Niveau werden ...

... Davon abgesehen ist noch erwähnenswert, dass die RV630-Grafikkarten angeblich schon den PCI Express 2.0 Standard unterstützen – was aber wohl von Seiten der Grafikchip-Entwickler und Grafikkartenhersteller keiner größeren Umstellung bedarf, da das Interface im Prinzip das gleiche ist, es einfach nur mit doppeltem Takt betrieben wird. Nutzbar wäre die damit verdoppelte Bandbreite jedoch nur unter Mainboard-Chipsätzen, welche PCI Express 2.0 unterstützen – wie der allerdings erst im dritten Quartal zu erwartende X38 von Intels Bearlake-Familie. Aber natürlich sind entsprechende Grafikkarten und Mainboards abwärtskompatibel und somit auch PCI Express 1.x und 2.0 Komponenten miteinander einsetzbar – allerdings dann limitiert auf die Performance & Features des bisher geltenden PCI Express 1.x Standards.

Gemäß der VR-Zone soll es nun wieder keine AGP-Ausführung von nVidias Direct3D10-Grafikkarten geben – wobei uns die Begründung hierfür nicht wirklich einleuchten will: Denn technisch ist dies wohl kein Problem, die Anbindungstechnik – ob PCI Express oder AGP – ist für einen Grafikchip kein Hindernis, die entsprechenden Bridge-Chips würden wohl auch auf einer Direct3D10-Karte funktionieren. Andererseits scheinen die weiteren von der VR-Zone gebrachten Informationen zu den Direct3D10 LowCost- und Mainstream-Grafikkarten von nVidia durchaus griffig zu sein: So soll im April der Mainstream-Grafikchip G84 in einer GTS- (intern wohl G84-300 genannt) und einer GT-Variante (G84-400) antreten ...

... Danach soll im Mai der LowCost-Grafikchip G86 in einer ersten Ausführung (G86-300) in den Markt kommen. Gemeinsam haben alle drei genannten Grafikkarten ein 128bittiges Speicherinterface, wobei nVidia wohl noch weitere, kleinere G86-Versionen plant, welche dann nur ein 64bittiges Speicherinterface besitzen soll. Insgesamt erscheinen diese letztgenannten Informationen glaubwürdig, auch wenn viele Anwender sicherlich bei den kommenden Mainstream-Grafikkarten lieber gleich 256bittige Speicherinterface gesehen hätten. Allerdings dürften ATI und nVidia dies bei diesen Mainstream-Grafikkarten wohl mit hohen Speichertaktraten ausgleichen, wofür GDDR4 natürlich wie geschaffen ist.

Die Telepolis berichtet von neuen gesetzlichen Regelungen zur Impressumspflicht, welche ab März in Geltung gelangen. Dabei wurden die alten und einfachen (wenn auch sehr weitreichenden) Regelungen nunmehr auf mehrere Gesetze verteilt, womit die Rechtslage deutlich unsicherer und eigentlich keinerlei Gewinn in die eine oder andere Richtung hin erzielt wird: Die Impressumspflicht trifft nun sicherlich nicht mehr deutsche Webseiten & Blogs als vorher – ob sie aber weniger trifft, ist ein rechtliches Vabanquespiel, welches man denn eher vermeiden sollte. Damit gilt für deutsche Webseiten und Blogs nach wie vor, dass man besser ein Impressum mit korrekten Personenangaben haben sollte – ansonsten drohen Abmahnungen von (ansonsten wohl arbeitslosen) Anwaltskanzleien.