10

News des 10. August 2007

Mal wieder etwas neues zum Thema "OpenGL" vermelden Golem. Danach soll Version 3 der freien 3D-Schnittstelle reichlich Veränderungen und Vereinfachungen mit sich bringen und sogar noch in diesem Jahr standardisiert werden. Ob OpenGL jedoch jemals wieder im Spielebereich eine bedeutende Rolle einnehmen wird, bliebe stark abzuwarten, zu eindeutig ist derzeit das Votum der Spieleenwickler zugunsten von DirectX. Interessanterweise werden schließlich selbst Spieleprojekte, die von der Playstation 3 kommen und damit deren originales OpenGL nutzen, auf dem PC mehr oder weniger ausschließlich in DirectX umgesetzt. Zudem spielt der primäre Vorteil von OpenGL – daß es nicht nur auf Windows vorhanden ist wie DirectX – derzeit im Spielebereich keine große Rolle, da auf Home-Computern MacOS und Linux einfach keine bedeutende Verbreitung haben.

Was genau Direct3D 10.1 an Änderungen mit sich bringen wird, listet dagegen der Heise Newsticker auf. Dabei bringt diese Zwischenversion sowohl Bugfixes als auch Veränderungen mit sich, welche bereits durch die aktuelle Direct3D10-Hardware von ATI und nVidia gedeckt werden – aber eben auch neue Features, welche dann zwingend neue Hardware nach dem Direct3D-10.1-Standard erfordern. Seitens ATI ist hier schon bekannt, daß dies mit der R700-Generation zum zweiten Quartal 2008 passieren soll. Bei nVidia ist diesbezüglich noch kein konkreter Chip-Codename bekannt, aufgrund dessen, daß die G9x-Serie wohl die Refreshgeneration zur aktuellen G8x-Serie darstellt, könnte man aber natürlich spekulativ ;) vom G100 als Direct3D-10.1-Chip sprechen.

Über den dritten neuen Standard im Bunde berichten nochmals Golem. Danach soll PCI Express 3.0 die zur Verfügung stehende Bandbreite gegenüber PCI Express 2.0 wiederum verdoppelt. Wie genau das realisiert wird, ist im Gegensatz zu PCI Express 2.0 (Taktverdopplung) derzeit aber noch nicht bekannt. Auch steigt die Bruttobandbreite regulär nur um 60 Prozent, hinzu kommt allerdings, daß es keinen Unterschied mehr zwischen Brutto- und Nettobandbreite gibt, was zusätzliche 25 Prozent Gewinn einbringt und somit die insgesamte Bandbreitenverdopplung bewirkt. Damit erreicht PCI Express 3.0 bei einer derzeit üblichen x16-Verdrahtung eine Nettobandbreite von ca. 16 GB/sec jeweils für Upload und Download (PCI Express 2.0 auf x16: ca. 8 GB/sec, PCI Express 1.x auf x16: ca. 4 GB/sec, AGPx8: ca. 2 GB/sec). Allerdings dürfte es bis zur Markteinführung von PCI Express 3.0 noch einige Zeit dauern: Derzeit rechnet man mit einer Fertigstellung der entsprechenden Spezifikation im Jahr 2009, erste Produkte sind demnach frühestens 2010 zu erwarten.

Wie beim aktuelle anstehenden Umstieg von PCI Express 1.x auf 2.0 wird auch PCI Express 3.0 mit größtmöglicher Abwärtskompatibilität aufwarten: Geräte unterschiedlicher Standards sollen sich generell miteinander verbinden lassen, da die Steckverbinder unverändert bleiben. Bei unterschiedlichen Standards im selben System entscheidet halt nur der kleinste jeweils vorhandene Standard, mit welcher Geschwinigkeit die Geräte untereinander kommunizieren: So werden beispielsweise die jetzt vorhandenen Grafikkarten nach PCI Express 1.x Standard auf den kommenden Mainboards nach PCI Express 2.0 Standard natürlich nur im PCI Express 1.x Protokoll mit den Platinen kommunizieren können, der Geschwindigkeitsvorteil von PCI Express 2.0 kann in diesem Beispiel nicht ausgenutzt werden. Dieser ergibt sich erst dann, wenn sowohl Mainboard als auch Steckkarten desselben Standard vorhanden sind.

Gemäß Fudzilla soll es noch diesen Monat ein erstes Notebook mit einer GeForce 8700M GT SLI-Lösung geben, womit dann endlich auch im Mobile-Markt eine wirklich leistungsfähige Direct3D10-Lösung zur Verfügung stehen würde. Allerdings muß auch erwähnt werden, das eine GeForce 8700M GT im SLI-Modus bei der Performance weiterhin etwas unterhalb einer (einzelnen) GeForce 8800 GTS 320MB des Desktop-Segments liegen dürfte, die wirklichen HighEnd-Boliden des Desktop-Segments auch mit dieser SLI-Lösung also noch lange nicht erreicht werden. Zudem erstaunt es etwas, daß der Notebook-Hersteller in diesem konkreten Fall für diese GeForce 8700M GT SLI-Lösung einen klaren Mehrpreis gegenüber einer SLI-Lösung aus zwei GeForce Go 7950 GTX Karten verlangt – letztere dürften nämlich trotz "nur" DirectX9 deutlich leistungsfähiger sein.

Laut Hard Tecs 4U soll es nunmehr am 10. September so weit sein, an diesem Tag soll AMD die ersten K10-basierenden Prozessoren in Form erster entsprechender Opteron-Prozessoren für den Server-Einsatz vorstellen. Dabei wird man anfänglich wohl eher mit gemächlichen Taktfrequenzen in den Markt gehen, muß hierbei also schon am Starttag zwingend die Pro/MHz-Power stimmen, damit der K10-basierende Opteron auch ein Erfolg wird. Die ersten Desktop-Modelle auf K10-Basis sind dagegen wie bekannt erst im November/Dezember zu erwarten, wobei hier eventuell auch nur ein paar (auch preislich) hochgezüchtete Phenom FX Modelle an den Start treten, da die Masse der Phenom X2 und X4 Modelle dann doch erst im ersten Quartal 2008 den Markt erreichen werden.

Eine interessante Überlegung werfen Silicon.de mittels einer Aussage seitens VMWare in die Runde: Danach würde in Zukunft die Bedeutung von Betriebssystemen wie Linux und Windows zugunsten von Virtualisierungslösungen zurückgehen, Anwendungen würden zukünftig vermehrt in virtuellen Maschine laufen und damit nicht mehr direkt auf den Betriebssystemen. Dies kann sogar soweit gehen, daß bestimmte Anwendungen ihre eigene virtuelle Maschine mitbringen, es damit für den Benutzer also gar nicht auf den ersten Blick ersichtlich ist, daß diese Anwendung in einer virtuellen Umgebung läuft. Seitens VMWare war diese Aussage zwar eigentlich eher nur auf Server-Systeme bezogen, allerdings könnte sich auch in der Desktop-Welt einiges mit Virtualisierungslösungen machen lassen.

Beispielsweise könnte man sich so seine komplette Arbeitsumgebung in eine eigene virtuelle Maschine verfrachten. Damit wäre diese zwischen verschiedenen Computern transportabel – ob man seine Arbeit dann im Büro, auf dem Laptop oder notfalls in einem Internetcafe mit einem fremden Computer macht, wäre egal, weil überall nicht nur die exakt selbe Arbeitsumgebung, sondern vor allem auch die orginalen Daten vorliegen würden (und keine Kopie, welche man umständlich synchronisieren muß). Natürlich ist dieses Beispiel auch schon jetzt mit einfachereren Mitteln erreichbar (allerdings nur bei Anwendungen, welche sich nicht wie Kletten an das Betriebssystem klammern), jedoch würde sich erst mit einer Virtualisierung die Funktionalität an jedem Ort und unter jeglichen Hardware-Bedingungen wirklich garantiert lassen.