31

News des 30./31. Dezember 2009

Auf den englischsprachigen nVidia-Seiten sind nun die Daten zur kompletten GeForce 3xxM Serie an Mobile-Beschleunigern aufgetaucht. Daß diese noch nicht auf Fermi-Grafikchips, sondern weiterhin der GT21x-Grafikchipserie basieren, ergibt sich zwar nicht aus den dort aufgezählten Angaben, allerdings natürlich schlicht durch den Umstand, daß es für die nächsten Monate noch keine Fermi-basierten Beschleuniger gibt. Im übrigen ist hierin vielleicht sogar die Antwort auf die Frage zu finden, weshalb nVidia hier zu einer erneuten Umbennungsaktion greift, dessen Nummerkreis zudem auch wahrscheinlich in die kommenden Fermi-basierten Lösungen hineinspielt: Möglicherweise sind die schnelleren Chips der Fermi-Architektur schlicht zu stromschluckend für einen Mobile-Einsatz und die kleineren Chips der Fermi-Architektur zu weit weg, so daß nVidia für die Zwischenzeit einfach mal wieder was neues präsentieren wollte.

Daran, daß hier die GeForce 2xxM Serie an Mobile-Beschleunigern ohne auch irgendeinen neuen Effekt einfach wieder aufgewärmt wird, änders dies natürlich nichts. Leider sind die technischen Angaben auf den nVidia-Webseiten zu den einzelne GeForce 3xxM Lösungen sehr ungenau und mit vielen Copy&Paste-Fehlern durchzogen, so daß nicht in jedem Fall ganz klar ist, mit welchen Hardware-Einheiten und Taktraten die einzelnen GeForce 3xxM Lösungen wirklich antreten. Sicher kann jedoch gesagt werden, daß die GeForce 3xxM Lösungen nichts an Featureset oder Performance bieten, was nicht auch schon die GeForce 2xxM Lösungen angeboten haben. Die Daten gleichen sich zwischen diesen beiden Mobile-Serien zwar nicht haargenau, aber grob betrachtet sind beide Angebote identisch.

Chip Mobile-Lösung Leistung (max.) Vergleich GeForce 2xxM Vergleich Desktop
GT215
40nm
DirectX 10.1
96 Shader-Einheiten
32 TMUs
8 ROPs
128 Bit DDR Interface
GeForce GTS 360M
?/1435/2000 MHz
413 GFlops
64 GB/sec
etwas schneller als GeForce GTS 260M etwas schneller als GeForce GT 240 GDDR5
GeForce GTS 350M
?/1250/2000 MHz
360 GFlops
64 GB/sec
in etwa wie GeForce GTS 250M in etwa wie GeForce GT 240 GDDR5
GeForce GT 335M
nur 72 Shader-Einheiten
nur 24 TMUs
?/1075/800 MHz
233 GFlops
26 GB/sec
etwas schneller als GeForce GT 240M etwas schneller als GeForce GT 220 GDDR3
GT216
40nm
DirectX 10.1
48 Shader-Einheiten
16 TMUs
8 ROPs
128 Bit DDR Interface
GeForce GT 330M
?/1265/800 MHz
(auch DDR2-Versionen mit nur 400 MHz Speichertakt möglich)
182 GFlops
26 GB/sec
in etwa wie GeForce GT 240M etwas langsamer als GeForce GT 220 GDDR3
GeForce GT 325M
?/985/800 MHz
(auch DDR2-Versionen mit nur 400 MHz Speichertakt möglich)
142 GFlops
26 GB/sec
etwas langsamer als GeForce GT 230M klar langsamer als GeForce GT 220 GDDR3
GT218
40nm
DirectX 10.1
16 Shader-Einheiten
8 TMUs
4 ROPs
64 Bit DDR Interface
GeForce 310M
?/1500/700 MHz
(auch DDR2-Versionen mit nur 400 MHz Speichertakt möglich)
72 GFlops
11 GB/sec
wie GeForce G210M etwas schneller als GeForce 210/G210
GeForce 305M
?/1145/700 MHz
(auch DDR2-Versionen mit nur 400 MHz Speichertakt möglich)
55 GFlops
11 GB/sec
etwas langsamer als GeForce G210M in etwa wie GeForce 210/G210

Beachtenswert ist zudem, wie weit sich nVidia bei der Benennung dieser Mobile-Beschleuniger allgemein aus dem Fenster lehnt. Wir haben wie schon bei unserer früheren Übersicht der Mobile-Beschleuniger jeweils mit angegeben, in welche Leistungsklasse diese Mobile-Beschleuniger nach Desktop-Maßstäben fallen würden. Und wenn man dies vergleicht, so pokert nVidia fast durchgehend sehr hoch: Was sich im Mobile-Segment GeForce GT 325M, 330M und 335M nennt, würde im Desktop in die Klasse einer GeForce GT 220 hineingehen – und die Benennungen der GeForce GTS 350M und 360M klingen nur vom Namen her gut, nach Desktop-Maßstäben kommt da eine Performance vergleichbar nur mit einer GeForce GT 240 heraus. Was letztlich zu einem weiteren Problem des nVidia-Angebots im Mobile-Segment führt: Weiterhin basieren die wirklichen Spitzenlösungen des Mobile-Segments bei nVidia auf dem G92/b-Chip. Auch die GeForce 3xxM endet wieder nur im Mainstream-Bereich, an der Mobile-Leistungsspitze bietet nVidia nichts neues.

Golem berichten über weitere Verlautbarungen von Onlive über die technische Wirkungsweise dieses Spielestreaming-Dienstes. Danach scheint Onlive in der Tat deutlich daran gelegen zu sein, die Latenzzeit der Datenübertragung zum Spieler auf einem gangbaren Level zu halten, was ja vorab als einer der größten Problempunkte bei dieser Idee ausgemacht wurde. Dafür wurde zum einen eine Technik ersonnen, wie Internetpakete einen möglichst direkten Weg von den Onlive-Servern zum Spieler nehmen – wofür das Internet-Protokoll eigentlich nicht ausgelegt ist, da sich dort die Datenpakete ihren Weg selber suchen und daher durchaus eine Datenübertragung zwischen Hamburg und München auch schon einmal über Zwischenstationen in Alaska und Sibirien gehen kann. Zum anderen aber basiert Onlive darauf, die physikalische Entfernung zwischen Server und Spieler nicht zu groß werden zu lassen: Onlive rechnet hier mit maximal 1600 Kilometern.

Dies bedeutet zwangsläufig, daß man nicht eine große Serverfarm an einem zentralen Standort anmieten kann, sondern daß Onlive seine Serveraktivitäten ziemlich breit fächern muß – und daß es natürlich anfänglich auch zu "Funklöchern" in abseits gelegenen Gegenden kommen kann, für die aufgrund der dünnen Besiedlung keine eigene Serverfarm lohnt. In den USA will Onlive diese Abdeckung aber bis auf eine Ausnahme erreichen, für Europa liegen noch keine konkreten Pläne vor. Aufgrund der dichteren Besiedlung Europas und der (relativ gesehen) kürzeren Wege dürfte Europa wohl einfacher als die USA abzudecken sein, aller Vermutung nach dürfte Onlive dies aber davon abhängig machen, wie der Dienst in den USA anläuft. Sprich: Der Start von Onlive irgendwann im Jahr 2010 bedeutet für die Bewohner der Alten Welt mitnichten, daß man Onlive dann auch nutzen kann – obwohl es sich um einen Internetdienst handelt, gibt es hier doch eine stark regionale Komponente.

Daneben gab es ganz interessante Informationen dazu, wie man sich die Signallatenz genau vorstellt: Ausgehend von dem bei Onlive erzeugten Bild benötigt dessen Kompression (damit die Übertragung über das Internet nicht zu viel Bandbreite verschlingt) nur eine Millisekunde. Die Übertragung des Signals bis ins Netz des eigenen Providers schlägt mit 21 Millisekunden und die Übertragung des Signals vom Provider über Modem, Router und Netzwerkkarte in den eigenen PC mit weiteren 25 Millisekunden zu Buche. Dann steht letztlich noch die Dekomprimierung des Bildsignals an, hierfür wurden 8 Millisekunden auf einem typischen Laptop angesetzt – wobei nicht klar ist, auf was für eine Leistungsklasse und was für ein Gerätealter man sich hierbei bezieht. Damit würde man aber erst einmal bei einer Signallatenz von 55ms liegen, eigentlich ein guter Wert.

Dies könnte dann sogar dazu ausreichen, daß auch Steuersignale des Spielers – welche ja immer erst zum Onlive-Server gesandt und dort ausgewertet werden müssen – noch in einer vernünftigen Zeitspanne vom Spiel angezeigt werden. Im Gegensatz zu regulären Multiplayer-Spielen, wo auf dem PC des Spielers das eigentliche Spiel arbeitet, können beim Onlive-System die Eingaben des Spielers über Tastatur, Maus & Joystick schließlich nicht direkt (sofort) dargestellt werden, da das Spiel ausschließlich auf den Servern von Onlive abläuft. Alle Signale müssen also zuerst zum Onlive-Server, dieser generiert zu den Eingaben das passende Bild und schickt es zum Spieler zurück – und erst dann sieht man den Effekt einer Eingabe auch auf dem Bildschirm. Dies kann schon bei mittleren Signallatenzen schnell zu einem schwammigen Spiel führen, was dann für einige Spieleklassen ungeeignet ist.

Onlive will es nach eigener Auskunft erreichen, daß diese Signallatenz zwischen einer Spielereingabe und der entsprechenden Bildausgabe nicht mehr als 80ms erreicht – laut vorheriger Rechnung ergeben sich zwar 101ms, aber nun gut. Die große Frage ist doch sowieso, wie sich dies bei Spielen mit schnellen Bewegungen der Spielerfigur auswirkt. Für Spiele mit indirekter Steuerung (EVE Online) ist dies völlig egal – bei allen Spielen mit direkter Bewegung der Spielerfigur durch den Spieler muß man aber einfach erst einmal im Praxistest sehen, ob einem eine Steuerung mit einem Zeitversatz von rund einer Zehntelsekunde nicht schwammig vorkommt. Für schnelle Shooter dürfte die Sache wohl nie etwas werden, aber die stehen nur für einen Bruchteil des Marktes. Die Frage ist, ob man mittels Onlive auch so etwas wie WoW, Siedler oder FIFA flüssig spielen kann. Dies wird sich wie gesagt nur durch den Praxistest ermitteln lassen, welcher irgendwann im Jahr 2010 ansteht, wenn Onlive seinen Dienst für die USA freigibt.

In jedem Fall sind durch die neuen Informationen die Chancen von Onlive klar gestiegen, daß der Dienst auch wirklich bei den Konsumenten landen kann. Der Punkt, mit nahezu jeder Technik auch auf HighEnd-Spiele zugreifen zu können, dürfte für viele interessant genug sein, um Onlive eine Chance zu geben – natürlich nur bei passender Preisstruktur. Und wenn alles wirklich gut gelingt, dann haben Onlive und ähnliche Dienste sogar das Potential, die Hardware-Landschaft der nächsten Dekade gewaltig umzukrempeln. Dann dürfte im Bereich der Heimcomputer der Trend zum Billig-PC vollkommen durchbrechen, während sich dagegen das Geschäft der Hardware-Hersteller erheblich in Richtung von Server-Hardware verlangern würde. Was natürlich abzuwarten bleibt – und ganz allgemein betrachtet ein hochinteressantes Thema des Jahres 2010 sein dürfte.