4

News des 3./4. November 2007

Die ComputerBase berichtet über die Veränderungen, welche die GeForce 8800 GTS Grafikkarten demnächst durchmachen werden. Aktuell bieten ja schon einige Grafikkarten-Hersteller Modelle mit 112 Shader-Einheiten und ansonsten gleichen Taktraten an, die Basis hierfür stellt immer noch der G80-Chip. Aufgrund der unveränderten Taktraten dürfte diese neue GeForce 8800 GTS aber nur gleich schnell wie die GeForce 8800 GT sein, zum allgemein höheren Preis dieser Karten sollte diese neue GeForce 8800 GTS aber wohl ebenfalls uninteressant sein. Allerdings soll es Anfang Dezember noch eine weitere Ausführung der GeForce 8800 GTS folgen – und diesesmal mit 128 Shader-Einheiten auf Basis des G92-Chips.

Zwar ist über die Taktraten dieser nochmals neuen GeForce 8800 GTS derzeit noch nichts sicheres bekannt, sollten sie aber auf dem Niveau der GeForce 8800 GT liegen, würde damit auch die GeForce 8800 GTX eingeholt werden, welche dann zwar immer noch die höhere Speicherbandbreite, aber dafür die niedrigere Shader-Power hätte. Insofern sollte diese zweite neue GeForce 8800 GTS dann durchaus die GeForce 8800 GTX aus dem Markt verdrängen – zu einem sicherlich deutlich besseren Preis. Daneben soll es auf Basis des G92-Chips noch eine Billig-Variante in Form der GeForce 8800 GS geben. Die kommt dann mit nur 96 Shader-Einheiten und 48 TMUs an und liegt diesbezüglich auf dem Niveau der alten GeForce 8800 GTS. Das Speicherinterface wird aber anscheinend beschnitten werden: Zwar wurden diesbezüglich erst einmal "256 Bit" angegeben, aber die nur 12 ROPs deuten eigentlich auf ein nur 192 Bit DDR breites Speicherinterface hin. Und dies scheint auch nötig, um der Karte einen guten Abstand zur GeForce 8800 GT 256MB zu geben

Denn wenn letztgenannte einen Listenpreis von 199 Dollar hat und die GeForce 8800 GS nochmals billiger sein wird, braucht es schon einen gewissen Performance-Abstand, um beiden Karten ihre Existenzberechtigung zu geben. Derzeit ist der Preis der GeForce 8800 GS zwar noch nicht klar, aber zu Euro-Konditionen dürfte es wohl in Richtung eines Straßenpreises von 150 bis 160 Euro gehen, was für einen HighEnd-Chip wie den G92 schon wirklich günstig wäre. Und das ist der G92-Chip nun doch: Wie schon vermutet schlummern in diesem Chip in der Tat 128 Shader-Einheiten und 64 TMUs, einzig das Speicherinterface ist gegenüber dem G80-Chip kleiner. Wenn nVidia hier schnellgetakteten GDDR4- oder auch schon GDDR5-Speicher ansetzt, könnte man wohl auch schon mit dem G92-Chip die Leistungswerte einer GeForce 8800 Ultra erreichen und übertreffen. Nominell benötigt nVidia somit eigentlich gar keinen extra HighEnd-Chip mehr – wenigstens nicht, so lange ATI hier keinen eigenen echten HighEnd-Chip vorlegt.

Zu den letzten News über die Problematik von Notebook-Grafikchips bzw. deren immer wieder von den Hersteller-Vorgaben abweichenden Angaben läßt sich auch ein aktueller Fall aus dem Redaktionskreis nachtragen, wo wieder einmal etwas ganz anderes verkauft wurde als eigentlich das Label hergeben sollte. Konkret geht es um ein Sony Vaio VGN-FZ18E mit an sich sehr vernünftigen Daten und inklusive einer als "nVidia GeForce 8400M GT" ausgewiesenen Grafiklösung. Die ist nun selber schon nicht besonders leistungsstark, laut unserem entsprechenden Artikel kann man hierbei von einer Performance etwas oberhalb der GeForce 8500 GT des Desktop-Segments ausgehen – die ist dort aber auch nur eine bessere LowCost-Lösung. Allerdings wurde diese Grafiklösung dann seitens Sony noch einmal zusätzlich beschnitten: Anstatt des regulären 128 Bit DDR breiten Speicherinterfaces gibt es nur ein 64 Bit DDR breites.

Dies hängt hier wohl damit zusammen, daß Sony nur 64 MB Grafikkarten-Speicher verbaut hat (zudem zwackt sich die Grafiklösung noch 256 MB des Hauptspeichers ab) und diese 64 MB aus Kostengründen in einem einzigen Chip liegen. Da es derzeit gewöhnliche DRAM-Speicherchips aber nur mit Interface-Breiten von 32 und 64 Bit gibt, konnte dieser einzelne Speicherchip nur mit einer Bandbreite von 64 Bit DDR angebunden werden – um das volle Speicherinterface des Grafikchips auszunutzen, hätte man schlicht zwei Speicherchips benutzen müssen, was aber wohl die teure Variante gegenüber einem größerem Speicherchip darstellt. In diesem Punkt schwächeln im übrigen viele Notebooks: Nicht weil der Notebook-Hersteller bewußt einen Grafikchip mit nur 64 Bit DDR Speicherinterface einkauft, sondern weil man einen Grafikchip mit 128 Bit DDR Speicherinterface aus Kostengründen mit nur einem Speicherchip ausrüstet, halbiert sich das Speicherinterface.

Im konkreten Fall kommt es somit auf das gleiche hinaus, als hätte Sony gleich die nächstkleinere Variante GeForce 8400M GS verbaut – diese Grafiklösung hat die fast identischen Taktraten, aber eben per default nur ein 64 Bit DDR Speicherinterface. Allerdings macht sich Sony hier auch angreifbar, denn die eigene Produktwebseite erwähnt diese Beschränkung mit keinem Wort – und bei Chip-Entwickler nVidia finden sich dagegen eindeutige Daten, aufgrund deren der Endkunde durchaus von einem 128 Bit DDR Speicherinterface bei eben jener verbauten GeForce 8400M GT ausgehen kann. Und selbst wenn man nicht jede kleinere Änderung an den Taktraten extra erwähnen muß, handelt es sich hierbei doch um eine sehr deutliche Einschränkung, die der Notebook-Hersteller eigentlich dem Endkunden vor dem Kauf hätte mitteilen müssen.

Bei den Hardware-Infos widmet man sich mal wieder dem leidigen Thema Gigabyte vs. Gibibyte, welches in jüngster Zeit wegen der (freiwilligen) Strafzahlungen seitens Festplatten-Hersteller Seagate erneut Nahrung bekommen hatte. In der Kolumne werden wiederum die bekannten Argumente pro der normgerechten Kibi/Mibi/Gibi-Abkürzungen anstatt der bisher weitgehend benutzten Kilo/Mega/Giga-Abkürzungen auf die Vielfache von 2^10 Bytes (1024 Byte) gebracht, welche erst einmal alle stechen – wenn da nicht die Praxis wäre, in welcher die Kibi/Mibi/Gibi faktisch nirgendwo benutzt werden, ganz und besonders nicht seitens der Hard- und Softwarehersteller. Da verwundert es dann nicht, wenn die korrekten Abkürzungen außerhalb der IT-Szene einen Bekanntheitsgrad von Null haben – und so lange sich das nicht ändert (primär müssten hier wohl die Betriebssysteme den Vorreiter machen), stiften die korrekteren Abkürzungen derzeit wohl mehr Verwirrung als sie Nutzen bringen. Was natürlich auch weiterhin ein höchst streitbarer Standpunkt bleibt, selbst innerhalb unserer Redaktion gehen hierzu die Meinungen auseinander ;).