Zum 3DCenter Forum
Inhalt




"Kleine" Karten - Fluch oder Segen?

23. September 2003 / von aths / Seite 1 von 2


   Einleitung

Wir schreiben das Jahr 2003, und der gesamte Spiele-Grafikkarten-Markt wird von einem Duopol ATi / nVidia beherrscht. Der ganze Markt? Nein! Einige unbeugsame Konkurrenten versuchen, das Duopol aufzubrechen. Bislang erfolglos. Und viele blieben schon auf der Strecke ...

Den relevanten Sektor der Spieler-3D-Karten teilen sich zwei Firmen (laut einigen Statistiken sind es drei, dazu später mehr). Die Konkurrenz auf dem Markt ist spürbar eingeschränkt. Was haben wir davon? Denken wir an den 3D-Pionier und zeitweiligen Quasi-Monopolist 3dfx: Voodoo1 schuf die Akzeptanz für spezialisierte 3D-Beschleunigungshardware, war ein Vorreiter in Dingen Texturkompression, und hatte einen wichtigen Anteil daran, dass sich das Dreieck als Basiselement durchsetzte.

Voodoo2 und 3 brachten schiere Rohpower, Voodoo5 erstes sinnvolles Anti-Aliasing; doch das ist Geschichte. Voodoo4 war für den OEM-Markt zu teuer und verfügte nicht über das Checklist-Feature "T&L" (welches von 3dfx aus Kompatibilitätsgründen für die VSA-100-Serie allerdings rein treiberseitig nachgereicht wurde). Zwar gab es mit Voodoo4 eine Kehrtwende, sie durfte auch von anderen Boardherstellern gefertigt werden, doch 3dfx hatte historisch bedingt am OEM-Markt nicht genügend Anteil und kippte nach der Verspätung eines wichtigen Produktes um: Vollpleite. S3, ebenfalls ein 3D-Pionier, entwickelte eine verbesserte Texturkomprimierung und sogar eine Hardware-T&L-Einheit, doch hat trotz zeitweise starken Absatz heutzutage praktisch keine Relevanz mehr.

Die Entwicklung sinnvoller Technologien sichert also noch lange keinen Platz im Markt. Nächstes Beispiel: PowerVR, HSR-Vorreiter seit eh und je, ist im PC-Markt derzeit bedeutungslos; nach Matrox, früher nicht wegzudenken, kräht derzeit auch kein Gamer mehr. Die von den Bitboys lizensierte und von Matrox erstmalig angebotene EMBM-Technologie wird trotz vielfältiger Möglichkeiten in Spielen kaum eingesetzt.

3dlabs bot nur kurzzeitig vernünftige 3D-Karten für Spieler an und zielt weiterhin auf das Profi-Segment ab, von Hercules existiert nur noch der Name, und bei den letzten Werken von Trident oder SiS (jetzt XGI) von einem Achtungserfolg zu sprechen, wäre schon sehr wohlmeinend. Tridents XP4 wurde nicht mal tatsächlich in den Desktop-Markt gebracht, SiS' Xabre ist höchstens für mäßige Leistung, schlechte Grafikqualtität und Grafikfehler bekannt.

Reden wir nicht lange um den heißen Brei. Die bittere Wahrheit ist: Der Einsteiger/Midrange-Bereich der beiden Großen ist oftmals der bessere Griff, als High-End der Konkurrenten zu kaufen.


Beispiel GeForce2 MX: Zum Zeitpunkt des Erscheinens war sie noch recht teuer, und die schlechte 32-Bit-Performance wurde nur durch die damalige CPU-Limitierung verschleiert. Die CPU durch T&L zu entlasten, hätte die MX zwar gekonnt, doch die Titel, welche daraus wirklich Nutzen zogen, waren rar gesät. Das irreführende Marketing mal beseite: Die GeForce2 MX war alles in allem eine sowohl vergleichsweise preiswerte, als auch gute Karte.

Die Feature-Seite ließ kaum Wünsche offen, von T&L bishin zum Register Combiner (namens nVidia Shading Rasterizer) wurde alles geboten, Füllrate war reichlich vorhanden, und die Speicherbandbreite reichte für normale Titel aus. Viele, die eine GeForce2 MX hatten, spielten beispielsweise Max Payne in 1024x768x32. Weder ATi noch 3dfx hatten damals eine Karte im Angebot, die zu diesem Preis so leistungsstark wie die GeForce2 MX war. Die GeForce2 MX wurde als "Quadro2 MXR/EX" auch im OpenGL-Beschleunigungs-Einsteigersegment plaziert.

Beispiel GeForce4 MX: Die "4" im Namen ist heftig zu kritisieren, da sich die Karte doch featuremäßig deutlich unter einer GeForce3 befindet. Im Prinzip handelt es sich um eine aufpolierte GeForce2 MX. Dank höherem Takt und der weitgehenden Integration von LMA2 sowie den neuen 2D-Features (über die teilweise nicht mal die Ti verfügt) ist die Hardware insgesamt gesehen durchaus empfehlenswert.

Der Verzicht auf Pixelshader erscheint angesichts der gebotenen 3D-Leistung nicht wirklich schlimm. Die MX-Performance lässt sich natürlich nicht mit der Ti vergleichen, doch reicht für fast alle 3D-Spiele noch aus — ein Bekannter spielte Morrowind mit seiner GeForce4 MX440 in 800x600x32. Weil er Computerspieler und kein Hardwarehochleistungs-Freak ist, war er damit auch noch zufrieden.


Beide MX-Karten gibt es in 64-Bit-Versionen. Bei der GeForce2 MX200 heißt das tatsächlich nur 64 Bit Busbreite, bei der 4 MX420 hat man wegen dem DDR-Verfahren letztlich 128 Bit Breite (statt doppeltem Takt, wie das Marketing uns bis heute einzureden versucht), doch ist das angesichts der jeweiligen Füllrate jeweils viel zu wenig. Hierbei handelt es sich um Marketing-Missgeburten.

Ist diese Behauptung übertrieben? Eigentlich erhält der Kunde doch das, was er möchte: Viele Features und vor allem viel RAM, und das zu einem niedrigen Preis. Bis heute haben die Hochleistungskarten zwar schnelleren, aber weniger RAM als so manche Mittelklasse-Version. Die (nebenbei gesagt, unbegründete) Gier nach viel RAM auf möglichst billigen Karten machen sich die Boardhersteller natürlich zunutze.

Nach der Speicherbandbreite fragen die wenigsten. Dementsprechend reagiert der Markt. Leider ist dies ein sich selbstverstärkender Prozess, auf Spiele-Packungen finden sich oft Hinweise à la "Erfordert 3D-Karte mit 32 MB". Man wird so schwerlich die "richtige" Meinung finden.

Unsere Perspektive ist jedoch die des Freundes von 3D-Beschleunigung, schließlich heißen wir nicht 2DCenter :-) (ein 64 Bit-SDR-Interface wäre allerdings selbst für 2D-Anwendungen recht dürftig, falls man hohe Auflösungen mag). Für uns Freunde der 3D-Beschleunigung wäre es sinnvoller, wenn die Interface-Breite nicht halbiert würde und dafür nicht übertrieben viel RAM auf die Karte käme. Auf den letzten Euro darf man als Gamer natürlich nicht gucken, Leistung hat ihren Preis.


   Ein niedriger Preis ist nicht alles — Von dem Unsinn, Leistung zu halbieren

Für einen ernsthaften Computerspieler ist es zwar nicht notwendig, immer das neueste High-End-Geschoss zu haben. Doch die angesprochenen 64-Bit-Versionen scheiden für den Gamer per se aus. Diese kastrierten Teile — auf die 5200er mit 64 Bit kommen wir noch zu sprechen — widerstreben unserer Forderung, 3D-taugliche Hardware in die OEM-PCs zu bringen.

Eine GeForce4 MX440 bringt für Leute, die nicht von Anti-Aliasing verwöhnt sind, heutzutage noch "ausreichend" Power und ist im Allgemeinen für etwa 60-70 Euro zu bekommen, also erschwinglich für jeden, der sich gelegentlich PC-Spiele leisten kann. Gleiches gilt für die Radeon 9200.

Nicht anfreunden können wir uns mit den 64-Bit-Versionen von Radeon 9200 und 9600 bzw. GeForceFX 5200 und sogar 5600ern. Der GeForceFX 5200 fehlen z.B. Maßnahmen, welche die Speicherbandbreite schonen, hier kommt es auf physikalische Speicherbandbreite ganz besonders an (das Füllraten schonende Early-Z-Verfahren ist hingegen bei der GeForceFX 5200 integriert).

Bei 64 Bit mit DDR-Interface können pro Takt 128 Bit übertragen werden. Um ein Pixel in den Framebuffer zu schreiben, fallen 32 Bit Daten an. Zudem ist immer ein Z-Wert mindestens zu lesen, bei Sichtbarkeit auch zu schreiben. Pro Pixel fallen also, Z-Write-Zugriffe und Texturbandbreite vernachlässigt, 64 Bit Daten an. Maximal 2 Pixel können pro Takt in den Framebuffer geschrieben werden. Praktisch wird es wohl nur ca. 1 Pixel sein (wenn Pixelshader eingesetzt werden, teilweise deutlich weniger).

Nicht ganz so schlimm sieht es bei der Radeon 9600 mit 64-Bit-Interface aus, weil sie über HyperZ III verfügt, das heißt, dank Komprimierung wird weniger Bandbreite benötigt. Tatsächlich kann man mit der 64-Bit-Version sogar 4x Anti-Aliasing nutzen, ohne die Rohfüllrate ernsthaft zu beeinträchten. Dennoch wird die praktische Leistung ziemlich gesenkt, und das um einige wenige Euros zu sparen.

Aber nur so kann ATi der "Unter-100-Euro-DX9-Klasse" auch etwas anbieten (wenn auch aktuell offenbar noch nicht im europäischem Markt angekommen, von etwas teureren Low-Profile-Versionen abgesehen). Die Crux der 64-Bit-Kastraten: Die Features sind da, die Leistung fehlt. Die Radeon 9200SE beispielsweise hat nur für die allereinfachsten Spiele ausreichend Leistung, sie ist billig, aber nicht mal ansatzweise "Shooter-tauglich".


Wie sieht es nun bei der GeForceFX 5200 mit normalem 128-Bit-Interface aus? Trotz vergleichsweise wenigen Transistoren nicht nur mit DirectX9, sondern auch mit CineFX kompatibel, inklusive 128-Bit-Rendering. Allerdings, wer professionelles Hardware-Rendering braucht (z.B. zur Vorschau), hat auch das Geld für schnellere Karten. Die GeForceFX 5200 kann (ebenso wie 5600) pro Takt bis zu 4 bilineare Textursamples erzeugen oder 2 arithmetische Pixelshader 2.0 Operationen ausführen (die Radeon 9600 kann pro Takt sowohl 4 Textursamples als auch 4 arithmetische Operationen berechnen).

Für Spieler ist DirectX9-Kompatibilität bei der 5200er Leistung praktisch irrelevant. Sofern man auf Anti-Aliasing verzichtet, reißt der hohe Takt der Karte bei Spielen mit moderaten Ansprüchen durchaus einiges raus. Die Karte beherrscht Early Z, was Engines, welche zuerst den Z-Buffer rendern, beschleunigt. Der wichtigste Vertreter solcher Engines, Doom III, wird die Karte trotzdem hoffnungslos überfordern, weil sie zu wenig Shader-Power hat. Da hilft es auch nicht, dass die noch physikalisch vorhandenen Register Combiner bei den Berechnungen mithelfen. Abseits solcher NextGen-Engines mag die GeForceFX 5200 mit 128-Bit-Interface für ein "Spielchen zwischendurch" taugen.

Windows Longhorn als Argument ins Feld zu führen, halten wir für unsinnig: Der XP-Nachfolger ist frühstens 2005 zu erwarten, und für die Tier1-Effekte dieses Betriebssystems reicht auch eine DX7-Karte aus. Wenn 2005 dem Komplett-PC "Longhorn Home OEM" beiliegt, wird es längst viel bessere DX9-Karten für die 70 Euro geben, welche eine 64bitige GeForceFX 5200 heute kostet. Für die aufwändigen Tier2-Animationen ist die Bandbreite der 64bittige GeForceFX 5200 zudem vielleicht schon etwas knapp: Longhorn setzt einerseits auf hohe Auflösungen, andererseits haben es Animationen ansich, dass große Datenmengen hin- und hergeschoben werden.


Für Gamer, die auf Grafikqualität erhöhten Wert legen, sind die preiswerten "Großen" à la GeForce4 Ti4200 natürlich ein Segen. Mit der GeForce4 Ti4200 gewann nVidia wie mit der GeForce3 Ti200 eine Menge Freunde, weil diese Karten lange Zeit sowohl ein gutes Preis-Leistungs-Verhältnis hatten, als auch aktuelle Leistung boten. Doch die Masse an verkauften Karten sind die kleinen.

ATi und nVidia sind auch deshalb so erfolgreich, weil sie dort (neben dem erwähnten 64-Bit-Schrott, der nur im 2D-Bereich seine Berechtigung hat) eben auch gute Produkte zu annehmbaren Preisen anbieten. Um nVidias Quasi-Monopol zu brechen, brauchte ATi den R100 (Radeon bzw. Radeon 7200), den R200 (Radeon 8500) und natürlich den R300 (Radeon 9700). Geld wird aber am anderen Ende des Segments verdient, jetzt unter anderem mit RV280 (Radeon 9200) — der Zahl nach nahe am R300, doch in Wahrheit eine technisch komplette Generation zurück (und leistungsmäßig zwei Generationen im Rückstand).

Derartige Verwirrspielchen, die auch nVidia treibt, führen zu beabsichtigter Verwirrung. Der Glanz der Flaggschiffe soll auf die Massenprodukte abfallen, doch scheint die beiden Großen nicht zu kümmern, dass der schlechte Ruf einer zu kastrierten Version auch auf die High-End-Linie abfärben könnte. Der Trick ist, dass die so beschnittenen Produkte vor allem an die Leute gehen, denen es nicht (so sehr) auffällt.

Glaubt man Statistiken, wäre auch Intel ein großer Mitspieler auf dem Grafik-Sektor. Tatsächlich ist die Zahl der verkauften Chipsätze mit integrierten Grafik-Lösungen ziemlich hoch. In vielen Kompatibilitätslisten sind auch Intel-Chips vertreten. Natürlich geben sich die meisten Spieler nicht mit solch bescheidener Leistung zufrieden und kaufen eine Extra-Karte, und zwar von ATi oder nVidia. Den Leuten, welche die Daddelsoftware schreiben, ist das sogar recht: Je monopolistischer der Markt, desto weniger Plattformen sind zu testen. Und desto einheitlicher sind die Feature-Sets, für die programmiert wird.


OpenGL beinhaltet nur eine recht kleine Kernmenge an Features, jede bessere Engine benötigt Features, die nur über Extensions angesprochen werden können. Für Multitexturing u.ä. gibt es allgemein standardisierte, also vom Hardwarehersteller unabhängige Extensions, aber jegliches Pixelshading muss bis heute auf Hardware-spezifische Extensions zurückgreifen.

Die Einheitlichkeit von DirectX ist ebenfalls nur schöner Schein: Was die Hardware jenseits der Grundforderungen beherrscht, lässt sich über so genannte Caps abfragen. Mit dem Kernfeature-Set alleine kommt man in den seltensten Fällen aus, so dass auch hier je nach Hardware unterschiedliche Wege gegangen werden müssen, so die Engine das Maximum aus der gegebenen Hardware herausholen soll.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Weiter / Next

Shortcuts
nach oben