Grafikkarten

Das Sommer-Portfolio von ATI und nVidia

Montag, 5. Mai 2008
 / von Leonidas
 

Obwohl das derzeitige Grafikkarten-Angebot gerade im oberen Mainstream- bis HighEnd-Bereich eigentlich schon recht rund ausschaut und zugleich mit RV770 und GT200 schon zum Sommer die Vorboten neuer Grafikkarten-Generation zu erwarten sind, werden ATI und nVidia in der nächsten Zeit ihr Grafikkarten-Angebot weiter verfeinern, was zum einen weitere neue Grafikkarten bedeutet und zum anderen auch das Lebensende von bisher im Markt stehenden Produkten.

Grafikkarten-Marktüberblick April 2008

Dienstag, 15. April 2008
 / von Leonidas
 

Nach dem Launch der GeForce 9800 GTX ist es nun endlich wieder Zeit für einen neuen Marktüberblick der derzeit verfügbaren Grafikkarten. Schließlich ist der Marktüberblick vom Januar inzwischen etwas unaktuell geworden, haben ATI und nVidia einige neue Grafiklösungen auf den Markt geworfen und sind andere ältere Lösungen nunmehr nicht mehr im Angebot bzw. uninteressant geworden. Daneben gab es natürlich auch etliche Bewegungen bei den Preisen, maßgeblich begünstigt durch den andauernd günstigen Dollar-Kurs ging es dabei fast überall klar herunter mit den Euro-Preisen.

3dfx Voodoo5 6000 Review

Sonntag, 21. Januar 2007
 / von Mr. Lolman & Raff & robbitop
 

Vor mehr als sechs Jahren, am 15. Dezember 2000, endete eine Ära: Der Pionier gefilterter Polygonbeschleunigung am PC schloss seine Pforten. Hauptkonkurrent nVidia übernahm 3dfx mitsamt aller Patente und Technologien für 112 Millionen Dollar. Aus, Schluss, vorbei – ein schwarzer Tag für die bis dahin große Community. Doch eines blieb zu klären: Hätte der Abschied auch mit einem Knall vonstatten gehen können?

Dieser Artikel widmet sich der Beantwortung eben dieser Frage. Gegenstand der Betrachtung ist die schnellste Grafikkarte der Voodoo5-Serie, ein Relikt längst vergangener Tage. Die Rede ist natürlich von der Voodoo5 6000 AGP, dem nie offiziell erschienenen Meisterstück der 3dfx-Entwicklung.

Die Geschichte

Wir erinnern uns: Anfang 1999 auf der Comdex erstmals der Öffentlichkeit präsentiert, schlägt diese Grafikkarte ein wie eine Bombe. Sage und schreibe vier Grafikprozessoren finden auf der Platine Platz. Was man damals nicht wusste: Sie wird es niemals in den Retail-Markt schaffen.

Das damals gezeigte Modell ist eine Präsentation des "Urdesigns", welches noch auf die 2x2-Chipanordnung setzt – und nicht annähernd funktionsfähig. Im Laufe der Entwicklung stieß man auf gravierende Probleme beim Platinenlayout und verwarf es schließlich, um auf das mittlerweile weltbekannte Aussehen mit vier aneinander gereihten Chips umzusatteln. Auch hier kämpfte man bis zum Schluss mit Problemen, allen voran den Instabilitäten bei hoher Last. Dieser Bug, der sich hartnäckig in allen existierenden Voodoo5 6000 Prototypen hält, steckt im PCI-Subsystem. Er war es auch, der das Erscheinen der Voodoo5 6000 maßgeblich verhinderte.

Vergebliche Aktionen wie das Heruntertakten neuerer Revisionen von den ursprünglich vorgesehenen 183 auf 166 MHz brachten folglich auch keine Abhilfe. Und dann kam er, der Schlussstrich, resultierend aus den gigantischen Entwicklungskosten und wiederholt enttäuschenden Quartalsergebnissen. Am 13. November 2000 gibt 3dfx bekannt, alle SLI-Patente an die Tochterfirma Quantum3D (noch existent) abzutreten und sich aus dem Grafikkartengeschäft zurückzuziehen. Alle bisher gebauten Voodoo5 6000 Prototypen laufen damit auch zu Quantum3D über – naja, fast ...

Man sagt, dass etwa 200 dieser Prototypen verschiedener Revisionen existieren. Davon sind aber bei weitem nicht alle funktionsfähig – diesbezüglich schwirrt die Zahl 100 durch das Internet, weltweit wohlgemerkt! Wer dann davon einen Teil außerhalb der Quantum3D-Firmenmauern brachte, kann wohl niemand genau sagen, wie auch die Zahl zwischenzeitlich verstorbener V56k-Karten unbekannt ist. Die meisten Prototypen befinden sich mittlerweile in den Händen treuer Fans, doch hin und wieder stehen auch heutzutage ein paar Exemplare zum Verkauf im Internet.

Allen gemein ist der für eine sechs Jahre alte Grafikkarte extrem hohe Preis: Mindestens 500 Euro muss man für ein defektes Exemplar hinlegen, eine funktionierende Voodoo5 6000 mit standardisierten 183 MHz kann aber auch schnell das Doppelte bis Dreifache kosten. Gemessen an ihrer "Population" und den Preisen aktueller HighEnd-Grafikkarten schrumpft die Zahl aber förmlich, denn im Gegensatz zu den neuesten Kreationen von ATI und nVidia ist die Voodoo5 6000 seit Jahren erstaunlich wertstabil – sehr zum Leidwesen weniger gut betuchter Interessenten.

Hier kommen nun die Autoren dieser Zeilen ins Spiel: Fast sechs Jahre hat es gedauert, doch heute können wir stolz das präsentieren, was allen Interessenten damals so schmerzlich vorenthalten wurde: Ein Review der Voodoo5 6000. Wir sind uns bewusst, dass wir damit nicht die ersten sind, denn ein paar Tests fanden im Laufe der Zeit den Weg ins Internet (und letztes Jahr auch ins Printmagazin PC Games Hardware). Doch wir behaupten, garantiert alle Fragen zu 3dfx' letzter funktionierender Schöpfung zu beantworten. Genau die Fragen, welche wir uns beim Lesen vergangener Tests stellten – und mehr.

Die Testexemplare

Für diesen Artikel kamen gleich zwei Voodoo5 6000 Karten zum Einsatz. Beide gehören den bekanntesten und stabilsten jemals gebauten Revisionen an: Der "Final Revision 3700-A", erkennbar an diesen Zahlen hergestellt in der 37. Kalenderwoche des Jahres 2000. Bei Prototypen dieser Art kann man schon fast von voll funktionsfähigen Grafikkarten sprechen. "Fast" nur deswegen, weil auch sie von Haus aus den oben beschriebenen PCI-Bug aufweisen. Der Clou ist, dass dieses Problem doch noch seine Lösung fand – bedauerlicherweise aber erst nachdem 3dfx Unmengen an Ressourcen daran verbrauchte und letztendlich scheiterte.

Hank Semenec, der mittlerweile bei Quantum3D tätige "Godfather" der Voodoo5 6000, erschuf in seiner Freizeit das so genannte "PCI-Rework", welches die Instabilitäten beseitigt. Es gibt zwei Arten dieses Bugfixes, ein internes und ein externes, welche jeweils eine unserer Testkarten aufweist. Beide sind damit ausgestattet voll einsatzfähig und die revolutionären AA-Modi, denen im folgenden eine große Rolle zukommt, arbeiten damit absolut stabil. Hank Semenec ist es durch eine Reparatur weiterhin zu verdanken, dass eine unserer beiden Voodoo5 6000 Karten überhaupt funktioniert. Großen Dank abermals dafür!

v56k-Voodoo5-6000
Die Voodoo5 6000 AGP Rev. 3700-A: Runde 31 Zentimeter misst sie. Man beachte einerseits die auf dem Kopf stehende HiNT-Bridge links von den GPUs sowie die direkt auf das PCB gelötete Stromversorgung. Das ursprünglich vorgesehene "Voodoo Volts" Netzteil ist bei heutigen Netzteilen nicht zwingend nötig (und zudem sehr rar), hätte damals aber so manchen Rechner erst Voodoo5-6000-fähig gemacht (Bild: © PC Games Hardware).
v56k-Rueckseite_PCB
Die Rückseite offenbart Unmengen an SMDs (Surface Mounted Devices) in für damalige Verhältnisse sehr hoher Dichte (Bild: © PC Games Hardware).
v56k-PCI-Rework
Das externe PCI-Rework unserer Benchkarte. Daneben schön zu sehen: Der "Not for resale" Aufkleber, der die Karte eindeutig als Prototypen ausweist (Bild: © PC Games Hardware).

Bevor wir allerdings mit Frameraten um uns werfen, wollen wir erst noch einen Blick auf die zugrundeliegende Technik, die damit erzeugte Bildqualität und natürlich die Testsettings werfen.

Überblick über die Direct3D10-Generation von ATI und nVidia

Freitag, 16. März 2007
 / von Leonidas
 

Mit den News-Meldungen der letzten Tage verdichtet sich immer mehr das Bild über die im April/Mai zu erwartenden Direct3D10-Grafikkarten von ATI und nVidia. Mittels dieser Produktoffensive in nur recht wenigen Wochen wird dann von beiden Grafikchip-Entwicklern ein komplettes Programm an Direct3D10-Grafikkarten für alle drei Marktsegmente zur Verfügung stehen. Dieser Artikel soll als aktueller Überblick über das bisher bekannte Wissen zu diesen neuen Karten dienen und wird zu diesem Zweck auch beim Auftauchen neuer Informationen entsprechend ergänzt werden.

Damit wollen wir uns ohne weitere große Vorrede in die Präsentation der entsprechend bekannten Daten zu den HighEnd-Grafikkarten stürzen. nVidia hat ja schon den Anfang in Form der Veröffentlichung des G80-Chips gemacht, während ATIs R600-Chip mehrfache Verspätungen hinnehmen musste. Auch macht es die letzte Verspätung möglich, daß ATI nochmals etwas an den R600-Grafikboards herumbastelt, die entsprechenden Daten gerade zum R600-Chip und dessen Grafikboards sind also weiterhin mit Vorsicht zu genießen.

HighEnd Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI R600
ca. 720 Mill. Tranistoren in 80nm, 320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface
Radeon HD 2900 XTX
wie R600-Chip, Chiptakt angeblich 800 MHz, Speichertakt angeblich 1100 MHz, Speichergröße 1 GB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai, Verfügbarkeit allerdings erst im Juni (oder gar erst im dritten Quartal), Listenpreis angeblich 499 Dollar
Radeon HD 2900 XT
wie R600-Chip, Chiptakt 745 MHz, Speichertakt 800 MHz, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von sehr hohen Stromaufnahmen, inzwischen scheint sich da aber etwas in die positive Richtung hin getan zu haben Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 399 Dollar
Radeon HD 2900 XL
die Unterschiede zu den XT/XTX-Versionen sind unklar – höchstwahrscheinlich deutlich niedrigere Taktraten, mit einer geringen Chance sind aber auch deaktivierte Hardware-Einheiten möglich, Speichergröße 512 MB, höchstwahrscheinlich vollständig HDCP-kompatibel, DualSlot-Design
unklar komplett unbekannt
nVidia G80
681 Mill. Transistoren in 90nm, 128 Shader-Einheiten (16 Vec8-ALUs), 32 TMUs (acht Quad-TMUs), 24 ROPs, 384 Bit DDR Speicherinterface (6x 64 Bit)
GeForce 8800 Ultra
wie G80-Chip, Chiptakt 612 MHz, Shadertakt 1512 MHz, Speichertakt 1080 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design
ca. 140-145 Watt realer Verbrauch Launch am 2. Mai, Verfügbarkeit ab 15. Mai zu einem europäischen Listenpreis von 699 Euro
GeForce 8800 GTX
wie G80-Chip, Chiptakt 575 MHz, Shadertakt 1350 MHz, Speichertakt 900 MHz, Speichergröße 768 MB, vollständig HDCP-kompatibel, DualSlot-Design
132 Watt realer Verbrauch, nVidia empfiehlt ein Netzteil von mindestens 450 Watt Gesamtleistung mit 30A auf der 12V-Leitung erhältlich für derzeit um die 490 Euro
GeForce 8800 GTS
wie G80-Chip, jedoch: nur 96 Shader-Einheiten, nur 24 TMUs, nur 20 ROPs, nur 320 Bit Speicherinterface, Chiptakt 500 MHz, Shadertakt 1200 MHz, Speichertakt 800 MHz, Speichergrößen 320 und 640 MB, vollständig HDCP-kompatibel, DualSlot-Design
106 Watt realer Verbrauch (640-MB-Version), nVidia empfiehlt ein Netzteil von mindestens 400 Watt Gesamtleistung mit 26A auf der 12V-Leitung erhältlich für derzeit um die 260 (320 MB) bzw. 350 (640 MB) Euro

Deutlich besser ist hingegen die Informationslage bei den kommenden Mainstream-Grafikkarten um die beiden Grafikchips ATI RV630 und nVidia G84. Beide werden wohl plangemäß im April/Mai vorgestellt werden, auch mit der Verfügbarkeit entsprechender Grafikkarten ist für diesen Zeitraum zu rechnen. Bei den RV630-Abkömmlingen sind derzeit die jeweiligen Namenssuffixe noch nicht bekannt, sondern bislang nur die Codenamen der entsprechenden Referenzboards von ATI:

Mainstream Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI RV630
65nm, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface
Radeon HD 2600 XT
wie RV630-Chip, Chiptakt 800 MHz, Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 199 Dollar
Radeon HD 2600 Pro
Unterschiede zur XT-Version sind unklar – allerdings vermutlich nur geringere Taktfrequenzen, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 179 Dollar
Radeon HD 2600
Unterschiede zur XT-Version sind unklar – in diesem Fall sind allerdings neben geringeren Taktfrequenzen auch deaktivierte Hardware-Einheiten möglich (das 128 Bit DDR Speicherinterface bleibt allerdings), Speichergrößen 256 und 512 MB, vollständig HDCP-kompatibel, SingleSlot-Design
unklar: frühere ATI-eigene Angaben sprachen von hohen Stromaufnahmen, neuere Bilder zeigen die Karten allerdings ohne extra Stromanschluß, sprich unterhalb von 75 Watt TDP liegend Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt
nVidia G84
289 Mill. Transistoren in 80nm, 32 Shader-Einheiten (vier Vec8-ALUs), 16 TMUs (zwei Octo-TMUs), 8 ROPs, 128 Bit DDR Speicherinterface
GeForce 8600 GTS
wie G84-Chip, Chiptakt 675 MHz, Shadertakt 1450 MHz, Speichertakt 1000 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
49 Watt realer Verbrauch (Karten haben extra Power-Anschluß) erhältlich für derzeit um die 190 Euro
GeForce 8600 GT
wie G84-Chip, Chiptakt 540 MHz, Shadertakt 1190 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design
geschätzt 40 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) erhältlich für derzeit um die 130 Euro

Und letztlich werden ATI und nVidia mit den Grafikchips RV610 und G86 auch noch neue LowCost-Modelle für Direct3D10 an den Start bringen. Einschränkenderweise gilt hier dazuzusagen, daß meistens nur die Top-Modelle der jeweiligen LowCost-Grafikkarten empfehlenswert sind, die niedrigeren Modelle sind in ihrer Leistung gewöhnlich zu beschnitten, um als sinnvolle 3D-Beschleuniger durchgehen zu können. Gänzlich herausgelassen haben wir nachfolgend im übrigen die LowProfile-Lösungen von ATI, da diese in aller Regel nur im OEM-Markt vertrieben werden:

LowCost Direct3D10-Grafikkarten
Grafikchip Grafikkarte Stromverbrauch Preis & Verfügbarkeit
ATI RV610
65nm, 40 Shader-Einheiten, 4 TMUs, 128 Bit DDR Speicherinterface
Radeon HD 2400 XT
wie RV610-Chip, Chiptakt 700 MHz, Speichertakt 700 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design
um die 35 Watt TDP Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis angeblich 99 Dollar
Radeon HD 2400
Unterschiede zur XT-Version sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, Speichertakt 400 MHz, Speichergröße 256 MB, vollständig HDCP-kompatibel, SingleSlot-Design, passiv gekühlte Designs zu erwarten, keine Hardware-Unterstützung für CrossFire
unter 25 Watt TDP Vorstellung für die Presse am 23./24. April (unter NDA), echter Launch angeblich 14. Mai mit sofortiger Verfügbarkeit, Listenpreis noch unbekannt
nVidia G86
210 Mill. Transistoren in 80nm, 16 Shader-Einheiten (zwei Vec8-ALUs), 8 TMUs (eine Octo-TMU), 128 Bit DDR Speicherinterface
GeForce 8500 GT
wie G86-Chip, Chiptakt 450 MHz, Shadertakt 900 MHz, Speichertakt 400 MHz, Speichergröße 256 MB, Varianten mit/ohne vollständiger HDCP-Kompatibilität, SingleSlot-Design
unbekannt erhältlich für derzeit um die 80 Euro
GeForce 8400 GS
Unterschiede zur GeForce 8500 GT sind unklar – es wird sich sicherlich um geringere Taktrate aber womöglich auch um auch deaktivierte Hardware-Einheiten handeln, SingleSlot-Design
unbekannt Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt
GeForce 8300 GS
Unterschiede zur GeForce 8500 GT sind unklar – in diesem Fall sind neben geringeren Taktfrequenzen aber auch deaktivierte Hardware-Einheiten anzunehmen (mit sicherlich nur 64 Bit Speicherinterface), SingleSlot-Design
unbekannt Launch angeblich Ende April, Verfügbarkeit und Preissituation sind noch unbekannt, geht womöglich nur in den OEM-Markt

Wie an den großen Lücken bei einzelnen Grafikkarten zu sehen, sind derzeit die Angaben insgesamt noch zu dürftig, um bereits größere Marktprognosen abgeben zu können. Auffallend ist allerdings, daß sowohl ATI wie auch nVidia bei den Mainstream-Grafiklösungen es mit Grafikkarten mit nur 128bittigem Speicherinterface probieren wollen. Man wird dies zwar wohl durch hohe Speichertakte etwas ausgleichen wollen, nichts desto trotz könnte es zu einer Situation kommen, wo die derzeit vertriebenen Karten des Mainstream-Segments aufgrund ihrer 256bittigen Speicherinterfaces eine vergleichbare oder gar bessere Leistung bieten werden können.

Ganz allgemein sind die aktuellen Mainstream- und niedrigeren HighEnd-Lösungen auch weiterhin noch gute Marktchancen einzuräumen, da ATI und nVidia derzeit im Preisbereich von 170 bis 240 Euro wirklich sehr viel Hardware für doch recht moderate Preise verkaufen. Zu nennen wären hier insbesondere Radeon X1950 Pro, Radeon X1950 XT und GeForce 7950 GT, wobei sich zumindestens hinter den beiden letztgenannten Karten einwandfreie HighEnd-Lösungen verbergen, die jetzt einfach nur dermaßen günstig geworden sind, daß sie ins Mainstream-Segment hinabrutschen.

Davon abgesehen gilt es weitere Informationen zu den neuen Direct3D10-Karten abzuwarten, ehe man weitere Einschätzungen dieser vornehmen kann. Wie schon vorstehend angemerkt, wird dieser Artikel mit dem Auftauchen neuer Details entsprechend aktualisiert werden.

nVidia stellt die ersten Mainstream Direct3D10-Grafikkarten vor

Dienstag, 17. April 2007
 / von Leonidas
 

Mit dem heutigen Tag kommen nun endlich auch erste Mainstream-Grafikkarten aus der Direct3D10-Generation in den Markt. Wie schon beim HighEnd-Chip G80 ist auch hier wieder nVidia der Vorreiter, wenngleich natürlich auch von ATI demnächst ähnliches zu erwarten ist. Die primäre Aufgabe der neu in den Markt kommenden Karten ist dabei natürlich die Ablösung der "alten" Mainstream-Generation um die Chips G73 (GeForce 7600 Serie) und G71 (GeForce 7900/7950 Serie). Gleichzeitig setzt man damit aber auch den Grundstein für die Durchsetzung von Direct3D10-Grafikkarten im Markt, schließlich sind die bisherigen Verkäufe der HighEnd-Lösungen GeForce 8800 GTS und GTX natürlich bei weitem nicht ausreichend, um von einem beachtbaren Marktanteil an verkauften Direct3D10-Lösungen zu sprechen.

Für den interessierten User dürfte aber in erster Linie interessant sein, daß sich nun Direct3D10-Hardware auch in der Preisspanne von 100 bis 200 Euro erwerben läßt. Hierzu wirft nVidia zwei neue Grafikchips in die Waagschale: Die LowCost-Lösung G86 und die Mainstream-Lösung G84. Über beide wurde in letzter Zeit an dieser Stelle schon viel berichtet und auch wurden schon viele (letztlich passende) Informationen zusammengetragen – beim entscheidenden Punkt der Anzahl der Shader-Einheiten irrte die Vorab-Berichterstattung allerdings: So spendierte nVidia dem G84-Chip nur vier Vec8-ALUs und damit ganze 32 Shader-Einheiten.

Die Funktionsblöcke wurden allerdings dahingehend verändert, das die beim G80-Chip noch doppelt ausgelegten Textureneinheiten, welche jedoch nur eine einfach ausgelegte Addressierungseinheit besitzen, nunmehr zwei Adressierungseinheiten spendiert bekamen und daher als zwei extra Textureneinheiten gewertet werden können. Demzufolge hat der G84-Chip nicht zwei Quad-TMUs, sondern gleich zwei Octo-TMUs, insgesamt also 16 Textureneinheiten. Gegenüber dem G80-Chip ist das natürlich trotzdem eine herbe Abspeckung, dieser besitzt glatt das Vierfache an reiner Rechenleistung, nämlich immerhin 128 Shader-Einheiten (16 Vec8-ALUs).

Beim Speicherinterface wird es wie schon vorab berichtet nicht mehr als ein 128 Bit DDR-Interface mit 8 ROPs geben (nVidia bindet die ROPs ans Speicherinterface) – auch hier hat der G80-Chip deutlich mehr zu bieten: Dessen 384 Bit breites DDR-Interface samt 24 ROPs ergeben das Dreifache des G84-Chips. Insofern erscheint der neue Mainstream-Grafikchip G84 doch arg beschnitten gegenüber der GeForce 8800 Serie zu sein – mit auch der Auswirkung, das sich die GeForce 8600 Serie wohl ziemlich abstrampeln wird müssen, um überhaupt gegenüber den bisherigen Mainstream-Grafikkarten bestehen zu können.

Daneben wurde noch der LowCost-Grafikchip G86 vorgestellt, dessen größte Ausführung GeForce 8500 GT das untere Ende des Mainstream-Marktes darstellen wird. Beim G86-Chip gibt es dann nur noch zwei Vec8-ALUs (16 Shader-Einheiten) mit einer Octo-TMU (8 Textureneinheiten), allerdings blieb das Speicherinterface wenigstens bei 128 Bit DDR. Allerdings sind in Form von GeForce 8300 GS und 8400 GS noch weitere G86-Ausführungen in Planung, welche dann nur noch mit 64 Bit breitem DDR-Interface antreten werden. Diese beiden letztgenannten Karten hat nVidia heute aber noch nicht vorgestellt, erst einmal kommen GeForce 8500 GT, 8600 GT und 8600 GTS in den Markt:

  GeForce 8500 GT GeForce 8600 GT GeForce 8600 GTS
Chip-Basis nVidia G86
210 Millionen Transistoren in 80nm bei TSMC
nVidia G84
289 Millionen Transistoren in 80nm bei TSMC
Technologie-Klasse Direct3D10, Shader 4, unified Shader-Architektur
Shader-Einheiten zwei Vec8-ALUs (insgesamt 16 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten)
Texturen-Einheiten eine Octo-TMU (ingesamt 8 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten)
Raster Operation Units (ROPs) ? 8 8
Speicherinterface 128 Bit DDR 128 Bit DDR 128 Bit DDR
Speicherbestückung 256 MB 256 MB 256 MB
allgemeiner Chiptakt 450 MHz 540 MHz 675 MHz
Shader-Takt 900 MHz 1190 MHz 1450 MHz
Speichertakt 400 MHz 700 MHz 1000 MHz
Bauform PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, alle Varianten sind vollständig HDCP-kompatibel
Leistungsaufnahme unbekannt (Karten haben keinen extra Power-Anschluß) 43 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) 71 Watt realer Verbrauch (Karten haben extra Power-Anschluß)
Listenpreis 89 – 129 Dollar 149 – 159 Dollar 199 – 229 Dollar
Bild Referenzmodell nVidia GeForce 8500 GT (Referenzmodell) nVidia GeForce 8600 GT (Referenzmodell) nVidia GeForce 8600 GTS (Referenzmodell)

Wie gut zu sehen, liegt zwischen den beiden G84-Vertretern damit "nur" ein Taktunterschied von zwischen 20 und 40 Prozent, was sich aber recht gut mit dem Listenpreis-Unterschied von 33 Prozent deckt. Die GeForce 8500 GT hat hingegen nur die Hälfte der Render-Einheiten einer GeForce 8600 GT und dazu auch noch klar niedrigere Taktraten – hier dürfte wohl ein deutlicherer Performanceunterschied zu erwarten sein, als es die 50 Prozent Listenpreis-Unterschied vermuten lassen.

Leider gibt es derzeit kaum Benchmarks zur GeForce 8500 GT, primär haben sich die bisherigen Artikel zu den neuen Mainstream-Grafikkarten von nVidia mit den Modellen GeForce 8600 GT und GTS beschäftigt. Nachfolgend die Liste der derzeit im Netz diesbezüglich zu findenden Artikel:

Dabei kommen GeForce 8600 GT und GTS in den meisten dieser Tests zumindestens bezüglich der reinen Performance erstaunlich mittelmäßig weg. Viele Tests berichten von einer Performance der GeForce 8600 GT nur 20 Prozent überhalb der GeForce 7600 GT, währenddessen die GeForce 8600 GTS oftmals nur auf dem Niveau von Radeon X1950 Pro und GeForce 7900 GS rangiert. Dabei haben GeForce 8600 GT und GTS insbesondere ihre Probleme in Auflösungen oberhalb von 1280x1024 – auf der anderen Seite muß man sich aber auch eingestehen, das Mainstream-Grafikkarten im gewöhnlichen nicht für Auflösungen von 1600x1200 und mehr gebaut werden.

Das eigentliche Problem der GeForce 8600 GT und GTS ist dabei jedoch nicht der Abstand zur vorhergehenden Mainstream-Generation in Form von Radeon X1600/X1650 und GeForce 7600 Serie, diese Karten können die neuen Direct3D10-Beschleuniger sicherlich ausstechen. Das Problem der GeForce 8600 GT und GTS sind vielmehr die aktuell im Preisbereich von 150 bis 200 Euro angebotenen Mainstream-Beschleuniger der DirectX9-Klasse, welche unter der Haube sämtlich aus dem HighEnd-Bereich stammende Grafikchips besitzen. Gegen die technische Überlegenheit dieser Karten könnten GeForce 8600 GT und GTS allerhöchstens mit einem besseren Preis punkten, allerdings sieht die aktuelle Preislage derzeit eher umgedreht aus:

ATIs "alte" Mainstream Grafikkarten nVidias neue Mainstream Serie nVidias "alte" Mainstream Grafikkarten
- - GeForce 7950 GT
256 MB ca. 220 Euro
512 MB ca. 220 Euro
Radeon X1950 XT
256 MB ca. 200 Euro
512 MB ca. 220 Euro
GeForce 8600 GTS
256 MB ca. 200 Euro
-
- - GeForce 7900 GT
256 MB ca. 180 Euro
Radeon X1950 Pro
256 MB ca. 150 Euro
512 MB ca. 180 Euro
- GeForce 7900 GS
256 MB ca. 150 Euro
512 MB ca. 170 Euro
Radeon X1900 GT
256 MB ca. 130 Euro
GeForce 8600 GT
256 MB ca. 130 Euro
-
- - GeForce 7600 GT
256 MB ca. 110 Euro
Radeon X1650 XT
256 MB ca. 80 Euro
512 MB ca. 90 Euro
GeForce 8500 GT
256 MB ca. 90 Euro
GeForce 7600 GS
256 MB ca. 80 Euro
512 MB ca. 100 Euro

Nach der jüngsten Preisentwicklung (die GeForce 8600 GT fiel innerhalb der ersten drei Stunden nach dem Launchtermin um 15 Uhr von 150 auf 130 Euro) scheint sich die GeForce 8600 GT zumindestens nVidia-intern passabel einordnen zu können: Dem Mehrpreis gegenüber der GeForce 7600 GT steht wohl auch eine halbwegs gleiche Mehrperformance gegenüber – auch wenn man sich diese durchaus größer vorstellen könnte. Gegenüber der (allerdings nur noch selten angebotenen) Radeon X1900 GT wird es dagegen schon kritischer, da diese Karte nur geringfügig hinter einer Radeon X1950 Pro zurückliegt und schon die deutlich schneller getaktete GeForce 8600 GTS so ihre Schwierigkeiten hat, sich gegenüber dieser zu behaupten.

Die GeForce 8600 GTS hingegen erscheint zum derzeitigen Preis (welcher innerhalb der ersten Stunden nach dem Launch stabil blieb) nicht konkurrenzfähig – schließlich gibt es dafür schon eine Radeon X1950 XT, welche eigentlich durchgehend erheblich mehr Performance in die Waagschale werfen kann. Da die GeForce 8600 GTS derzeit von der Performance her ungefähr auf dem Niveau von GeForce 7900 GS/GT und Radeon X1950 Pro rangiert, müsste der Preis dieser Karte demzufolge wenigstens in die Nähe von 150 Euro absinken, um die GeForce 8600 GTS attraktiv zu halten.

Ob dies passiert, kann derzeit sicherlich trefflich spekuliert werden – schließlich gab es in der Vergangenheit mehr als ausreichend Hardware-Launches, wo sich die zum Launch angesetzten Startpreise nur wenige Wochen hielten und dann auf ein statthaftes Niveau heruntergingen. Auf der anderen Seite kann man auch genauso gut einwerfen, daß eine neue Hardware, welche schon zum Start weg kein überzeugendes Preis/Leistungsverhältnis bietet, auch mit einigen Preissenkungen niemals ein wirklich gutes Preis/Leistungsverhältnis erreichen wird können.

Insofern erscheint es ganz so, als hätte nVidia mit dem Mainstream-Direct3D-Grafikchip G84 ein gutes Stück zu kurz gegriffen bzw. den Rotstift bei den Abspeckungen zum G80-Chip zu heftig angesetzt. Dies mag womöglich auch damit zusammenhängen, daß zu Zeiten der G84-Entwicklung noch niemand ahnen konnte, das ATI und nVidia derzeit ehemalige HighEnd-Grafikchips mittels Grafikkarten für teilweise klar unter 200 Euro geradezu verschleudern. Dies wird den Markterfolg von GeForce 8600 GT und GTS gerade im OEM-Bereich natürlich kaum verhindern können, schließlich zieht dort primär Direct3D10 als Verkaufsargument. Ob sich die GeForce 8600 GT und GTS Karten allerdings im Retailmarkt gut verkaufen können, wäre vorerst zu bezweifeln – dafür sind die Leistungen der gleichpreisigen DirectX9-Konkurrenz derzeit einfach zu überzeugend.

nVidia GeForce 8800 GTX Review

Montag, 30. April 2007
 / von Leonidas & Madkiller
 

Mit dem G80-Chip hat nVidia im November wie bekannt den ersten Direct3D10-Grafikchip vorgestellt, welcher auch – wie seinerzeit nicht zu erwarten war – bis jetzt der einzige entsprechende Grafikchip im HighEnd-Segment ist. Zwar hat nVidia inzwischen entsprechende Modelle für das Mainstream-Segment nachgelegt, ATI hat sein G80-Konkurrenzprojekt bis jetzt nicht offiziell vorgestellt bzw. ausgeliefert. Damit ergibt sich die ungewöhnliche Situation, daß der G80-Chip nunmehr nach runden sechs Monaten im Markt immer noch völlig allein an der Leistungspitze steht.

Zwar biegt die ATI-Konkurrenz nun langsam wirklich auf die Zielgerade ein, steht aber für diesen Artikel noch nicht zur Verfügung, welcher sich primär also damit beschäftigen wird, wie sich die GeForce 8800 GTX als Top-Modell der G80-Varianten gegenüber den vorherigen HighEnd-Lösungen positionieren kann. Daß die GeForce 8800 GTX dabei gegenüber Radeon X1950 XTX und GeForce 7900 GTX mehr oder weniger problemlos überall vorn liegen sollte, wurde natürlich auch schon mit den allerersten Artikel zu dieser Karte schnell klar.

Allerdings basieren diese Erkenntnisse im Prinzip ausschließlich auf Messungen mittels Timedemos, welche aus mehreren Gründen als reichlich ungenau bezeichnet werden können. Genauere Hintergründe hierzu liefern entsprechende Artikel hierzu, an dieser Stelle sei nur folgendes kurz ausgeführt: Bei Timedemo-Messungen fehlen im gewöhnlichen wichtige CPU-basierende Berechnungen wie die K.I. oder dynamische Physik- und Soundberechnungen. Dies ist nicht nur bei Prozessoren-Leistungstests störend, sondern betrifft auch Grafikkarten-Benchmarks, weil diese durch die abgesenkte CPU-Last teilweise deutlich höhere Frameraten als im realen Spiel auswerfen und damit auch eher in CPU-Limits laufen.

Hauptnachteil der Timedemo-Messungen ist aber, daß hiermit nur Durchschnittswerte von zumeist längeren Benchmark-Durchläufen ausgegeben werden (oder aber Minimalwerte von einzelnen Zehntelsekunden, was genauso nichtssagend ist). Damit läßt sich sicherlich ermitteln, welche Grafikkarte prinzipiell schneller ist – eine Aussage zur Spielbarkeit kann damit jedoch nicht getroffen werden. Man nimmt gewöhnlich an, daß ein Durchschnittswert von 40 fps ausreichend ist und damit auch die langsamen Szenen noch überhalb von 25 fps liegen sollten. Dies bleibt jedoch immer nur eine Annahme: Denn um zu einem Durchschnittswert von 40 fps zu kommen, kann das eine Spiel in der Tat zwischen 25 und 60 fps schwanken – ein anderes aber auch zwischen 10 und 100 fps.

Das Prinzip der Durchschnittsframeraten-Messungen wird diesem also selber zum Verhängnis, da bei einer solchen Messung eben nie festgestellt werden kann, wie die einzelnen Grafikkarten die wirklich Performance-kritischen Stellen bewältigen. Wenn man wirklich wissen will, wie es ausschaut, wenn die Frameraten nach unten gehen und die Hardware wirklich gefordert wird, muß auch auch nur genau das ausmessen – mittels kurzen Savegames von besonders performance-kritischen Stellen im Spiel. Erst mit diesen Messwerten in der Hand läßt sich dann auch sagen, welche Settings eine Grafikkarten noch verträgt – und welche nicht mehr.

Solcherart Benchmarks entsprechen damit auch dem, was der Spieler letztlich im Alltagseinsatz selber so macht: Die Orientierung der Spielsetting nicht an der (meist problemlosen) Durchschnittsperformance, sondern bewußt an den langsamen Stellen im Spiel. Kaum jemand stellt sein Spiel auf solcherart Settings, welche dem Spieler zwar gewöhnlich 40 garantieren, in bestimmten Szenen jedoch auf unter 15 fps einbrechen – in einer solchen Situation wird man wohl meistens seine Settings überdenken. Genau diesem Verhalten aus der Praxis sind auch unsere nachfolgenden Benchmarks geschuldet: Vermessen werden soll nicht eine Durchschnittsperformance, sondern das, was übrig bleibt wenn die Grafikkarten wirklich gefordert sind.

Dazu wurde wie gesagt auf Timedemo-Messungen verzichtet und komplett auf Savegames gesetzt. Jedes einzelne Savegame enthält dabei nur eine kurz Sequenz von drei bis fünf Sekunden mit einer wirklich Hardware-fordernden Spielszene, deren Durchschnittswerte mittels Fraps (in jeweils drei Messungen) ermittelt wurden. Da zudem eine einzelne kurze Spielszene nur eine äußerst beschränkte Aussage zu den wirklichen Performance-Tiefstpunkten im Spiel geben kann, wurden für jedes Benchmark-Spiel gleich ganze vier Savegames angesetzt. Dieses Testverfahren ist insgesamt betrachtet äußerst aufwendig, erscheint uns aber derzeit als beste bekannte Möglichkeit, Grafikkarten nicht nur nach der Frage von "schneller oder langsamer", sondern auch nach der Frage "spielbar oder nicht spielbar" austesten zu können.

Vorab sei an dieser Stelle den Firmen Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel ermöglicht wurde. Ausdrücklicher Dank gilt zudem der Firma Asus für die Teststellung der titelgebenden GeForce 8800 GTX.

                           

Die neuen Desktop-Lineups von ATI und nVidia

Donnerstag, 24. Mai 2007
 / von Leonidas
 

Im Zuge des Launches der Radeon HD 2900 XT kündigte ATI auch das Erscheinen der Radeon HD 2400 und 2600 Serien im Juni an, selbst wenn die Daten zu diesen Karten tief in den Launch-Präsentationen vergraben waren und daher kaum beachtet wurden. In der Tat hatte man natürlich von ATI einen vollständigen Launch aller dieser Grafikkarten erwartet – und als dieser ausblieb, konzentrierte man sich eben vollständig auf die Radeon HD 2900 XT bzw. den R600-Chip.

Nichts desto trotz liegen die Daten zu den Radeon HD 2400 und 2600 Karten seitens ATI vor, womit nun beide Grafikchip-Entwickler ein vollständiges Direct3D10-Produktprogramm am Markt bzw. zumindestens sicher angekündigt haben. Die Aufgabe der kommenden Zeilen und Gegenüberstellungen wird nunmehr sein, das jeweilige Direct3D10-Programm der beiden Hersteller vollständig in Zahlen und Worte zu fassen, wie aber auch preislich eventuell interessante Überschneidungen zum noch im Markt befindlichen DirectX9-Angebot aufzuzeigen.

Anmerkungen: Alle genannten Straßenpreise basieren auf dem Stand 23. Mai 2007 frühmorgens und dürften sich im Laufe der folgenden Tage und Wochen natürlich immer weiter nach unten verschieben. Alle Bandbreitenangaben wurden zudem nach der 1024er Regel errechnet, als Maßeinheit hierfür wurde allerdings das altherkömmliche Gigabyte/Sekunde benutzt, nicht das neuere, in der Industrie jedoch nach wie vor unübliche Gibibyte/Sekunde.

Die neuen Mobile-Lineups von ATI und nVidia

Mittwoch, 6. Juni 2007
 / von Leonidas
 

Nach dem entsprechenden Artikel zu den neuen Desktop-Lineups von ATI und nVidia wollen wir uns nunmehr auch den neuen Mobile-Grafikchips der beiden Grafikchip-Entwickler widmen. Im Zuge dessen, daß Notebooks inzwischen fast für die Hälfte der insgesamten PC-Verkäufe stehen und es auch leistungsfähige Notebooks zum vollständigen Ersatz von Desktop-Computern gibt, steigt schließlich die Bedeutung der Mobile-Grafikchips immer mehr an – ein Umstand, welchem wir mittels dieses Artikels erstmalig wirklich Rechnung tragen wollen. Zudem bietet sich die Betrachtung der Angebote beider Grafikchip-Entwickler gerade bei den sehr unübersichtlichen Angebotspaletten im Notebook-Markt besonders an.

Für diesen haben ATI und nVidia kürzlich ihre ersten Direct3D10-Lösungen vorgestellt, welche im Juni/Juli dann auch in ersten Notebooks verbaut werden sollen. Beachtenswert ist hierbei allerdings, daß beide Grafikchip-Entwickler bislang nur für das LowCost- und das Mainstream-Segment Direct3D10-Lösungen vorsehen, nicht aber für das HighEnd-Segment. Dort werden weiterhin DirectX9-Lösungen angeboten – was wohl primär damit zusammenhängen dürfte, daß die derzeitigen Direct3D10 HighEnd-Grafikchips bezüglich der Stromaufnahme kaum auf für Notebooks gangbare Werte herunterzudrücken sind. Aus diesem Grund sowie aus dem Gedanken, daß gerade im Notebook-Markt oftmals noch recht lange "ältere" Grafikchips verbaut werden, wurde nachfolgend nicht nur das Direct3D10-Produktprogramm beider Hersteller, sondern auch deren aktuelle DirectX9-Beschleuniger für den Mobile-Einsatz komplettaufgeführt.

Um im Namens- und Taktraten-Dschungel einen besseren Überblick zu behalten, haben wir zudem nachfolgend immer eine Einschätzung des Leistungsniveaus anhand bekannter Desktop-Beschleuniger notiert. Diese Einschätzungen beziehen sich natürlich immer nur auf die genannten maximalen Taktraten sowie das größmögliche Speicherinterfaces der jeweiligen Mobile-Lösung. Es sei hierbei aber immer mit zu bedenken, daß in der Realität die Notebook-Hersteller diese maximalen Taktraten oftmals nicht erreichen, sondern viele Mobile-Grafiklösungen mit bis zu 30 Prozent niedrigeren Taktraten verbaut werden.

Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung

Dienstag, 25. September 2007
 

Genug Zeit ist mittlerweile seit dem Launch der Direct3D10 HighEnd-Grafikchips G80 (GeForce 8800 Serie) und R600 (Radeon HD 2900 Serie) vergangen – was den großen Rahmen angeht, ist die Bestandsaufnahme bezüglich Leistungsfähigkeit, Bildqualität und Kompatibilität wohl abgeschlossen. Auch DualCore-Prozessoren haben sich bei der Zielgruppe dieses Artikels inzwischen weitestgehend durchgesetzt, ihre Auswirkungen auf die Leistungsfähigkeit in Spielen wurden bis zum jetzigen Zeitpunkt ebenfalls hinreichend untersucht und insgesamt kann man für den folgenden Test davon ausgehen, dass Spiele umso mehr von DualCore, teils in erheblichem Maße, profitieren, je neuer sie sind.

Die Erkenntnisse, die aus den vorgenannten Testberichten gewonnen wurden, gilt es jetzt zu verdichten und zusammenzuführen. Schließlich sind beide neuen Technologien wie beschrieben ausreichend lange im Markt, sollten sich die Grafikchip-Entwickler und die jeweiligen Treiberteams inzwischen darauf eingestellt haben können. Es gibt also zwei Fragen, die dieser Testbericht beantworten soll:

  • Welcher Grafikchip-Entwickler und welche Grafikkarten-Generation skaliert besser mit der Erweiterung von SingleCore auf DualCore?
  • Welcher Treiber verursacht die höhere CPU-Last?

Wobei die erste Frage des Testberichts zwangsläufig zu einer weiteren – hier und heute jedoch kaum beantwortbaren – Frage führen wird: Liegt die bessere DualCore-Skalierung von Hersteller A an einem besseren Treiber – oder an der zu hohen Komplexität des Designs von Hersteller B?

Für die hierfür angestellten Benchmarks gelten folgende Rahmenbedingungen:

  • Es werden vier Grafikkarten von zwei Herstellern getestet – je zwei aus der aktuellen Generation, zwei Karten aus der Vorgängergeneration: Es sind die (Club3D) GeForce 8800 GTS 640MB und die (Sapphire) Radeon HD 2900 XT sowie die (nVidia) GeForce 7950 GT und die (Sapphire) Radeon X1900 XT.
  • Die Testplattform ist ein Core 2 Duo 6400 mit 4GB RAM, genauere Daten zum System sind hier zu finden.
  • Als Treiber kamen seitens ATI der Catalyst 7.7 und seitens nVidia die ForceWare-Versionen 94.24 (GeForce 7950 GT) sowie 158.22 und 162.18 (GeForce 8800 GTS) zum Einsatz.
  • Jede Karte wird einem Testdurchlauf mit einer SingleCore-CPU und einem Testdurchlauf mit einer DualCore-CPU unterzogen. Die SingleCore-CPU wird hierbei künstlich über den Parameter "/numproc 1" in der "boot.ini" von Windows erzeugt.
  • Um die Ergebnisse und ihre Aussagen besser erkennbar zu machen, wird durch niedrige Auflösungen sichergestellt, daß ein möglichst einwandfreies CPU-limitiertes Szenario vorliegt.
  • Es werden ausschließlich Savegames zum testen verwendet.
  • Jedes Spiel wird in vier verschiedenen Szenarien getestet, um eine möglichst große Allgemeingültigkeit der Ergebnisse für das jeweilige Spiel zu erreichen.

Vorab sei an dieser Stelle den Firmen Club3D, Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel wieder ermöglicht wurde.

                           

Die kommenden Grafikchips von ATI, nVidia und S3

Dienstag, 9. Oktober 2007
 / von Leonidas
 

Rein technisch haben wir mittlerweile fast ein volles Jahr herum, nachdem die allerersten Direct3D10-Beschleuniger in Form der GeForce 8800 GTS/GTX Karten im November 2006 vorgestellt wurden. Und selbst wenn ATI seinen Konter in Form der Radeon HD 2900 XT erst mit einigen Monaten Verspätung in den Markt bringen konnte, sind nach gängigen Rechnungen, wonach aller sechs bis neun Monate eine neue Grafikkarten-Generation in den Markt kommt (was nicht bedeutet, daß es sich dabei um grundlegend neue Architekturen handeln muß), die nächsten Grafikkarten eigentlich schon leicht überfällig.

ATI und nVidia werden diesem Zustand über die nächsten Wochen allerdings abhelfen, welche aus Grafikkarten-Sicht durchaus interessant werden dürften. So kommen derzeit zunächst die R600-Abwandlungen Radeon HD 2900 GT und Pro für das Performance-Segment in den Markt. Im November läutet nVidia dann mit dem G92-Chip für das Performance-Segment die eigentliche Refresh-Generation ein, hier werden der G98-Chip für das LowCost-Segment und der G90-Chip für das HighEnd-Segment in Kürze folgen, nächstes Frühjahr soll dann noch ein G96-Chip für das Mainstream-Segment kommen.

Bei ATI hingegen lauten die Refreshchips RV620 (LowCost), RV635 (Mainstream), RV670 (Performance/HighEnd), zeitmäßig sind diese ebenfalls um das Jahresende einzuordnen. Und letztlich will nun auch noch S3 Graphics wieder einmal mit neuen Grafikchips antreten, geplant sind hierbei für den Jahresanfang die Chips Chrome 430 (LowCost) und Chrome 460 (Mainstream). Wenn das alles klappen sollte, wird es in der Tat ein interessanter Grafikchip-Herbst – in der Praxis dürfte dann aber wohl doch Murphy's Law greifen, womit sich einige der vorgenanten Grafikchips ins nächste Jahr verspäten werden oder zumindestens erst im nächsten Jahr käuflich erhältlich sein werden.

Doch der Reihe nach. Zuerst einmal werden wir die derzeit auf dem Markt befindlichen Direct3D-Grafikchips kurz skizzieren, damit die Ausgangslage klar ist. Danach wenden wir uns dann den einzelnen kommenden neuen Grafikchips zu. Dies kann natürlich nur auf Basis der derzeit vorhandenen Informationen erfolgen – welche, gemischt mit eigenen Überlegungen, jederzeit fehlbar sein können. Es ist also bitte nicht davon auszugehen, daß alles, was dieser Artikel nachfolgend vorhersagt, auch so eintreffen wird. Es handelt sich hier um eine Bestandsaufnahme des aktuell verfügbaren Wissens, um eben dieses in eine gewisse Form zu bringen. Nichts desto trotz werden sich in den News der kommenden Wochen sicherlich noch einige Anmerkungen und Korrekturen zu diesem Artikel ergeben.

Vorab sei noch klargestellt, daß dieser Artikel wie auch unsere zukünftige Berichterstattung generell von der Einteilung des Grafikkarten-Marktes in vier Teilsegmente ausgeht: LowCost (Value), Mainstream, Performance und HighEnd (Enthusiast). Diese Einteilung wurde seitens der Grafikchip-Entwickler schon seit einiger Zeit vorgenommen, bislang allerdings regelmäßig mit nur drei verschiedenen Grafikchips einer Generation zu bedienen versucht. Spätestens mit der kommenden Refresh-Generation wird zumindestens nVidia aber mit jeweils vier Grafikchips pro Generation arbeiten, womit sich die generelle Markt-Unterteilung in vier Teilsegmente nunmehr geradezu aufdrängt.

Preislich lassen sich diese Teilsegmente im übrigen grob folgendermaßen abtrennen: LowCost bis 100 Dollar, Mainstream von 80 bis 200 Dollar, Performance von 150 bis 300 Dollar und HighEnd von 250 Dollar an aufwärts. Wie den genannten Geldbeträgen schon zu entnehmen, sind die Grenzen jedoch eher fließend bzw. sehen verschiedene Mitspieler am Markt die Grenzen jeweils ein wenig anders. Betrachtet man die alten und neuen Grafikchips allerdings nachfolgend etwas genauer, lassen sich diese dann doch jeweils recht eindeutig einem Marktsegment zuordnen.

Doch zuerst zu der Übersicht der aktuell am Markt befindlichen Grafikchips und daraus resultierenden Grafikkarten:

  ATI nVidia
HighEnd (Enthusiast) R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 XT 1GB
742/1000 MHz, 1024 MB GDDR4, ca. 180W, ca. 430 Euro
• Radeon HD 2900 XT
742/825 MHz, 512 MB GDDR3, 161W, ca. 330 Euro
G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 Ultra
612/1512/800 MHz, 768 MB GDDR3, ca. 145W, ca. 550 Euro
• GeForce 8800 GTX
575/1350/900 MHz, 640 MB GDDR3, 132W, ca. 450 Euro
• GeForce 8800 GTS 640MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 640 MB GDDR3, 106W, ca. 310 Euro
Performance R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 Pro
600/800 MHz, 512 oder 1024 MB GDDR3, ca. 150 bzw. 160W, ca. 220 bzw. 260 Euro
• Radeon HD 2900 GT
600/800 MHz, nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface, 256 MB GDDR3, ca. 120W, ca. 175 Euro

Dual RV630
2x 120 Shader-Einheiten, 2x 8 TMUs, 2x 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT X2
800/700 MHz, 2x 256 MB GDDR3, ca. 90W, ca. 220 Euro

G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 GTS 320MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W, ca. 240 Euro
Mainstream RV630
120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT GDDR4
800/1100 MHz, 256 oder 512 MB GDDR4, 49W, ca. 120 bzw. 170 Euro
• Radeon HD 2600 XT GDDR3
800/700 MHz, 256 oder 512 MB GDDR3, ca. 45W, ca. 90 bzw. 105 Euro
• Radeon HD 2600 Pro
600/400 MHz, 256 oder 512 MB GDDR2/GDDR3, ca. 35W, ca. 70 bzw. 75 Euro
G84
32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8600 GTS
675/1450/1000 MHz, 256 oder 512 MB GDDR3, 47W, ca. 140 bzw. 170 Euro
• GeForce 8600 GT
540/1190/700 MHz, 256 oder 512 MB GDDR3, ca. 40W, ca. 90 bzw. 100 Euro
LowCost (Value) RV610
40 Shader-Einheiten, 4 TMUs, 64 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2400 XT
700/800 MHz, 256 MB GDDR3, 19W, ca. 55 Euro
• Radeon HD 2400 Pro
525/400 MHz, 128 oder 256 oder 512 MB GDDR2, ca. 15W, ca. 40 bzw. 40 bzw. 65 Euro
G86
16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8500 GT
450/900/400 MHz, 256 oder 512 MB GDDR2/GDDR3, 27W, ca. 65 bzw. 75 Euro
• GeForce 8400 GS
nur 64 Bit DDR Speicherinterface, 450/900/400 MHz, 256 oder 512 MB GDDR2, ca. 25W, ca. 40 bzw. 60 Euro
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen.

Diese Lineups werden in den kommenden Wochen jedoch gehörig durchgeschüttelt werden, in einem halben Jahr dürften die derzeit am Markt befindlichen Grafikkarten wohl komplett durch die kommende Refresh-Generation ersetzt werden. Nachfolgend wollen wir nun betrachten, was die einzelnen Grafikchip-Entwickler an Neuheiten planen.

Inhalt abgleichen