Grafikkarten

nVidia stellt die ersten Mainstream Direct3D10-Grafikkarten vor

Dienstag, 17. April 2007
 / von Leonidas
 

Mit dem heutigen Tag kommen nun endlich auch erste Mainstream-Grafikkarten aus der Direct3D10-Generation in den Markt. Wie schon beim HighEnd-Chip G80 ist auch hier wieder nVidia der Vorreiter, wenngleich natürlich auch von ATI demnächst ähnliches zu erwarten ist. Die primäre Aufgabe der neu in den Markt kommenden Karten ist dabei natürlich die Ablösung der "alten" Mainstream-Generation um die Chips G73 (GeForce 7600 Serie) und G71 (GeForce 7900/7950 Serie). Gleichzeitig setzt man damit aber auch den Grundstein für die Durchsetzung von Direct3D10-Grafikkarten im Markt, schließlich sind die bisherigen Verkäufe der HighEnd-Lösungen GeForce 8800 GTS und GTX natürlich bei weitem nicht ausreichend, um von einem beachtbaren Marktanteil an verkauften Direct3D10-Lösungen zu sprechen.

Für den interessierten User dürfte aber in erster Linie interessant sein, daß sich nun Direct3D10-Hardware auch in der Preisspanne von 100 bis 200 Euro erwerben läßt. Hierzu wirft nVidia zwei neue Grafikchips in die Waagschale: Die LowCost-Lösung G86 und die Mainstream-Lösung G84. Über beide wurde in letzter Zeit an dieser Stelle schon viel berichtet und auch wurden schon viele (letztlich passende) Informationen zusammengetragen – beim entscheidenden Punkt der Anzahl der Shader-Einheiten irrte die Vorab-Berichterstattung allerdings: So spendierte nVidia dem G84-Chip nur vier Vec8-ALUs und damit ganze 32 Shader-Einheiten.

Die Funktionsblöcke wurden allerdings dahingehend verändert, das die beim G80-Chip noch doppelt ausgelegten Textureneinheiten, welche jedoch nur eine einfach ausgelegte Addressierungseinheit besitzen, nunmehr zwei Adressierungseinheiten spendiert bekamen und daher als zwei extra Textureneinheiten gewertet werden können. Demzufolge hat der G84-Chip nicht zwei Quad-TMUs, sondern gleich zwei Octo-TMUs, insgesamt also 16 Textureneinheiten. Gegenüber dem G80-Chip ist das natürlich trotzdem eine herbe Abspeckung, dieser besitzt glatt das Vierfache an reiner Rechenleistung, nämlich immerhin 128 Shader-Einheiten (16 Vec8-ALUs).

Beim Speicherinterface wird es wie schon vorab berichtet nicht mehr als ein 128 Bit DDR-Interface mit 8 ROPs geben (nVidia bindet die ROPs ans Speicherinterface) – auch hier hat der G80-Chip deutlich mehr zu bieten: Dessen 384 Bit breites DDR-Interface samt 24 ROPs ergeben das Dreifache des G84-Chips. Insofern erscheint der neue Mainstream-Grafikchip G84 doch arg beschnitten gegenüber der GeForce 8800 Serie zu sein – mit auch der Auswirkung, das sich die GeForce 8600 Serie wohl ziemlich abstrampeln wird müssen, um überhaupt gegenüber den bisherigen Mainstream-Grafikkarten bestehen zu können.

Daneben wurde noch der LowCost-Grafikchip G86 vorgestellt, dessen größte Ausführung GeForce 8500 GT das untere Ende des Mainstream-Marktes darstellen wird. Beim G86-Chip gibt es dann nur noch zwei Vec8-ALUs (16 Shader-Einheiten) mit einer Octo-TMU (8 Textureneinheiten), allerdings blieb das Speicherinterface wenigstens bei 128 Bit DDR. Allerdings sind in Form von GeForce 8300 GS und 8400 GS noch weitere G86-Ausführungen in Planung, welche dann nur noch mit 64 Bit breitem DDR-Interface antreten werden. Diese beiden letztgenannten Karten hat nVidia heute aber noch nicht vorgestellt, erst einmal kommen GeForce 8500 GT, 8600 GT und 8600 GTS in den Markt:

  GeForce 8500 GT GeForce 8600 GT GeForce 8600 GTS
Chip-Basis nVidia G86
210 Millionen Transistoren in 80nm bei TSMC
nVidia G84
289 Millionen Transistoren in 80nm bei TSMC
Technologie-Klasse Direct3D10, Shader 4, unified Shader-Architektur
Shader-Einheiten zwei Vec8-ALUs (insgesamt 16 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten) vier Vec8-ALUs (insgesamt 32 Shader-Einheiten)
Texturen-Einheiten eine Octo-TMU (ingesamt 8 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten) zwei Octo-TMUs (insgesamt 16 Texturen-Einheiten)
Raster Operation Units (ROPs) ? 8 8
Speicherinterface 128 Bit DDR 128 Bit DDR 128 Bit DDR
Speicherbestückung 256 MB 256 MB 256 MB
allgemeiner Chiptakt 450 MHz 540 MHz 675 MHz
Shader-Takt 900 MHz 1190 MHz 1450 MHz
Speichertakt 400 MHz 700 MHz 1000 MHz
Bauform PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, Varianten mit/ohne vollständiger HDCP-Kompatibilität PCI Express, SingleSlot, alle Varianten sind vollständig HDCP-kompatibel
Leistungsaufnahme unbekannt (Karten haben keinen extra Power-Anschluß) 43 Watt realer Verbrauch (Karten haben keinen extra Power-Anschluß) 71 Watt realer Verbrauch (Karten haben extra Power-Anschluß)
Listenpreis 89 – 129 Dollar 149 – 159 Dollar 199 – 229 Dollar
Bild Referenzmodell nVidia GeForce 8500 GT (Referenzmodell) nVidia GeForce 8600 GT (Referenzmodell) nVidia GeForce 8600 GTS (Referenzmodell)

Wie gut zu sehen, liegt zwischen den beiden G84-Vertretern damit "nur" ein Taktunterschied von zwischen 20 und 40 Prozent, was sich aber recht gut mit dem Listenpreis-Unterschied von 33 Prozent deckt. Die GeForce 8500 GT hat hingegen nur die Hälfte der Render-Einheiten einer GeForce 8600 GT und dazu auch noch klar niedrigere Taktraten – hier dürfte wohl ein deutlicherer Performanceunterschied zu erwarten sein, als es die 50 Prozent Listenpreis-Unterschied vermuten lassen.

Leider gibt es derzeit kaum Benchmarks zur GeForce 8500 GT, primär haben sich die bisherigen Artikel zu den neuen Mainstream-Grafikkarten von nVidia mit den Modellen GeForce 8600 GT und GTS beschäftigt. Nachfolgend die Liste der derzeit im Netz diesbezüglich zu findenden Artikel:

Dabei kommen GeForce 8600 GT und GTS in den meisten dieser Tests zumindestens bezüglich der reinen Performance erstaunlich mittelmäßig weg. Viele Tests berichten von einer Performance der GeForce 8600 GT nur 20 Prozent überhalb der GeForce 7600 GT, währenddessen die GeForce 8600 GTS oftmals nur auf dem Niveau von Radeon X1950 Pro und GeForce 7900 GS rangiert. Dabei haben GeForce 8600 GT und GTS insbesondere ihre Probleme in Auflösungen oberhalb von 1280x1024 – auf der anderen Seite muß man sich aber auch eingestehen, das Mainstream-Grafikkarten im gewöhnlichen nicht für Auflösungen von 1600x1200 und mehr gebaut werden.

Das eigentliche Problem der GeForce 8600 GT und GTS ist dabei jedoch nicht der Abstand zur vorhergehenden Mainstream-Generation in Form von Radeon X1600/X1650 und GeForce 7600 Serie, diese Karten können die neuen Direct3D10-Beschleuniger sicherlich ausstechen. Das Problem der GeForce 8600 GT und GTS sind vielmehr die aktuell im Preisbereich von 150 bis 200 Euro angebotenen Mainstream-Beschleuniger der DirectX9-Klasse, welche unter der Haube sämtlich aus dem HighEnd-Bereich stammende Grafikchips besitzen. Gegen die technische Überlegenheit dieser Karten könnten GeForce 8600 GT und GTS allerhöchstens mit einem besseren Preis punkten, allerdings sieht die aktuelle Preislage derzeit eher umgedreht aus:

ATIs "alte" Mainstream Grafikkarten nVidias neue Mainstream Serie nVidias "alte" Mainstream Grafikkarten
- - GeForce 7950 GT
256 MB ca. 220 Euro
512 MB ca. 220 Euro
Radeon X1950 XT
256 MB ca. 200 Euro
512 MB ca. 220 Euro
GeForce 8600 GTS
256 MB ca. 200 Euro
-
- - GeForce 7900 GT
256 MB ca. 180 Euro
Radeon X1950 Pro
256 MB ca. 150 Euro
512 MB ca. 180 Euro
- GeForce 7900 GS
256 MB ca. 150 Euro
512 MB ca. 170 Euro
Radeon X1900 GT
256 MB ca. 130 Euro
GeForce 8600 GT
256 MB ca. 130 Euro
-
- - GeForce 7600 GT
256 MB ca. 110 Euro
Radeon X1650 XT
256 MB ca. 80 Euro
512 MB ca. 90 Euro
GeForce 8500 GT
256 MB ca. 90 Euro
GeForce 7600 GS
256 MB ca. 80 Euro
512 MB ca. 100 Euro

Nach der jüngsten Preisentwicklung (die GeForce 8600 GT fiel innerhalb der ersten drei Stunden nach dem Launchtermin um 15 Uhr von 150 auf 130 Euro) scheint sich die GeForce 8600 GT zumindestens nVidia-intern passabel einordnen zu können: Dem Mehrpreis gegenüber der GeForce 7600 GT steht wohl auch eine halbwegs gleiche Mehrperformance gegenüber – auch wenn man sich diese durchaus größer vorstellen könnte. Gegenüber der (allerdings nur noch selten angebotenen) Radeon X1900 GT wird es dagegen schon kritischer, da diese Karte nur geringfügig hinter einer Radeon X1950 Pro zurückliegt und schon die deutlich schneller getaktete GeForce 8600 GTS so ihre Schwierigkeiten hat, sich gegenüber dieser zu behaupten.

Die GeForce 8600 GTS hingegen erscheint zum derzeitigen Preis (welcher innerhalb der ersten Stunden nach dem Launch stabil blieb) nicht konkurrenzfähig – schließlich gibt es dafür schon eine Radeon X1950 XT, welche eigentlich durchgehend erheblich mehr Performance in die Waagschale werfen kann. Da die GeForce 8600 GTS derzeit von der Performance her ungefähr auf dem Niveau von GeForce 7900 GS/GT und Radeon X1950 Pro rangiert, müsste der Preis dieser Karte demzufolge wenigstens in die Nähe von 150 Euro absinken, um die GeForce 8600 GTS attraktiv zu halten.

Ob dies passiert, kann derzeit sicherlich trefflich spekuliert werden – schließlich gab es in der Vergangenheit mehr als ausreichend Hardware-Launches, wo sich die zum Launch angesetzten Startpreise nur wenige Wochen hielten und dann auf ein statthaftes Niveau heruntergingen. Auf der anderen Seite kann man auch genauso gut einwerfen, daß eine neue Hardware, welche schon zum Start weg kein überzeugendes Preis/Leistungsverhältnis bietet, auch mit einigen Preissenkungen niemals ein wirklich gutes Preis/Leistungsverhältnis erreichen wird können.

Insofern erscheint es ganz so, als hätte nVidia mit dem Mainstream-Direct3D-Grafikchip G84 ein gutes Stück zu kurz gegriffen bzw. den Rotstift bei den Abspeckungen zum G80-Chip zu heftig angesetzt. Dies mag womöglich auch damit zusammenhängen, daß zu Zeiten der G84-Entwicklung noch niemand ahnen konnte, das ATI und nVidia derzeit ehemalige HighEnd-Grafikchips mittels Grafikkarten für teilweise klar unter 200 Euro geradezu verschleudern. Dies wird den Markterfolg von GeForce 8600 GT und GTS gerade im OEM-Bereich natürlich kaum verhindern können, schließlich zieht dort primär Direct3D10 als Verkaufsargument. Ob sich die GeForce 8600 GT und GTS Karten allerdings im Retailmarkt gut verkaufen können, wäre vorerst zu bezweifeln – dafür sind die Leistungen der gleichpreisigen DirectX9-Konkurrenz derzeit einfach zu überzeugend.

nVidia GeForce 8800 GTX Review

Montag, 30. April 2007
 / von Leonidas & Madkiller
 

Mit dem G80-Chip hat nVidia im November wie bekannt den ersten Direct3D10-Grafikchip vorgestellt, welcher auch – wie seinerzeit nicht zu erwarten war – bis jetzt der einzige entsprechende Grafikchip im HighEnd-Segment ist. Zwar hat nVidia inzwischen entsprechende Modelle für das Mainstream-Segment nachgelegt, ATI hat sein G80-Konkurrenzprojekt bis jetzt nicht offiziell vorgestellt bzw. ausgeliefert. Damit ergibt sich die ungewöhnliche Situation, daß der G80-Chip nunmehr nach runden sechs Monaten im Markt immer noch völlig allein an der Leistungspitze steht.

Zwar biegt die ATI-Konkurrenz nun langsam wirklich auf die Zielgerade ein, steht aber für diesen Artikel noch nicht zur Verfügung, welcher sich primär also damit beschäftigen wird, wie sich die GeForce 8800 GTX als Top-Modell der G80-Varianten gegenüber den vorherigen HighEnd-Lösungen positionieren kann. Daß die GeForce 8800 GTX dabei gegenüber Radeon X1950 XTX und GeForce 7900 GTX mehr oder weniger problemlos überall vorn liegen sollte, wurde natürlich auch schon mit den allerersten Artikel zu dieser Karte schnell klar.

Allerdings basieren diese Erkenntnisse im Prinzip ausschließlich auf Messungen mittels Timedemos, welche aus mehreren Gründen als reichlich ungenau bezeichnet werden können. Genauere Hintergründe hierzu liefern entsprechende Artikel hierzu, an dieser Stelle sei nur folgendes kurz ausgeführt: Bei Timedemo-Messungen fehlen im gewöhnlichen wichtige CPU-basierende Berechnungen wie die K.I. oder dynamische Physik- und Soundberechnungen. Dies ist nicht nur bei Prozessoren-Leistungstests störend, sondern betrifft auch Grafikkarten-Benchmarks, weil diese durch die abgesenkte CPU-Last teilweise deutlich höhere Frameraten als im realen Spiel auswerfen und damit auch eher in CPU-Limits laufen.

Hauptnachteil der Timedemo-Messungen ist aber, daß hiermit nur Durchschnittswerte von zumeist längeren Benchmark-Durchläufen ausgegeben werden (oder aber Minimalwerte von einzelnen Zehntelsekunden, was genauso nichtssagend ist). Damit läßt sich sicherlich ermitteln, welche Grafikkarte prinzipiell schneller ist – eine Aussage zur Spielbarkeit kann damit jedoch nicht getroffen werden. Man nimmt gewöhnlich an, daß ein Durchschnittswert von 40 fps ausreichend ist und damit auch die langsamen Szenen noch überhalb von 25 fps liegen sollten. Dies bleibt jedoch immer nur eine Annahme: Denn um zu einem Durchschnittswert von 40 fps zu kommen, kann das eine Spiel in der Tat zwischen 25 und 60 fps schwanken – ein anderes aber auch zwischen 10 und 100 fps.

Das Prinzip der Durchschnittsframeraten-Messungen wird diesem also selber zum Verhängnis, da bei einer solchen Messung eben nie festgestellt werden kann, wie die einzelnen Grafikkarten die wirklich Performance-kritischen Stellen bewältigen. Wenn man wirklich wissen will, wie es ausschaut, wenn die Frameraten nach unten gehen und die Hardware wirklich gefordert wird, muß auch auch nur genau das ausmessen – mittels kurzen Savegames von besonders performance-kritischen Stellen im Spiel. Erst mit diesen Messwerten in der Hand läßt sich dann auch sagen, welche Settings eine Grafikkarten noch verträgt – und welche nicht mehr.

Solcherart Benchmarks entsprechen damit auch dem, was der Spieler letztlich im Alltagseinsatz selber so macht: Die Orientierung der Spielsetting nicht an der (meist problemlosen) Durchschnittsperformance, sondern bewußt an den langsamen Stellen im Spiel. Kaum jemand stellt sein Spiel auf solcherart Settings, welche dem Spieler zwar gewöhnlich 40 garantieren, in bestimmten Szenen jedoch auf unter 15 fps einbrechen – in einer solchen Situation wird man wohl meistens seine Settings überdenken. Genau diesem Verhalten aus der Praxis sind auch unsere nachfolgenden Benchmarks geschuldet: Vermessen werden soll nicht eine Durchschnittsperformance, sondern das, was übrig bleibt wenn die Grafikkarten wirklich gefordert sind.

Dazu wurde wie gesagt auf Timedemo-Messungen verzichtet und komplett auf Savegames gesetzt. Jedes einzelne Savegame enthält dabei nur eine kurz Sequenz von drei bis fünf Sekunden mit einer wirklich Hardware-fordernden Spielszene, deren Durchschnittswerte mittels Fraps (in jeweils drei Messungen) ermittelt wurden. Da zudem eine einzelne kurze Spielszene nur eine äußerst beschränkte Aussage zu den wirklichen Performance-Tiefstpunkten im Spiel geben kann, wurden für jedes Benchmark-Spiel gleich ganze vier Savegames angesetzt. Dieses Testverfahren ist insgesamt betrachtet äußerst aufwendig, erscheint uns aber derzeit als beste bekannte Möglichkeit, Grafikkarten nicht nur nach der Frage von "schneller oder langsamer", sondern auch nach der Frage "spielbar oder nicht spielbar" austesten zu können.

Vorab sei an dieser Stelle den Firmen Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel ermöglicht wurde. Ausdrücklicher Dank gilt zudem der Firma Asus für die Teststellung der titelgebenden GeForce 8800 GTX.

                           

Die neuen Desktop-Lineups von ATI und nVidia

Donnerstag, 24. Mai 2007
 / von Leonidas
 

Im Zuge des Launches der Radeon HD 2900 XT kündigte ATI auch das Erscheinen der Radeon HD 2400 und 2600 Serien im Juni an, selbst wenn die Daten zu diesen Karten tief in den Launch-Präsentationen vergraben waren und daher kaum beachtet wurden. In der Tat hatte man natürlich von ATI einen vollständigen Launch aller dieser Grafikkarten erwartet – und als dieser ausblieb, konzentrierte man sich eben vollständig auf die Radeon HD 2900 XT bzw. den R600-Chip.

Nichts desto trotz liegen die Daten zu den Radeon HD 2400 und 2600 Karten seitens ATI vor, womit nun beide Grafikchip-Entwickler ein vollständiges Direct3D10-Produktprogramm am Markt bzw. zumindestens sicher angekündigt haben. Die Aufgabe der kommenden Zeilen und Gegenüberstellungen wird nunmehr sein, das jeweilige Direct3D10-Programm der beiden Hersteller vollständig in Zahlen und Worte zu fassen, wie aber auch preislich eventuell interessante Überschneidungen zum noch im Markt befindlichen DirectX9-Angebot aufzuzeigen.

Anmerkungen: Alle genannten Straßenpreise basieren auf dem Stand 23. Mai 2007 frühmorgens und dürften sich im Laufe der folgenden Tage und Wochen natürlich immer weiter nach unten verschieben. Alle Bandbreitenangaben wurden zudem nach der 1024er Regel errechnet, als Maßeinheit hierfür wurde allerdings das altherkömmliche Gigabyte/Sekunde benutzt, nicht das neuere, in der Industrie jedoch nach wie vor unübliche Gibibyte/Sekunde.

Die neuen Mobile-Lineups von ATI und nVidia

Mittwoch, 6. Juni 2007
 / von Leonidas
 

Nach dem entsprechenden Artikel zu den neuen Desktop-Lineups von ATI und nVidia wollen wir uns nunmehr auch den neuen Mobile-Grafikchips der beiden Grafikchip-Entwickler widmen. Im Zuge dessen, daß Notebooks inzwischen fast für die Hälfte der insgesamten PC-Verkäufe stehen und es auch leistungsfähige Notebooks zum vollständigen Ersatz von Desktop-Computern gibt, steigt schließlich die Bedeutung der Mobile-Grafikchips immer mehr an – ein Umstand, welchem wir mittels dieses Artikels erstmalig wirklich Rechnung tragen wollen. Zudem bietet sich die Betrachtung der Angebote beider Grafikchip-Entwickler gerade bei den sehr unübersichtlichen Angebotspaletten im Notebook-Markt besonders an.

Für diesen haben ATI und nVidia kürzlich ihre ersten Direct3D10-Lösungen vorgestellt, welche im Juni/Juli dann auch in ersten Notebooks verbaut werden sollen. Beachtenswert ist hierbei allerdings, daß beide Grafikchip-Entwickler bislang nur für das LowCost- und das Mainstream-Segment Direct3D10-Lösungen vorsehen, nicht aber für das HighEnd-Segment. Dort werden weiterhin DirectX9-Lösungen angeboten – was wohl primär damit zusammenhängen dürfte, daß die derzeitigen Direct3D10 HighEnd-Grafikchips bezüglich der Stromaufnahme kaum auf für Notebooks gangbare Werte herunterzudrücken sind. Aus diesem Grund sowie aus dem Gedanken, daß gerade im Notebook-Markt oftmals noch recht lange "ältere" Grafikchips verbaut werden, wurde nachfolgend nicht nur das Direct3D10-Produktprogramm beider Hersteller, sondern auch deren aktuelle DirectX9-Beschleuniger für den Mobile-Einsatz komplettaufgeführt.

Um im Namens- und Taktraten-Dschungel einen besseren Überblick zu behalten, haben wir zudem nachfolgend immer eine Einschätzung des Leistungsniveaus anhand bekannter Desktop-Beschleuniger notiert. Diese Einschätzungen beziehen sich natürlich immer nur auf die genannten maximalen Taktraten sowie das größmögliche Speicherinterfaces der jeweiligen Mobile-Lösung. Es sei hierbei aber immer mit zu bedenken, daß in der Realität die Notebook-Hersteller diese maximalen Taktraten oftmals nicht erreichen, sondern viele Mobile-Grafiklösungen mit bis zu 30 Prozent niedrigeren Taktraten verbaut werden.

Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung

Dienstag, 25. September 2007
 

Genug Zeit ist mittlerweile seit dem Launch der Direct3D10 HighEnd-Grafikchips G80 (GeForce 8800 Serie) und R600 (Radeon HD 2900 Serie) vergangen – was den großen Rahmen angeht, ist die Bestandsaufnahme bezüglich Leistungsfähigkeit, Bildqualität und Kompatibilität wohl abgeschlossen. Auch DualCore-Prozessoren haben sich bei der Zielgruppe dieses Artikels inzwischen weitestgehend durchgesetzt, ihre Auswirkungen auf die Leistungsfähigkeit in Spielen wurden bis zum jetzigen Zeitpunkt ebenfalls hinreichend untersucht und insgesamt kann man für den folgenden Test davon ausgehen, dass Spiele umso mehr von DualCore, teils in erheblichem Maße, profitieren, je neuer sie sind.

Die Erkenntnisse, die aus den vorgenannten Testberichten gewonnen wurden, gilt es jetzt zu verdichten und zusammenzuführen. Schließlich sind beide neuen Technologien wie beschrieben ausreichend lange im Markt, sollten sich die Grafikchip-Entwickler und die jeweiligen Treiberteams inzwischen darauf eingestellt haben können. Es gibt also zwei Fragen, die dieser Testbericht beantworten soll:

  • Welcher Grafikchip-Entwickler und welche Grafikkarten-Generation skaliert besser mit der Erweiterung von SingleCore auf DualCore?
  • Welcher Treiber verursacht die höhere CPU-Last?

Wobei die erste Frage des Testberichts zwangsläufig zu einer weiteren – hier und heute jedoch kaum beantwortbaren – Frage führen wird: Liegt die bessere DualCore-Skalierung von Hersteller A an einem besseren Treiber – oder an der zu hohen Komplexität des Designs von Hersteller B?

Für die hierfür angestellten Benchmarks gelten folgende Rahmenbedingungen:

  • Es werden vier Grafikkarten von zwei Herstellern getestet – je zwei aus der aktuellen Generation, zwei Karten aus der Vorgängergeneration: Es sind die (Club3D) GeForce 8800 GTS 640MB und die (Sapphire) Radeon HD 2900 XT sowie die (nVidia) GeForce 7950 GT und die (Sapphire) Radeon X1900 XT.
  • Die Testplattform ist ein Core 2 Duo 6400 mit 4GB RAM, genauere Daten zum System sind hier zu finden.
  • Als Treiber kamen seitens ATI der Catalyst 7.7 und seitens nVidia die ForceWare-Versionen 94.24 (GeForce 7950 GT) sowie 158.22 und 162.18 (GeForce 8800 GTS) zum Einsatz.
  • Jede Karte wird einem Testdurchlauf mit einer SingleCore-CPU und einem Testdurchlauf mit einer DualCore-CPU unterzogen. Die SingleCore-CPU wird hierbei künstlich über den Parameter "/numproc 1" in der "boot.ini" von Windows erzeugt.
  • Um die Ergebnisse und ihre Aussagen besser erkennbar zu machen, wird durch niedrige Auflösungen sichergestellt, daß ein möglichst einwandfreies CPU-limitiertes Szenario vorliegt.
  • Es werden ausschließlich Savegames zum testen verwendet.
  • Jedes Spiel wird in vier verschiedenen Szenarien getestet, um eine möglichst große Allgemeingültigkeit der Ergebnisse für das jeweilige Spiel zu erreichen.

Vorab sei an dieser Stelle den Firmen Club3D, Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel wieder ermöglicht wurde.

                           

Die kommenden Grafikchips von ATI, nVidia und S3

Dienstag, 9. Oktober 2007
 / von Leonidas
 

Rein technisch haben wir mittlerweile fast ein volles Jahr herum, nachdem die allerersten Direct3D10-Beschleuniger in Form der GeForce 8800 GTS/GTX Karten im November 2006 vorgestellt wurden. Und selbst wenn ATI seinen Konter in Form der Radeon HD 2900 XT erst mit einigen Monaten Verspätung in den Markt bringen konnte, sind nach gängigen Rechnungen, wonach aller sechs bis neun Monate eine neue Grafikkarten-Generation in den Markt kommt (was nicht bedeutet, daß es sich dabei um grundlegend neue Architekturen handeln muß), die nächsten Grafikkarten eigentlich schon leicht überfällig.

ATI und nVidia werden diesem Zustand über die nächsten Wochen allerdings abhelfen, welche aus Grafikkarten-Sicht durchaus interessant werden dürften. So kommen derzeit zunächst die R600-Abwandlungen Radeon HD 2900 GT und Pro für das Performance-Segment in den Markt. Im November läutet nVidia dann mit dem G92-Chip für das Performance-Segment die eigentliche Refresh-Generation ein, hier werden der G98-Chip für das LowCost-Segment und der G90-Chip für das HighEnd-Segment in Kürze folgen, nächstes Frühjahr soll dann noch ein G96-Chip für das Mainstream-Segment kommen.

Bei ATI hingegen lauten die Refreshchips RV620 (LowCost), RV635 (Mainstream), RV670 (Performance/HighEnd), zeitmäßig sind diese ebenfalls um das Jahresende einzuordnen. Und letztlich will nun auch noch S3 Graphics wieder einmal mit neuen Grafikchips antreten, geplant sind hierbei für den Jahresanfang die Chips Chrome 430 (LowCost) und Chrome 460 (Mainstream). Wenn das alles klappen sollte, wird es in der Tat ein interessanter Grafikchip-Herbst – in der Praxis dürfte dann aber wohl doch Murphy's Law greifen, womit sich einige der vorgenanten Grafikchips ins nächste Jahr verspäten werden oder zumindestens erst im nächsten Jahr käuflich erhältlich sein werden.

Doch der Reihe nach. Zuerst einmal werden wir die derzeit auf dem Markt befindlichen Direct3D-Grafikchips kurz skizzieren, damit die Ausgangslage klar ist. Danach wenden wir uns dann den einzelnen kommenden neuen Grafikchips zu. Dies kann natürlich nur auf Basis der derzeit vorhandenen Informationen erfolgen – welche, gemischt mit eigenen Überlegungen, jederzeit fehlbar sein können. Es ist also bitte nicht davon auszugehen, daß alles, was dieser Artikel nachfolgend vorhersagt, auch so eintreffen wird. Es handelt sich hier um eine Bestandsaufnahme des aktuell verfügbaren Wissens, um eben dieses in eine gewisse Form zu bringen. Nichts desto trotz werden sich in den News der kommenden Wochen sicherlich noch einige Anmerkungen und Korrekturen zu diesem Artikel ergeben.

Vorab sei noch klargestellt, daß dieser Artikel wie auch unsere zukünftige Berichterstattung generell von der Einteilung des Grafikkarten-Marktes in vier Teilsegmente ausgeht: LowCost (Value), Mainstream, Performance und HighEnd (Enthusiast). Diese Einteilung wurde seitens der Grafikchip-Entwickler schon seit einiger Zeit vorgenommen, bislang allerdings regelmäßig mit nur drei verschiedenen Grafikchips einer Generation zu bedienen versucht. Spätestens mit der kommenden Refresh-Generation wird zumindestens nVidia aber mit jeweils vier Grafikchips pro Generation arbeiten, womit sich die generelle Markt-Unterteilung in vier Teilsegmente nunmehr geradezu aufdrängt.

Preislich lassen sich diese Teilsegmente im übrigen grob folgendermaßen abtrennen: LowCost bis 100 Dollar, Mainstream von 80 bis 200 Dollar, Performance von 150 bis 300 Dollar und HighEnd von 250 Dollar an aufwärts. Wie den genannten Geldbeträgen schon zu entnehmen, sind die Grenzen jedoch eher fließend bzw. sehen verschiedene Mitspieler am Markt die Grenzen jeweils ein wenig anders. Betrachtet man die alten und neuen Grafikchips allerdings nachfolgend etwas genauer, lassen sich diese dann doch jeweils recht eindeutig einem Marktsegment zuordnen.

Doch zuerst zu der Übersicht der aktuell am Markt befindlichen Grafikchips und daraus resultierenden Grafikkarten:

  ATI nVidia
HighEnd (Enthusiast) R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 XT 1GB
742/1000 MHz, 1024 MB GDDR4, ca. 180W, ca. 430 Euro
• Radeon HD 2900 XT
742/825 MHz, 512 MB GDDR3, 161W, ca. 330 Euro
G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 Ultra
612/1512/800 MHz, 768 MB GDDR3, ca. 145W, ca. 550 Euro
• GeForce 8800 GTX
575/1350/900 MHz, 640 MB GDDR3, 132W, ca. 450 Euro
• GeForce 8800 GTS 640MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 640 MB GDDR3, 106W, ca. 310 Euro
Performance R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 Pro
600/800 MHz, 512 oder 1024 MB GDDR3, ca. 150 bzw. 160W, ca. 220 bzw. 260 Euro
• Radeon HD 2900 GT
600/800 MHz, nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface, 256 MB GDDR3, ca. 120W, ca. 175 Euro

Dual RV630
2x 120 Shader-Einheiten, 2x 8 TMUs, 2x 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT X2
800/700 MHz, 2x 256 MB GDDR3, ca. 90W, ca. 220 Euro

G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 GTS 320MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W, ca. 240 Euro
Mainstream RV630
120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT GDDR4
800/1100 MHz, 256 oder 512 MB GDDR4, 49W, ca. 120 bzw. 170 Euro
• Radeon HD 2600 XT GDDR3
800/700 MHz, 256 oder 512 MB GDDR3, ca. 45W, ca. 90 bzw. 105 Euro
• Radeon HD 2600 Pro
600/400 MHz, 256 oder 512 MB GDDR2/GDDR3, ca. 35W, ca. 70 bzw. 75 Euro
G84
32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8600 GTS
675/1450/1000 MHz, 256 oder 512 MB GDDR3, 47W, ca. 140 bzw. 170 Euro
• GeForce 8600 GT
540/1190/700 MHz, 256 oder 512 MB GDDR3, ca. 40W, ca. 90 bzw. 100 Euro
LowCost (Value) RV610
40 Shader-Einheiten, 4 TMUs, 64 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2400 XT
700/800 MHz, 256 MB GDDR3, 19W, ca. 55 Euro
• Radeon HD 2400 Pro
525/400 MHz, 128 oder 256 oder 512 MB GDDR2, ca. 15W, ca. 40 bzw. 40 bzw. 65 Euro
G86
16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8500 GT
450/900/400 MHz, 256 oder 512 MB GDDR2/GDDR3, 27W, ca. 65 bzw. 75 Euro
• GeForce 8400 GS
nur 64 Bit DDR Speicherinterface, 450/900/400 MHz, 256 oder 512 MB GDDR2, ca. 25W, ca. 40 bzw. 60 Euro
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen.

Diese Lineups werden in den kommenden Wochen jedoch gehörig durchgeschüttelt werden, in einem halben Jahr dürften die derzeit am Markt befindlichen Grafikkarten wohl komplett durch die kommende Refresh-Generation ersetzt werden. Nachfolgend wollen wir nun betrachten, was die einzelnen Grafikchip-Entwickler an Neuheiten planen.

ATI RV670 & nVidia G92: Die neue Marktsituation

Sonntag, 18. November 2007
 / von Leonidas
 

Nachdem ATI und nVidia die ersten Grafikchips ihrer jeweiligen Refresh-Generation in den Handel entlassen haben, lohnt der Blick auf die dadurch neu entstandene Marktsituation. Dies gilt ganz besonders, da ATI und nVidia beiderseits erstmals eine neue Generation nicht mit den entsprechenden HighEnd-Lösungen gestartet haben, sondern mit den Beschleunigern für das Performance-Segment zwischen Mainstream- und HighEnd-Segment in Form von Radeon HD 3850 und 3870 auf Basis des RV670-Chips von ATI und der GeForce 8800 GT auf Basis des G92-Chips von nVidia. Damit wird zwar zum einen eine lange bestehende Lücke im Produkt-Portfolio beider Hersteller geschlossen, auf der anderen Seite ist es aber auch sehr interessant, wie sich die neuen Performance-Beschleuniger gegenüber den bisherigen HighEnd- und Mainstream-Grafikkarten positionieren.

Dabei haben sich beide Grafikchip-Entwickler mit Neuerungen bei den neuen Grafikchips RV670 und G92 zweifelsfrei nicht überschlagen: Beide Grafikchips stellen prinzipiell sogar nur kleinere Varianten der Vorgänger-Grafikchips R600 und G80 dar, in beiden Fällen wurde das Speicherinterface auf nun wieder einheitlich 256 Bit DDR limitiert. Am Rest der Hardware hat sich weitestgehend und bis auf kleinere Verbesserungen nichts geändert. Allenfalls wäre zu erwähnen, daß ATIs RV670 nunmehr gleich schon Direct3D 10.1 unterstützt, ein praktischer Nutzen aus diesem Support der neueren 3D-Schnittstelle dürfte sich aber erst in noch einige Zeit entfernter Zukunft ergeben.

Allerdings ist damit die neue Performance-Riege auch schon gut charakterisiert: Faktisch bekommt man die dieselbe Hardware-Power wie bisher bei den HighEnd-Boliden nur mit etwas geringerer Speicherbandbreite. Was sich jetzt schon reichlich gut anhört, wird noch besser durch die Preisgestaltung, welche die Grafikchip-Entwickler gewählt haben: ATI bietet die Radeon HD 3870 um die 40 Prozent günstiger als die nur runde 5 Prozent langsamere Radeon HD 2900 XT an, während nVidia die GeForce 8800 GT 512MB um die 30 Prozent günstiger als die zwischen 5 und 20 Prozent langsamere GeForce 8800 GTS 640MB ansetzt.

Und während ATI und nVidia am oberen Ende der neuen Performance-Riege die "alten" HighEnd-Beschleuniger somit faktisch entwerten, gibt es am unteren Ende der neuen Beschleuniger-Klasse endlich wieder einmal ordentlich viel Leistung für vergleichsweise wenig Geld. Die Radeon HD 3850 sowie die GeForce 8800 GT 256MB gehen in den Preisbereich von 150 bis 200 Euro, in welchem bislang die GeForce 8600 GTS zur finden war. Diese regierte diesen Preisbereich bislang einsam – so daß nicht wirklich auffiel, daß diese Karte eigentlich etwas zu teuer war gemessen am Preis/Leistungsverhältnis. Die neuen Performance-Beschleuniger bieten nun aber auch in diesem Preisbereich wirklich angemessene Leistung fürs Geld.

Damit ergibt sich die nachfolgend vorgestellte neue Marktsituation. Zu beachten wäre an der nachfolgenden Aufstellung, daß die technischen Daten zwischen den beiden Grafikchip-Entwicklern aufgrund deren unterschiedlicher Architekturen natürlich kaum vergleichbar sind, sondern nur als Anhaltspunkt zur Unterscheidung der Karten desselben Grafikchip-Entwicklers dienen.

ATI Preislage nVidia
  540-560
Euro
GeForce 8800 Ultra 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 612/1512/1080 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 145W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  420-440
Euro
GeForce 8800 GTX 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 575/1350/900 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, 132W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  370-390
Euro
neue GeForce 8800 GTS 640MB
nVidia G80, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 320 Bit DDR Speicherinterface, 500/1200/800 MHz *, 640 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 120W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
* es werden derzeit (zu dieser Preislage) fast ausschließlich ab Werk übertaktete Karten mit Taktraten zwischen 540/1242/850 MHz und 576/1350/900 MHz angeboten
 
  210-230
Euro
GeForce 8800 GT 512MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 80W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3870 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 775/1125 MHz, 512 MB GDDR4, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, ca. 85W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
190-210
Euro
 
Radeon HD 3850 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 70W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
170-190
Euro
GeForce 8800 GT 256MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 75W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 256MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 65W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
150-160
Euro
 
Radeon HD 2900 GT
ATI R600, Direct3D10, 240 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 600/800 MHz, 256 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 100W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
140-150
Euro
GeForce 8600 GTS 512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  120-130
Euro
GeForce 8600 GTS 256MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR4
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/1100 MHz, 256 MB GDDR4, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
100-110
Euro
 
Radeon HD 2600 XT 512MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
90-100
Euro
 
  80-90
Euro
GeForce 8600 GT 256/512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 540/1190/700 MHz, 256/512 MB GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 40W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
70-90
Euro
 
Radeon HD 2600 Pro 256/512MB
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 600/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 35W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
60-70
Euro
GeForce 8500 GT 256/512MB
nVidia G86, Direct3D10, 16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 450/900/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 25W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
     
Nicht mehr in dieser Aufstellung gelistet sind die folgenden Karten aus den nachfolgend genannten Gründen:
  • Radeon HD 2400 Pro/XT, GeForce 8400 GS – aus Performance-Sicht klar zu langsam für eine zum Spielen zu benutzende Grafikkarte
  • Radeon HD 2600 XT 512MB GDDR4 – mit 512 MB kaum noch lieferbar und dann deutlich überteuert im Vergleich zur 256-MB-Version
  • Radeon HD 2600 X2 (DualChip-Lösung) – faktisch nicht erhältlich, durch die Radeon HD 3850/3870 auch vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 Pro – ausgelaufen, neue Karten werden nicht mehr geliefert
  • GeForce 8800 GTS – durch die GeForce 8800 GT vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen
  • Radeon HD 2900 XT – durch die Radeon HD 3870 vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen

Sehr gut zu sehen in obiger Aufstellung ist, wie die neue Performance-Riege in ihrem Marktsegment endlich ein breit gefächertes Angebot aufbaut – ganz im Gegensatz zu der Marktsituations-Aufstellung vom Mai, wo zwischen GeForce 8600 GTS und GeForce 8800 GTS eine riesige Leistungslücke klaffte. Ähnlich zu der Aufstellung vom Mai ist hingegen, daß ATI weiterhin keine echten HighEnd-Beschleuniger anbietet. Hier hat sich die Situation sogar noch verschärft: Während ATI im Mai noch Angebote bis zu einem Preisbereich von 360 Euro hatte, kostet die teuerste aktuelle ATI-Karte gerade einmal 210 Euro. Ob es allerdings auf längere Sicht gut gehen kann, ohne jegliche HighEnd-Lösung anzutreten bzw. im HighEnd-Segment nur auf CrossFire-Lösungen zu vertrauen, wird sich erst noch zeigen müssen.

Davon abgesehen findet eine deutliche Kannibalisierung der HighEnd- und LowCost-Karten zugunsten der neuen Performance-Riege statt. In obiger Aufstellung ist dies aufgrund der fehlenden Performance-Angaben nur eher zu erahnen, deutlich wird es dann, wenn man die Preislage zur Performance in Relation bringt. Dazu haben wir uns der Benchmarks seitens der FiringSquad bedient, da diese unter den zur Verfügung stehenden Artikeln die breiteste Auswahl an Grafikkarten zur Verfügung hatten.

Infos zu Radeon HD 3x00 & GeForce9

Montag, 28. Januar 2008
 / von Leonidas
 

Den ersten Teil der aktuellen Refresh-Generation haben wir ja bereits im alten Jahr gesehen: ATI und nVidia haben hier mit Radeon HD 3850/3870 und den GeForce 8800 GT/GTS Karten den Performance-Markt vollkommen neu aufgestellt, hinzu kommen seit Mitte Januar noch die GeForce 8800 GS sowie die Radeon HD 3450/3470/3650 Karten. Allerdings war dies erst der erste Schwung der Refresh-Generation von ATI und nVidia, es folgen nun in der Winter-Saison weitere Grafikkarten für alle Marktsegmente, um welche es nachfolgend gehen soll.

Erste Hinweise zu diesen Karten lagen natürlich schon im alten Jahr vor, aber inzwischen ist die Informationslage doch wesentlich besser, lassen sich die meisten der kommenden Grafikkarten schon ziemlich gut beschreiben. Womit wir uns ohne weitere Umschweife in die Beschreibung der kommenden Grafikkarten stürzen wollen – für einen Quervergleich zur bisherigen Situation am Grafikkarten-Markt wäre dieser Artikel zu konsultieren.

nVidias HybridPower

Montag, 21. Januar 2008
 / von Leonidas
 

HybridPower logo Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit – und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, dass die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch dass die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind. Zudem würde man natürlich mit einer kürzeren Laufzeit auch die Investition in die zumeist teure Grafikkarte besser schützen bzw. im Mobile-Bereich die Akkulaufzeit verlängern.

Einem solchen Vorhaben stehen allerdings einige Hürden entgegen. So ist zuerst einmal eine Umschaltung zwischen Grafikchips verschiedener Hersteller für die primäre Bildausgabe im laufenden Betrieb nicht möglich, dies unterstützen die bisherigen Windows-Versionen nicht (erst Windows 7 soll eine solche Funktionalität enthalten). Damit wird man entweder zu einem vollkommen unkomfortablen Reboot gezwungen – oder aber es müssen auf dem Mainboard und auf der Grafikkarte Grafikchips desselben Herstellers werkeln, welche zudem mit ein und demselben Treiber betrieben werden können.

Desweiteren ist eine vollständige Abschaltung der extra Grafikkarte aus Stromspargründen bislang nicht möglich, diese kann maximal in den Idle-Modus geschickt werden. Dies kann vernünftig funktionierten, wie das Beispiel der Radeon HD 3870 zeigt, welche trotz ihrer 81 Watt unter 3D im Idle-Betrieb nur noch 19 Watt zieht. Das Gegenbeispiel hierzu ist dann allerdings die GeForce 8800 GT, welche unter 3D ziemlich ähnliche 86 Watt verbraucht, unter Idle mit 36 Watt dagegen deutlich zu viel Strom zieht (Quelle). Wegen dieses Negativbeispiels und weil man natürlich auch die 19 Watt der Radeon HD 3870 noch einsparen kann, wäre eine Abschaltung der extra Grafikkarte sicherlich sinnvoller, wenn die Bildausgabe sowie von einem integrierten Grafikchip berechnet wird.

Und letztlich ergibt sich noch das große Problem, dass bei zwei Grafikchips im System diese normalerweise beide Zugang zum Ausgabegerät in Form des Monitors haben sollten. Dies wäre zum einen mechanisch in Form eines Monitorumschalters zu lösen – deutlich eleganter wäre natürlich eine Lösung, wo beide Grafikchips zusammenarbeiten und in der Lage sind, das Bild – egal von welchem der beiden Grafikchips erzeugt – generell nur auf einen Monitorausgang zu lenken. Dies würde allerdings eine durchaus intelligente Software voraussetzen, vorstellbar ist dieses Modell auch eher nur dann, wenn beide eingesetzten Grafikchips vom selben Hersteller stammen und mit demselben Treiber arbeiten.

Bei den vorgenannten speziellen Notebooks mit zwei Grafiklösungen hat man das ganze im übrigen dadurch gelöst, dass man die jeweils zu benutzende Grafiklösung über einen Umschalter festlegt und zur Laufzeit des Systems diese Entscheidung nicht mehr geändert werden kann – ein Wechsel zur jeweils anderen Grafiklösung also einen Reboot notwendig macht. Zum Ausgabegerät in Form des Notebook-TFTs dürften sich beide Grafiklösungen wahrscheinlich über einen automatischen Monitorumschalter verbinden, in einem Notebook als feststehendem System ist so etwas auch einfacher zu realisieren als bei einem Desktop-PC.

Wirklich schön oder komfortabel ist diese Lösung aber natürlich nicht – aber wie vorstehend beschrieben, sind die zu lösenden technischen Hürden auch nicht gerade klein. Um so positiver ist nun aber, dass nVidia diese mittels der HybridPower-Technologie in den neuen Hybrid-SLI Mainboard-Chipsätzen des Herstellers gelöst haben will.

Dabei können die neuen nVidia-Chipsätze nForce 730a (unterstützt als einziger kein HybridPower), 750a und 780a (allesamt für AMD-Prozessoren) mehr: Neben einer integrierten GeForce 8200 Grafiklösung ist auch die Unterstützung für PCI Express 2.0 mit an Board, zudem wird in Zusammenhang mit der integrierten Grafiklösung auch ein Feature namens "GeForce Boost" geboten. Dabei arbeiten eine extra Grafikkarte (natürlich von nVidia) und die ins Mainboard integrierte Grafiklösung unter SLI zusammen. Dies bringt natürlich nichts bei verbauten HighEnd-Grafiklösungen, sondern ist nur zur Unterstützung von LowCost-Grafikchips wie der GeForce 8400 GS sinnvoll.

Das spannendste Feature der neuen Mainboard-Chipsätze ist aber in der Tat HybridPower. Auch dieses setzt wieder auf die integrierte GeForce 8200 Grafiklösung und definiert diese als primäre Grafikkarte für den Windows-Betrieb, der extra verbaute 3D-Beschleuniger springt dann nur für Spiele ein. Das wirklich besondere daran ist aber:

  1. Die extra Grafikkarte wird im Windows-Betrieb regelrecht ausgeschaltet und verbraucht damit (fast) überhaupt keinen Strom mehr (natürlich mit der Ausnahme des Controllerchips, welcher die Grafikkarte wieder anschalten kann). Damit werden nicht nur je nach Grafikkarte zwischen 20 und 40 Watt ansonsten sinnlos verbrauchter Energie eingespart, zudem steigt auch die Lebenserwartung der extra Grafikkarte, weil diese ja nun wirklich nur noch zum Spielen angeschaltet wird.
  2. Es sind keinerlei Umsteckereien (oder extra Monitorumschalter) vonnöten, wechselt man von dem Windows- in den Spiele-Modus und zurück. Der Monitor hängt bei HybridPower immer an dem Ausgang der integrierten Grafiklösung. Im Spiele-Betrieb wird dabei das in der extra Grafikkarte erzeugte Bildsignal über die PCI-Express-Anbindung an die integrierte Grafiklösung weitergereicht.
  3. Es ist selbstverständlich ein Wechsel der benutzten Grafiklösung im laufenden Betrieb möglich – genau dafür ist das System ja vorgesehen. Es wird also kein Reboot notwendig, wenn man zur extra Grafikkarte wechseln will – dass System schaltet selbstätig und ohne Verzug zwischen integrierter Grafiklösung und extra Grafikkarte um, je nachdem welche Aufgabe gerade ansteht.

Im Prinzip werden damit eigentlich alle der vorstehend genannten technischen Hürden übersprungen, dass System ist in dieser Form absolut rund. Aber natürlich gibt es doch noch gewisse Einschränkungen – welche allerdings nVidia als Hersteller des Systems sogar durchaus gefallen könnten: Denn es wird natürlich ein nVidia-Modell bei der extra Grafikkarte benötigt – schon allein deswegen, weil der benutzte Grafikkarten-Treiber derselbe sein muß, weil wie gesagt die bisherigen Windows-Versionen im laufenden Betrieb keinen Grafikkarten-Treiber für die primäre Bildausgabe wechseln können. Gleichzeitig muß es aber auch eine neue nVidia-Grafikkarte sein, die bisher verkauften Modelle sind allesamt leider nicht für HybridPower geeignet.

Dies hängt mit der Ein- und Ausschaltfunktionalität zusammen, welche nVidia über den SM-Bus löst – dafür muß auf den Grafikplatinen jedoch ein entsprechender kleiner Chip verlötet sein, welcher die Steuerungsbefehle zum An- und Abschalten entgegennehmen kann. Vermutlich werden schlicht alle der kommenden GeForce9-Grafikkarten HybridPower-fähig sein, aber keine der aktuellen GeForce8-Grafikkarten oder ältere nVidia-Modelle. Keine Probleme dürfte hingegen die Nutzung von PCI Express für die Datenübermittlung machen, denn da hier nur der Rückkanal von PCI Express genutzt wird (im übrigen die erste sinnvolle Anwendung des Rückkanals im Spiele-Bereich), dürfte sich keinerlei Performance-Einfluß ergeben.

Und natürlich setzt die Ausgabe auch des von der extra Grafikkarte für Spiele berechneten Bildsignals über den Monitoranschluß der integrierten Grafiklösung voraus, dass dieser konsequent als DVI-Lösung ausgeführt wird. Dies sollte zwar eigentlich schon längst Standard auch bei integrierten Grafiklösungen sein, wird aber doch noch hier und da bei einigen Mainboards des LowCost- und OEM-Bereichs eingespart. Für HybridPower wird DVI dann aber auch bei günstigen Lösungen Pflicht werden, da kann man nicht mehr mit VGA-Ausgängen kommen. Womöglich auch deswegen unterstützt der kleinste der neuen Mainboard-Chipsätze – nForce 730a – als einziger kein HybridPower, dieser Chipsatz dürfte wohl eher nur in den OEM-Bereich gehen, wo sowieso keine extra Grafikkarte verbaut wird.

Wie gesagt dürften allerdings all diese Hardware-Einschränkungen letztlich nur nVidia bzw. deren Absatz an Grafikkarten zu gute kommen – insofern ist hierbei auch nicht zu erwarten, dass das System nachträglich noch für ältere Lösungen fit gemacht wird. nVidia wird durch diese Limitierung auf GeForce9-Karten somit kein Mainboard-Geschäft mit "Altnutzern" von GeForce8-Modellen machen, aber dafür sicherlich ein um so besseres Geschäft mit Nutzern, welche sich die volle nVidia-Dröhnung in Form von HybridPower-fähigem Mainboard-Chipsatz samt GeForce9-Grafikkarte geben.

Einen kleinen echten Haken gibt es dann aber doch noch: Nach wenigstens einer Quelle ist HybridPower nur unter Windows Vista SP1 möglich, der technische Hintergrund hierzu bleibt bislang im Verborgenen. Dies wäre für einen gewissen Teil der Nutzer eine echte Spaßbremse, da Windows Vista nun einmal nicht auf durchgehende Begeisterung gestoßen ist (um es vorsichtig auszudrücken). Da allerdings alle andere Quellen durchgehend keine Bedingung bezüglich des verwendeten Betriebssystems nennen, ist dieser Punkt bislang noch unter Vorbehalt zu sehen.

In der Summe bringt nVidia mit HybridPower ein System an den Start, mit welchem sich integrierte Grafiklösung und echte Grafikkarte zusammen jeweils so nutzen lassen, wie sie am effektivsten sind: Die integrierte Grafiklösung des Mainboard-Chipsatzes für den normalen Windows-Alltag mit natürlich entsprechend geringerem Energieeinsatz – und wenn für 3D-Spiele benötigt, wird einfach automatisch zur extra Grafikkarte umgeschaltet. Die dabei anstehenden technischen Probleme scheinen gut gelöst worden zu sein, für die gröbste Einschränkung in Form der alleinige Unterstützung von nVidia-Grafikkarten kann der Hersteller nichts. In der Theorie sieht das System also erst einmal sehr gut aus, wir sind dementsprechend auf erste Praxistests gespannt. Die genannten Mainboard-Chipsätze für AMD-Prozessoren sollen demnächst in den Markt kommen, Pendants für Intel-Prozessoren sind für das zweite Quartal angekündigt.

Nicht unterschlagen werden soll an dieser Stelle, dass auch ATIs kommenden Hybrid-CrossFire Mainboard-Chipsätze über eine ähnliche Funktionalität verfügen sollen, auch wenn derzeit noch nicht genau bekannt ist, ob diese ähnlich ausgefeilt ist. Bislang wurde in Bezug auf Hybrid-CrossFire in erster Linie über die (auch bei nVidia mittels "GeForceBoost" verfügbare) Möglichkeit geredet, integrierte Grafiklösung und extra Grafikkarte unter 3D zusammenarbeiten zu lassen, nach weiteren Informationen soll Hybrid-CrossFire aber auch die Möglichkeit mit sich bringen, die extra Grafikkarte abzuschalten und unter Windows dann nur die integrierte Grafiklösung zu benutzen.

Hier deutet sich also an, dass ATI im Endeffekt über kurz oder lang dieselbe Funktionalität wie nVidias HybridPower bieten können wird. Auch bei ATI dürfte diese Funktion dann aber auf ATI-Grafikkarten beschränkt sein – da wie gesagt für beide Grafiklösungen unter Windows derselbe Treiber verwendet werden muß. Dieser Zustand soll sich erst mit Windows 7 ändern – welches dann auch den Weg dafür frei machen dürfte, eine solche Funktion auch auf Mainboard-Chipsätzen von Intel, VIA und SiS vorzufinden, gleich welche extra Grafikkarte man dafür einsetzt. nVidias HybridPower könnte also durchaus nur der Anfang einer Entwicklung sein, nach deren Abschluß es ganz normal sein wird, für den Windows-Alltag die integrierte Mainboard-Grafiklösung zu benutzen und nur im Fall eines Spiels die extra Grafikkarte zu bemühen.

Nachtrag vom 29. Januar 2008:

Ein Artikel bei Bit-Tech beschäftigt sich mit einigen Einschränkungen, welche nVidias Hybrid-SLI derzeit noch hat. So muß man erst einmal in Korrektur zu unserem entsprechenden Artikel sagen, dass es mit den derzeitigen Treibern keine automatische Umschaltung zwischen den beiden HypridPower-Modi gibt, diese Funktionalität soll aber in einem späteren Treiber-Release geboten werden. Wirklich störend ist hingegen der Umstand, dass die integrierte Grafikeinheit der Hybrid-SLI Mainboard-Chipsätze im HybridPower-Modus weder MultiMonitoring unterstützt noch größere Displays als 1920x1200 – schlicht, weil nur ein Single-DVI-Ausgang zur Verfügung steht.

Außerhalb des HybridPower-Modus sind höhere Auflösungen und MultiMonitoring natürlich möglich, dann allerdings erzeugt über die extra Grafikkarte und wie gesagt unter Abschaltung der HybridPower-Funktionalität. Dies lässt sich auch durch ein Treiber-Update nicht mehr ändern, nVidia scheint diese Problematik allerdings mit zukünftigen Hybrid-SLI Chipsätzen angehen zu wollen. Generell sieht nVidia die derzeitigen Hybrid-SLI Mainboard-Chipsätze nForce 730a, 750a und 780a wohl nur als den "ersten Versuch" an und gibt sich selber zwei Jahre Zeit, innerhalb welcher die gesamte Technologie dann zur vollständigen Reife gebracht werden soll.

Der Heise Newsticker bringt hingegen einige Klarheit zu den Möglichkeiten von ATIs Hybrid-CrossFire. So wird erst einmal (erneut) betont, dass man damit eine extra Grafikkarte sowie die integrierte Grafiklösung des Mainboard-Chipsatzes im CrossFire-Verbund zusammenarbeiten lassen kann – was aber bekannterweise außerhalb von totalen LowCost-Grafikkarten keine wirklichen Performancegewinne verheißt. Möglich ist zudem wie bei nVidia, dass die integriere Grafiklösung das Windows-Bild erstellt und die extra Grafikkarte nur im Spiele-Fall die Bildberechnung übernimmt – wobei bislang noch unbekannt ist, ob bei dieser Zusammenschaltung es ein Zwangs-CrossFire gibt oder aber die extra Grafikkarte auch ganz alleine die 3D-Berechnungen übernehmen kann.

Wichtig ist aber, dass ganz wie bei nVidia keinerlei Monitorumsteckerei notwendig ist: Steckt das Monitorkabel in der extra Grafikkarte, ist jene der primäre Grafikadapter und berechnet sowohl unter Windows als auch unter Spielen das Bild komplett alleine. Steckt das Monitorkabel dagegen in der integrierten Grafiklösung, kommt es zu vorgenannter Aufgabenteilung, im 3D-Fall wird somit ähnlich wie bei nVidia das Bildsignal von der extra Grafikkarte auch über den Monitorausgang der integrierten Grafiklösung ausgegeben. Ob es hierbei ähnliche Einschränkungen gibt wie vorbeschrieben im nVidia-Fall, ist dagegen noch nicht heraus.

Nicht möglich ist es aber, in diesem Modus im Windows-Betrieb die extra Grafikkarte komplett auszuschalten, diese Funktion scheint derzeit nur nVidias HybridPower zu bieten. Technisch scheint dies aber trotzdem nicht unmöglich zu sein, denn im Notebook-Bereich will ATI eine solche Funktion in Zusammenarbeit mit den Notebook-Hersteller durchaus realisieren. Insofern wäre es theoretisch möglich, dass ATI eine solche Funktionalität auch im Desktop-Bereich später noch anbieten wird. Nachwievor steht hierzu jedoch im Raum, dass ATI nach der offiziellen Vorstellung von HybridPower in diesem Punkt durchaus etwas freigiebiger mit entsprechenden Informationen sein könnte.

GeForce 9600 GT: 256 Bit in der Mittelklasse

Samstag, 23. Februar 2008
 / von Leonidas
 

Nun hat auch Nvidia eine 9600 – der Name erinnert an die Mittelklasse-Version von ATIs Radeon 9700, welche in halbierter Version unter dem Namen "Radeon 9600" über längere Zeit ein ausgezeichnetes Preisleistungs-Verhältnis bot. Die damalige Highend-Karte Radeon 9700 bot schon ein 256-Bit-Interface, wie zuvor bereits Matrox' Parhelia. Allerdings zeigt sich, dass die Zahl der Bits beim Interface nicht allein entscheidend sind: Die Leistung der Matrox Parhelia war unterhalb der GeForce4 Ti, obwohl jene nur ein 128-Bit-Interface hat.

ATIs Radeon 9600 war trotz 128-Bit-Interface in allen DirectX9-Spielen der GeForceFX 5900 überlegen, obwohl letztere 256 Bit Interfacebreite bot. Der Nachfolger, GeForce 6800 Ultra, kam ebenfalls mit 256 Bit und die Mittelklassenversion GeForce 6600 wieder nur mit 128 Bit. Dennoch bietet die GeForce 6600 GT zumindest in aktuelleren Spielen mehr Leistung als die Radeon 9700/9800.

Die in der Mitteklasse nachfolgende GeForce 7600 GT konnte dann von der Performance her ungefähr mit einer GeForce 6800 GT mithalten, obwohl die 7600-er wieder nur ein 128-Bit-Interface hat. Die GeForce 8600 GTS ist schneller als eine GeForce 7800 GTX, obwohl es wieder 128 Bit vs. 256 steht. In Spielen, die HDR-Rendering nutzen, kann eine GeForce 8600 GTS sogar mit einer GeForce 7900 GT mithalten, obwohl HDR-Rendering auch die Bandbreite stark belastet. Bislang wurde im Mittelklasse-Bereich also versucht, irgendwie noch mit 128 Bit auszukommen – mit Erfolg.

Mit der GeForce 9600 GT wird die Bitbreite nun im gleichen Segment glatt verdoppelt – während man mit dem G80-Chip im HighEnd-Bereich einen Zwischenschritt zum 512-Bit-Interface eingelege. Bekanntermaßen ist eine GeForce 8800 GTX mit ihrem 384-Bit-Interface schneller als eine Radeon HD 2900XT mit 512-Bit-Interface. Es kommt also primär darauf an, die zur Verfügung stehende Bandbreite möglichst gut auszunutzen.

Die Balance halten

Aus unserer Sicht wäre ein 3:2-Verhältnis von Shader-Clustern á 16 MAD und 64-Bit-Speicherpartitionen bei der G80- und G92-Architektur optimal. Daraus abgeleitet könnte man sich eine schöne Produktpalette konstruieren, welche auch keine so großen Performance-Lücken aufweist wie sie es in der Vergangenheit gab und heute eigentlich noch immer gibt: Der Abstand zwischen GeForce 8600 GTS und GeForce 9600 GT (oder auch noch zur GeForce 8800 GS) ist ziemlich groß.

Echtes neues HighEnd lässt daneben noch immer auf sich warten. Die Performance der Anfang März erwarteten GeForce 9800 GX2 wird bei dem genutzten SLI-Verfahren wieder unter stärkeren Frameraten-Schwankungen leiden als Single-GPU-Karten. Eine GeForce 8800 Ultra mag hierbei zwar nominell deutlich überboten werden, von der gefühlten Framerate her sind jedoch keine großen Vorteile zu erwarten. Eine bessere Verteilung der Framerate wäre allerdings mit einem Sinken der durchschnittlichen Leistung verbunden.

Irgendwann ist ohnehin zu erwarten, dass bei SLI nicht mehr getrennte Frames gerendert, sondern die Threads auf einzelne GPUs aufgeteilt werden. Selbst wenn man dafür ein Frame Latenz inkauf nehmen muss, fährt man besser als beim Alternate Frame Rendering – vor allem wenn mehr als zwei GPUs zum Einsatz kommen.

Im Einsteiger-Bereich hat man bei Nvidia bisher die GeForce 8500 GT oder GeForce 8600 GT mit DDR2-Speicher und 400 MHz Speichertakt. Hier ist aufzupassen, dass man auch wirklich die gewünschte Speicherkonfiguration erhält – so gibt es die GeForce 7300 GT, eigentlich mit 128-Bit-Interface, auch in einer 64-Bit-Version, obwohl man ohnehin drei 64-Bit-Versionen der GeForce 7300 hat (nämlich GS, LE und SE).

"NVIDIA GeForce 7300 NVIDIA® GeForce® 7300 graphics processing units (GPUs) allow you to experience the latest gaming effects without compromising performance." ist die offizielle Werbung für die GeForce 7300. Bei der GeForce 9600 liest sich das so: "The NVIDIA® GeForce® 9600 GT GPU offers a powerfully immersive entertainment experience designed for extreme high-definition gaming and video playback." Seltsamerweise steht die Spieleeignung bei der GeForce 9600 im Nvidia-Marketing nicht an erster Stelle.

Neue Features

Die GeForce 9600 GT kommt mit Videofeatures auf VP2-Niveau (Video Processor 2, auch in GeForce 8400, 8500 und 8600 sowie G92-basierenden 8800-Produkten). Jedoch gibt es jetzt über die Shader zusätzliche Features, zum Beispiel zur dynamischen Kontrastanpassung. Die GeForce 9600 GT wird auch mit Picture-in-Picture-Fähigkeit beworben, da zwei Videostreams gleichzeitig dekodiert werden können. Erfahrungsgemäß beschreibt das Marketing bei den Nvidia-Videofeatures eher die theoretischen Möglichen, während sich ein Praxisnutzen erst später einstellen wird.

Eine Videobeschleunigerkarte sollte sich nach unserem Verständnis passiv kühlen lassen. Die GeForce 9600 GT kommt jedoch mit einem Lüfter, der an den revidierten Lüfter der GeForce 8800 GT erinnert. Je nach Boardlayout gibt es noch Audio-Anschlüsse.

Wenig gesprächig zeigte sich Nvidia, was die neue Komprimierungstechnologie angeht, welche das 3D-Rendering beschleunigen soll. Dieses neue Feature dürfte schon beim G92-Chip der GeForce 8800 GS/GT/GTS enthalten sein und genutzt werden, wurde dort jedoch nicht vermarktet. Was konkret gemacht wird, bleibt allerdings Spekulation.

Hier unsere Theorie: Nvidia versucht, die Komprimierungsrate zu verbessern, indem parallel mit verschiedenen Verfahren komprimiert wird. Sofern eines davon die Zielbitrate ohne Qualitätsverlust erreicht, muss man nicht mehr die unkomprimierten Daten schreiben. Hierbei könnte ausgenutzt werden, dass es in 3D-Spielen oft Bereiche gibt, wo sich die Farbwerte zum Nachbarpixel nur wenig ändern. Vielleicht ist das Verfahren sogar ausgefuchst genug, dass es durchaus einige Pixel mit starken Änderungen geben darf, solange der Rest komprimierbar genug ist.

Die neue alte GTS

Obwohl nur 64 skalare Stream-Rechenwerke (SP aka Shader Processors) bei der GeForce 9600 GT zum Einsatz kommen, kann die Karte mit einer alten, G80-basierten GeForce 8800 GTS (96 SP) mithalten – wobei die alte GeForce 8800 GTS auch noch ein 320-Bit-Speicherinterface anzubieten hat. Die Performancegleichheit der GeForce 9600 GT kommt primär durch die Taktsteigerung und einige Detailverbesserungen in der Architektur.

Alle 8800-er Karten basieren auf einem Chip, in dem 128 SP verbaut sind. Zum Einsatz kommen davon 96 (GS und alte GTS), 112 (GT oder neue G80-basierende GTS) oder alle 128 (GTX, Ultra). Es ist klar, dass Nvidias Rechnung auf Dauer nicht aufgeht, hier immer schön Resteverwertung zu betreiben: Um G80 und G92 wirtschaftlich zu produzieren, muss der Yield an voll funktionsfähigen Chips hoch genug sein. So fallen nicht genügend Chips ab, welche man nur noch für die kleineren Performance-Modelle nutzen könnte – im Performance-Bereich werden schließlich klar mehr Chips verkauft als im HighEnd-Bereich.

Damit müssen entweder voll funktionsfähige, aber nicht voll freigeschaltete, oder zumindest sehr gut taktbare Chips für die kleineren Performance-Grafikkarten verbaut werden (wie beim G80 auf der alten GeForce 8800 GTS). Oder bei den Performance-Karten grassiert dann die Lieferschwierigkeit (GeForce 8800 GT mit G92-Chip). Selbst wenn der "Ausschuss-Yield" hoch genug wäre, ist die Chipausbeute pro Waver relativ gering, weil die Chips so groß sind.

Also fuhr man bisher zweigleisig: G80 (und G92) für Performance und HighEnd, G84 für die Mittelklasse. Obwohl die 8600-Reihe auch 48 SP hätte vertragen können, ohne dass das 128-Bit-Speicherinterface gleich limitiert, war die Chipgröße bei dieser Mittelklasse-Lösung so wichtig, dass man sich auf 32 SP beschränkte. Mit einer selbst für heutige Verhältnisse hohen Chip-Taktrate von 675 MHz für die GPU und satten 1008 MHz beim Speicher brachte man die GeForce 8600 GTS mit Ach und Krach halbwegs auf das Niveau der GeForce 7900 GT.

Der Spieler hätte sicherlich lieber 48 SP bei 600 MHz gesehen – leider brachte auch AMD/ATI in jener Generation keine "vollwertige" Mittelklasse (also 50 Prozent Architekturbreite vom Flaggschiff). Nun haben wir bei der GeForce 9600 GT jetzt immerhin 64 SP. Das einzige, was uns bei der GeForce "9" fehlt, ist noch die Unterstützung von DirectX 10.1. Zwar hat man mit DirectX 10.0 in der heutigen Spielepraxis absolut keine Unterschiede zu einer 10.1-er Karte, doch ohne Hardware-Verbreitung gibt es natürlich auch keine passende Software.

Warum 256 Bit?

Die Tradition der Chip-Halbierungen, welche mit der GeForce2 MX und der erwähnten Radeon 9600 große Erfolge hatte, scheint aufgebrochen: Die GeForce 9600 GT wäre von der Architektur her zwar eine halbe hypothetische GeForce 9800 (die es noch nicht gibt, aber die man erwarten kann) – doch sofern die bisherigen Leaks zutreffend sind, bleibt es auch bei dieser kommenden Karte bei einem Speicherinterface von ebenfalls 256 Bit. Obwohl damit 128 SP versorgt werden müssen, immerhin doppelt so viel wie bei der GeForce 9600 GT.

Wie eingangs gezeigt, zierte sich Nvidia lange, ein größere Speicherinterfaces zu verbauen als unbedingt notwendig. Warum der Sinnungswandel? Bei den heute üblichen Chipgrößen verschieben sich die Gewichte: Es wird preiswerter, ein Boardlayout mit aufwändiger Verdrahtung zu haben (um die notwendige Leiterbahnenanzahl für das Speicherinterface zu realisieren), als wie früher mit vergleichsweise fetten Chips anzukommen. So ist die GeForce 8800 GS trotz 96 SP etwas langsamer als die GeForce 9600 GT: Denn bei der GeForce 8800 GS limitiert das Speicherinterface, bei der GeForce 9600 GT die GPU.

Man nimmt also deshalb ein eigentlich zu großes Speicherinterface für die GeForce 9600 GT, weil man somit die Performance noch etwas anheben kann, ohne gleich größere GPUs verbauen zu müssen. Dieser Trend zu verschwenderischer Speicherbandbreite dürfte sich aber wieder umkehren, denn 512 Bit stellen eine große Herausforderung dar, während bei der Chip-Entwicklung weitere Shrinks bereits absehbar sind.

Dass die GeForce 9600 GT nun als "GeForce 9" vermarktet wird, ist eine weitere Spitzenidee des Nvidia-Marketings, welches dafür wahrscheinlich Überstunden geschoben hat. Doch lassen wir die Namensgebung mal beiseite: Die Hardware der GeForce 9600 GT ist bezogen auf den Preis sehr gut. Man bekommt eine durchweg verdoppelte GeForce 8600 GTS (doppelt so viele SP, ein doppelt so großes Interface, doppelt so viel Speicher) bei anständigen Taktraten.

  GeForce 8600 GTS
(alt)
GeForce 9600 GT
(neu)
GeForce 8800 GS(kurzfristig) Radeon HD 2600 XT GDDR3
(alt)
Radeon HD 3850
(neu)
Chip nVidia G84, 289 Millionen Transistoren in 80nm bei TSMC (169 mm²) nVidia G94, 505 Millionen Transistoren in 65nm bei TSMC (240 mm²) nVidia G92, 754 Millionen Transistoren in 65nm bei TSMC (289 mm²) ATI RV630, 390 Millionen Transistoren in 65nm bei TSMC (153 mm²) ATI RV670, 666 Millionen Transistoren in 55nm bei TSMC (192 mm²)
Technologie Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.1
Aufbau 32 SP, 16 TMUs, 8 ROPs, 128 Bit DDR SI 64 SP, 32 TMUs, 16 ROPs, 256 Bit DDR SI 96 SP, 40 TMUs, 12 ROPs, 196 Bit DDR SI 120 SP, 8 TMUs, 4 ROPs, 128 Bit DDR SI 320 SP, 16 TMUs, 8 ROPs, 256 Bit DDR SI
Taktraten 675/1450/1000 MHz 650/1625/900 MHz 575/1438/750 MHz 800/700 MHz 670/830 MHz
Rechenpower MADD/MADD+MUL 93/139 GFlops 208/312 GFlops 276/414 GFlops 192 GFlops 429 GFlops
Bandbreite 29,8 GiB/sec 53,6 GiB/sec 34,2 GiB/sec 20,9 GiB/sec 49,5 GiB/sec
Bauform SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0 SingleSlot, 384 MB, PCI Express 1.x/2.0 SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0
Verbrauch 47 Watt geschätzt 60 Watt ca. 65 Watt ca. 45 Watt ca. 70 Watt
aktuelle Preislage 256MB: 100-120 Euro
512MB: 110-130 Euro
512MB: 140-160 Euro 384MB: 130-150 Euro 256MB: 60-80 Euro
512MB: 70-90 Euro
256MB: 120-140 Euro
512MB: 150-170 Euro
Preisvergleich Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Inhalt abgleichen