Grafikkarten

Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung

Dienstag, 25. September 2007
 

Genug Zeit ist mittlerweile seit dem Launch der Direct3D10 HighEnd-Grafikchips G80 (GeForce 8800 Serie) und R600 (Radeon HD 2900 Serie) vergangen – was den großen Rahmen angeht, ist die Bestandsaufnahme bezüglich Leistungsfähigkeit, Bildqualität und Kompatibilität wohl abgeschlossen. Auch DualCore-Prozessoren haben sich bei der Zielgruppe dieses Artikels inzwischen weitestgehend durchgesetzt, ihre Auswirkungen auf die Leistungsfähigkeit in Spielen wurden bis zum jetzigen Zeitpunkt ebenfalls hinreichend untersucht und insgesamt kann man für den folgenden Test davon ausgehen, dass Spiele umso mehr von DualCore, teils in erheblichem Maße, profitieren, je neuer sie sind.

Die Erkenntnisse, die aus den vorgenannten Testberichten gewonnen wurden, gilt es jetzt zu verdichten und zusammenzuführen. Schließlich sind beide neuen Technologien wie beschrieben ausreichend lange im Markt, sollten sich die Grafikchip-Entwickler und die jeweiligen Treiberteams inzwischen darauf eingestellt haben können. Es gibt also zwei Fragen, die dieser Testbericht beantworten soll:

  • Welcher Grafikchip-Entwickler und welche Grafikkarten-Generation skaliert besser mit der Erweiterung von SingleCore auf DualCore?
  • Welcher Treiber verursacht die höhere CPU-Last?

Wobei die erste Frage des Testberichts zwangsläufig zu einer weiteren – hier und heute jedoch kaum beantwortbaren – Frage führen wird: Liegt die bessere DualCore-Skalierung von Hersteller A an einem besseren Treiber – oder an der zu hohen Komplexität des Designs von Hersteller B?

Für die hierfür angestellten Benchmarks gelten folgende Rahmenbedingungen:

  • Es werden vier Grafikkarten von zwei Herstellern getestet – je zwei aus der aktuellen Generation, zwei Karten aus der Vorgängergeneration: Es sind die (Club3D) GeForce 8800 GTS 640MB und die (Sapphire) Radeon HD 2900 XT sowie die (nVidia) GeForce 7950 GT und die (Sapphire) Radeon X1900 XT.
  • Die Testplattform ist ein Core 2 Duo 6400 mit 4GB RAM, genauere Daten zum System sind hier zu finden.
  • Als Treiber kamen seitens ATI der Catalyst 7.7 und seitens nVidia die ForceWare-Versionen 94.24 (GeForce 7950 GT) sowie 158.22 und 162.18 (GeForce 8800 GTS) zum Einsatz.
  • Jede Karte wird einem Testdurchlauf mit einer SingleCore-CPU und einem Testdurchlauf mit einer DualCore-CPU unterzogen. Die SingleCore-CPU wird hierbei künstlich über den Parameter "/numproc 1" in der "boot.ini" von Windows erzeugt.
  • Um die Ergebnisse und ihre Aussagen besser erkennbar zu machen, wird durch niedrige Auflösungen sichergestellt, daß ein möglichst einwandfreies CPU-limitiertes Szenario vorliegt.
  • Es werden ausschließlich Savegames zum testen verwendet.
  • Jedes Spiel wird in vier verschiedenen Szenarien getestet, um eine möglichst große Allgemeingültigkeit der Ergebnisse für das jeweilige Spiel zu erreichen.

Vorab sei an dieser Stelle den Firmen Club3D, Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel wieder ermöglicht wurde.

                           

Die kommenden Grafikchips von ATI, nVidia und S3

Dienstag, 9. Oktober 2007
 / von Leonidas
 

Rein technisch haben wir mittlerweile fast ein volles Jahr herum, nachdem die allerersten Direct3D10-Beschleuniger in Form der GeForce 8800 GTS/GTX Karten im November 2006 vorgestellt wurden. Und selbst wenn ATI seinen Konter in Form der Radeon HD 2900 XT erst mit einigen Monaten Verspätung in den Markt bringen konnte, sind nach gängigen Rechnungen, wonach aller sechs bis neun Monate eine neue Grafikkarten-Generation in den Markt kommt (was nicht bedeutet, daß es sich dabei um grundlegend neue Architekturen handeln muß), die nächsten Grafikkarten eigentlich schon leicht überfällig.

ATI und nVidia werden diesem Zustand über die nächsten Wochen allerdings abhelfen, welche aus Grafikkarten-Sicht durchaus interessant werden dürften. So kommen derzeit zunächst die R600-Abwandlungen Radeon HD 2900 GT und Pro für das Performance-Segment in den Markt. Im November läutet nVidia dann mit dem G92-Chip für das Performance-Segment die eigentliche Refresh-Generation ein, hier werden der G98-Chip für das LowCost-Segment und der G90-Chip für das HighEnd-Segment in Kürze folgen, nächstes Frühjahr soll dann noch ein G96-Chip für das Mainstream-Segment kommen.

Bei ATI hingegen lauten die Refreshchips RV620 (LowCost), RV635 (Mainstream), RV670 (Performance/HighEnd), zeitmäßig sind diese ebenfalls um das Jahresende einzuordnen. Und letztlich will nun auch noch S3 Graphics wieder einmal mit neuen Grafikchips antreten, geplant sind hierbei für den Jahresanfang die Chips Chrome 430 (LowCost) und Chrome 460 (Mainstream). Wenn das alles klappen sollte, wird es in der Tat ein interessanter Grafikchip-Herbst – in der Praxis dürfte dann aber wohl doch Murphy's Law greifen, womit sich einige der vorgenanten Grafikchips ins nächste Jahr verspäten werden oder zumindestens erst im nächsten Jahr käuflich erhältlich sein werden.

Doch der Reihe nach. Zuerst einmal werden wir die derzeit auf dem Markt befindlichen Direct3D-Grafikchips kurz skizzieren, damit die Ausgangslage klar ist. Danach wenden wir uns dann den einzelnen kommenden neuen Grafikchips zu. Dies kann natürlich nur auf Basis der derzeit vorhandenen Informationen erfolgen – welche, gemischt mit eigenen Überlegungen, jederzeit fehlbar sein können. Es ist also bitte nicht davon auszugehen, daß alles, was dieser Artikel nachfolgend vorhersagt, auch so eintreffen wird. Es handelt sich hier um eine Bestandsaufnahme des aktuell verfügbaren Wissens, um eben dieses in eine gewisse Form zu bringen. Nichts desto trotz werden sich in den News der kommenden Wochen sicherlich noch einige Anmerkungen und Korrekturen zu diesem Artikel ergeben.

Vorab sei noch klargestellt, daß dieser Artikel wie auch unsere zukünftige Berichterstattung generell von der Einteilung des Grafikkarten-Marktes in vier Teilsegmente ausgeht: LowCost (Value), Mainstream, Performance und HighEnd (Enthusiast). Diese Einteilung wurde seitens der Grafikchip-Entwickler schon seit einiger Zeit vorgenommen, bislang allerdings regelmäßig mit nur drei verschiedenen Grafikchips einer Generation zu bedienen versucht. Spätestens mit der kommenden Refresh-Generation wird zumindestens nVidia aber mit jeweils vier Grafikchips pro Generation arbeiten, womit sich die generelle Markt-Unterteilung in vier Teilsegmente nunmehr geradezu aufdrängt.

Preislich lassen sich diese Teilsegmente im übrigen grob folgendermaßen abtrennen: LowCost bis 100 Dollar, Mainstream von 80 bis 200 Dollar, Performance von 150 bis 300 Dollar und HighEnd von 250 Dollar an aufwärts. Wie den genannten Geldbeträgen schon zu entnehmen, sind die Grenzen jedoch eher fließend bzw. sehen verschiedene Mitspieler am Markt die Grenzen jeweils ein wenig anders. Betrachtet man die alten und neuen Grafikchips allerdings nachfolgend etwas genauer, lassen sich diese dann doch jeweils recht eindeutig einem Marktsegment zuordnen.

Doch zuerst zu der Übersicht der aktuell am Markt befindlichen Grafikchips und daraus resultierenden Grafikkarten:

  ATI nVidia
HighEnd (Enthusiast) R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 XT 1GB
742/1000 MHz, 1024 MB GDDR4, ca. 180W, ca. 430 Euro
• Radeon HD 2900 XT
742/825 MHz, 512 MB GDDR3, 161W, ca. 330 Euro
G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 Ultra
612/1512/800 MHz, 768 MB GDDR3, ca. 145W, ca. 550 Euro
• GeForce 8800 GTX
575/1350/900 MHz, 640 MB GDDR3, 132W, ca. 450 Euro
• GeForce 8800 GTS 640MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 500/1200/800 MHz, 640 MB GDDR3, 106W, ca. 310 Euro
Performance R600
320 Shader-Einheiten, 16 TMUs, 512 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• Radeon HD 2900 Pro
600/800 MHz, 512 oder 1024 MB GDDR3, ca. 150 bzw. 160W, ca. 220 bzw. 260 Euro
• Radeon HD 2900 GT
600/800 MHz, nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface, 256 MB GDDR3, ca. 120W, ca. 175 Euro

Dual RV630
2x 120 Shader-Einheiten, 2x 8 TMUs, 2x 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT X2
800/700 MHz, 2x 256 MB GDDR3, ca. 90W, ca. 220 Euro

G80
128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 90nm, Varianten:
• GeForce 8800 GTS 320MB
nur 96 Shader-Einheiten, nur 48 TMUs, nur 320 Bit DDR Speicherinterface, 320 MB GDDR3, 500/1200/800 MHz, 103W, ca. 240 Euro
Mainstream RV630
120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2600 XT GDDR4
800/1100 MHz, 256 oder 512 MB GDDR4, 49W, ca. 120 bzw. 170 Euro
• Radeon HD 2600 XT GDDR3
800/700 MHz, 256 oder 512 MB GDDR3, ca. 45W, ca. 90 bzw. 105 Euro
• Radeon HD 2600 Pro
600/400 MHz, 256 oder 512 MB GDDR2/GDDR3, ca. 35W, ca. 70 bzw. 75 Euro
G84
32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8600 GTS
675/1450/1000 MHz, 256 oder 512 MB GDDR3, 47W, ca. 140 bzw. 170 Euro
• GeForce 8600 GT
540/1190/700 MHz, 256 oder 512 MB GDDR3, ca. 40W, ca. 90 bzw. 100 Euro
LowCost (Value) RV610
40 Shader-Einheiten, 4 TMUs, 64 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 65nm, Varianten:
• Radeon HD 2400 XT
700/800 MHz, 256 MB GDDR3, 19W, ca. 55 Euro
• Radeon HD 2400 Pro
525/400 MHz, 128 oder 256 oder 512 MB GDDR2, ca. 15W, ca. 40 bzw. 40 bzw. 65 Euro
G86
16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, Direct3D10, PCI Express 1.1, 80nm, Varianten:
• GeForce 8500 GT
450/900/400 MHz, 256 oder 512 MB GDDR2/GDDR3, 27W, ca. 65 bzw. 75 Euro
• GeForce 8400 GS
nur 64 Bit DDR Speicherinterface, 450/900/400 MHz, 256 oder 512 MB GDDR2, ca. 25W, ca. 40 bzw. 60 Euro
Anmerkung: Die Anzahl der Shader-Einheiten ist zwischen verschiedenen Grafikchip-Entwicklern nicht direkt miteinander vergleichbar, da hier zumeist jeweils vollkommen andere Ansätze verfolgt wurden. Die Anzahl der Shader-Einheiten ist somit eigentlich nur innerhalb desselben Grafikchip-Entwicklers vergleichbar. Ganz grob kann man allerdings für die aktuelle Direct3D10-Generation ansetzen, daß die MADD-Rechenleistung der Shader-Einheiten von nVidia (auf gleichem Takt) ungefähr doppelt so hoch ist wie diejenige der Shader-Einheiten von ATI. Diese MADD-Rechenleistung ist zwar die klar wichtigste Kenngröße, allerdings gibt es natürlich noch andere von Grafikchips zu bewältigende Rechenoperationen.

Diese Lineups werden in den kommenden Wochen jedoch gehörig durchgeschüttelt werden, in einem halben Jahr dürften die derzeit am Markt befindlichen Grafikkarten wohl komplett durch die kommende Refresh-Generation ersetzt werden. Nachfolgend wollen wir nun betrachten, was die einzelnen Grafikchip-Entwickler an Neuheiten planen.

ATI RV670 & nVidia G92: Die neue Marktsituation

Sonntag, 18. November 2007
 / von Leonidas
 

Nachdem ATI und nVidia die ersten Grafikchips ihrer jeweiligen Refresh-Generation in den Handel entlassen haben, lohnt der Blick auf die dadurch neu entstandene Marktsituation. Dies gilt ganz besonders, da ATI und nVidia beiderseits erstmals eine neue Generation nicht mit den entsprechenden HighEnd-Lösungen gestartet haben, sondern mit den Beschleunigern für das Performance-Segment zwischen Mainstream- und HighEnd-Segment in Form von Radeon HD 3850 und 3870 auf Basis des RV670-Chips von ATI und der GeForce 8800 GT auf Basis des G92-Chips von nVidia. Damit wird zwar zum einen eine lange bestehende Lücke im Produkt-Portfolio beider Hersteller geschlossen, auf der anderen Seite ist es aber auch sehr interessant, wie sich die neuen Performance-Beschleuniger gegenüber den bisherigen HighEnd- und Mainstream-Grafikkarten positionieren.

Dabei haben sich beide Grafikchip-Entwickler mit Neuerungen bei den neuen Grafikchips RV670 und G92 zweifelsfrei nicht überschlagen: Beide Grafikchips stellen prinzipiell sogar nur kleinere Varianten der Vorgänger-Grafikchips R600 und G80 dar, in beiden Fällen wurde das Speicherinterface auf nun wieder einheitlich 256 Bit DDR limitiert. Am Rest der Hardware hat sich weitestgehend und bis auf kleinere Verbesserungen nichts geändert. Allenfalls wäre zu erwähnen, daß ATIs RV670 nunmehr gleich schon Direct3D 10.1 unterstützt, ein praktischer Nutzen aus diesem Support der neueren 3D-Schnittstelle dürfte sich aber erst in noch einige Zeit entfernter Zukunft ergeben.

Allerdings ist damit die neue Performance-Riege auch schon gut charakterisiert: Faktisch bekommt man die dieselbe Hardware-Power wie bisher bei den HighEnd-Boliden nur mit etwas geringerer Speicherbandbreite. Was sich jetzt schon reichlich gut anhört, wird noch besser durch die Preisgestaltung, welche die Grafikchip-Entwickler gewählt haben: ATI bietet die Radeon HD 3870 um die 40 Prozent günstiger als die nur runde 5 Prozent langsamere Radeon HD 2900 XT an, während nVidia die GeForce 8800 GT 512MB um die 30 Prozent günstiger als die zwischen 5 und 20 Prozent langsamere GeForce 8800 GTS 640MB ansetzt.

Und während ATI und nVidia am oberen Ende der neuen Performance-Riege die "alten" HighEnd-Beschleuniger somit faktisch entwerten, gibt es am unteren Ende der neuen Beschleuniger-Klasse endlich wieder einmal ordentlich viel Leistung für vergleichsweise wenig Geld. Die Radeon HD 3850 sowie die GeForce 8800 GT 256MB gehen in den Preisbereich von 150 bis 200 Euro, in welchem bislang die GeForce 8600 GTS zur finden war. Diese regierte diesen Preisbereich bislang einsam – so daß nicht wirklich auffiel, daß diese Karte eigentlich etwas zu teuer war gemessen am Preis/Leistungsverhältnis. Die neuen Performance-Beschleuniger bieten nun aber auch in diesem Preisbereich wirklich angemessene Leistung fürs Geld.

Damit ergibt sich die nachfolgend vorgestellte neue Marktsituation. Zu beachten wäre an der nachfolgenden Aufstellung, daß die technischen Daten zwischen den beiden Grafikchip-Entwicklern aufgrund deren unterschiedlicher Architekturen natürlich kaum vergleichbar sind, sondern nur als Anhaltspunkt zur Unterscheidung der Karten desselben Grafikchip-Entwicklers dienen.

ATI Preislage nVidia
  540-560
Euro
GeForce 8800 Ultra 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 612/1512/1080 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 145W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  420-440
Euro
GeForce 8800 GTX 768MB
nVidia G80, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 384 Bit DDR Speicherinterface, 575/1350/900 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, 132W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  370-390
Euro
neue GeForce 8800 GTS 640MB
nVidia G80, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 320 Bit DDR Speicherinterface, 500/1200/800 MHz *, 640 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 120W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
* es werden derzeit (zu dieser Preislage) fast ausschließlich ab Werk übertaktete Karten mit Taktraten zwischen 540/1242/850 MHz und 576/1350/900 MHz angeboten
 
  210-230
Euro
GeForce 8800 GT 512MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 80W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3870 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 775/1125 MHz, 512 MB GDDR4, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, ca. 85W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
190-210
Euro
 
Radeon HD 3850 512MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 70W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
170-190
Euro
GeForce 8800 GT 256MB
nVidia G92, Direct3D10, 112 Shader-Einheiten, 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 75W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 256MB
ATI RV670, Direct3D 10.1, 320 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, ca. 65W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
150-160
Euro
 
Radeon HD 2900 GT
ATI R600, Direct3D10, 240 Shader-Einheiten, 16 TMUs, 256 Bit DDR Speicherinterface, 600/800 MHz, 256 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, ca. 100W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
140-150
Euro
GeForce 8600 GTS 512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  120-130
Euro
GeForce 8600 GTS 256MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, 47W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR4
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/1100 MHz, 256 MB GDDR4, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
100-110
Euro
 
Radeon HD 2600 XT 512MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
90-100
Euro
 
  80-90
Euro
GeForce 8600 GT 256/512MB
nVidia G84, Direct3D10, 32 Shader-Einheiten, 16 TMUs, 128 Bit DDR Speicherinterface, 540/1190/700 MHz, 256/512 MB GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 40W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR3
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 45W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
70-90
Euro
 
Radeon HD 2600 Pro 256/512MB
ATI RV630, Direct3D10, 120 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 600/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, ca. 35W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
60-70
Euro
GeForce 8500 GT 256/512MB
nVidia G86, Direct3D10, 16 Shader-Einheiten, 8 TMUs, 128 Bit DDR Speicherinterface, 450/900/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, ca. 25W
Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
     
Nicht mehr in dieser Aufstellung gelistet sind die folgenden Karten aus den nachfolgend genannten Gründen:
  • Radeon HD 2400 Pro/XT, GeForce 8400 GS – aus Performance-Sicht klar zu langsam für eine zum Spielen zu benutzende Grafikkarte
  • Radeon HD 2600 XT 512MB GDDR4 – mit 512 MB kaum noch lieferbar und dann deutlich überteuert im Vergleich zur 256-MB-Version
  • Radeon HD 2600 X2 (DualChip-Lösung) – faktisch nicht erhältlich, durch die Radeon HD 3850/3870 auch vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 Pro – ausgelaufen, neue Karten werden nicht mehr geliefert
  • GeForce 8800 GTS – durch die GeForce 8800 GT vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen
  • Radeon HD 2900 XT – durch die Radeon HD 3870 vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen

Sehr gut zu sehen in obiger Aufstellung ist, wie die neue Performance-Riege in ihrem Marktsegment endlich ein breit gefächertes Angebot aufbaut – ganz im Gegensatz zu der Marktsituations-Aufstellung vom Mai, wo zwischen GeForce 8600 GTS und GeForce 8800 GTS eine riesige Leistungslücke klaffte. Ähnlich zu der Aufstellung vom Mai ist hingegen, daß ATI weiterhin keine echten HighEnd-Beschleuniger anbietet. Hier hat sich die Situation sogar noch verschärft: Während ATI im Mai noch Angebote bis zu einem Preisbereich von 360 Euro hatte, kostet die teuerste aktuelle ATI-Karte gerade einmal 210 Euro. Ob es allerdings auf längere Sicht gut gehen kann, ohne jegliche HighEnd-Lösung anzutreten bzw. im HighEnd-Segment nur auf CrossFire-Lösungen zu vertrauen, wird sich erst noch zeigen müssen.

Davon abgesehen findet eine deutliche Kannibalisierung der HighEnd- und LowCost-Karten zugunsten der neuen Performance-Riege statt. In obiger Aufstellung ist dies aufgrund der fehlenden Performance-Angaben nur eher zu erahnen, deutlich wird es dann, wenn man die Preislage zur Performance in Relation bringt. Dazu haben wir uns der Benchmarks seitens der FiringSquad bedient, da diese unter den zur Verfügung stehenden Artikeln die breiteste Auswahl an Grafikkarten zur Verfügung hatten.

Infos zu Radeon HD 3x00 & GeForce9

Montag, 28. Januar 2008
 / von Leonidas
 

Den ersten Teil der aktuellen Refresh-Generation haben wir ja bereits im alten Jahr gesehen: ATI und nVidia haben hier mit Radeon HD 3850/3870 und den GeForce 8800 GT/GTS Karten den Performance-Markt vollkommen neu aufgestellt, hinzu kommen seit Mitte Januar noch die GeForce 8800 GS sowie die Radeon HD 3450/3470/3650 Karten. Allerdings war dies erst der erste Schwung der Refresh-Generation von ATI und nVidia, es folgen nun in der Winter-Saison weitere Grafikkarten für alle Marktsegmente, um welche es nachfolgend gehen soll.

Erste Hinweise zu diesen Karten lagen natürlich schon im alten Jahr vor, aber inzwischen ist die Informationslage doch wesentlich besser, lassen sich die meisten der kommenden Grafikkarten schon ziemlich gut beschreiben. Womit wir uns ohne weitere Umschweife in die Beschreibung der kommenden Grafikkarten stürzen wollen – für einen Quervergleich zur bisherigen Situation am Grafikkarten-Markt wäre dieser Artikel zu konsultieren.

nVidias HybridPower

Montag, 21. Januar 2008
 / von Leonidas
 

HybridPower logo Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit – und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, dass die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch dass die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind. Zudem würde man natürlich mit einer kürzeren Laufzeit auch die Investition in die zumeist teure Grafikkarte besser schützen bzw. im Mobile-Bereich die Akkulaufzeit verlängern.

Einem solchen Vorhaben stehen allerdings einige Hürden entgegen. So ist zuerst einmal eine Umschaltung zwischen Grafikchips verschiedener Hersteller für die primäre Bildausgabe im laufenden Betrieb nicht möglich, dies unterstützen die bisherigen Windows-Versionen nicht (erst Windows 7 soll eine solche Funktionalität enthalten). Damit wird man entweder zu einem vollkommen unkomfortablen Reboot gezwungen – oder aber es müssen auf dem Mainboard und auf der Grafikkarte Grafikchips desselben Herstellers werkeln, welche zudem mit ein und demselben Treiber betrieben werden können.

Desweiteren ist eine vollständige Abschaltung der extra Grafikkarte aus Stromspargründen bislang nicht möglich, diese kann maximal in den Idle-Modus geschickt werden. Dies kann vernünftig funktionierten, wie das Beispiel der Radeon HD 3870 zeigt, welche trotz ihrer 81 Watt unter 3D im Idle-Betrieb nur noch 19 Watt zieht. Das Gegenbeispiel hierzu ist dann allerdings die GeForce 8800 GT, welche unter 3D ziemlich ähnliche 86 Watt verbraucht, unter Idle mit 36 Watt dagegen deutlich zu viel Strom zieht (Quelle). Wegen dieses Negativbeispiels und weil man natürlich auch die 19 Watt der Radeon HD 3870 noch einsparen kann, wäre eine Abschaltung der extra Grafikkarte sicherlich sinnvoller, wenn die Bildausgabe sowie von einem integrierten Grafikchip berechnet wird.

Und letztlich ergibt sich noch das große Problem, dass bei zwei Grafikchips im System diese normalerweise beide Zugang zum Ausgabegerät in Form des Monitors haben sollten. Dies wäre zum einen mechanisch in Form eines Monitorumschalters zu lösen – deutlich eleganter wäre natürlich eine Lösung, wo beide Grafikchips zusammenarbeiten und in der Lage sind, das Bild – egal von welchem der beiden Grafikchips erzeugt – generell nur auf einen Monitorausgang zu lenken. Dies würde allerdings eine durchaus intelligente Software voraussetzen, vorstellbar ist dieses Modell auch eher nur dann, wenn beide eingesetzten Grafikchips vom selben Hersteller stammen und mit demselben Treiber arbeiten.

Bei den vorgenannten speziellen Notebooks mit zwei Grafiklösungen hat man das ganze im übrigen dadurch gelöst, dass man die jeweils zu benutzende Grafiklösung über einen Umschalter festlegt und zur Laufzeit des Systems diese Entscheidung nicht mehr geändert werden kann – ein Wechsel zur jeweils anderen Grafiklösung also einen Reboot notwendig macht. Zum Ausgabegerät in Form des Notebook-TFTs dürften sich beide Grafiklösungen wahrscheinlich über einen automatischen Monitorumschalter verbinden, in einem Notebook als feststehendem System ist so etwas auch einfacher zu realisieren als bei einem Desktop-PC.

Wirklich schön oder komfortabel ist diese Lösung aber natürlich nicht – aber wie vorstehend beschrieben, sind die zu lösenden technischen Hürden auch nicht gerade klein. Um so positiver ist nun aber, dass nVidia diese mittels der HybridPower-Technologie in den neuen Hybrid-SLI Mainboard-Chipsätzen des Herstellers gelöst haben will.

Dabei können die neuen nVidia-Chipsätze nForce 730a (unterstützt als einziger kein HybridPower), 750a und 780a (allesamt für AMD-Prozessoren) mehr: Neben einer integrierten GeForce 8200 Grafiklösung ist auch die Unterstützung für PCI Express 2.0 mit an Board, zudem wird in Zusammenhang mit der integrierten Grafiklösung auch ein Feature namens "GeForce Boost" geboten. Dabei arbeiten eine extra Grafikkarte (natürlich von nVidia) und die ins Mainboard integrierte Grafiklösung unter SLI zusammen. Dies bringt natürlich nichts bei verbauten HighEnd-Grafiklösungen, sondern ist nur zur Unterstützung von LowCost-Grafikchips wie der GeForce 8400 GS sinnvoll.

Das spannendste Feature der neuen Mainboard-Chipsätze ist aber in der Tat HybridPower. Auch dieses setzt wieder auf die integrierte GeForce 8200 Grafiklösung und definiert diese als primäre Grafikkarte für den Windows-Betrieb, der extra verbaute 3D-Beschleuniger springt dann nur für Spiele ein. Das wirklich besondere daran ist aber:

  1. Die extra Grafikkarte wird im Windows-Betrieb regelrecht ausgeschaltet und verbraucht damit (fast) überhaupt keinen Strom mehr (natürlich mit der Ausnahme des Controllerchips, welcher die Grafikkarte wieder anschalten kann). Damit werden nicht nur je nach Grafikkarte zwischen 20 und 40 Watt ansonsten sinnlos verbrauchter Energie eingespart, zudem steigt auch die Lebenserwartung der extra Grafikkarte, weil diese ja nun wirklich nur noch zum Spielen angeschaltet wird.
  2. Es sind keinerlei Umsteckereien (oder extra Monitorumschalter) vonnöten, wechselt man von dem Windows- in den Spiele-Modus und zurück. Der Monitor hängt bei HybridPower immer an dem Ausgang der integrierten Grafiklösung. Im Spiele-Betrieb wird dabei das in der extra Grafikkarte erzeugte Bildsignal über die PCI-Express-Anbindung an die integrierte Grafiklösung weitergereicht.
  3. Es ist selbstverständlich ein Wechsel der benutzten Grafiklösung im laufenden Betrieb möglich – genau dafür ist das System ja vorgesehen. Es wird also kein Reboot notwendig, wenn man zur extra Grafikkarte wechseln will – dass System schaltet selbstätig und ohne Verzug zwischen integrierter Grafiklösung und extra Grafikkarte um, je nachdem welche Aufgabe gerade ansteht.

Im Prinzip werden damit eigentlich alle der vorstehend genannten technischen Hürden übersprungen, dass System ist in dieser Form absolut rund. Aber natürlich gibt es doch noch gewisse Einschränkungen – welche allerdings nVidia als Hersteller des Systems sogar durchaus gefallen könnten: Denn es wird natürlich ein nVidia-Modell bei der extra Grafikkarte benötigt – schon allein deswegen, weil der benutzte Grafikkarten-Treiber derselbe sein muß, weil wie gesagt die bisherigen Windows-Versionen im laufenden Betrieb keinen Grafikkarten-Treiber für die primäre Bildausgabe wechseln können. Gleichzeitig muß es aber auch eine neue nVidia-Grafikkarte sein, die bisher verkauften Modelle sind allesamt leider nicht für HybridPower geeignet.

Dies hängt mit der Ein- und Ausschaltfunktionalität zusammen, welche nVidia über den SM-Bus löst – dafür muß auf den Grafikplatinen jedoch ein entsprechender kleiner Chip verlötet sein, welcher die Steuerungsbefehle zum An- und Abschalten entgegennehmen kann. Vermutlich werden schlicht alle der kommenden GeForce9-Grafikkarten HybridPower-fähig sein, aber keine der aktuellen GeForce8-Grafikkarten oder ältere nVidia-Modelle. Keine Probleme dürfte hingegen die Nutzung von PCI Express für die Datenübermittlung machen, denn da hier nur der Rückkanal von PCI Express genutzt wird (im übrigen die erste sinnvolle Anwendung des Rückkanals im Spiele-Bereich), dürfte sich keinerlei Performance-Einfluß ergeben.

Und natürlich setzt die Ausgabe auch des von der extra Grafikkarte für Spiele berechneten Bildsignals über den Monitoranschluß der integrierten Grafiklösung voraus, dass dieser konsequent als DVI-Lösung ausgeführt wird. Dies sollte zwar eigentlich schon längst Standard auch bei integrierten Grafiklösungen sein, wird aber doch noch hier und da bei einigen Mainboards des LowCost- und OEM-Bereichs eingespart. Für HybridPower wird DVI dann aber auch bei günstigen Lösungen Pflicht werden, da kann man nicht mehr mit VGA-Ausgängen kommen. Womöglich auch deswegen unterstützt der kleinste der neuen Mainboard-Chipsätze – nForce 730a – als einziger kein HybridPower, dieser Chipsatz dürfte wohl eher nur in den OEM-Bereich gehen, wo sowieso keine extra Grafikkarte verbaut wird.

Wie gesagt dürften allerdings all diese Hardware-Einschränkungen letztlich nur nVidia bzw. deren Absatz an Grafikkarten zu gute kommen – insofern ist hierbei auch nicht zu erwarten, dass das System nachträglich noch für ältere Lösungen fit gemacht wird. nVidia wird durch diese Limitierung auf GeForce9-Karten somit kein Mainboard-Geschäft mit "Altnutzern" von GeForce8-Modellen machen, aber dafür sicherlich ein um so besseres Geschäft mit Nutzern, welche sich die volle nVidia-Dröhnung in Form von HybridPower-fähigem Mainboard-Chipsatz samt GeForce9-Grafikkarte geben.

Einen kleinen echten Haken gibt es dann aber doch noch: Nach wenigstens einer Quelle ist HybridPower nur unter Windows Vista SP1 möglich, der technische Hintergrund hierzu bleibt bislang im Verborgenen. Dies wäre für einen gewissen Teil der Nutzer eine echte Spaßbremse, da Windows Vista nun einmal nicht auf durchgehende Begeisterung gestoßen ist (um es vorsichtig auszudrücken). Da allerdings alle andere Quellen durchgehend keine Bedingung bezüglich des verwendeten Betriebssystems nennen, ist dieser Punkt bislang noch unter Vorbehalt zu sehen.

In der Summe bringt nVidia mit HybridPower ein System an den Start, mit welchem sich integrierte Grafiklösung und echte Grafikkarte zusammen jeweils so nutzen lassen, wie sie am effektivsten sind: Die integrierte Grafiklösung des Mainboard-Chipsatzes für den normalen Windows-Alltag mit natürlich entsprechend geringerem Energieeinsatz – und wenn für 3D-Spiele benötigt, wird einfach automatisch zur extra Grafikkarte umgeschaltet. Die dabei anstehenden technischen Probleme scheinen gut gelöst worden zu sein, für die gröbste Einschränkung in Form der alleinige Unterstützung von nVidia-Grafikkarten kann der Hersteller nichts. In der Theorie sieht das System also erst einmal sehr gut aus, wir sind dementsprechend auf erste Praxistests gespannt. Die genannten Mainboard-Chipsätze für AMD-Prozessoren sollen demnächst in den Markt kommen, Pendants für Intel-Prozessoren sind für das zweite Quartal angekündigt.

Nicht unterschlagen werden soll an dieser Stelle, dass auch ATIs kommenden Hybrid-CrossFire Mainboard-Chipsätze über eine ähnliche Funktionalität verfügen sollen, auch wenn derzeit noch nicht genau bekannt ist, ob diese ähnlich ausgefeilt ist. Bislang wurde in Bezug auf Hybrid-CrossFire in erster Linie über die (auch bei nVidia mittels "GeForceBoost" verfügbare) Möglichkeit geredet, integrierte Grafiklösung und extra Grafikkarte unter 3D zusammenarbeiten zu lassen, nach weiteren Informationen soll Hybrid-CrossFire aber auch die Möglichkeit mit sich bringen, die extra Grafikkarte abzuschalten und unter Windows dann nur die integrierte Grafiklösung zu benutzen.

Hier deutet sich also an, dass ATI im Endeffekt über kurz oder lang dieselbe Funktionalität wie nVidias HybridPower bieten können wird. Auch bei ATI dürfte diese Funktion dann aber auf ATI-Grafikkarten beschränkt sein – da wie gesagt für beide Grafiklösungen unter Windows derselbe Treiber verwendet werden muß. Dieser Zustand soll sich erst mit Windows 7 ändern – welches dann auch den Weg dafür frei machen dürfte, eine solche Funktion auch auf Mainboard-Chipsätzen von Intel, VIA und SiS vorzufinden, gleich welche extra Grafikkarte man dafür einsetzt. nVidias HybridPower könnte also durchaus nur der Anfang einer Entwicklung sein, nach deren Abschluß es ganz normal sein wird, für den Windows-Alltag die integrierte Mainboard-Grafiklösung zu benutzen und nur im Fall eines Spiels die extra Grafikkarte zu bemühen.

Nachtrag vom 29. Januar 2008:

Ein Artikel bei Bit-Tech beschäftigt sich mit einigen Einschränkungen, welche nVidias Hybrid-SLI derzeit noch hat. So muß man erst einmal in Korrektur zu unserem entsprechenden Artikel sagen, dass es mit den derzeitigen Treibern keine automatische Umschaltung zwischen den beiden HypridPower-Modi gibt, diese Funktionalität soll aber in einem späteren Treiber-Release geboten werden. Wirklich störend ist hingegen der Umstand, dass die integrierte Grafikeinheit der Hybrid-SLI Mainboard-Chipsätze im HybridPower-Modus weder MultiMonitoring unterstützt noch größere Displays als 1920x1200 – schlicht, weil nur ein Single-DVI-Ausgang zur Verfügung steht.

Außerhalb des HybridPower-Modus sind höhere Auflösungen und MultiMonitoring natürlich möglich, dann allerdings erzeugt über die extra Grafikkarte und wie gesagt unter Abschaltung der HybridPower-Funktionalität. Dies lässt sich auch durch ein Treiber-Update nicht mehr ändern, nVidia scheint diese Problematik allerdings mit zukünftigen Hybrid-SLI Chipsätzen angehen zu wollen. Generell sieht nVidia die derzeitigen Hybrid-SLI Mainboard-Chipsätze nForce 730a, 750a und 780a wohl nur als den "ersten Versuch" an und gibt sich selber zwei Jahre Zeit, innerhalb welcher die gesamte Technologie dann zur vollständigen Reife gebracht werden soll.

Der Heise Newsticker bringt hingegen einige Klarheit zu den Möglichkeiten von ATIs Hybrid-CrossFire. So wird erst einmal (erneut) betont, dass man damit eine extra Grafikkarte sowie die integrierte Grafiklösung des Mainboard-Chipsatzes im CrossFire-Verbund zusammenarbeiten lassen kann – was aber bekannterweise außerhalb von totalen LowCost-Grafikkarten keine wirklichen Performancegewinne verheißt. Möglich ist zudem wie bei nVidia, dass die integriere Grafiklösung das Windows-Bild erstellt und die extra Grafikkarte nur im Spiele-Fall die Bildberechnung übernimmt – wobei bislang noch unbekannt ist, ob bei dieser Zusammenschaltung es ein Zwangs-CrossFire gibt oder aber die extra Grafikkarte auch ganz alleine die 3D-Berechnungen übernehmen kann.

Wichtig ist aber, dass ganz wie bei nVidia keinerlei Monitorumsteckerei notwendig ist: Steckt das Monitorkabel in der extra Grafikkarte, ist jene der primäre Grafikadapter und berechnet sowohl unter Windows als auch unter Spielen das Bild komplett alleine. Steckt das Monitorkabel dagegen in der integrierten Grafiklösung, kommt es zu vorgenannter Aufgabenteilung, im 3D-Fall wird somit ähnlich wie bei nVidia das Bildsignal von der extra Grafikkarte auch über den Monitorausgang der integrierten Grafiklösung ausgegeben. Ob es hierbei ähnliche Einschränkungen gibt wie vorbeschrieben im nVidia-Fall, ist dagegen noch nicht heraus.

Nicht möglich ist es aber, in diesem Modus im Windows-Betrieb die extra Grafikkarte komplett auszuschalten, diese Funktion scheint derzeit nur nVidias HybridPower zu bieten. Technisch scheint dies aber trotzdem nicht unmöglich zu sein, denn im Notebook-Bereich will ATI eine solche Funktion in Zusammenarbeit mit den Notebook-Hersteller durchaus realisieren. Insofern wäre es theoretisch möglich, dass ATI eine solche Funktionalität auch im Desktop-Bereich später noch anbieten wird. Nachwievor steht hierzu jedoch im Raum, dass ATI nach der offiziellen Vorstellung von HybridPower in diesem Punkt durchaus etwas freigiebiger mit entsprechenden Informationen sein könnte.

GeForce 9600 GT: 256 Bit in der Mittelklasse

Samstag, 23. Februar 2008
 / von Leonidas
 

Nun hat auch Nvidia eine 9600 – der Name erinnert an die Mittelklasse-Version von ATIs Radeon 9700, welche in halbierter Version unter dem Namen "Radeon 9600" über längere Zeit ein ausgezeichnetes Preisleistungs-Verhältnis bot. Die damalige Highend-Karte Radeon 9700 bot schon ein 256-Bit-Interface, wie zuvor bereits Matrox' Parhelia. Allerdings zeigt sich, dass die Zahl der Bits beim Interface nicht allein entscheidend sind: Die Leistung der Matrox Parhelia war unterhalb der GeForce4 Ti, obwohl jene nur ein 128-Bit-Interface hat.

ATIs Radeon 9600 war trotz 128-Bit-Interface in allen DirectX9-Spielen der GeForceFX 5900 überlegen, obwohl letztere 256 Bit Interfacebreite bot. Der Nachfolger, GeForce 6800 Ultra, kam ebenfalls mit 256 Bit und die Mittelklassenversion GeForce 6600 wieder nur mit 128 Bit. Dennoch bietet die GeForce 6600 GT zumindest in aktuelleren Spielen mehr Leistung als die Radeon 9700/9800.

Die in der Mitteklasse nachfolgende GeForce 7600 GT konnte dann von der Performance her ungefähr mit einer GeForce 6800 GT mithalten, obwohl die 7600-er wieder nur ein 128-Bit-Interface hat. Die GeForce 8600 GTS ist schneller als eine GeForce 7800 GTX, obwohl es wieder 128 Bit vs. 256 steht. In Spielen, die HDR-Rendering nutzen, kann eine GeForce 8600 GTS sogar mit einer GeForce 7900 GT mithalten, obwohl HDR-Rendering auch die Bandbreite stark belastet. Bislang wurde im Mittelklasse-Bereich also versucht, irgendwie noch mit 128 Bit auszukommen – mit Erfolg.

Mit der GeForce 9600 GT wird die Bitbreite nun im gleichen Segment glatt verdoppelt – während man mit dem G80-Chip im HighEnd-Bereich einen Zwischenschritt zum 512-Bit-Interface eingelege. Bekanntermaßen ist eine GeForce 8800 GTX mit ihrem 384-Bit-Interface schneller als eine Radeon HD 2900XT mit 512-Bit-Interface. Es kommt also primär darauf an, die zur Verfügung stehende Bandbreite möglichst gut auszunutzen.

Die Balance halten

Aus unserer Sicht wäre ein 3:2-Verhältnis von Shader-Clustern á 16 MAD und 64-Bit-Speicherpartitionen bei der G80- und G92-Architektur optimal. Daraus abgeleitet könnte man sich eine schöne Produktpalette konstruieren, welche auch keine so großen Performance-Lücken aufweist wie sie es in der Vergangenheit gab und heute eigentlich noch immer gibt: Der Abstand zwischen GeForce 8600 GTS und GeForce 9600 GT (oder auch noch zur GeForce 8800 GS) ist ziemlich groß.

Echtes neues HighEnd lässt daneben noch immer auf sich warten. Die Performance der Anfang März erwarteten GeForce 9800 GX2 wird bei dem genutzten SLI-Verfahren wieder unter stärkeren Frameraten-Schwankungen leiden als Single-GPU-Karten. Eine GeForce 8800 Ultra mag hierbei zwar nominell deutlich überboten werden, von der gefühlten Framerate her sind jedoch keine großen Vorteile zu erwarten. Eine bessere Verteilung der Framerate wäre allerdings mit einem Sinken der durchschnittlichen Leistung verbunden.

Irgendwann ist ohnehin zu erwarten, dass bei SLI nicht mehr getrennte Frames gerendert, sondern die Threads auf einzelne GPUs aufgeteilt werden. Selbst wenn man dafür ein Frame Latenz inkauf nehmen muss, fährt man besser als beim Alternate Frame Rendering – vor allem wenn mehr als zwei GPUs zum Einsatz kommen.

Im Einsteiger-Bereich hat man bei Nvidia bisher die GeForce 8500 GT oder GeForce 8600 GT mit DDR2-Speicher und 400 MHz Speichertakt. Hier ist aufzupassen, dass man auch wirklich die gewünschte Speicherkonfiguration erhält – so gibt es die GeForce 7300 GT, eigentlich mit 128-Bit-Interface, auch in einer 64-Bit-Version, obwohl man ohnehin drei 64-Bit-Versionen der GeForce 7300 hat (nämlich GS, LE und SE).

"NVIDIA GeForce 7300 NVIDIA® GeForce® 7300 graphics processing units (GPUs) allow you to experience the latest gaming effects without compromising performance." ist die offizielle Werbung für die GeForce 7300. Bei der GeForce 9600 liest sich das so: "The NVIDIA® GeForce® 9600 GT GPU offers a powerfully immersive entertainment experience designed for extreme high-definition gaming and video playback." Seltsamerweise steht die Spieleeignung bei der GeForce 9600 im Nvidia-Marketing nicht an erster Stelle.

Neue Features

Die GeForce 9600 GT kommt mit Videofeatures auf VP2-Niveau (Video Processor 2, auch in GeForce 8400, 8500 und 8600 sowie G92-basierenden 8800-Produkten). Jedoch gibt es jetzt über die Shader zusätzliche Features, zum Beispiel zur dynamischen Kontrastanpassung. Die GeForce 9600 GT wird auch mit Picture-in-Picture-Fähigkeit beworben, da zwei Videostreams gleichzeitig dekodiert werden können. Erfahrungsgemäß beschreibt das Marketing bei den Nvidia-Videofeatures eher die theoretischen Möglichen, während sich ein Praxisnutzen erst später einstellen wird.

Eine Videobeschleunigerkarte sollte sich nach unserem Verständnis passiv kühlen lassen. Die GeForce 9600 GT kommt jedoch mit einem Lüfter, der an den revidierten Lüfter der GeForce 8800 GT erinnert. Je nach Boardlayout gibt es noch Audio-Anschlüsse.

Wenig gesprächig zeigte sich Nvidia, was die neue Komprimierungstechnologie angeht, welche das 3D-Rendering beschleunigen soll. Dieses neue Feature dürfte schon beim G92-Chip der GeForce 8800 GS/GT/GTS enthalten sein und genutzt werden, wurde dort jedoch nicht vermarktet. Was konkret gemacht wird, bleibt allerdings Spekulation.

Hier unsere Theorie: Nvidia versucht, die Komprimierungsrate zu verbessern, indem parallel mit verschiedenen Verfahren komprimiert wird. Sofern eines davon die Zielbitrate ohne Qualitätsverlust erreicht, muss man nicht mehr die unkomprimierten Daten schreiben. Hierbei könnte ausgenutzt werden, dass es in 3D-Spielen oft Bereiche gibt, wo sich die Farbwerte zum Nachbarpixel nur wenig ändern. Vielleicht ist das Verfahren sogar ausgefuchst genug, dass es durchaus einige Pixel mit starken Änderungen geben darf, solange der Rest komprimierbar genug ist.

Die neue alte GTS

Obwohl nur 64 skalare Stream-Rechenwerke (SP aka Shader Processors) bei der GeForce 9600 GT zum Einsatz kommen, kann die Karte mit einer alten, G80-basierten GeForce 8800 GTS (96 SP) mithalten – wobei die alte GeForce 8800 GTS auch noch ein 320-Bit-Speicherinterface anzubieten hat. Die Performancegleichheit der GeForce 9600 GT kommt primär durch die Taktsteigerung und einige Detailverbesserungen in der Architektur.

Alle 8800-er Karten basieren auf einem Chip, in dem 128 SP verbaut sind. Zum Einsatz kommen davon 96 (GS und alte GTS), 112 (GT oder neue G80-basierende GTS) oder alle 128 (GTX, Ultra). Es ist klar, dass Nvidias Rechnung auf Dauer nicht aufgeht, hier immer schön Resteverwertung zu betreiben: Um G80 und G92 wirtschaftlich zu produzieren, muss der Yield an voll funktionsfähigen Chips hoch genug sein. So fallen nicht genügend Chips ab, welche man nur noch für die kleineren Performance-Modelle nutzen könnte – im Performance-Bereich werden schließlich klar mehr Chips verkauft als im HighEnd-Bereich.

Damit müssen entweder voll funktionsfähige, aber nicht voll freigeschaltete, oder zumindest sehr gut taktbare Chips für die kleineren Performance-Grafikkarten verbaut werden (wie beim G80 auf der alten GeForce 8800 GTS). Oder bei den Performance-Karten grassiert dann die Lieferschwierigkeit (GeForce 8800 GT mit G92-Chip). Selbst wenn der "Ausschuss-Yield" hoch genug wäre, ist die Chipausbeute pro Waver relativ gering, weil die Chips so groß sind.

Also fuhr man bisher zweigleisig: G80 (und G92) für Performance und HighEnd, G84 für die Mittelklasse. Obwohl die 8600-Reihe auch 48 SP hätte vertragen können, ohne dass das 128-Bit-Speicherinterface gleich limitiert, war die Chipgröße bei dieser Mittelklasse-Lösung so wichtig, dass man sich auf 32 SP beschränkte. Mit einer selbst für heutige Verhältnisse hohen Chip-Taktrate von 675 MHz für die GPU und satten 1008 MHz beim Speicher brachte man die GeForce 8600 GTS mit Ach und Krach halbwegs auf das Niveau der GeForce 7900 GT.

Der Spieler hätte sicherlich lieber 48 SP bei 600 MHz gesehen – leider brachte auch AMD/ATI in jener Generation keine "vollwertige" Mittelklasse (also 50 Prozent Architekturbreite vom Flaggschiff). Nun haben wir bei der GeForce 9600 GT jetzt immerhin 64 SP. Das einzige, was uns bei der GeForce "9" fehlt, ist noch die Unterstützung von DirectX 10.1. Zwar hat man mit DirectX 10.0 in der heutigen Spielepraxis absolut keine Unterschiede zu einer 10.1-er Karte, doch ohne Hardware-Verbreitung gibt es natürlich auch keine passende Software.

Warum 256 Bit?

Die Tradition der Chip-Halbierungen, welche mit der GeForce2 MX und der erwähnten Radeon 9600 große Erfolge hatte, scheint aufgebrochen: Die GeForce 9600 GT wäre von der Architektur her zwar eine halbe hypothetische GeForce 9800 (die es noch nicht gibt, aber die man erwarten kann) – doch sofern die bisherigen Leaks zutreffend sind, bleibt es auch bei dieser kommenden Karte bei einem Speicherinterface von ebenfalls 256 Bit. Obwohl damit 128 SP versorgt werden müssen, immerhin doppelt so viel wie bei der GeForce 9600 GT.

Wie eingangs gezeigt, zierte sich Nvidia lange, ein größere Speicherinterfaces zu verbauen als unbedingt notwendig. Warum der Sinnungswandel? Bei den heute üblichen Chipgrößen verschieben sich die Gewichte: Es wird preiswerter, ein Boardlayout mit aufwändiger Verdrahtung zu haben (um die notwendige Leiterbahnenanzahl für das Speicherinterface zu realisieren), als wie früher mit vergleichsweise fetten Chips anzukommen. So ist die GeForce 8800 GS trotz 96 SP etwas langsamer als die GeForce 9600 GT: Denn bei der GeForce 8800 GS limitiert das Speicherinterface, bei der GeForce 9600 GT die GPU.

Man nimmt also deshalb ein eigentlich zu großes Speicherinterface für die GeForce 9600 GT, weil man somit die Performance noch etwas anheben kann, ohne gleich größere GPUs verbauen zu müssen. Dieser Trend zu verschwenderischer Speicherbandbreite dürfte sich aber wieder umkehren, denn 512 Bit stellen eine große Herausforderung dar, während bei der Chip-Entwicklung weitere Shrinks bereits absehbar sind.

Dass die GeForce 9600 GT nun als "GeForce 9" vermarktet wird, ist eine weitere Spitzenidee des Nvidia-Marketings, welches dafür wahrscheinlich Überstunden geschoben hat. Doch lassen wir die Namensgebung mal beiseite: Die Hardware der GeForce 9600 GT ist bezogen auf den Preis sehr gut. Man bekommt eine durchweg verdoppelte GeForce 8600 GTS (doppelt so viele SP, ein doppelt so großes Interface, doppelt so viel Speicher) bei anständigen Taktraten.

  GeForce 8600 GTS
(alt)
GeForce 9600 GT
(neu)
GeForce 8800 GS(kurzfristig) Radeon HD 2600 XT GDDR3
(alt)
Radeon HD 3850
(neu)
Chip nVidia G84, 289 Millionen Transistoren in 80nm bei TSMC (169 mm²) nVidia G94, 505 Millionen Transistoren in 65nm bei TSMC (240 mm²) nVidia G92, 754 Millionen Transistoren in 65nm bei TSMC (289 mm²) ATI RV630, 390 Millionen Transistoren in 65nm bei TSMC (153 mm²) ATI RV670, 666 Millionen Transistoren in 55nm bei TSMC (192 mm²)
Technologie Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.1
Aufbau 32 SP, 16 TMUs, 8 ROPs, 128 Bit DDR SI 64 SP, 32 TMUs, 16 ROPs, 256 Bit DDR SI 96 SP, 40 TMUs, 12 ROPs, 196 Bit DDR SI 120 SP, 8 TMUs, 4 ROPs, 128 Bit DDR SI 320 SP, 16 TMUs, 8 ROPs, 256 Bit DDR SI
Taktraten 675/1450/1000 MHz 650/1625/900 MHz 575/1438/750 MHz 800/700 MHz 670/830 MHz
Rechenpower MADD/MADD+MUL 93/139 GFlops 208/312 GFlops 276/414 GFlops 192 GFlops 429 GFlops
Bandbreite 29,8 GiB/sec 53,6 GiB/sec 34,2 GiB/sec 20,9 GiB/sec 49,5 GiB/sec
Bauform SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0 SingleSlot, 384 MB, PCI Express 1.x/2.0 SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0
Verbrauch 47 Watt geschätzt 60 Watt ca. 65 Watt ca. 45 Watt ca. 70 Watt
aktuelle Preislage 256MB: 100-120 Euro
512MB: 110-130 Euro
512MB: 140-160 Euro 384MB: 130-150 Euro 256MB: 60-80 Euro
512MB: 70-90 Euro
256MB: 120-140 Euro
512MB: 150-170 Euro
Preisvergleich Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals

Grafikkarten-Marktüberblick Januar 2008

Mittwoch, 16. Januar 2008
 / von Leonidas
 
Seit unserem letzten Marktüberblick im November 2007 sind zwei Monate vergangen und ist inzwischen auch wieder einiges passiert. Zum einen sind die Radeon HD 3850/3870 sowie GeForce 8800 GT Grafikkarten nun wirklich verfügbar geworden, desweiteren hat nVidia den G92-Chip nun auch noch zu zwei weiteren Varianten benutzt (GeForce 8800 GTS 512MB und GeForce 8800 GS), und letztlich gibt es mit der Radeon HD 2900 Pro 256-Bit auch noch eine neue interessante Geheimtip-Karte. Daneben haben sich natürlich auch schon wieder einige Preise verschoben (besonders stark bei der GeForce 8800 GTX), so daß sich ein neuer Marktüberblick durchaus lohnt. Zudem treten die nächsten Grafikkarten (GeForce9-Serie, weitere Karten der Radeon HD 3000 Serie) nicht vor Mitte Februar an und werden wohl erst im März breit im Handel verfügbar sein. Damit dürfte die nachfolgend beschriebene Konstellation für einen gewissen Zeitraum - langfristiges gibt es im Grafikkarten-Geschäft sowieso nie - Bestand haben: Anmerkung: Die GFlops-Angabe gibt die theoretische maximale Rechenleistung wieder, bei ATI die MADD-Rechenleistung und bei nVidia die MADD- sowie die kummulierte MADD/MUL-Rechenleistung. Diese Angabe erfolgt, weil die Anzahl der Shader-Einheiten zwischen den Designs von ATI und nVidia nicht vergleichbar ist - wobei natürlich auch die Angabe zur Rechenleistung keinen alleinigen Schluß auf die Leistungsfähigkeit zuläßt.
ATI Preislage nVidia
  510-540 Euro GeForce 8800 Ultra 768MB nVidia G80, Direct3D10, 128 Shader-Einheiten (387/581 GFlops), 64 TMUs, 384 Bit DDR Speicherinterface, 612/1512/1080 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch ca. 145W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  340-360 Euro GeForce 8800 GTX 768MB nVidia G80, Direct3D10, 128 Shader-Einheiten (346/518 GFlops), 64 TMUs, 384 Bit DDR Speicherinterface, 575/1350/900 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch 132W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  280-300 Euro GeForce 8800 GTS 512MB (G92) nVidia G92, Direct3D10, 128 Shader-Einheiten (416/624 GFlops), 64 TMUs, 256 Bit DDR Speicherinterface, 650/1625/970 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, Verbrauch ca. 95W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  210-230 Euro GeForce 8800 GT 512MB nVidia G92, Direct3D10, 112 Shader-Einheiten (336/504 GFlops), 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch 78W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3870 512MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (496 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 775/1125 MHz, 512 MB GDDR4, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, Verbrauch 81W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 190-210 Euro  
  180-200 Euro GeForce 8800 GT 256MB nVidia G92, Direct3D10, 112 Shader-Einheiten (336/504 GFlops), 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 75W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 512MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (429 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 70W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 160-180 Euro  
  150-170 Euro GeForce 8800 GS 384MB nVidia G92, Direct3D10, 96 Shader-Einheiten (276/414 GFlops), 48 TMUs, 192 Bit DDR Speicherinterface, 575/1438/750 MHz, 384 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 65W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 256MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (429 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 65W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 135-150 Euro GeForce 8600 GTS 512MB nVidia G84, Direct3D10, 32 Shader-Einheiten (93/139 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 47W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2900 Pro 512MB (256-Bit) ATI R600, Direct3D10, 320 Shader-Einheiten (384 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 600/800 MHz, 512 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch ca. 140W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals Note: Diese Karte wird derzeit nur von Sapphire angeboten. 125-140 Euro  
 
Radeon HD 2600 XT 256MB GDDR4 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/1100 MHz, 256 MB GDDR4, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 49W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 100-120 Euro GeForce 8600 GTS 256MB nVidia G84, Direct3D10, 32 Shader-Einheiten (93/139 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 47W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 512MB GDDR3 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 45W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 90-100 Euro  
  80-90 Euro GeForce 8600 GT 256/512MB nVidia G84, Direct3D10, 32 Shader-Einheiten (76/114 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 540/1190/700 MHz, 256/512 MB GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, Verbrauch ca. 40W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR3 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 45W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 70-80 Euro  
 
Radeon HD 2600 Pro 256/512MB ATI RV630, Direct3D10, 120 Shader-Einheiten (144 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 600/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 31W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 55-70 Euro  
  45-60 Euro GeForce 8500 GT 256/512MB nVidia G86, Direct3D10, 16 Shader-Einheiten (29/43 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 450/900/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, Verbrauch 27W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2400 XT 256MB GDDR3 ATI RV615, Direct3D10, 40 Shader-Einheiten (56 GFlops), 4 TMUs, 64 Bit DDR Speicherinterface, 700/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 25W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals Note: Es sind auch Karten mit GDDR2-Speicher am Markt, welche nur 500 MHz Speichertakt aufweisen. Da diese aber nicht günstiger angeboten werden, sind jene GDDR2-Karten nicht empfehlenswert. 35-50 Euro  
 
Nicht mehr in dieser Aufstellung gelistet sind folgende Karten aus den nachfolgend genannten Gründen:
  • Radeon HD 2400 Pro und GeForce 8400 GS - aus Performance-Sicht klar zu langsam für zum Spielen zu benutzende Grafikkarten, für nur einen mininalen höheren preislichen Einsatz gibt es da bessere Angebote in Form von Radeon HD 2400 XT und GeForce 8500 GT
  • Radeon HD 2600 XT 512MB GDDR4 - mit 512 MB GDDR4 kaum noch lieferbar und dann deutlich überteuert im Vergleich zur 256-MB-Version
  • Radeon HD 2600 X2 (DualChip-Lösung) - faktisch nicht erhältlich, durch die Radeon HD 3850 vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 GT - durch die 256-Bit-Version der Radeon HD 2900 Pro vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen
  • Radeon HD 2900 Pro (512-Bit) - ausgelaufen, durch die Radeon HD 3850 vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 XT - ausgelaufen, durch die Radeon HD 3870 vom Preis/Leistungsverhältnis her uninteressant geworden
  • GeForce 8800 GTS 320/640MB - wird demnächst auslaufen, durch die GeForce 8800 GT vom Preis/Leistungsverhältnis her uninteressant geworden
  • GeForce 8800 GTS 640MB (112SP/G80) - die G80-basierte 112-Shadereinheiten-Version der GeForce 8800 GTS ist inzwischen durch die G92-basierte GeForce 8800 GTS vom Preis/Leistungsverhältnis her uninteressant geworden und dürfte ebenfalls demnächst auslaufen
Auf den ersten Blick mag sich gegenüber unserer Aufstellung vom November nicht viel getan haben, auf den zweiten Blick ergeben sich aber dennoch einige Verschiebungen.

ATI Radeon HD 2900 XT Review

Montag, 14. Mai 2007
 / von BlackBirdSR & robbitop
 

Am heutigen Tage ist es endlich soweit – sechs Monate nach dem Launch der Direct3D10-Generation von nVidia bringt der nunmehr zu AMD gehörende Grafikchip-Entwickler ATI den R600-Chip und damit seinen ersten Direct3D10-Grafikchip auf den Markt.

Genau wie der G80 handelt es sich beim R600 um eine Grundarchitektur der dritten Generation (wenn man ab der GeForce 256 und der Radeon 256 anfängt zu zählen). Die Lebzeit der ersten Generation beschränkt sich bei ATI auf den R100 (Radeon 256) und den RV200 (Radeon 7500). Kurze Zeit später folgte die zweite Generation: Der R200 (Radeon 8500) legte den Grundstein für die erfolgreiche R300 (Radeon 9500/9700) und deren Nachfolger. Im Jahre 2004 sollte dann ursprünglich die dritte Generation – der R400 – erscheinen.

Aus verschiedenen Gründen wurde dieser Chip jedoch storniert, ein Derivat des R400 landete letzten Endes in Form des Xenos in der Xbox 360. Dieser bildete die erste Unified Shader Generation der 3D-Beschleuniger-Chips in der 3D-Geschichte. Einiges von dessen KnowHow floss letztlich in die Chips R520/R580 (Radeon X1800/X1900) ein, welche noch großteils auf der zweiten Generation beruhten.

Der R600 ist nunmehr sozusagen eine starke Weiterentwicklung des R400. Da man bei ATI auf eine mehrjährige Erfahrung mit Unified Shadern zurückgreifen konnte, haben sich natürlich vielerlei Dinge seit dem R400 getan. Die Skalierbarkeit, die Flexibilität der Rechenwerke, die nötigen Features für Direct3D10 als auch die Rohleistung wurden gesteigert.

radeon_hd_2900_xt

Nach langer Zeit erhält 3DCenter wieder einmal die Möglichkeit, einen Launch-Artikel zu präsentieren. Vorab sei an dieser Stelle den Firmen AMD (ATI, Radeon HD 2900 XT), Listan (beQuiet, 600W-Netzteil zum stabilen Betrieb der neuen ATI-Karte) und Club3D (GeForce 8800 GTX) für die unkomplizierte Stellung von Testsamples für diesen Artikel gedankt.

                  

Ausdrücklicher Dank gilt zudem der Firma PC-Spezialist in Stralsund. Denn beinahe wäre dieser Artikel doch noch ins Wasser gefallen, da vergangenen Freitag unser Mainboard nach einem Bluescreen seinen Dienst quitierte. In letzter Sekunde konnte man uns allerdings ein Ersatzmainboard (gleich mit CPU) unkompliziert leihen.

Inhalt abgleichen