Grafikkarten

Infos zu Radeon HD 3x00 & GeForce9

Montag, 28. Januar 2008
 / von Leonidas
 

Den ersten Teil der aktuellen Refresh-Generation haben wir ja bereits im alten Jahr gesehen: ATI und nVidia haben hier mit Radeon HD 3850/3870 und den GeForce 8800 GT/GTS Karten den Performance-Markt vollkommen neu aufgestellt, hinzu kommen seit Mitte Januar noch die GeForce 8800 GS sowie die Radeon HD 3450/3470/3650 Karten. Allerdings war dies erst der erste Schwung der Refresh-Generation von ATI und nVidia, es folgen nun in der Winter-Saison weitere Grafikkarten für alle Marktsegmente, um welche es nachfolgend gehen soll.

Erste Hinweise zu diesen Karten lagen natürlich schon im alten Jahr vor, aber inzwischen ist die Informationslage doch wesentlich besser, lassen sich die meisten der kommenden Grafikkarten schon ziemlich gut beschreiben. Womit wir uns ohne weitere Umschweife in die Beschreibung der kommenden Grafikkarten stürzen wollen – für einen Quervergleich zur bisherigen Situation am Grafikkarten-Markt wäre dieser Artikel zu konsultieren.

nVidias HybridPower

Montag, 21. Januar 2008
 / von Leonidas
 

HybridPower logo Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit – und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, dass die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch dass die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind. Zudem würde man natürlich mit einer kürzeren Laufzeit auch die Investition in die zumeist teure Grafikkarte besser schützen bzw. im Mobile-Bereich die Akkulaufzeit verlängern.

Einem solchen Vorhaben stehen allerdings einige Hürden entgegen. So ist zuerst einmal eine Umschaltung zwischen Grafikchips verschiedener Hersteller für die primäre Bildausgabe im laufenden Betrieb nicht möglich, dies unterstützen die bisherigen Windows-Versionen nicht (erst Windows 7 soll eine solche Funktionalität enthalten). Damit wird man entweder zu einem vollkommen unkomfortablen Reboot gezwungen – oder aber es müssen auf dem Mainboard und auf der Grafikkarte Grafikchips desselben Herstellers werkeln, welche zudem mit ein und demselben Treiber betrieben werden können.

Desweiteren ist eine vollständige Abschaltung der extra Grafikkarte aus Stromspargründen bislang nicht möglich, diese kann maximal in den Idle-Modus geschickt werden. Dies kann vernünftig funktionierten, wie das Beispiel der Radeon HD 3870 zeigt, welche trotz ihrer 81 Watt unter 3D im Idle-Betrieb nur noch 19 Watt zieht. Das Gegenbeispiel hierzu ist dann allerdings die GeForce 8800 GT, welche unter 3D ziemlich ähnliche 86 Watt verbraucht, unter Idle mit 36 Watt dagegen deutlich zu viel Strom zieht (Quelle). Wegen dieses Negativbeispiels und weil man natürlich auch die 19 Watt der Radeon HD 3870 noch einsparen kann, wäre eine Abschaltung der extra Grafikkarte sicherlich sinnvoller, wenn die Bildausgabe sowie von einem integrierten Grafikchip berechnet wird.

Und letztlich ergibt sich noch das große Problem, dass bei zwei Grafikchips im System diese normalerweise beide Zugang zum Ausgabegerät in Form des Monitors haben sollten. Dies wäre zum einen mechanisch in Form eines Monitorumschalters zu lösen – deutlich eleganter wäre natürlich eine Lösung, wo beide Grafikchips zusammenarbeiten und in der Lage sind, das Bild – egal von welchem der beiden Grafikchips erzeugt – generell nur auf einen Monitorausgang zu lenken. Dies würde allerdings eine durchaus intelligente Software voraussetzen, vorstellbar ist dieses Modell auch eher nur dann, wenn beide eingesetzten Grafikchips vom selben Hersteller stammen und mit demselben Treiber arbeiten.

Bei den vorgenannten speziellen Notebooks mit zwei Grafiklösungen hat man das ganze im übrigen dadurch gelöst, dass man die jeweils zu benutzende Grafiklösung über einen Umschalter festlegt und zur Laufzeit des Systems diese Entscheidung nicht mehr geändert werden kann – ein Wechsel zur jeweils anderen Grafiklösung also einen Reboot notwendig macht. Zum Ausgabegerät in Form des Notebook-TFTs dürften sich beide Grafiklösungen wahrscheinlich über einen automatischen Monitorumschalter verbinden, in einem Notebook als feststehendem System ist so etwas auch einfacher zu realisieren als bei einem Desktop-PC.

Wirklich schön oder komfortabel ist diese Lösung aber natürlich nicht – aber wie vorstehend beschrieben, sind die zu lösenden technischen Hürden auch nicht gerade klein. Um so positiver ist nun aber, dass nVidia diese mittels der HybridPower-Technologie in den neuen Hybrid-SLI Mainboard-Chipsätzen des Herstellers gelöst haben will.

Dabei können die neuen nVidia-Chipsätze nForce 730a (unterstützt als einziger kein HybridPower), 750a und 780a (allesamt für AMD-Prozessoren) mehr: Neben einer integrierten GeForce 8200 Grafiklösung ist auch die Unterstützung für PCI Express 2.0 mit an Board, zudem wird in Zusammenhang mit der integrierten Grafiklösung auch ein Feature namens "GeForce Boost" geboten. Dabei arbeiten eine extra Grafikkarte (natürlich von nVidia) und die ins Mainboard integrierte Grafiklösung unter SLI zusammen. Dies bringt natürlich nichts bei verbauten HighEnd-Grafiklösungen, sondern ist nur zur Unterstützung von LowCost-Grafikchips wie der GeForce 8400 GS sinnvoll.

Das spannendste Feature der neuen Mainboard-Chipsätze ist aber in der Tat HybridPower. Auch dieses setzt wieder auf die integrierte GeForce 8200 Grafiklösung und definiert diese als primäre Grafikkarte für den Windows-Betrieb, der extra verbaute 3D-Beschleuniger springt dann nur für Spiele ein. Das wirklich besondere daran ist aber:

  1. Die extra Grafikkarte wird im Windows-Betrieb regelrecht ausgeschaltet und verbraucht damit (fast) überhaupt keinen Strom mehr (natürlich mit der Ausnahme des Controllerchips, welcher die Grafikkarte wieder anschalten kann). Damit werden nicht nur je nach Grafikkarte zwischen 20 und 40 Watt ansonsten sinnlos verbrauchter Energie eingespart, zudem steigt auch die Lebenserwartung der extra Grafikkarte, weil diese ja nun wirklich nur noch zum Spielen angeschaltet wird.
  2. Es sind keinerlei Umsteckereien (oder extra Monitorumschalter) vonnöten, wechselt man von dem Windows- in den Spiele-Modus und zurück. Der Monitor hängt bei HybridPower immer an dem Ausgang der integrierten Grafiklösung. Im Spiele-Betrieb wird dabei das in der extra Grafikkarte erzeugte Bildsignal über die PCI-Express-Anbindung an die integrierte Grafiklösung weitergereicht.
  3. Es ist selbstverständlich ein Wechsel der benutzten Grafiklösung im laufenden Betrieb möglich – genau dafür ist das System ja vorgesehen. Es wird also kein Reboot notwendig, wenn man zur extra Grafikkarte wechseln will – dass System schaltet selbstätig und ohne Verzug zwischen integrierter Grafiklösung und extra Grafikkarte um, je nachdem welche Aufgabe gerade ansteht.

Im Prinzip werden damit eigentlich alle der vorstehend genannten technischen Hürden übersprungen, dass System ist in dieser Form absolut rund. Aber natürlich gibt es doch noch gewisse Einschränkungen – welche allerdings nVidia als Hersteller des Systems sogar durchaus gefallen könnten: Denn es wird natürlich ein nVidia-Modell bei der extra Grafikkarte benötigt – schon allein deswegen, weil der benutzte Grafikkarten-Treiber derselbe sein muß, weil wie gesagt die bisherigen Windows-Versionen im laufenden Betrieb keinen Grafikkarten-Treiber für die primäre Bildausgabe wechseln können. Gleichzeitig muß es aber auch eine neue nVidia-Grafikkarte sein, die bisher verkauften Modelle sind allesamt leider nicht für HybridPower geeignet.

Dies hängt mit der Ein- und Ausschaltfunktionalität zusammen, welche nVidia über den SM-Bus löst – dafür muß auf den Grafikplatinen jedoch ein entsprechender kleiner Chip verlötet sein, welcher die Steuerungsbefehle zum An- und Abschalten entgegennehmen kann. Vermutlich werden schlicht alle der kommenden GeForce9-Grafikkarten HybridPower-fähig sein, aber keine der aktuellen GeForce8-Grafikkarten oder ältere nVidia-Modelle. Keine Probleme dürfte hingegen die Nutzung von PCI Express für die Datenübermittlung machen, denn da hier nur der Rückkanal von PCI Express genutzt wird (im übrigen die erste sinnvolle Anwendung des Rückkanals im Spiele-Bereich), dürfte sich keinerlei Performance-Einfluß ergeben.

Und natürlich setzt die Ausgabe auch des von der extra Grafikkarte für Spiele berechneten Bildsignals über den Monitoranschluß der integrierten Grafiklösung voraus, dass dieser konsequent als DVI-Lösung ausgeführt wird. Dies sollte zwar eigentlich schon längst Standard auch bei integrierten Grafiklösungen sein, wird aber doch noch hier und da bei einigen Mainboards des LowCost- und OEM-Bereichs eingespart. Für HybridPower wird DVI dann aber auch bei günstigen Lösungen Pflicht werden, da kann man nicht mehr mit VGA-Ausgängen kommen. Womöglich auch deswegen unterstützt der kleinste der neuen Mainboard-Chipsätze – nForce 730a – als einziger kein HybridPower, dieser Chipsatz dürfte wohl eher nur in den OEM-Bereich gehen, wo sowieso keine extra Grafikkarte verbaut wird.

Wie gesagt dürften allerdings all diese Hardware-Einschränkungen letztlich nur nVidia bzw. deren Absatz an Grafikkarten zu gute kommen – insofern ist hierbei auch nicht zu erwarten, dass das System nachträglich noch für ältere Lösungen fit gemacht wird. nVidia wird durch diese Limitierung auf GeForce9-Karten somit kein Mainboard-Geschäft mit "Altnutzern" von GeForce8-Modellen machen, aber dafür sicherlich ein um so besseres Geschäft mit Nutzern, welche sich die volle nVidia-Dröhnung in Form von HybridPower-fähigem Mainboard-Chipsatz samt GeForce9-Grafikkarte geben.

Einen kleinen echten Haken gibt es dann aber doch noch: Nach wenigstens einer Quelle ist HybridPower nur unter Windows Vista SP1 möglich, der technische Hintergrund hierzu bleibt bislang im Verborgenen. Dies wäre für einen gewissen Teil der Nutzer eine echte Spaßbremse, da Windows Vista nun einmal nicht auf durchgehende Begeisterung gestoßen ist (um es vorsichtig auszudrücken). Da allerdings alle andere Quellen durchgehend keine Bedingung bezüglich des verwendeten Betriebssystems nennen, ist dieser Punkt bislang noch unter Vorbehalt zu sehen.

In der Summe bringt nVidia mit HybridPower ein System an den Start, mit welchem sich integrierte Grafiklösung und echte Grafikkarte zusammen jeweils so nutzen lassen, wie sie am effektivsten sind: Die integrierte Grafiklösung des Mainboard-Chipsatzes für den normalen Windows-Alltag mit natürlich entsprechend geringerem Energieeinsatz – und wenn für 3D-Spiele benötigt, wird einfach automatisch zur extra Grafikkarte umgeschaltet. Die dabei anstehenden technischen Probleme scheinen gut gelöst worden zu sein, für die gröbste Einschränkung in Form der alleinige Unterstützung von nVidia-Grafikkarten kann der Hersteller nichts. In der Theorie sieht das System also erst einmal sehr gut aus, wir sind dementsprechend auf erste Praxistests gespannt. Die genannten Mainboard-Chipsätze für AMD-Prozessoren sollen demnächst in den Markt kommen, Pendants für Intel-Prozessoren sind für das zweite Quartal angekündigt.

Nicht unterschlagen werden soll an dieser Stelle, dass auch ATIs kommenden Hybrid-CrossFire Mainboard-Chipsätze über eine ähnliche Funktionalität verfügen sollen, auch wenn derzeit noch nicht genau bekannt ist, ob diese ähnlich ausgefeilt ist. Bislang wurde in Bezug auf Hybrid-CrossFire in erster Linie über die (auch bei nVidia mittels "GeForceBoost" verfügbare) Möglichkeit geredet, integrierte Grafiklösung und extra Grafikkarte unter 3D zusammenarbeiten zu lassen, nach weiteren Informationen soll Hybrid-CrossFire aber auch die Möglichkeit mit sich bringen, die extra Grafikkarte abzuschalten und unter Windows dann nur die integrierte Grafiklösung zu benutzen.

Hier deutet sich also an, dass ATI im Endeffekt über kurz oder lang dieselbe Funktionalität wie nVidias HybridPower bieten können wird. Auch bei ATI dürfte diese Funktion dann aber auf ATI-Grafikkarten beschränkt sein – da wie gesagt für beide Grafiklösungen unter Windows derselbe Treiber verwendet werden muß. Dieser Zustand soll sich erst mit Windows 7 ändern – welches dann auch den Weg dafür frei machen dürfte, eine solche Funktion auch auf Mainboard-Chipsätzen von Intel, VIA und SiS vorzufinden, gleich welche extra Grafikkarte man dafür einsetzt. nVidias HybridPower könnte also durchaus nur der Anfang einer Entwicklung sein, nach deren Abschluß es ganz normal sein wird, für den Windows-Alltag die integrierte Mainboard-Grafiklösung zu benutzen und nur im Fall eines Spiels die extra Grafikkarte zu bemühen.

Nachtrag vom 29. Januar 2008:

Ein Artikel bei Bit-Tech beschäftigt sich mit einigen Einschränkungen, welche nVidias Hybrid-SLI derzeit noch hat. So muß man erst einmal in Korrektur zu unserem entsprechenden Artikel sagen, dass es mit den derzeitigen Treibern keine automatische Umschaltung zwischen den beiden HypridPower-Modi gibt, diese Funktionalität soll aber in einem späteren Treiber-Release geboten werden. Wirklich störend ist hingegen der Umstand, dass die integrierte Grafikeinheit der Hybrid-SLI Mainboard-Chipsätze im HybridPower-Modus weder MultiMonitoring unterstützt noch größere Displays als 1920x1200 – schlicht, weil nur ein Single-DVI-Ausgang zur Verfügung steht.

Außerhalb des HybridPower-Modus sind höhere Auflösungen und MultiMonitoring natürlich möglich, dann allerdings erzeugt über die extra Grafikkarte und wie gesagt unter Abschaltung der HybridPower-Funktionalität. Dies lässt sich auch durch ein Treiber-Update nicht mehr ändern, nVidia scheint diese Problematik allerdings mit zukünftigen Hybrid-SLI Chipsätzen angehen zu wollen. Generell sieht nVidia die derzeitigen Hybrid-SLI Mainboard-Chipsätze nForce 730a, 750a und 780a wohl nur als den "ersten Versuch" an und gibt sich selber zwei Jahre Zeit, innerhalb welcher die gesamte Technologie dann zur vollständigen Reife gebracht werden soll.

Der Heise Newsticker bringt hingegen einige Klarheit zu den Möglichkeiten von ATIs Hybrid-CrossFire. So wird erst einmal (erneut) betont, dass man damit eine extra Grafikkarte sowie die integrierte Grafiklösung des Mainboard-Chipsatzes im CrossFire-Verbund zusammenarbeiten lassen kann – was aber bekannterweise außerhalb von totalen LowCost-Grafikkarten keine wirklichen Performancegewinne verheißt. Möglich ist zudem wie bei nVidia, dass die integriere Grafiklösung das Windows-Bild erstellt und die extra Grafikkarte nur im Spiele-Fall die Bildberechnung übernimmt – wobei bislang noch unbekannt ist, ob bei dieser Zusammenschaltung es ein Zwangs-CrossFire gibt oder aber die extra Grafikkarte auch ganz alleine die 3D-Berechnungen übernehmen kann.

Wichtig ist aber, dass ganz wie bei nVidia keinerlei Monitorumsteckerei notwendig ist: Steckt das Monitorkabel in der extra Grafikkarte, ist jene der primäre Grafikadapter und berechnet sowohl unter Windows als auch unter Spielen das Bild komplett alleine. Steckt das Monitorkabel dagegen in der integrierten Grafiklösung, kommt es zu vorgenannter Aufgabenteilung, im 3D-Fall wird somit ähnlich wie bei nVidia das Bildsignal von der extra Grafikkarte auch über den Monitorausgang der integrierten Grafiklösung ausgegeben. Ob es hierbei ähnliche Einschränkungen gibt wie vorbeschrieben im nVidia-Fall, ist dagegen noch nicht heraus.

Nicht möglich ist es aber, in diesem Modus im Windows-Betrieb die extra Grafikkarte komplett auszuschalten, diese Funktion scheint derzeit nur nVidias HybridPower zu bieten. Technisch scheint dies aber trotzdem nicht unmöglich zu sein, denn im Notebook-Bereich will ATI eine solche Funktion in Zusammenarbeit mit den Notebook-Hersteller durchaus realisieren. Insofern wäre es theoretisch möglich, dass ATI eine solche Funktionalität auch im Desktop-Bereich später noch anbieten wird. Nachwievor steht hierzu jedoch im Raum, dass ATI nach der offiziellen Vorstellung von HybridPower in diesem Punkt durchaus etwas freigiebiger mit entsprechenden Informationen sein könnte.

GeForce 9600 GT: 256 Bit in der Mittelklasse

Samstag, 23. Februar 2008
 / von Leonidas
 

Nun hat auch Nvidia eine 9600 – der Name erinnert an die Mittelklasse-Version von ATIs Radeon 9700, welche in halbierter Version unter dem Namen "Radeon 9600" über längere Zeit ein ausgezeichnetes Preisleistungs-Verhältnis bot. Die damalige Highend-Karte Radeon 9700 bot schon ein 256-Bit-Interface, wie zuvor bereits Matrox' Parhelia. Allerdings zeigt sich, dass die Zahl der Bits beim Interface nicht allein entscheidend sind: Die Leistung der Matrox Parhelia war unterhalb der GeForce4 Ti, obwohl jene nur ein 128-Bit-Interface hat.

ATIs Radeon 9600 war trotz 128-Bit-Interface in allen DirectX9-Spielen der GeForceFX 5900 überlegen, obwohl letztere 256 Bit Interfacebreite bot. Der Nachfolger, GeForce 6800 Ultra, kam ebenfalls mit 256 Bit und die Mittelklassenversion GeForce 6600 wieder nur mit 128 Bit. Dennoch bietet die GeForce 6600 GT zumindest in aktuelleren Spielen mehr Leistung als die Radeon 9700/9800.

Die in der Mitteklasse nachfolgende GeForce 7600 GT konnte dann von der Performance her ungefähr mit einer GeForce 6800 GT mithalten, obwohl die 7600-er wieder nur ein 128-Bit-Interface hat. Die GeForce 8600 GTS ist schneller als eine GeForce 7800 GTX, obwohl es wieder 128 Bit vs. 256 steht. In Spielen, die HDR-Rendering nutzen, kann eine GeForce 8600 GTS sogar mit einer GeForce 7900 GT mithalten, obwohl HDR-Rendering auch die Bandbreite stark belastet. Bislang wurde im Mittelklasse-Bereich also versucht, irgendwie noch mit 128 Bit auszukommen – mit Erfolg.

Mit der GeForce 9600 GT wird die Bitbreite nun im gleichen Segment glatt verdoppelt – während man mit dem G80-Chip im HighEnd-Bereich einen Zwischenschritt zum 512-Bit-Interface eingelege. Bekanntermaßen ist eine GeForce 8800 GTX mit ihrem 384-Bit-Interface schneller als eine Radeon HD 2900XT mit 512-Bit-Interface. Es kommt also primär darauf an, die zur Verfügung stehende Bandbreite möglichst gut auszunutzen.

Die Balance halten

Aus unserer Sicht wäre ein 3:2-Verhältnis von Shader-Clustern á 16 MAD und 64-Bit-Speicherpartitionen bei der G80- und G92-Architektur optimal. Daraus abgeleitet könnte man sich eine schöne Produktpalette konstruieren, welche auch keine so großen Performance-Lücken aufweist wie sie es in der Vergangenheit gab und heute eigentlich noch immer gibt: Der Abstand zwischen GeForce 8600 GTS und GeForce 9600 GT (oder auch noch zur GeForce 8800 GS) ist ziemlich groß.

Echtes neues HighEnd lässt daneben noch immer auf sich warten. Die Performance der Anfang März erwarteten GeForce 9800 GX2 wird bei dem genutzten SLI-Verfahren wieder unter stärkeren Frameraten-Schwankungen leiden als Single-GPU-Karten. Eine GeForce 8800 Ultra mag hierbei zwar nominell deutlich überboten werden, von der gefühlten Framerate her sind jedoch keine großen Vorteile zu erwarten. Eine bessere Verteilung der Framerate wäre allerdings mit einem Sinken der durchschnittlichen Leistung verbunden.

Irgendwann ist ohnehin zu erwarten, dass bei SLI nicht mehr getrennte Frames gerendert, sondern die Threads auf einzelne GPUs aufgeteilt werden. Selbst wenn man dafür ein Frame Latenz inkauf nehmen muss, fährt man besser als beim Alternate Frame Rendering – vor allem wenn mehr als zwei GPUs zum Einsatz kommen.

Im Einsteiger-Bereich hat man bei Nvidia bisher die GeForce 8500 GT oder GeForce 8600 GT mit DDR2-Speicher und 400 MHz Speichertakt. Hier ist aufzupassen, dass man auch wirklich die gewünschte Speicherkonfiguration erhält – so gibt es die GeForce 7300 GT, eigentlich mit 128-Bit-Interface, auch in einer 64-Bit-Version, obwohl man ohnehin drei 64-Bit-Versionen der GeForce 7300 hat (nämlich GS, LE und SE).

"NVIDIA GeForce 7300 NVIDIA® GeForce® 7300 graphics processing units (GPUs) allow you to experience the latest gaming effects without compromising performance." ist die offizielle Werbung für die GeForce 7300. Bei der GeForce 9600 liest sich das so: "The NVIDIA® GeForce® 9600 GT GPU offers a powerfully immersive entertainment experience designed for extreme high-definition gaming and video playback." Seltsamerweise steht die Spieleeignung bei der GeForce 9600 im Nvidia-Marketing nicht an erster Stelle.

Neue Features

Die GeForce 9600 GT kommt mit Videofeatures auf VP2-Niveau (Video Processor 2, auch in GeForce 8400, 8500 und 8600 sowie G92-basierenden 8800-Produkten). Jedoch gibt es jetzt über die Shader zusätzliche Features, zum Beispiel zur dynamischen Kontrastanpassung. Die GeForce 9600 GT wird auch mit Picture-in-Picture-Fähigkeit beworben, da zwei Videostreams gleichzeitig dekodiert werden können. Erfahrungsgemäß beschreibt das Marketing bei den Nvidia-Videofeatures eher die theoretischen Möglichen, während sich ein Praxisnutzen erst später einstellen wird.

Eine Videobeschleunigerkarte sollte sich nach unserem Verständnis passiv kühlen lassen. Die GeForce 9600 GT kommt jedoch mit einem Lüfter, der an den revidierten Lüfter der GeForce 8800 GT erinnert. Je nach Boardlayout gibt es noch Audio-Anschlüsse.

Wenig gesprächig zeigte sich Nvidia, was die neue Komprimierungstechnologie angeht, welche das 3D-Rendering beschleunigen soll. Dieses neue Feature dürfte schon beim G92-Chip der GeForce 8800 GS/GT/GTS enthalten sein und genutzt werden, wurde dort jedoch nicht vermarktet. Was konkret gemacht wird, bleibt allerdings Spekulation.

Hier unsere Theorie: Nvidia versucht, die Komprimierungsrate zu verbessern, indem parallel mit verschiedenen Verfahren komprimiert wird. Sofern eines davon die Zielbitrate ohne Qualitätsverlust erreicht, muss man nicht mehr die unkomprimierten Daten schreiben. Hierbei könnte ausgenutzt werden, dass es in 3D-Spielen oft Bereiche gibt, wo sich die Farbwerte zum Nachbarpixel nur wenig ändern. Vielleicht ist das Verfahren sogar ausgefuchst genug, dass es durchaus einige Pixel mit starken Änderungen geben darf, solange der Rest komprimierbar genug ist.

Die neue alte GTS

Obwohl nur 64 skalare Stream-Rechenwerke (SP aka Shader Processors) bei der GeForce 9600 GT zum Einsatz kommen, kann die Karte mit einer alten, G80-basierten GeForce 8800 GTS (96 SP) mithalten – wobei die alte GeForce 8800 GTS auch noch ein 320-Bit-Speicherinterface anzubieten hat. Die Performancegleichheit der GeForce 9600 GT kommt primär durch die Taktsteigerung und einige Detailverbesserungen in der Architektur.

Alle 8800-er Karten basieren auf einem Chip, in dem 128 SP verbaut sind. Zum Einsatz kommen davon 96 (GS und alte GTS), 112 (GT oder neue G80-basierende GTS) oder alle 128 (GTX, Ultra). Es ist klar, dass Nvidias Rechnung auf Dauer nicht aufgeht, hier immer schön Resteverwertung zu betreiben: Um G80 und G92 wirtschaftlich zu produzieren, muss der Yield an voll funktionsfähigen Chips hoch genug sein. So fallen nicht genügend Chips ab, welche man nur noch für die kleineren Performance-Modelle nutzen könnte – im Performance-Bereich werden schließlich klar mehr Chips verkauft als im HighEnd-Bereich.

Damit müssen entweder voll funktionsfähige, aber nicht voll freigeschaltete, oder zumindest sehr gut taktbare Chips für die kleineren Performance-Grafikkarten verbaut werden (wie beim G80 auf der alten GeForce 8800 GTS). Oder bei den Performance-Karten grassiert dann die Lieferschwierigkeit (GeForce 8800 GT mit G92-Chip). Selbst wenn der "Ausschuss-Yield" hoch genug wäre, ist die Chipausbeute pro Waver relativ gering, weil die Chips so groß sind.

Also fuhr man bisher zweigleisig: G80 (und G92) für Performance und HighEnd, G84 für die Mittelklasse. Obwohl die 8600-Reihe auch 48 SP hätte vertragen können, ohne dass das 128-Bit-Speicherinterface gleich limitiert, war die Chipgröße bei dieser Mittelklasse-Lösung so wichtig, dass man sich auf 32 SP beschränkte. Mit einer selbst für heutige Verhältnisse hohen Chip-Taktrate von 675 MHz für die GPU und satten 1008 MHz beim Speicher brachte man die GeForce 8600 GTS mit Ach und Krach halbwegs auf das Niveau der GeForce 7900 GT.

Der Spieler hätte sicherlich lieber 48 SP bei 600 MHz gesehen – leider brachte auch AMD/ATI in jener Generation keine "vollwertige" Mittelklasse (also 50 Prozent Architekturbreite vom Flaggschiff). Nun haben wir bei der GeForce 9600 GT jetzt immerhin 64 SP. Das einzige, was uns bei der GeForce "9" fehlt, ist noch die Unterstützung von DirectX 10.1. Zwar hat man mit DirectX 10.0 in der heutigen Spielepraxis absolut keine Unterschiede zu einer 10.1-er Karte, doch ohne Hardware-Verbreitung gibt es natürlich auch keine passende Software.

Warum 256 Bit?

Die Tradition der Chip-Halbierungen, welche mit der GeForce2 MX und der erwähnten Radeon 9600 große Erfolge hatte, scheint aufgebrochen: Die GeForce 9600 GT wäre von der Architektur her zwar eine halbe hypothetische GeForce 9800 (die es noch nicht gibt, aber die man erwarten kann) – doch sofern die bisherigen Leaks zutreffend sind, bleibt es auch bei dieser kommenden Karte bei einem Speicherinterface von ebenfalls 256 Bit. Obwohl damit 128 SP versorgt werden müssen, immerhin doppelt so viel wie bei der GeForce 9600 GT.

Wie eingangs gezeigt, zierte sich Nvidia lange, ein größere Speicherinterfaces zu verbauen als unbedingt notwendig. Warum der Sinnungswandel? Bei den heute üblichen Chipgrößen verschieben sich die Gewichte: Es wird preiswerter, ein Boardlayout mit aufwändiger Verdrahtung zu haben (um die notwendige Leiterbahnenanzahl für das Speicherinterface zu realisieren), als wie früher mit vergleichsweise fetten Chips anzukommen. So ist die GeForce 8800 GS trotz 96 SP etwas langsamer als die GeForce 9600 GT: Denn bei der GeForce 8800 GS limitiert das Speicherinterface, bei der GeForce 9600 GT die GPU.

Man nimmt also deshalb ein eigentlich zu großes Speicherinterface für die GeForce 9600 GT, weil man somit die Performance noch etwas anheben kann, ohne gleich größere GPUs verbauen zu müssen. Dieser Trend zu verschwenderischer Speicherbandbreite dürfte sich aber wieder umkehren, denn 512 Bit stellen eine große Herausforderung dar, während bei der Chip-Entwicklung weitere Shrinks bereits absehbar sind.

Dass die GeForce 9600 GT nun als "GeForce 9" vermarktet wird, ist eine weitere Spitzenidee des Nvidia-Marketings, welches dafür wahrscheinlich Überstunden geschoben hat. Doch lassen wir die Namensgebung mal beiseite: Die Hardware der GeForce 9600 GT ist bezogen auf den Preis sehr gut. Man bekommt eine durchweg verdoppelte GeForce 8600 GTS (doppelt so viele SP, ein doppelt so großes Interface, doppelt so viel Speicher) bei anständigen Taktraten.

  GeForce 8600 GTS
(alt)
GeForce 9600 GT
(neu)
GeForce 8800 GS(kurzfristig) Radeon HD 2600 XT GDDR3
(alt)
Radeon HD 3850
(neu)
Chip nVidia G84, 289 Millionen Transistoren in 80nm bei TSMC (169 mm²) nVidia G94, 505 Millionen Transistoren in 65nm bei TSMC (240 mm²) nVidia G92, 754 Millionen Transistoren in 65nm bei TSMC (289 mm²) ATI RV630, 390 Millionen Transistoren in 65nm bei TSMC (153 mm²) ATI RV670, 666 Millionen Transistoren in 55nm bei TSMC (192 mm²)
Technologie Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.0 Direct3D 10.1
Aufbau 32 SP, 16 TMUs, 8 ROPs, 128 Bit DDR SI 64 SP, 32 TMUs, 16 ROPs, 256 Bit DDR SI 96 SP, 40 TMUs, 12 ROPs, 196 Bit DDR SI 120 SP, 8 TMUs, 4 ROPs, 128 Bit DDR SI 320 SP, 16 TMUs, 8 ROPs, 256 Bit DDR SI
Taktraten 675/1450/1000 MHz 650/1625/900 MHz 575/1438/750 MHz 800/700 MHz 670/830 MHz
Rechenpower MADD/MADD+MUL 93/139 GFlops 208/312 GFlops 276/414 GFlops 192 GFlops 429 GFlops
Bandbreite 29,8 GiB/sec 53,6 GiB/sec 34,2 GiB/sec 20,9 GiB/sec 49,5 GiB/sec
Bauform SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0 SingleSlot, 384 MB, PCI Express 1.x/2.0 SingleSlot, 256 oder 512MB, PCI Express 1.x SingleSlot, 256 oder 512MB, PCI Express 1.x/2.0
Verbrauch 47 Watt geschätzt 60 Watt ca. 65 Watt ca. 45 Watt ca. 70 Watt
aktuelle Preislage 256MB: 100-120 Euro
512MB: 110-130 Euro
512MB: 140-160 Euro 384MB: 130-150 Euro 256MB: 60-80 Euro
512MB: 70-90 Euro
256MB: 120-140 Euro
512MB: 150-170 Euro
Preisvergleich Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals
Ciao
PreisRoboter
Geizhals

Grafikkarten-Marktüberblick Januar 2008

Mittwoch, 16. Januar 2008
 / von Leonidas
 
Seit unserem letzten Marktüberblick im November 2007 sind zwei Monate vergangen und ist inzwischen auch wieder einiges passiert. Zum einen sind die Radeon HD 3850/3870 sowie GeForce 8800 GT Grafikkarten nun wirklich verfügbar geworden, desweiteren hat nVidia den G92-Chip nun auch noch zu zwei weiteren Varianten benutzt (GeForce 8800 GTS 512MB und GeForce 8800 GS), und letztlich gibt es mit der Radeon HD 2900 Pro 256-Bit auch noch eine neue interessante Geheimtip-Karte. Daneben haben sich natürlich auch schon wieder einige Preise verschoben (besonders stark bei der GeForce 8800 GTX), so daß sich ein neuer Marktüberblick durchaus lohnt. Zudem treten die nächsten Grafikkarten (GeForce9-Serie, weitere Karten der Radeon HD 3000 Serie) nicht vor Mitte Februar an und werden wohl erst im März breit im Handel verfügbar sein. Damit dürfte die nachfolgend beschriebene Konstellation für einen gewissen Zeitraum - langfristiges gibt es im Grafikkarten-Geschäft sowieso nie - Bestand haben: Anmerkung: Die GFlops-Angabe gibt die theoretische maximale Rechenleistung wieder, bei ATI die MADD-Rechenleistung und bei nVidia die MADD- sowie die kummulierte MADD/MUL-Rechenleistung. Diese Angabe erfolgt, weil die Anzahl der Shader-Einheiten zwischen den Designs von ATI und nVidia nicht vergleichbar ist - wobei natürlich auch die Angabe zur Rechenleistung keinen alleinigen Schluß auf die Leistungsfähigkeit zuläßt.
ATI Preislage nVidia
  510-540 Euro GeForce 8800 Ultra 768MB nVidia G80, Direct3D10, 128 Shader-Einheiten (387/581 GFlops), 64 TMUs, 384 Bit DDR Speicherinterface, 612/1512/1080 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch ca. 145W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  340-360 Euro GeForce 8800 GTX 768MB nVidia G80, Direct3D10, 128 Shader-Einheiten (346/518 GFlops), 64 TMUs, 384 Bit DDR Speicherinterface, 575/1350/900 MHz, 768 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch 132W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
  280-300 Euro GeForce 8800 GTS 512MB (G92) nVidia G92, Direct3D10, 128 Shader-Einheiten (416/624 GFlops), 64 TMUs, 256 Bit DDR Speicherinterface, 650/1625/970 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, Verbrauch ca. 95W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
 
  210-230 Euro GeForce 8800 GT 512MB nVidia G92, Direct3D10, 112 Shader-Einheiten (336/504 GFlops), 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch 78W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3870 512MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (496 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 775/1125 MHz, 512 MB GDDR4, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, Verbrauch 81W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 190-210 Euro  
  180-200 Euro GeForce 8800 GT 256MB nVidia G92, Direct3D10, 112 Shader-Einheiten (336/504 GFlops), 56 TMUs, 256 Bit DDR Speicherinterface, 600/1500/900 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 75W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 512MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (429 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 70W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 160-180 Euro  
  150-170 Euro GeForce 8800 GS 384MB nVidia G92, Direct3D10, 96 Shader-Einheiten (276/414 GFlops), 48 TMUs, 192 Bit DDR Speicherinterface, 575/1438/750 MHz, 384 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 65W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 3850 256MB ATI RV670, Direct3D 10.1, 320 Shader-Einheiten (429 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 670/830 MHz, 256 MB GDDR3, PCI Express 1.x/2.0, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 65W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 135-150 Euro GeForce 8600 GTS 512MB nVidia G84, Direct3D10, 32 Shader-Einheiten (93/139 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 47W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2900 Pro 512MB (256-Bit) ATI R600, Direct3D10, 320 Shader-Einheiten (384 GFlops), 16 TMUs, 256 Bit DDR Speicherinterface, 600/800 MHz, 512 MB GDDR3, PCI Express 1.x, DualSlot, alle Karten mit HDCP, Verbrauch ca. 140W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals Note: Diese Karte wird derzeit nur von Sapphire angeboten. 125-140 Euro  
 
Radeon HD 2600 XT 256MB GDDR4 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/1100 MHz, 256 MB GDDR4, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 49W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 100-120 Euro GeForce 8600 GTS 256MB nVidia G84, Direct3D10, 32 Shader-Einheiten (93/139 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 675/1450/1000 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 47W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 512MB GDDR3 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 512 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 45W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 90-100 Euro  
  80-90 Euro GeForce 8600 GT 256/512MB nVidia G84, Direct3D10, 32 Shader-Einheiten (76/114 GFlops), 16 TMUs, 128 Bit DDR Speicherinterface, 540/1190/700 MHz, 256/512 MB GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, Verbrauch ca. 40W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2600 XT 256MB GDDR3 ATI RV630, Direct3D10, 120 Shader-Einheiten (192 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 800/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 45W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 70-80 Euro  
 
Radeon HD 2600 Pro 256/512MB ATI RV630, Direct3D10, 120 Shader-Einheiten (144 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 600/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch 31W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals 55-70 Euro  
  45-60 Euro GeForce 8500 GT 256/512MB nVidia G86, Direct3D10, 16 Shader-Einheiten (29/43 GFlops), 8 TMUs, 128 Bit DDR Speicherinterface, 450/900/400 MHz, 256/512 MB GDDR2/GDDR3, PCI Express 1.x, SingleSlot, Karten mit/ohne HDCP, Verbrauch 27W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals
Radeon HD 2400 XT 256MB GDDR3 ATI RV615, Direct3D10, 40 Shader-Einheiten (56 GFlops), 4 TMUs, 64 Bit DDR Speicherinterface, 700/700 MHz, 256 MB GDDR3, PCI Express 1.x, SingleSlot, alle Karten mit HDCP, Verbrauch ca. 25W Produkt- und Preissuche: Ciao, PreisRoboter, Geizhals Note: Es sind auch Karten mit GDDR2-Speicher am Markt, welche nur 500 MHz Speichertakt aufweisen. Da diese aber nicht günstiger angeboten werden, sind jene GDDR2-Karten nicht empfehlenswert. 35-50 Euro  
 
Nicht mehr in dieser Aufstellung gelistet sind folgende Karten aus den nachfolgend genannten Gründen:
  • Radeon HD 2400 Pro und GeForce 8400 GS - aus Performance-Sicht klar zu langsam für zum Spielen zu benutzende Grafikkarten, für nur einen mininalen höheren preislichen Einsatz gibt es da bessere Angebote in Form von Radeon HD 2400 XT und GeForce 8500 GT
  • Radeon HD 2600 XT 512MB GDDR4 - mit 512 MB GDDR4 kaum noch lieferbar und dann deutlich überteuert im Vergleich zur 256-MB-Version
  • Radeon HD 2600 X2 (DualChip-Lösung) - faktisch nicht erhältlich, durch die Radeon HD 3850 vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 GT - durch die 256-Bit-Version der Radeon HD 2900 Pro vom Preis/Leistungsverhältnis her uninteressant geworden, wird demnächst auslaufen
  • Radeon HD 2900 Pro (512-Bit) - ausgelaufen, durch die Radeon HD 3850 vom Preis/Leistungsverhältnis her uninteressant geworden
  • Radeon HD 2900 XT - ausgelaufen, durch die Radeon HD 3870 vom Preis/Leistungsverhältnis her uninteressant geworden
  • GeForce 8800 GTS 320/640MB - wird demnächst auslaufen, durch die GeForce 8800 GT vom Preis/Leistungsverhältnis her uninteressant geworden
  • GeForce 8800 GTS 640MB (112SP/G80) - die G80-basierte 112-Shadereinheiten-Version der GeForce 8800 GTS ist inzwischen durch die G92-basierte GeForce 8800 GTS vom Preis/Leistungsverhältnis her uninteressant geworden und dürfte ebenfalls demnächst auslaufen
Auf den ersten Blick mag sich gegenüber unserer Aufstellung vom November nicht viel getan haben, auf den zweiten Blick ergeben sich aber dennoch einige Verschiebungen.

ATI Radeon HD 2900 XT Review

Montag, 14. Mai 2007
 / von BlackBirdSR & robbitop
 

Am heutigen Tage ist es endlich soweit – sechs Monate nach dem Launch der Direct3D10-Generation von nVidia bringt der nunmehr zu AMD gehörende Grafikchip-Entwickler ATI den R600-Chip und damit seinen ersten Direct3D10-Grafikchip auf den Markt.

Genau wie der G80 handelt es sich beim R600 um eine Grundarchitektur der dritten Generation (wenn man ab der GeForce 256 und der Radeon 256 anfängt zu zählen). Die Lebzeit der ersten Generation beschränkt sich bei ATI auf den R100 (Radeon 256) und den RV200 (Radeon 7500). Kurze Zeit später folgte die zweite Generation: Der R200 (Radeon 8500) legte den Grundstein für die erfolgreiche R300 (Radeon 9500/9700) und deren Nachfolger. Im Jahre 2004 sollte dann ursprünglich die dritte Generation – der R400 – erscheinen.

Aus verschiedenen Gründen wurde dieser Chip jedoch storniert, ein Derivat des R400 landete letzten Endes in Form des Xenos in der Xbox 360. Dieser bildete die erste Unified Shader Generation der 3D-Beschleuniger-Chips in der 3D-Geschichte. Einiges von dessen KnowHow floss letztlich in die Chips R520/R580 (Radeon X1800/X1900) ein, welche noch großteils auf der zweiten Generation beruhten.

Der R600 ist nunmehr sozusagen eine starke Weiterentwicklung des R400. Da man bei ATI auf eine mehrjährige Erfahrung mit Unified Shadern zurückgreifen konnte, haben sich natürlich vielerlei Dinge seit dem R400 getan. Die Skalierbarkeit, die Flexibilität der Rechenwerke, die nötigen Features für Direct3D10 als auch die Rohleistung wurden gesteigert.

radeon_hd_2900_xt

Nach langer Zeit erhält 3DCenter wieder einmal die Möglichkeit, einen Launch-Artikel zu präsentieren. Vorab sei an dieser Stelle den Firmen AMD (ATI, Radeon HD 2900 XT), Listan (beQuiet, 600W-Netzteil zum stabilen Betrieb der neuen ATI-Karte) und Club3D (GeForce 8800 GTX) für die unkomplizierte Stellung von Testsamples für diesen Artikel gedankt.

                  

Ausdrücklicher Dank gilt zudem der Firma PC-Spezialist in Stralsund. Denn beinahe wäre dieser Artikel doch noch ins Wasser gefallen, da vergangenen Freitag unser Mainboard nach einem Bluescreen seinen Dienst quitierte. In letzter Sekunde konnte man uns allerdings ein Ersatzmainboard (gleich mit CPU) unkompliziert leihen.

Inhalt abgleichen