Zum 3DCenter Forum
Inhalt




Zum Launch des nVidia G80-Chips

8. November 2006 / von Leonidas / Seite 1 von 2


Mit dem heutigen Tag stellt der kalifornische Grafikchip-Entwickler nVidia mit dem G80-Grafikchip und den darauf basierenden Grafikkarten GeForce 8800 GTS & GTX den ersten Direct3D10-Grafikchip und damit den Beginn einer neuen Grafikchip-Generation sowohl für nVidia als auch allgemein für den Markt vor. Denn der G80-Grafikchip ist nicht nur wie gesagt der erste Grafikchip, welcher das - allerdings nur unter Windows Vista verfügbare - Direct3D10 unterstützt, sondern stellt auch innerhalb der Reihe der bisherigen nVidia-Grafikchips einen erheblich neuen Ansatz dar. Der nachfolgende Artikel soll einen kurzen Überblick über den Chip selber und die ersten Testergebnisse zu diesem geben.

Eine genauere Betrachtung zum G80-Chip sowie eigene Benchmark-Ergebnisse zu den G80-basierenden Karten werden wir an dieser Stelle leider noch nicht bieten können, hierfür fehlen uns schlicht noch die entsprechenden Testsamples seitens nVidia. So ist zum einen ein recht ausführlicher Theorie-Artikel zum G80-Chip an sich (im Prinzip fertig) in der Pipeline, welchen wir allerdings erst veröffentlichen werden, wenn uns die Ergebnisse diverser theoretischer Benchmarks bzw. von entsprechenden Bildqualitäts-Testern vorliegen - was wie gesagt erst nach dem Eintreffen eines G80-Testsamples passieren wird. Und gleichzeitig ist ein Benchmark-Artikel zu GeForce 8800 GTS & GTX geplant, welchen wir aber wohl erst im Dezember mit dann inzwischen schon halbwegs ausgereiften Treiber (und mit viel mehr Ruhe) antreten werden. Der heutige Artikel wird demzufolge "nur" eine Begleitung des G80-Launches sein können, unsere eigentlichen G80-Artikel folgen später.


Nicht all zu viel von den geplanten Artikeln vorwegnehmend läßt sich dennoch mit Fug und Recht sagen, daß nVidia mit dem G80-Chip ein "dickes" Stück Hardware auf die Hardware-Welt losgelassen hat. Die vor einigen Wochen zum G80 im Internet befindlichen Spezifikationen wurden seinerzeit von uns noch als weitestgehend unglaubwürdig angesehen, haben sich aber letztlich fast vollständig bestätigt. Und so reißt der G80-Chip denn auch die Vorstellungen über heutige Grafikchips gehörig nach oben: Mit satten 681 Millionen Transistoren legt man mehr als das doppelte gegenüber dem Vorgängerchip auf - was dann in einer artithmetischen Rechenleistung von ebenfalls fast dem doppelten resultiert.

Doch der Reihe nach: Der G80-Chip bietet auf diesen 681 Millionen Transistoren acht Vec16-ALUs Platz, was den von nVidia propagandierten "128 Stream-Prozessoren" entspricht (eine Vec16-ALUs ist ein Rechenwerk, welche dieselbe Operation gleichzeitig für 16 Werte ausführen kann; acht solcher Einheiten x 16 = 128). Dabei führen diese ALUs Shader-Programme aller Art aus, sind also sowohl als Pixelshader, Vertexshader und (neu mit Direct3D10) Geometrie-Shader zu gebrauchen - nVidia hat dem G80 im Gegensatz zu früheren (recht eindeutigen) Vermutungen also doch eine unified Shader-Architektur spendiert.

Jeder der Vec16-ALUs steht dann eine Quad-TMU zur Verfügung - eine Texture Mapping Unit, welche gleichzeitig vier Pixel texturieren kann (sie können sogar bis zu acht bilineare Samples auswerfen, allerdings müssen diese aus derselben Textur entstammen). Insgesamt kommt der G80-Chip somit auf acht Quad-TMUs oder einzeln betrachtet 32 Textureneinheiten. Hier ist im übrigen schon ein genereller Unterschied zu den Vorgängerchips zu erkennen: Während dort noch üblicherweise die Shader-Einheiten als an die Pipeline und damit die Textureneinheiten gebunden beschrieben wurden, löst sich der G80-Chip enorm vom Pipeline-Begriff und läßt sich eher nach seinen Shader-Einheiten bzw. ALUs ordnen als denn nach seinen Textureneinheiten.

Auch beim Speicherinterface geht nVidia einen neuen Weg: Anstatt der bisher üblichen Verdopplung des Speicherinterfaces bekommt der G80 "nur" ein 50 Prozent breiteres Interface: Es wurde von 4x 64 Bit (256 Bit) auf 6x 64 Bit (384 Bit) erweitert. Damit sind keine extrem teuren Boards mit entsprechend vielen Layern notwendig, nach nVidias Meinung stellt die gefundene Lösung den besten Kompromiss aus Leistung und Kosten dar. Aus diesem Speicherinterface ergibt sich dann im übrigen auch die "krumme" Speicherbestückung der GeForce 8800 GTX: Da für Grafikkarten üblicherweise Speicherbausteine mit 32bittigem Interface benutzt werden, benötigt man exakt 12 davon, um damit die 384 Bit des Speicherinterfaces erreichen zu können.

Und da es die Speicherbausteine dann selber nur in dezimalen Größen gibt, also üblicherweise mit 16, 32 oder 64 MB, ergeben 12 solcher 64-MB-Speicherbausteine dann eben die 768 MB Grafikspeicher einer GeForce 8800 GTX (bei einer GTS sind es aufgrund des dort nur 320 Bit breiten Speicherinterface 10 Speicherbausteine und damit die dort genannten 640 MB Grafikspeicher). Varianten mit den üblichen 256 und 512 MB Grafikspeicher dürfte es bei der GeForce 8800 GTS & GTX also eher nicht geben, technisch möglich wäre allerdings eine Variante der GTX mit 384 MB Speicher (bei der GTS dann 320 MB), wenn man anstatt der 64-MB-Speicherbausteine schlicht 32-MB-Typen benutzt.

Der letzte wesentliche Punkt an der physikalischen Hardware des G80-Chips dürfte der enorme Taktunterschied zwischen dem "normalen" Chipteil und den Shader-Einheiten bzw. den ALUs sein: Während bei der GeForce 8800 GTX der Chip generell mit 575 MHz taktet, arbeiten die Shader-Einheiten gleich mit 1350 MHz. Dies ist insofern bemerkenswert, als daß wir die Shader-Einheiten eigentlich als (von der Fläche her) wesentlichen Teil des gesamten Grafikchips einordnen würden, ein solch hoher Takt in einem weiterhin bei 90nm bleibenden Fertigungsprozeß bisher für Grafikchips als unrealistisch galt.

Anzufügen wäre hier noch, daß die obigen Angaben generell für die GeForce 8800 GTX gelten, welche in dem Sinne die Vollversion des G80-Chips darstellt und zu einem Listenpreis von 599 Dollar in den Markt geht. Die gleichzeitig vorgestellte GeForce 8800 GTS, welche einen Listenpreis von 449 Dollar hat, stellt dagegen eine Abspeckung des G80-Chips sowohl bezüglich der Taktraten als auch diverser Hardware-Einheiten dar - sprich, hinter der GeForce 8800 GTS verbirgt sich zwar der gleiche G80-Chip, allerdings mit einigen deaktivierten Einheiten. Über die genauen Unterschiede zwischen beiden G80-basierenden Karten gibt nachfolgende Tabelle Auskunft:


  GeForce 8800 GTX GeForce 8800 GTS
Chip-Basis nVidia G80
681 Millionen Transistoren in 90nm bei TSMC
Technologie-Klasse Direct3D10, Shader 4, unified Shader-Architektur
Shader-Einheiten acht Vec16-ALUs (insgesamt 128 Shader-Einheiten) sechs Vec16-ALUs (insgesamt 96 Shader-Einheiten)
Texturen-Einheiten acht Quad-TMUs (insgesamt 32 Texturen-Einheiten) sechs Quad-TMUs (insgesamt 24 Texturen-Einheiten)
Raster Operation Units (ROPs) 24 20
Speicherinterface 384 Bit DDR (6x64) 320 Bit DDR (5x64)
Speicherbestückung 768 MB 640 MB
allgemeiner Chiptakt 575 MHz 500 MHz
Shader-Takt 1350 MHz 1200 MHz
Speichertakt 900 MHz 800 MHz
Bauform PCI Express, DualSlot
offizielle Netzteil-Empfehlung lt. nVidia mindestens 450 Watt mit 30A auf der 12V-Leitung mindestens 400 Watt mit 26A auf der 12V-Leitung
Listenpreis 599 Dollar 449 Dollar
Bild Referenzmodell


In diese Tabelle fehlt bewußt der Quervergleich zu den bisherigen HighEnd-Chips von ATI und nVidia - einfach, weil sich diese nicht mehr mit dem G80-Chip einfach über die Aufzählung von Einheiten etc. vergleichen lassen. Gerade die von nVidia jederzeit gern wiederholten 128 Shader-Einheiten des G80-Chips bieten sich natürlich an, jene mit den 24 Pixelshader- und 8 Vertexshader-Einheiten des G71-Chips zu vergleichen. Doch dieser Vergleich ist mehr als unzulässig, handelt es sich hier um grundverschiedene Ansätze, für welche man nur der besseren Verständlichkeit halber denselben Oberbegriff verwendet. Ein Vergleich der Shader-Einheiten zwischen G71- und G80-Chip anhand Anzahl und Taktraten wird zu keinem sinnvollen Ergebnis führen - maßgeblich ist allein der Vergleich der herauskommenden Rechenleistung, welcher dann wie weitere Ausführungen zu den Details der G80-Architektur Thema des kommenden Theorie-Artikels zum G80-Chip sein wird.

Abschließend wären aber auf jeden Fall noch die Verbesserungen bezüglich der Bildqualitäts-Features zu erwähnen, welche nVidia dem G80-Chip spendiert hat. So gibt es nun (wieder) einen nahezu winkel-unabhängigen anisotropen Filter, gleichzeitig wird nun auch Anti-Aliasing unter HDR-Rendering möglich - womit nVidia in diesen Punkten zu ATI aufschließt. Und gleichzeitig hat nVidia endlich einmal etwas an den höheren Anti-Aliasing Modis getan, welche faktisch seit der GeForce4 Ti unverändert waren: So gibt es als wichtigsten neuen Modus nunmehr ein 8x sparse Multisampling Anti-Aliasing, welches es bezüglich der Kantenglättungsqualität wohl problemlos mit ATIs 6x Anti-Aliasing aufnehmen kann, jedoch nicht mehr die horrenden Leistungsanforderungen wie der bisherige 8xS Modus hat. Auch diese Punkte werden allerdings eher Thema des kommenden Theorie-Artikels zum G80-Chip sein.


Und damit zum eher praktischen Teil dieses Artikels - der Betrachtung des heutigen Launch-Geschehens. Denn natürlich ergiessen sich mit Ablauf des NDAs um 8 Uhr Abends Mitteleuropäischer Zeit jede Menge an Testberichten zur GeForce 8800 GTS und GTX ins Web:

nVidia GeForce 8800 GTS/GTX  NVIDIA G80 - GeForce 8800 im Test (d) [Hard Tecs 4U]
Nvidia GeForce 8800 GTX: Der schnellste Grafikchip der Welt (d) [Chip]
nVidia GeForce 8800 GTX: Der neue König unter den Grafikkarten (d) [ComputerBase]
NVIDIA GeForce 8800 GTX (d) [Hardwareluxx]
Nvidia Geforce 8800 GTX: 3D-Hammer für Direct X 10 (d) [PC-Welt]
Neuer NVIDIA GeForce 8800 GTX rast auf der Überholspur (d) [tecChannel]
The Next Generation: Vorstellung und und Review von NVIDIAs 8800 GTX und GTS (d) [Technic3D]
Der Dampfhammer: Geforce 8800 GTX (G80) (d) [Tom's Hardware Guide]
Nvidia G80 Image Quality Investigation (e) [3DEclipse]
Leadtek WinFast PX8800 GTS TDH (e) [AMDZone]
NVIDIA's GeForce 8800 (G80): GPUs Re-architected for DirectX 10 (e) [AnandTech]
NVIDIA G80: Architecture and GPU Analysis (e) [Beyond3D]
G80: NVIDIA GeForce 8800 GTX (e) [Bit-Tech]
MSI NX8800GTX - was it worth the wait? (e) [Boot Daily]
Say Hello To DirectX 10, Or 128 ALUs In Action: NVIDIA GeForce 8800 GTX (G80) (e) [Digit-Life]
XFX NV Geforce 8800 GTX/8800 GTS (e) [DriverHeaven]
NVIDIA's G80 uncovered - Foxconn GeForce 8800 GTX performance preview (e) [Elite Bastards]
NVIDIA GeForce 8800 GTX/GTS Performance Preview (e) [FiringSquad]
EVGA 8800GTS (e) [Gamepyre]
NVIDIA's G80: GeForce 8800GTX (e) [GotFrag]
GeForce 8800 GTS & GTX review (e) [Guru3D]
BFGTech GeForce 8800 GTX and 8800 GTS (e) [HardOCP]
nVidia GeForce 8800 GTX Test (e) [Hardware-Info]
NVIDIA GeForce 8800 GTX (e) [Hexus]
NVIDIA GeForce 8800 GTX and 8800 GTS: Unified Powerhouses (d) [Hot Hardware]
XFX GeForce 8800 GTX and eVGA 8800 GTS GPU's (e) [Legit Reviews]
XFX GeForce 8800GTX Video Card Review (e) [Motherboards]
BFG GeForce 8800 GTS (d) [Neoseeker]
GeForce 8800 GTX overclocking preview (e) [Nordic Hardware]
NVIDIA nForce 680i SLI and GeForce 8800 GTX Preview (e) [nV News]
NVIDIA GeForce 8800GTX (e) [Overclockers Workbench]
GeForce 8800 Technology Preview (e) [Penstar Systems]
NVIDIA GeForce 8800 GTX Review - DX10 and Unified Architecture (d) [PC Perspective]
NVIDIA GeForce 8800 GTX Graphics Card Review (e) [Tech ARP]
NVIDIA GeForce 8800 Preview (e) [techPowerUp!]
Nvidia's GeForce 8800 graphics processor (e) [The Tech Report]
MSI GeForce 8800GTS is here - Hello DX10 (e) [TweakTown]
NVIDIA GeForce 8800GTX Review (e) [VR-Zone]
NVIDIA G80: Place au GeForce 8800 et à DirectX 10 (franz.) [Clubic]

Die wohl erste Erkenntnis aus dieser jede Menge Lesestoff ist, daß die GeForce 8800 GTX ein absolut rasantes Stück Hardware ist, welches jeder bisherigen Grafikkarte meilenweit davonrennt. Natürlich sprechen schon die vorgenannten technischen Daten für ein solches Ergebnis, nichts desto trotz ist der von der GeForce 8800 GTX letztlich eingefahrene Vorsprung doch in dieser Höhe nicht unbedingt zu erwarten gewesen: Gegenüber der GeForce 7900 GTX erreicht die neue Karte runde 70 Prozent mehr Performance, gegenüber der Radeon X1950 XTX immerhin runde 60 Prozent. Selbst das Ergebnis gegenüber der DualChip-Grafikkarte GeForce 7950 GX2 ist noch mehr als beachtlich: Mit nur einem Grafikchip kommt die GeForce 8800 GTX hier auf runde 30 Prozent mehr Leistung (jeweils 1280x1024 und 1600x1200 unter 4x Anti-Aliasing und 8x/16x anisotropen Filter).






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Weiter / Next

Shortcuts
nach oben