Zum 3DCenter Forum
Inhalt




Interview mit Luciano Alibrandi von nVidia

9. Mai 2004 / von aths / Seite 1 von 1


Wir hatten vor kurzem die Gelegenheit, mit Luciano Alibrandi von nVidia ein Interview zu führen. In erster Linie bezogen wir uns auf den NV40. Da Mr. Alibrandi ein viel beschäftigter Mann ist, hielten wir uns kurz.


3DCenter: Hallo Mr. Alibrandi, willkommen bei 3DCenter.org. Bitte stellen Sie sich vor und erzählen Sie von Ihrem Job bei nVidia.

Luciano Alibrandi: Ich heiße Luciano Alibrandi und bin der European Product PR Manager bei NVIDIA. Für NVIDIA arbeite ich nun schon 3 Jahre. Bevor ich zu NVIDIA kam, arbeitete ich bei 3DFX und STB Systems in unterschiedlichen Bereichen, die aber zumeist mit Presse-Arbeit zu tun hatten.


3DCenter: Da Sie in PR tätig sind, möchten wir eine Frage zur GeForce FX 5200 stellen. Viele unser Leser halten die FX 5200 für eine "DirectX8-Karte", weil die Ausführungsgeschwindigkeit von DirectX9-Shadern ziemlich niedrig ist. Viele Spiele mit DX9-Shadersupport behandeln die FX 5200 automatisch wie DirectX8-Hardware. Können Sie uns die Beweggründe nennen, warum nVidia das komplette CineFX-Featureset sogar auf einem Einsteiger-Produkt mit ingesamt sehr geringer 3D-Leistung anbietet?

Luciano Alibrandi: Die GeForce FX Produktlinie bietet volles DX9 – von High-End bis ganz unten. In den Fällen, wo ein DX9-Feature mit mehreren Passes in DirectX8 emuliert werden kann, ist es möglich, dass unsere Einsteiger-Produkte dort tatsächlich besser performen. Aber auch alle Effekte, die nur mit DirectX9 möglich sind, werden noch von der kostengünstigsten GeForce FX unterstützt.


3DCenter: Bei der neuen GeForce 6800 wird von Nvidia im Vergleich zur Ultra nicht nur der Takt gesenkt, sondern auch die Zahl der Pipelines verringert. Ist die 6800 nicht-Ultra letztlich der gleiche Chip, bei dem vier Pipelines deaktiviert wurden, jedoch die sechs Vertexshader der Ultra-Version beibehalten wurden, oder ist der Unterschied zwischen Ultra und nicht-Ultra größer?

Luciano Alibrandi: Im Bereich um die $499 bieten wir mit der 6800 Ultra eine neue Architektur, Unterstützung für Next-Gen-Features (SM 3.0, 64bit Filtering / Blending von Texturen) und Spielraum zum übertakten an. Deswegen lautet unsere Empfehlung für jemanden, der $499 für eine Grafikkarte ausgeben möchte: Nimm die 6800 Ultra, nicht zuletzt wegen der Übertaktbarkeit ist sie die bessere Langzeit-Investition.

Die zweite Karte ist die GeForce 6800 GT. Diese Karte bietet 16 volle Pipes, 256 MB DD3, und alle Next-Gen-Features wie die GeForce 6800 Ultra, und wie das rumprobieren mit dem Übertakten zeigt, sollte sie ebenfalls den Spielraum für die Übertakter haben. Die Karte hat alle Features zum tollen Preis: 16 Pipelines, Support für SM 3.0 und 64 Bit Textur-Filterung / Blending, eine Ein-Slot-Kühlerlösung, und kommt mit einem Stromanschluss aus.

Dann haben wir noch die GeForce 6800 (Standard), die genau das gleiche Featureset hat, aber 12 Pipes und 128 MB DDR1-Speicher.


3DCenter: Können die Boardhersteller (AIB) auch 6800 Nicht-Ultra Karten mit 256 MB RAM bestücken? Kann eine 6800 nicht-Ultra auch mit GDD3 betrieben werden, oder ist sie auf DDR1 limitiert?

Luciano Alibrandi: Die GeForce 6800 Standard-Karten werden 128 MB haben. Die Ultra-Versionen 256 MB.


3DCenter: Die GeForce 6800-Reihe zeigt bei anisotroper Filterung ein Muster, dass dem eines anderen bekannten Herstellers ähnlich sieht. Früher bot Nvidia deutlich bessere Qualität (was dann natürlich auch mehr Leistung kostete). Ist das neue Muster durch die Hardware unveränderlich, oder können wir eine Option für volle, anisotrope Filterung "der alten Schule" in zukünftigen Treiberversionen erwarten?

Luciano Alibrandi: Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an.

Auf eines möchte ich aber hinweisen: Als unsere anisotrope Qualität DEUTLICH besser als beim Konkurrenzprodukt war, gab es keinen Reviewer in der Internet-Community, der uns für die Filterqualität gelobt hat – es gab nur Beschwerden bezüglich der Performance. Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung. Wenn man auch die LOD-Winkelabhängigkeit mit Testprogrammen zeigen kann, lassen sich in echten Spielen interessanterweise nur extrem schwierig Situationen finden, wo man Unterschiede sieht. Ich halte das für eine gute Optimierung, die dem Endkunden nützt.


3DCenter: Wie viel Prozent der Transistoren beim NV40 sind Logik-Gatter, und wie viele werden für Cache und/oder Register genutzt?

Luciano Alibrandi: 85% der Transistoren sind Logik, der Rest ist RAM für Caches, Register, FIFOs, usw.


Die größte und wichtigste Antwort bezieht sich auf die anisotrope Filterung (AF). Offensichtlich ist für die GeForce 6800 Generation nicht zu erwarten, dass das klassische GeForce-AF genutzt werden kann. Unserer Meinung nach geht damit ein wichtiger potenzieller Vorteil für den NV40 verloren: Wenn es geschwindigkeitsmäßig ungefähr gleich steht, würden viele unserer Leser zu der Karte mit der besseren Texturqualität greifen. Diesbezüglich ist der NV40 zwar noch immer im Vorteil, aber lange nicht so deutlich wie noch die GeForceFX-Serie.

Offensichtlich soll die Option auf quasi-Perfektion beim AF aber nicht für alle Zeiten begraben werden. Für interessant halten wir den Hinweis auf die Chipgröße: Bei ATI ist es ja üblich, generell bei der Texturfilterung zu sparen. nVidia musste offenbar beim NV40 auch Kompromisse eingehen und konnte nicht gleichzeitig die "optimierte" und die althergebrachte Variante anbieten. Auch bei der GeForce4 Ti wurde schon bezüglich AF gespart - zwar nicht an der Qualität, aber an der Leistung. Offenbar haben wir bisher den Aufwand für die Bestimmung der AF-Textursamples unterschätzt.

Wir hoffen jedoch, dass die nachkommende Grafik-Generation wieder volle Qualität erlauben wird, welche bereits 2001 mit GeForce3 geboten wurde.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig 3DCenter-Artikel - Index Home

Shortcuts
nach oben