16

News des 16. September 2010

Die finnische Webseite Muropaketti (maschinelle Übersetzung ins deutsche) bringt in Berufung auf die Aussagen eines (angeblichen) Mitarbeiters eines Grafikkarten-Herstellers neue Informationen über die Planungen von nVidia im HighEnd-Bereich: Danach soll die ursprünglich geplante DualChip-Lösung GeForce GTX 490 auf Basis zweier GF104-Chips kürzlich komplett gestrichen worden sein, obwohl diese Karte schon marktreif gewesen war. Dafür soll nun ein angeblicher GF110-Grafikchip in einem ähnlichem Preis- und Performance-Segment antreten, welcher schon auf der veränderter Architektur des GF104-Chips basiert. Dies würde bedeuten, nVidia würde neben dem GF100-Chip im HighEnd-Segment einen weiteren Chip auflegen, der aber von seinen Anlagen her eher alleinig aufs Gaming ausgerichtet ist, während der GF100-Chip wie bekannt auch das professionelle Segment und den HighPerformace-Computing-Bereich bedienen soll.

In unserem Forum wird demzufolge denn auch schon heftig debatiert, wie ein solcher GF110-Chip aussehen könnte. Die momentan wahrscheinlichste Auflösung ist ein Chip mit 12 Shader-Clustern im GF104-Stil, was dann insgesamt 576 Shader-Einheiten und 96 TMUs ergeben würde. Hierfür würde weiterhin ein 384 Bit DDR Speicherinterface mit schlicht anständigen Speichertaktraten ausreichen (nVidia hat diesbezüglich ja noch deutliche Reserven). Vor allem aber kann man durch das Herauslassen des ganzen GF100-Ballasts mächtig Die-Fläche sparen, gemäß der Voraussagen unseres Forums würde ein solcher GF110-Chip mit 576 Shader-Einheiten eine Die-Fläche von zwischen 430 und 480mm² einnehmen – was in jedem Fall etwas weniger wäre als beim GF100-Chip mit seinen 512 Shader-Einheiten (529mm²).

Der GF110-Chip würde dem GF100-Chip dann aber bei der Gaming-Performance trotz kleinerer Die-Fläche davonrennen: Schließlich hätte der GF110 zu diesen Daten 12 Prozent mehr Shader-Einheiten und 50 Prozent mehr Textureneinheiten. Wenn man dann auch noch die wirklich gute Taktbarkeit der kleineren Fermi-Chips GF104, GF106 und GF108 auch auf den GF110-Chip übertragen könnte, dann kann dieser vielleicht auch noch mit klar besseren Taktraten als der GF100-Chip operieren. Somit könnte man eine Performance erreichen, die 20 bis 30 Prozent über dem GF100-Chip liegt – was dann ausreichend sein sollte, um selbst nach dem Release der Southern-Islands-Generation noch vor AMDs neuem SingleChip-Spitzenmodell zu bleiben. Eine Antwort auf die kommenden DualChip-Grafikkarten der Southern-Islands-Generation wäre dies zwar nicht, aber die kann nVidia schließlich auch mittels SLI-Kombinationen erreichen.

Es gibt natürlich weiterhin die Gegenthese eines GF100b-Chips auf Basis eines neuen Steppings des GF100-Chips. Damit sollte nVidia dann die Verlustleistungsprobleme des GF100-Chips in den Griff bekommen, was es ermöglichen würde, den GF100b dann mit den vollen 512 Shader-Einheiten und zu etwas höheren Taktraten zu bringen. Ob dies allerdings ausreichend Mehrperformace ergibt, um einer potentiellen Radeon HD 6870 aus der Southern-Islands-Generation gleichwertig entgegentreten zu können, ist noch fraglich. Der GF110-Ansatz erscheint da deutlich eleganter, weil mit etwas kleinerer Chipfläche und weniger Verlustleistungs-Problemen ziemlich sicher eine Performance erreicht werden kann, welche AMD weiterhin in Schach hält. Zudem bietet sich das Fermi-Modell der sehr modular aufgebauten Chips sehr gut für einen solchen schnell entschiedenen neuen Grafikchip an.

denkbare neue nVidia HighEnd-Chips
GF100b neues Stepping des GF100-Chips mit geringerer Leistungsaufnahme, dadurch die Möglichkeit zu einer Grafikkarte mit den vollen 512 Shader-Einheiten und eventuell etwas mehr Takt zu keinem oder geringem Verlustleistungsaufschlag
Potential gegenüber GeForce GTX 480: +5% bis +10%
GF110 mit 12SC neuer Chip mit 576 Shader-Einheiten und 96 TMUs an einem 384 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 430-480mm² etwas kleiner als GF100, wahrscheinlich sogar höher taktbar als dieser mit gleicher oder kleinerer Verlustleistung
Potential gegenüber GeForce GTX 480: +20% bis +30%
GF110 mit 16SC neuer Chip mit 768 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 550-650mm² größer als GF100 und damit auch höhere Verlustleistung, Zielmarkt dieses Grafikchips wären dann eher die DualChip-Lösungen von AMD
Potential gegenüber GeForce GTX 480: ca. +50%

Denkbar wäre auf dieser Basis aber auch, daß der GF110 deutlich mächtiger wird und gleich mit 16 Shader-Clustern mit insgesamt 768 Shader-Einheiten samt 128 TMUs ausgerüstet wird – für einen solchen Chip würde sich dann sicherlich auch gleich ein 512 Bit DDR Speicherinterface lohnen. Dies würde dann allerdings die Die-Fläche stark ansteigen lassen auf zwischen 550 und 650mm² – wenn, dann erscheint ein solch voluminöser Chip nur realisierbar, wenn die reale Die-Fläche stark am unteren Rand der vorstehenden Schätzungen bleibt. Zudem ist auch nicht sicher, ob ein solcher Chip trotz seiner Hardware-Masse ausreichend ist, um AMDs kommenden neuen DualChip-Lösungen wirklich standzuhalten, dafür werden wahrscheinlich doch noch mehr Hardware-Einheiten benötigt. Insofern ist der vorstehende These mit den 12 Shader-Clustern und damit einem schnelleren Ersatz zum GF100-Chip die größeren Chancen zu geben. Aber derzeit ist dies alles noch im Reich der Spekulationen, leider ist momentan noch nicht einmal der Codename GF110 verifizierbar.

Von KitGuru kommt mal wieder eine wilde Meldung ob einer angeblich geplanten DualChip GeForce GTS 450, welche sich mit der Radeon HD 5850 anlegen soll. Wie üblich bei KitGuru handelt es sich um eine reine Annahme der Webseite, ohne daß es hierfür eine handfeste Information im Hintergrund gäbe. Und auch diese Annahme ist unwahrscheinlich: Sowohl AMD als auch nVidia haben in den letzten Jahren nie DualChip-Grafikkarten außerhalb des HighEnd-Bereichs offiziell aufgelegt – wenn man so ein Projekt mit einem der kleineren Grafikchips versucht hat, dann war dies regelmäßig eine Eigeninitiative seitens eines Grafikkarten-Herstellers. Dabei ist gar nicht einmal auszuschließen, daß ein Grafikkarten-Hersteller eine DualChip-Karte auf Basis der GeForce GTS 450 in Vorbereitung hat – aber dies hat nichts mit nVidia bzw. einer offiziell geplanten nVidia-Karte zu tun.

Laut Fudzilla lieft das Demo-System mit Zacate-CPU auf Bobcat-Basis, mittels welchem AMD kürzlich die Bobcat-Performance zeigte, auf 1.6 GHz CPU-Takt, der integrierte Grafikchip lief dabei mit 500 MHz. Dies muß natürlich nicht den finalen Taktraten des Desktop-Prozessors Zacate mit seiner TDP von 18 Watt entsprechen, dürfte aber in die richtige Richtung gehen. Damit läßt sich auf CPU-Seite der Atom auf jeden Fall auskontern, da diese Intel-CPUs nicht höher takten und der Bobcat-Kern eine sehr deutlich höhere Pro/MHz-Leistung aufbietet. Und auf der GPU-Seite erklärt der relativ niedrige Takt von 500 MHz (die Radeon HD 5450 taktet mit 750 MHz) den nur 30prozentigen Vorteil gegenüber der integrierten Nehalem-Grafikeinheit – mit dem vollen Takt der Radeon HD 5450 wäre das Verhältnis noch besser zugunsten von Bobcat, dies würde dann aber natürlich auch die TDP hochtreiben.

Für Bobcat benötigt AMD scheinbar nicht mehr, denn die integrierten Grafikchips von Atom sind noch deutlich langsamer und die im Nettop-Segment ebenfalls eingesetzten Core 2 Duo / Pentium E Prozessoren müssen ebenfalls noch auf leistungsschwache ältere integrierte Grafikchips von Intel zurückgreifen – keine Not also für AMD, mit Bobcat die volle Performance einer Radeon HD 5450 bieten zu müssen. Die seitens Fudzilla genannte Performance einer "Radeon HD 5550" für die integrierte Bobcat-Grafikeinheit ist natürlich Nonsens, dafür wäre ein mehr als deutlich größeres Prozessorendesign vonnöten als es sich derzeit darstellt. Im Bobcat-Design stecken anscheinend 80 Shader-Einheiten (wie bei der Radeon HD 5450), durch den niedrigeren Takt und das schlechtere Speicherinterface kommt aber vielleicht nur die Hälfte der Performance einer Radeon HD 5450 DDR3 heraus – um die bisherigen integrierten Intel-Grafikchips in Schach zu halten, reicht dies allerdings vollkommen aus.