10

News des 10. April 2009

Verschiedene Beobachter haben sich das von Intel auf dem IDF gezeigte Larrabee-Wafer genauer angesehen und eine ungefähre Die-Fläche zwischen 600mm² und 700mm² pro Larrabee-Chip ermittelt – was doch ziemlich viel wäre, der GT200-Chip belegt in 65nm seine 576mm², andere HighEnd-Chips liegen aber wesentlich darunter (GT200b in 55nm mit 470mm², RV770 in 55nm mit 256mm²). Laut unserem Forum könnte dies auf immerhin 3 Milliarden Transistoren in einem 45nm-Herstellungsprozeß hinauslaufen – der 32nm-Prozeß steht für den ersten Larrabee-Chip wohl noch nicht zur Verfügung, zudem wäre die sich daraus ergebende Transistorenmenge dann auch einfach zu groß. Darüber hinausgehend darf aber dann spekuliert werden, wieviel Rechenkernen Intel in diese 600-700mm² Chipfläche integrieren kann – noch 32, oder doch schon 48 oder gar 64?

Die PC Games Hardware spekuliert hingegen über die ersten DirectX11-Beschleuniger zum Jahresende in Form von ATI RV870 und nVidia GT300. Derzeit gibt es noch keine belastbaren Informationen zu diesen Grafikchips, so daß man eigentlich nur anhand der bisherigen Strategien von ATI und nVidia bessere Mutmaßungen anstellen kann – was dann bei der PCGH auf einen GT300-Chip mit 3 Milliarden Transistoren sowie einen RV870-Chip mit 2 Milliarden Transistoren hinausläuft, beide mit ungefähr 2 TeraFlops Rechenleistung bewaffnet. Dies mag sich aus jetziger Sicht nach sehr viel anhören – vor allem da beide Grafikchip-Entwickler im HighEnd-Bereich zuletzt eher auf die Bremse getreten sind.

Allerdings dürften diese Zahlen mit der 40nm-Fertigung nur folgerichtig sein, die Chipgrößen und damit die Fertigungskosten dürfen gegenüber der aktuellen Chipgeneration kaum steigen. So weit, so gut – allerdings ließe sich darüber reden, ob nVidia nicht eventuell beim GT300 von der bisherigen Strategie abweicht und keinen so mächtigen Chip mehr baut, welcher zwar von der Leistung her allein auf weiter Flur steht, aber im Preis/Leistungsverhältnis nicht mit ATIs HighEnd-Chip mithalten kann und zudem auch zu groß ist, um ohne weiteres für eine DualChip-Variante benutzt zu werden. Genau hier liegt nämlich der unschlagbare Vorteil von ATIs aktueller Strategie: Der Chip ist kleiner, womit man mehr Preissegmente abdecken und damit auf größere Stückzahlen kommen kann, daneben läßt sich dieser aber eben auch in einer DualChip-Variante für die absolute Leistungsspitze nutzen.

Und gerade nach den Erfahrungen des letzten halben Jahres mit stark sinkendem Grafikkarten-Absatz durch die Wirtschaftskrise und zusätzlich sinkenden Durchschnittspreisen machen sich solch großen Chips wie der originale GT200 eigentlich nicht mehr wirklich gut. Auch diesbezüglich scheint ATI mit seiner Strategie deutlich besser aufgestellt als nVidia zu sein. Ob das Zeitfenster für nVidia allerdings ausreichend sein mag, um hier noch kurzfristig gegenzusteuern, wäre zu bezweifeln – entweder nVidia hat beim GT300 von Anfang an einen Strategiewechsel geplant oder dieser wird erst mit einer späteren Chip-Generation erfolgen können. Mittelfristig scheint dies aber der bessere Weg zu sein – wenn dann nicht sowieso eines Tages die Idee von den MultiChip-Modulen verwirklicht wird, wo ein Grafikchips aus mehreren kleineren Chips besteht.

Expreview haben eine Plattform-Roadmap von AMD, welche Auskunft über die bis zum Jahr 2001 geplanten Mainboard-Chipsätze, Prozessoren und integrierte Grafikchips sowie deren grundsätzliche Funktionalität bietet. So will man ab dem Jahr 2011 mit der "Sabine"-Plattform nicht nur eine neue Prozessoren-Architektur ("Bulldozer" in 32nm) anbieten, sondern dieser auch eine integrierte DirectX11-Grafik zur Seite stellen. Interessant ist der Speicherausbau, welcher offiziell nur bei DDR3/1600 liegen soll – für das Jahr 2011 erscheint dies wenig, die Speicherhersteller können ja schon jetzt deutlich mehr. Eigentlich hätte man gern bei AMD und bei Intel gesehen, daß die offiziellen Speicherspezifikationen noch für die aktuellen Prozessoren mit der Zeit angehoben werden, zumindest bei AMD scheint dies aber wohl nicht geplant zu sein.

Ebenfalls ist aus der Roadmap zu erfahren, daß AMD die kommende Prozessorenarchitektur zumindest im Consumer-Bereich weiterhin mit maximal vier Rechenkernen plant – trotz daß es im Serverbereich schon dieses Jahr sowohl bei AMD als auch Intel zu Angeboten mit mehr als vier Rechenkernen kommen dürfte. Im Server-Bereich existiert aber auch die Software, um diese vielen Rechenkernen auszunutzen, während sich auf dem Desktop ein QuadCore-Modell bekannterweise die meiste Zeit langweilt und selbst unter Benchmarks derzeit keine gute Skalierung pro Rechenkern zu sehen ist, weil vernünftig angepasste Software nach wie vor eher selten ist. Es bliebe abzuwarten, was Intel in diesem Zeitraum machen will, es würde aber nicht verwundern, wenn man außerhalb von 1000-Dollar-Extreme-Prozessoren auch bei Intel bei vier Rechenkernen als dem Maximum für den Desktop bleiben würde.