9

News des 9. August 2010

Expreview haben einen vollständigen Artikel zu einer GeForce GTX 480 mit gleich 512 Shader-Einheiten – welcher uns allerdings reichlich spanisch vorkommt: So soll diese GeForce GTX 480 mit 512 Shader-Einheiten auf gleich 801/1601/1900 MHz laufen – dies wäre ein heftiger Sprung ausgehend vom regulären Takt der GeForce GTX 480 von 701/1401/1848 MHz. Dann aber haben Expreview die neue Karte nur auf den Standardfrequenzen der GeForce GTX 480 vermessen – dies ermöglicht zwar den exakten Vergleich von 480 gegen 512 Shader-Einheiten (+5,7 Prozent Performance), aber wenn tatsächlich eine GF100-Karte mit 512 Shader-Einheiten und 801/1601/1900 MHz Takt herauskommen sollte, wäre natürlich die Performance auf exakt diesen Taktraten interessant. Und letztlich soll diese neue Karte auf den Standard-Taktraten der regulären GeForce GTX 480 einen satten System-Mehrverbrauch von 204 Watt (!) verursachen – eigentlich nahezu ausgeschlossen für ein Stück Hardware, welches insgesamt "nur" im Bereich von 200 bis 300 Watt verbraucht.

Nur mit 6,7 Prozent mehr Shader-Einheiten kann der Verbrauch nicht derart explodieren, gerade auch wenn die GPU-Spannung mit 1.056V zu 1.0V nur unwesentlich höher ist. Leider ist somit fast der gesamte Artikel seitens Expreview für die Katz', weil kaum offene Fragen beantwortet werden – denn daß die 6,7 Prozent mehr Shader-Einheiten in etwa auf die 5,7 Prozent mehr Performance hinauslaufen würden, konnte man auch ohne explizite Messungen voraussagen. Offen bleibt aber auch nach diesem Test weiterhin, was nVidia nun oberhalb der bisherigen GeForce GTX 480 tun wird: Einfach eine GeForce GTX 480 unter gleichem Namen mit den vollen 512 Shader-Einheiten – oder doch ein neuer Name ("GeForce GTX 485") und eventuell einen Mehrtakt obendrauf, damit es zu einem ordentlichen Performance-Abstand reicht? In dieser Frage sind noch alle Möglichkeiten offen.

HT4U bringen aktualisierte Informationen zu den Anfang nächsten Jahres antretenden ersten Sandy-Bridge-Prozessoren. Diese entsprechen grob den vor Monatsfrist gemeldeten Daten und fügen wie gesagt noch einige weitere Informationen zu, so daß sich langsam ein vollständiges Bild herauszukristallisieren beginnt – so liegen nun auch Informationen über die Existenz des TurboModes bei den einzelnen Prozessoren sowie zu deren TDP-Klasse vor. Dabei ordnet Intel die Vierkerner wie bei Nehalem bei 95 Watt TDP ein, was angesichts der kleineren 32m-Fertigung, aber der Integration eines Grafikkerns passend erscheint. Die Zweikerner kommen dagegen auf eine TDP von 65 Watt, was etwas weniger ist als bei den aktuellen Zweikernern von Intel mit 73 Watt TDP – nicht schlecht angesichts der im Zweikern-Bereich identischen 32nm-Fertigung. Hier dürfte wohl mit hineinspielen, daß Intel ab Sandy Bridge den Grafikchip nicht mehr extra im 45nm-Verfahren auflegt, sondern nun zusammen mit der eigentlichen CPU in deren Fertigungsverfahren herstellt.

Takt Kerne L3-Cache TurboMode TDP
Core i3-2100 3.1 GHz 2 + HT 3 MB nein 65W
Core i3-2120 3.3 GHz 2 + HT 3 MB nein 65W
Core i5-2400 3.1 GHz 4 6 MB ja 95W
Core i5-2500 3.3 GHz 4 6 MB ja 95W
Core i7-2600 3.4 GHz 4 + HT 8 MB ja 95W

In einem Blog-Eintrag hat AMD zum Fall der kommenden integrierten Grafikchips der Fusion-Prozessoren ausgesagt, daß ein Effekt dieser Integration eine deutlich bessere Performance für "Parallel Computing" (GPGPU) wäre – weil der integrierte Grafikchip nicht über das (hierbei unter Umständen limitierende) PCI Express, sondern direkt an die CPU angebunden wäre. Die Aussage erscheint ein wenig gewagt, denn uns ist nicht bekannt, daß bei GPGPU das PCI Express Interface in irgendeinre Form limitieren würde – bei GPGPU geht es vielmehr nahezu nur um die Rechenleistung, welche bei den großen Desktop-Grafikkarten immer höher sein wird als bei integrierten Grafikchips. Aber diese Aussage deutet durchaus eine Richtung an, in welche AMD mit seinen APUs gehen will: Der Grafikchip wird dabei nicht nur integriert, um ein Bild auf den Monitor zu malen, sondern um auch gemeinsam mit der CPU an diversen Aufgaben rechnen zu können.

Der Grafikchip kann somit teilweise zum Co-Prozessor der eigentlichen CPU werden – und sicherlich ist speziell dieser Punkt mittels einer direkten Anbindung zwischen GPU und CPU besser zu lösen als mittels PCI Express, weil es hierbei weniger um Bandbreite als um Latenzen geht. Davon abgesehen ist in diesem Blogposting auch noch der markante Satz "AMD’s APUs are designed to be as fast as some discrete GPUs" gefallen, welcher in der Folge natürlich von den News-Gazetten des Internets breitgetreten wurde. Daß dieser Satz bei kühler Betrachtung auch nur bedeuten kann, daß man genauso schnell wie die billigste LowCost-Grafikkarte ist, wird dabei wohl im Überschwang der Gefühle gern vergessen. Wir wiederholen uns jedenfalls gern, wenn wir sagen, daß in die zur Verfügung stehende Die-Fläche der beiden Fusion-Prozessoren wahrscheinlich nur 40 bis 80 Shader-Einheiten (Bobcat) bzw. 200-400 Shader-Einheiten (Llano) hineinpassen und daß somit maximal die Performance des unteren Mainstream-Bereichs geboten wird.

Dabei wäre besonders zu erwähnen, daß es sich hierbei um die Performance des unteren Mainstream-Bereichs des Jahres 2010 handelt, welche in CPUs des Jahres 2011 verbaut wird – möglicherweise ist in einem Jahr bei extra Grafikkarten selbst im unteren Mainstream-Bereich schon etwas ganz anderes Standard und niemand redet mehr über 200 bis 400 Shader-Einheiten (bei ATI-Grafikchips). Nebenbei zeigt dies auf eine Betrachtungsweise hin, welche bislang zu den kommenden integrierten Grafikchips noch gar nicht angetreten wurde: Im Gegensatz zu extra Grafikkarten ist die integrierte Grafik ja nicht nach Belieben auswechselbar, vielmehr muß der Nutzer dann mit der vorhandenen Leistung leben. Doch die Performance des unteren Mainstream-Bereichs ist nicht ausreichend, um damit jahrelang zurechtzukommen – in dieser Klasse bekommt man regelmäßig Beschleuniger, welche aktuelle Spiele geradeso noch über die Bühne bekommen und sehr schnell alt werden.

Wenn AMD eine Fusion-CPU schon vor Jahren mit einer integrierten Grafik des unteren Mainstream-Bereichs aufgelegt hätte, dann würde der Käufer einer (angenommenen) 2008er Fusion-CPU wohl eine Grafik im Rahmen der Radeon HD 3600 Serie mit maximal 120 Shader-Einheiten bekommen haben. Die sich dabei zu stellende Frage ist, was man zwei Jahre später (also heute) noch mit einem solchen Produkt anfangen kann: Die CPU selber wäre wohl nach wie vor halbwegs ausreichend – aber wer will heutzutage mit einer Radeon HD 3600 auf Full-HD-Bildschirmen ein Spielchen wagen? Ähnlich könnte es auch den jetzt real kommenden Fusion-Prozessoren gehen: Am Anfang mag das alles noch gut aussehen, aber Lösungen des unteren Mainstream-Bereichs altern wie gesagt extrem schnell und dann sitzt man auf einem Produkt, welches man nur wegen der schwachen Grafikleistung ersetzen (oder aufrüsten) muß, obwohl die eigentliche CPU-Leistung meist über einige Jahre ausreichend ist.

Expreview haben einen vollständigen Artikel zu einer GeForce GTX 480 mit gleich 512 Shader-Einheiten - welcher uns allerdings reichlich spanisch vorkommt: So soll diese GeForce GTX 480 mit 512 Shader-Einheiten auf gleich 801/1601/1900 MHz laufen - dies wäre ein heftiger Sprung ausgehend vom regulären Takt der GeForce GTX 480 von 701/1401/1848 MHz. Dann aber haben Expreview die neue Karte nur auf den Standardfrequenzen der GeForce GTX 480 vermessen - dies ermöglicht zwar den exakten Vergleich von 480 gegen 512 Shader-Einheiten (+5,7 Prozent Performance), aber wenn tatsächlich eine GF100-Karte mit 512 Shader-Einheiten und 801/1601/1900 MHz Takt herauskommen sollte, wäre natürlich die Performance auf exakt diesen Taktraten interessant. Und letztlich soll diese neue Karte auf den Standard-Taktraten der regulären GeForce GTX 480 einen satten System-Mehrverbrauch von 204 Watt (!) verursachen - eigentlich nahezu ausgeschlossen für ein Stück Hardware, welches insgesamt "nur" im Bereich von 200 bis 300 Watt verbraucht.

Nur mit 6,7 Prozent mehr Shader-Einheiten kann der Verbrauch nicht derart explodieren, gerade auch wenn die GPU-Spannung mit 1.056V zu 1.0V nur unwesentlich höher ist. Leider ist somit fast der gesamte Artikel seitens Expreview für die Katz', weil kaum offene Fragen beantwortet werden - denn daß die 6,7 Prozent mehr Shader-Einheiten in etwa auf die 5,7 Prozent mehr Performance hinauslaufen würden, konnte man auch ohne explizite Messungen voraussagen. Offen bleibt aber auch nach diesem Test weiterhin, was nVidia nun oberhalb der bisherigen GeForce GTX 480 tun wird: Einfach eine GeForce GTX 480 unter gleichem Namen mit den vollen 512 Shader-Einheiten - oder doch ein neuer Name ("GeForce GTX 485") und eventuell einen Mehrtakt obendrauf, damit es zu einem ordentlichen Performance-Abstand reicht? In dieser Frage sind noch alle Möglichkeiten offen.

HT4U bringen aktualisierte Informationen zu den Anfang nächsten Jahres antretenden ersten Sandy-Bridge-Prozessoren. Diese entsprechen grob den vor Monatsfrist gemeldeten Daten und fügen wie gesagt noch einige weitere Informationen zu, so daß sich langsam ein vollständiges Bild herauszukristallisieren beginnt - so liegen nun auch Informationen über die Existenz des TurboModes bei den einzelnen Prozessoren sowie zu deren TDP-Klasse vor. Dabei ordnet Intel die Vierkerner wie bei Nehalem bei 95 Watt TDP ein, was angesichts der kleineren 32m-Fertigung, aber der Integration eines Grafikkerns passend erscheint. Die Zweikerner kommen dagegen auf eine TDP von 65 Watt, was etwas weniger ist als bei den aktuellen Zweikernern von Intel mit 73 Watt TDP - nicht schlecht angesichts der im Zweikern-Bereich identischen 32nm-Fertigung. Hier dürfte wohl mit hineinspielen, daß Intel ab Sandy Bridge den Grafikchip nicht mehr extra im 45nm-Verfahren auflegt, sondern nun zusammen mit der eigentlichen CPU in deren Fertigungsverfahren herstellt.





Takt
Kerne
L3-Cache
TurboMode
TDP





Core i3-2100
3.1 GHz
2 + HT
3 MB
nein
65W



Core i3-2120
3.3 GHz
2 + HT
3 MB
nein
65W



Core i5-2400
3.1 GHz
4
6 MB
ja
95W



Core i5-2500
3.3 GHz
4
6 MB
ja
95W



Core i7-2600
3.4 GHz
4 + HT
8 MB
ja
95W





In einem Blog-Eintrag hat AMD zum Fall der kommenden integrierten Grafikchips der Fusion-Prozessoren ausgesagt, daß ein Effekt dieser Integration eine deutlich bessere Performance für "Parallel Computing" (GPGPU) wäre - weil der integrierte Grafikchip nicht über das (hierbei unter Umständen limitierende) PCI Express, sondern direkt an die CPU angebunden wäre. Die Aussage erscheint ein wenig gewagt, denn uns ist nicht bekannt, daß bei GPGPU das PCI Express Interface in irgendeinre Form limitieren würde - bei GPGPU geht es vielmehr nahezu nur um die Rechenleistung, welche bei den großen Desktop-Grafikkarten immer höher sein wird als bei integrierten Grafikchips. Aber diese Aussage deutet durchaus eine Richtung an, in welche AMD mit seinen APUs gehen will: Der Grafikchip wird dabei nicht nur integriert, um ein Bild auf den Monitor zu malen, sondern um auch gemeinsam mit der CPU an diversen Aufgaben rechnen zu können.

Der Grafikchip kann somit teilweise zum Co-Prozessor der eigentlichen CPU werden - und sicherlich ist speziell dieser Punkt mittels einer direkten Anbindung zwischen GPU und CPU besser zu lösen als mittels PCI Express, weil es hierbei weniger um Bandbreite als um Latenzen geht. Davon abgesehen ist in diesem Blogposting auch noch der markante Satz "AMD’s APUs are designed to be as fast as some discrete GPUs" gefallen, welcher in der Folge natürlich von den News-Gazetten des Internets breitgetreten wurde. Daß dieser Satz bei kühler Betrachtung auch nur bedeuten kann, daß man genauso schnell wie die billigste LowCost-Grafikkarte ist, wird dabei wohl im Überschwang der Gefühle gern vergessen. Wir wiederholen uns jedenfalls gern, wenn wir sagen, daß in die zur Verfügung stehende Die-Fläche der beiden Fusion-Prozessoren wahrscheinlich nur 40 bis 80 Shader-Einheiten (Bobcat) bzw. 200-400 Shader-Einheiten (Llano) hineinpassen und daß somit maximal die Performance des unteren Mainstream-Bereichs geboten wird.

Dabei wäre besonders zu erwähnen, daß es sich hierbei um die Performance des unteren Mainstream-Bereichs des Jahres 2010 handelt, welche in CPUs des Jahres 2011 verbaut wird - möglicherweise ist in einem Jahr bei extra Grafikkarten selbst im unteren Mainstream-Bereich schon etwas ganz anderes Standard und niemand redet mehr über 200 bis 400 Shader-Einheiten (bei ATI-Grafikchips). Nebenbei zeigt dies auf eine Betrachtungsweise hin, welche bislang zu den kommenden integrierten Grafikchips noch gar nicht angetreten wurde: Im Gegensatz zu extra Grafikkarten ist die integrierte Grafik ja nicht nach Belieben auswechselbar, vielmehr muß der Nutzer dann mit der vorhandenen Leistung leben. Doch die Performance des unteren Mainstream-Bereichs ist nicht ausreichend, um damit jahrelang zurechtzukommen - in dieser Klasse bekommt man regelmäßig Beschleuniger, welche aktuelle Spiele geradeso noch über die Bühne bekommen und sehr schnell alt werden.

Wenn AMD eine Fusion-CPU schon vor Jahren mit einer integrierten Grafik des unteren Mainstream-Bereichs aufgelegt hätte, dann würde der Käufer einer (angenommenen) 2008er Fusion-CPU wohl eine Grafik im Rahmen der Radeon HD 3600 Serie mit maximal 120 Shader-Einheiten bekommen haben. Die sich dabei zu stellende Frage ist, was man zwei Jahre später (also heute) noch mit einem solchen Produkt anfangen kann: Die CPU selber wäre wohl nach wie vor halbwegs ausreichend - aber wer will heutzutage mit einer Radeon HD 3600 auf Full-HD-Bildschirmen ein Spielchen wagen? Ähnlich könnte es auch den jetzt real kommenden Fusion-Prozessoren gehen: Am Anfang mag das alles noch gut aussehen, aber Lösungen des unteren Mainstream-Bereichs altern wie gesagt extrem schnell und dann sitzt man auf einem Produkt, welches man nur wegen der schwachen Grafikleistung ersetzen (oder aufrüsten) muß, obwohl die eigentliche CPU-Leistung meist über einige Jahre ausreichend ist.