28

News des 28. Juni 2011

nVidia hat mit GeForce GTX 570M & 580M zwei neue Mobile-Beschleuniger vorgestellt, welche die aktuelle Leistungsspitze des Mobile-Programms von nVidia einnehmen und damit die bisherigen Mobile-Spitzenmodelle GeForce GTX 470M, 480M und 485M beerben sollen. Im Gegensatz zu GeForce GTX 470M & 480M basieren GeForce GTX 570M & 580M nicht auf den HighEnd-Grafikchips GF100 bzw. GF110, sondern auf dem Performance-Chip GF114 der GeForce GTX 560 /Ti. Den HighEnd-Chip GF100 hatte nVidia im Endeffekt auch nur notgedrungen im Mobile-Segment eingesetzt, prinzipiell hat dieser aber eine viel zu hohe Stromaufnahme für Mobile-Lösungen und die Performance-Chips GF104 und GF114 sind hierfür effektiver. AMD ist diesen Weg gleich von Anfang an gegangen und hat gleich auf eine Umsetzung der letzten HighEnd-Chips RV870/Cypress und RV970/Cayman für das Mobile-Segment verzichtet. So richtig groß ist der Performance-Sprung von GeForce GTX 570M & 580M jedoch nicht – die schon seit Anfang des Jahres erhältliche GeForce GTX 485M auf Basis des GF104-Chips kommt in eine ähnliche Performanceregion, nur die GeForce GTX 580M ist nun noch um ein paar Prozentpunkte schneller.

Technik max. Taktraten Desktop-Vergleich
GeForce GTX 580M GF114 mit 384 Shader-Einheiten, 64 TMUs, 32 ROPs und 256 Bit DDR Speicherinterface 620/1240/1500 MHz minimal langsamer als GeForce GTX 460 1024MB
GeForce GTX 570M GF114 mit 336 Shader-Einheiten, 56 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface 575/1150/1500 MHz minimal langsamer als GeForce GTX 460 SE 768MB
GeForce GTX 560M GF116 mit 192 Shader-Einheiten, 32 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface 775/1550/1250 MHz in etwa wie GeForce GTS 450
GeForce GT 555M GDDR5 GF116 mit 96 Shader-Einheiten, 16 TMUs, 16 ROPs und 128 Bit DDR Speicherinterface 753/1506/1569 MHz grob wie GeForce GT 440 GDDR5
GeForce GT 555M DDR3 GF116 mit 144 Shader-Einheiten, 24 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface 590/1180/900 MHz grob wie GeForce GT 440 GDDR5
GeForce GT 550M GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface 740/1480/900 MHz minimal schneller als GeForce GT 430
GeForce GT 540M GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface 672/1344/900 MHz minimal langsamer als GeForce GT 430
GeForce GT 525M GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface 600/1200/900 MHz etwas langsamer als GeForce GT 430
GeForce GT 520MX GF119 mit 48 Shader-Einheiten, 8 TMUs, 4 ROPs und 64 Bit DDR Speicherinterface 900/1800/800 MHz grob wie GeForce GT 520
GeForce GT 520M GF119 mit 48 Shader-Einheiten, 8 TMUs, 4 ROPs und 64 Bit DDR Speicherinterface 740/1480/800 MHz etwas langsamer als GeForce GT 520

Der Haupteffekt der neuen Mobile-Beschleuniger dürfte eher darin liegen, daß das nVidia-Mobileportfolio nun durchgehend GF11x-Grafikchips benutzt, die etwas energieeffizienter als die vorhergehenden GF10x-Grafikchips sind und damit von den Notebook-Hersteller natürlich lieber verwendet werden. Im Vergleich mit AMDs aktuellem Mobile-Portfolio läßt sich nunmehr von einem groben Gleichstand sprechen – die GeForce GTX 580M erscheint zwar minimal potenter als die Radeon HD 6970M, diese geringe Differenz zwischen diesen Mobile-Beschleunigern kann sich aber durch die bei einzelnen Notebooks immer mal wieder abweichenden Grafikchip-Taktraten problemlos auch ins Gegenteil verkehren. Wirklich interessant sind die schnelleren Mobile-Beschleuniger sowieso nicht, weil jene üblicherweise nur in arg teuren Notebooks verbaut und damit wenig effektiv in Bezug auf die gebotene Gaming-Performance zum angesetzten Preis sind – im Desktop-Bereich würde schließlich niemand 1500 Euro und mehr auf den Tisch legen, um dann mit der Gaming-Power einer GeForce GTX 460 dazustehen.

Golem berichten über eine erste Thunderbolt-Verwendung für eine externe Grafiklösung in einem neuen Business-Notebook von Sony. Das ganze zeigt auch ein wenig an, wohin die Idee externer Grafiklösungen laut den PC- und Notebook-Herstellern immer wieder geht: Nicht in Richtung von mehr Power durch den Einsatz der deutlich potenteren Desktop-Beschleuniger und auch nicht in Richtung einer austauschbaren und damit durch den Anwender selber aufrüstbaren Grafiklösung, sondern allein in Richtung der Auslagerung der Mobile-Grafik aus dem Notebook selber. Der einzige echte Vorteil liegt hierbei in der Gewichtsreduktion (sofern man nur das Notebook durch die Gegend schleppt) – die Grafiklösung liegt halt in einer eigenen Dockingstation und nicht mehr im Notebook selber. Austauschbar ist diese jedoch (weitestgehend) nicht und es wird auch weiterhin nur eine Mobile-Lösung verbaut, obwohl man wenigstens diesen Punkt in einem externen Gehäuse eigentlich besser (durch eine Desktop-Grafikkarte) lösen könnte.

Damit ist die Performance dann natürlich auf die beschränkte Leistungsfähigkeit der Mobile-Beschleuniger von AMD (Liste) und nVidia (Liste vorstehend) limitiert, womit kein großer Staat zu machen ist. Der Verbau einer Desktop-Grafikkarte in einem externen Gehäuse würde aber wohl Sony diesbezüglich nicht in die Karten spielen, als damit der Anwender dann unabhängig von Sony werden würde und im Zweifelsfall selbsttätig auf mehr GPU-Power umrüsten könnte. Wenn man – wie eigentlich alle Notebook-Hersteller – auch weiterhin teures Zubehör verkaufen will, ist dies natürlich aus Unternehmenssicht keine sinnvolle Entscheidung. Hier passt auch hinein, daß beispielsweise nVidias Optimus-Technologie, mittels welcher man theoretisch selbsttätig ein System mit externer Grafikkarte aufbauen könnte, eine externe PCI-Express-Anbindung nur mit einer einzigen PCI Express Lane akzeptiert (bei zwei oder mehr PCI Express Lanes wird Optimus abgeschaltet). Diese künstliche Beschränkung hat dabei exakt den Zweck, kostengünstige Lösungen von externen Grafikkarten zu verhindern – mit einer schwachen PCI-Express-Bandbreite lohnt sich dies einfach nicht.

Der Effekt für nVidia ist dabei schlicht der, daß bei einem Aufkommen von starken externen Grafiklösungen auf Basis von Desktop-Beschleunigern das Geschäft mit den deutlich teureren Mobile-Beschleunigern langfristig zusammenbrechen würde. Wir hatten zwar schon lange vermutet, daß die Hersteller nicht einfach nur unbewußt das Thema externer Grafikklösungen auf Basis von Desktop-Beschleunigern mißachten, sondern das dieses Thema ganz bewußt kleingehalten und blockiert wird – hierdurch ergibt sich nun die Bestätigung dieser Vermutung. Ob sich diese Blockade irgendwann einmal auflösen läßt, bleibt derzeit zu bezweifeln – denn ganz abseits vom Bandbreitenproblem sieht es so aus, als daß für das Zusammenwirken von interner und externer Grafik immer der Grafikkarten-Treiber der externen Grafik mitspielen muß. Man ist also zwingend auf den guten Willen von AMD und nVidia angewiesen – und vorstehende Ausführungen zur bewußten Limitierung von Optimus zeigen auf, daß man damit derzeit nicht rechnen sollte.

Laut der ComputerBase waren auf der AMD-Webseite (offenbar nur kurzzeitig) die Daten der Llano-Desktopmodelle zu sehen, obwohl diese noch gar nicht offiziell vorgestellt sind. Dabei ergab sich mit dem A6-3500 ein bisher unbekanntes Modell, welches mit drei Rechenkernen auf 2.1 GHz und einem TurboCore-Takt von 2.4 GHz antreten soll – im Endeffekt also ein A6-3600 mit einem abgeschalteten Rechenkern. Ob dieser vielleicht freischaltbar ist, wird man sehen müssen. Generell betrachtet sind die kleineren Llano-Modelle aber doch (bis auf spezielle Anforderungen) eher uninteressant, da Llano schon seine größten Modelle braucht, um bezüglich der CPU-Performance Intel halbwegs hinterherhecheln zu können – die kleineren Llano-Modelle dürften dann von der CPU-Power so weit weg vom Schuß liegen, daß sich über diese Prozessoren kein größeres Nachdenken lohnt.

  Technik integrierte Grafik TDP Preis
A8-3850 4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.9 GHz (kein TurboCore), bis DDR3/1866, Sockel FM1 Radeon HD 6550D mit 400 Shader-Einheiten, 20 TMUs und 8 ROPs @ 600 MHz 100W 135$
A8-3800 4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.4 GHz (TurboCore max. 2.7 GHz), bis DDR3/1866, Sockel FM1 Radeon HD 6550D mit 400 Shader-Einheiten, 20 TMUs und 8 ROPs @ 600 MHz 65W  
A6-3650 4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.6 GHz (kein TurboCore), bis DDR3/1866, Sockel FM1 Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz 100W 110$
A6-3600 4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.1 GHz (TurboCore max. 2.4 GHz), bis DDR3/1866, Sockel FM1 Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz 65W  
A6-3500 3 Rechenkerne, 3 MB Level2-Cache insgesamt, 2.1 GHz (TurboCore max. 2.4 GHz), bis DDR3/1866, Sockel FM1 Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz 65W  
A4-3400 2 Rechenkerne, 1 MB Level2-Cache insgesamt, 2.7 GHz (kein TurboCore), bis DDR3/1600, Sockel FM1 Radeon HD 6410D mit 160 Shader-Einheiten, 8 TMUs und 4 ROPs @ 600 MHz 65W  
E2-3200 2 Rechenkerne, 1 MB Level2-Cache insgesamt, 2.4 GHz (kein TurboCore), bis DDR3/1600, Sockel FM1 Radeon HD 6370D mit 160 Shader-Einheiten, 8 TMUs und 4 ROPs @ 443 MHz 65W  
E2-450 2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.65 GHz (kein TurboCore), bis DDR3/1333, Sockel FT1 Radeon HD 6320 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 508 MHz (TurboCore max. 600 MHz) 18W  
E2-350D 2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.6 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1 Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 492 MHz 22W  
E2-300 2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.3 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1 Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 488 MHz 18W  
E2-240 1 Rechenkern, 512 kByte Level2-Cache insgesamt, 1.5 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1 Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 500 MHz 18W  
nVidia hat mit GeForce GTX 570M & 580M zwei neue Mobile-Beschleuniger vorgestellt, welche die aktuelle Leistungsspitze des Mobile-Programms von nVidia einnehmen und damit die bisherigen Mobile-Spitzenmodelle GeForce GTX 470M, 480M und 485M beerben sollen. Im Gegensatz zu GeForce GTX 470M & 480M basieren GeForce GTX 570M & 580M nicht auf den HighEnd-Grafikchips GF100 bzw. GF110, sondern auf dem Performance-Chip GF114 der GeForce GTX 560 /Ti. Den HighEnd-Chip GF100 hatte nVidia im Endeffekt auch nur notgedrungen im Mobile-Segment eingesetzt, prinzipiell hat dieser aber eine viel zu hohe Stromaufnahme für Mobile-Lösungen und die Performance-Chips GF104 und GF114 sind hierfür effektiver. AMD ist diesen Weg gleich von Anfang an gegangen und hat gleich auf eine Umsetzung der letzten HighEnd-Chips RV870/Cypress und RV970/Cayman für das Mobile-Segment verzichtet. So richtig groß ist der Performance-Sprung von GeForce GTX 570M & 580M jedoch nicht - die schon seit Anfang des Jahres erhältliche GeForce GTX 485M auf Basis des GF104-Chips kommt in eine ähnliche Performanceregion, nur die GeForce GTX 580M ist nun noch um ein paar Prozentpunkte schneller.





Technik
max. Taktraten
Desktop-Vergleich





GeForce GTX 580M
GF114 mit 384 Shader-Einheiten, 64 TMUs, 32 ROPs und 256 Bit DDR Speicherinterface
620/1240/1500 MHz
minimal langsamer als GeForce GTX 460 1024MB



GeForce GTX 570M
GF114 mit 336 Shader-Einheiten, 56 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface
575/1150/1500 MHz
minimal langsamer als GeForce GTX 460 SE 768MB



GeForce GTX 560M
GF116 mit 192 Shader-Einheiten, 32 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface
775/1550/1250 MHz
in etwa wie GeForce GTS 450



GeForce GT 555M GDDR5
GF116 mit 96 Shader-Einheiten, 16 TMUs, 16 ROPs und 128 Bit DDR Speicherinterface
753/1506/1569 MHz
grob wie GeForce GT 440 GDDR5



GeForce GT 555M DDR3
GF116 mit 144 Shader-Einheiten, 24 TMUs, 24 ROPs und 192 Bit DDR Speicherinterface
590/1180/900 MHz
grob wie GeForce GT 440 GDDR5



GeForce GT 550M
GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface
740/1480/900 MHz
minimal schneller als GeForce GT 430



GeForce GT 540M
GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface
672/1344/900 MHz
minimal langsamer als GeForce GT 430



GeForce GT 525M
GF118 mit 96 Shader-Einheiten, 16 TMUs, 4 ROPs und 128 Bit DDR Speicherinterface
600/1200/900 MHz
etwas langsamer als GeForce GT 430



GeForce GT 520MX
GF119 mit 48 Shader-Einheiten, 8 TMUs, 4 ROPs und 64 Bit DDR Speicherinterface
900/1800/800 MHz
grob wie GeForce GT 520



GeForce GT 520M
GF119 mit 48 Shader-Einheiten, 8 TMUs, 4 ROPs und 64 Bit DDR Speicherinterface
740/1480/800 MHz
etwas langsamer als GeForce GT 520





Der Haupteffekt der neuen Mobile-Beschleuniger dürfte eher darin liegen, daß das nVidia-Mobileportfolio nun durchgehend GF11x-Grafikchips benutzt, die etwas energieeffizienter als die vorhergehenden GF10x-Grafikchips sind und damit von den Notebook-Hersteller natürlich lieber verwendet werden. Im Vergleich mit AMDs aktuellem Mobile-Portfolio läßt sich nunmehr von einem groben Gleichstand sprechen - die GeForce GTX 580M erscheint zwar minimal potenter als die Radeon HD 6970M, diese geringe Differenz zwischen diesen Mobile-Beschleunigern kann sich aber durch die bei einzelnen Notebooks immer mal wieder abweichenden Grafikchip-Taktraten problemlos auch ins Gegenteil verkehren. Wirklich interessant sind die schnelleren Mobile-Beschleuniger sowieso nicht, weil jene üblicherweise nur in arg teuren Notebooks verbaut und damit wenig effektiv in Bezug auf die gebotene Gaming-Performance zum angesetzten Preis sind - im Desktop-Bereich würde schließlich niemand 1500 Euro und mehr auf den Tisch legen, um dann mit der Gaming-Power einer GeForce GTX 460 dazustehen.

Golem berichten über eine erste Thunderbolt-Verwendung für eine externe Grafiklösung in einem neuen Business-Notebook von Sony. Das ganze zeigt auch ein wenig an, wohin die Idee externer Grafiklösungen laut den PC- und Notebook-Herstellern immer wieder geht: Nicht in Richtung von mehr Power durch den Einsatz der deutlich potenteren Desktop-Beschleuniger und auch nicht in Richtung einer austauschbaren und damit durch den Anwender selber aufrüstbaren Grafiklösung, sondern allein in Richtung der Auslagerung der Mobile-Grafik aus dem Notebook selber. Der einzige echte Vorteil liegt hierbei in der Gewichtsreduktion (sofern man nur das Notebook durch die Gegend schleppt) - die Grafiklösung liegt halt in einer eigenen Dockingstation und nicht mehr im Notebook selber. Austauschbar ist diese jedoch (weitestgehend) nicht und es wird auch weiterhin nur eine Mobile-Lösung verbaut, obwohl man wenigstens diesen Punkt in einem externen Gehäuse eigentlich besser (durch eine Desktop-Grafikkarte) lösen könnte.

Damit ist die Performance dann natürlich auf die beschränkte Leistungsfähigkeit der Mobile-Beschleuniger von AMD (Liste) und nVidia (Liste vorstehend) limitiert, womit kein großer Staat zu machen ist. Der Verbau einer Desktop-Grafikkarte in einem externen Gehäuse würde aber wohl Sony diesbezüglich nicht in die Karten spielen, als damit der Anwender dann unabhängig von Sony werden würde und im Zweifelsfall selbsttätig auf mehr GPU-Power umrüsten könnte. Wenn man - wie eigentlich alle Notebook-Hersteller - auch weiterhin teures Zubehör verkaufen will, ist dies natürlich aus Unternehmenssicht keine sinnvolle Entscheidung. Hier passt auch hinein, daß beispielsweise nVidias Optimus-Technologie, mittels welcher man theoretisch selbsttätig ein System mit externer Grafikkarte aufbauen könnte, eine externe PCI-Express-Anbindung nur mit einer einzigen PCI Express Lane akzeptiert (bei zwei oder mehr PCI Express Lanes wird Optimus abgeschaltet). Diese künstliche Beschränkung hat dabei exakt den Zweck, kostengünstige Lösungen von externen Grafikkarten zu verhindern - mit einer schwachen PCI-Express-Bandbreite lohnt sich dies einfach nicht.

Der Effekt für nVidia ist dabei schlicht der, daß bei einem Aufkommen von starken externen Grafiklösungen auf Basis von Desktop-Beschleunigern das Geschäft mit den deutlich teureren Mobile-Beschleunigern langfristig zusammenbrechen würde. Wir hatten zwar schon lange vermutet, daß die Hersteller nicht einfach nur unbewußt das Thema externer Grafikklösungen auf Basis von Desktop-Beschleunigern mißachten, sondern das dieses Thema ganz bewußt kleingehalten und blockiert wird - hierdurch ergibt sich nun die Bestätigung dieser Vermutung. Ob sich diese Blockade irgendwann einmal auflösen läßt, bleibt derzeit zu bezweifeln - denn ganz abseits vom Bandbreitenproblem sieht es so aus, als daß für das Zusammenwirken von interner und externer Grafik immer der Grafikkarten-Treiber der externen Grafik mitspielen muß. Man ist also zwingend auf den guten Willen von AMD und nVidia angewiesen - und vorstehende Ausführungen zur bewußten Limitierung von Optimus zeigen auf, daß man damit derzeit nicht rechnen sollte.

Laut der ComputerBase waren auf der AMD-Webseite (offenbar nur kurzzeitig) die Daten der Llano-Desktopmodelle zu sehen, obwohl diese noch gar nicht offiziell vorgestellt sind. Dabei ergab sich mit dem A6-3500 ein bisher unbekanntes Modell, welches mit drei Rechenkernen auf 2.1 GHz und einem TurboCore-Takt von 2.4 GHz antreten soll - im Endeffekt also ein A6-3600 mit einem abgeschalteten Rechenkern. Ob dieser vielleicht freischaltbar ist, wird man sehen müssen. Generell betrachtet sind die kleineren Llano-Modelle aber doch (bis auf spezielle Anforderungen) eher uninteressant, da Llano schon seine größten Modelle braucht, um bezüglich der CPU-Performance Intel halbwegs hinterherhecheln zu können - die kleineren Llano-Modelle dürften dann von der CPU-Power so weit weg vom Schuß liegen, daß sich über diese Prozessoren kein größeres Nachdenken lohnt.




 
Technik
integrierte Grafik
TDP
Preis





A8-3850
4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.9 GHz (kein TurboCore), bis DDR3/1866, Sockel FM1
Radeon HD 6550D mit 400 Shader-Einheiten, 20 TMUs und 8 ROPs @ 600 MHz
100W
135$



A8-3800
4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.4 GHz (TurboCore max. 2.7 GHz), bis DDR3/1866, Sockel FM1
Radeon HD 6550D mit 400 Shader-Einheiten, 20 TMUs und 8 ROPs @ 600 MHz
65W
 



A6-3650
4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.6 GHz (kein TurboCore), bis DDR3/1866, Sockel FM1
Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz
100W
110$



A6-3600
4 Rechenkerne, 4 MB Level2-Cache insgesamt, 2.1 GHz (TurboCore max. 2.4 GHz), bis DDR3/1866, Sockel FM1
Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz
65W
 



A6-3500
3 Rechenkerne, 3 MB Level2-Cache insgesamt, 2.1 GHz (TurboCore max. 2.4 GHz), bis DDR3/1866, Sockel FM1
Radeon HD 6530D mit 320 Shader-Einheiten, 16 TMUs und 8 ROPs @ 443 MHz
65W
 



A4-3400
2 Rechenkerne, 1 MB Level2-Cache insgesamt, 2.7 GHz (kein TurboCore), bis DDR3/1600, Sockel FM1
Radeon HD 6410D mit 160 Shader-Einheiten, 8 TMUs und 4 ROPs @ 600 MHz
65W
 



E2-3200
2 Rechenkerne, 1 MB Level2-Cache insgesamt, 2.4 GHz (kein TurboCore), bis DDR3/1600, Sockel FM1
Radeon HD 6370D mit 160 Shader-Einheiten, 8 TMUs und 4 ROPs @ 443 MHz
65W
 



E2-450
2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.65 GHz (kein TurboCore), bis DDR3/1333, Sockel FT1
Radeon HD 6320 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 508 MHz (TurboCore max. 600 MHz)
18W
 



E2-350D
2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.6 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1
Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 492 MHz
22W
 



E2-300
2 Rechenkerne, 1 MB Level2-Cache insgesamt, 1.3 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1
Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 488 MHz
18W
 



E2-240
1 Rechenkern, 512 kByte Level2-Cache insgesamt, 1.5 GHz (kein TurboCore), bis DDR3/1066, Sockel FT1
Radeon HD 6310 mit 80 Shader-Einheiten, 4 TMUs und 4 ROPs @ 500 MHz
18W