28

AMD bereitet die Radeon R7 370X als Ersatz der Radeon R9 270X vor

Beim chinesischen Expreview (inzwischen nur noch im Google-Cache zu finden) hat man mittels eines GPU-Z-Screenshots erste Daten zu einer "Radeon R9 370X" auf Basis des Pitcairn-Chips zu bieten – sozusagen dem Pitcairn-Vollausbau innerhalb der Radeon-R300-Serie. Nach diesen Daten erscheint es so, als wolle AMD mit dieser Karte die bisherige Radeon R9 270X glatt kopieren – die Hardware-Daten und der Takt sind derselbe, zumindest bei dem von Expreview gezeigte Herstellerexemplar mit ≤1180/2800 MHz. Dies ist deutlich oberhalb des üblichen Taktraten-Niveaus der Radeon R9 270X (≤1050/2800 MHz), könnte aber eben wie gesagt auch an diesem einzelnen Herstellerexemplar liegen. Technisch besteht damit allerdings durchaus die Chance, daß die Radeon R9 370X per default nicht auf ≤1050 MHz Chiptakt daherkommt, sondern von AMD etwas höher angesetzt wird – langsamer als die Radeon R9 270X wird es dagegen kaum werden.

Etwas unsicher ist zudem noch die Namenswahl, weil die schon im Markt befindliche Radeon R7 370 eben zur R7-Serie gehört und die kommende 370X dagegen derzeit der R9-Serie zugeschlagen wird. Allerdings kann dies auch noch eine vorläufige Benennung seitens GPU-Z sein, daran sollte man sich nicht aufhalten – wir würden jedenfalls eher darauf tippen, daß AMD die Karte ebenfalls unter dem R7-Siegel laufen läßt. Wie bei der Radeon R7 370 sind bei der Radeon R7 370X dann Speicherbestückungen von 2 oder 4 GB GDDR5-Speicher zu erwarten (aber derzeit noch nicht bestätigt). Preislich sollte sich die neue Karte eigentlich bei denselben 160-180 Euro einordnen, zu denen das Vorgängermodell derzeit zu haben ist. Ob die Radeon R7 370X vom Start weg diesen Preispunkt erreicht, bliebe allerdings abzuwarten – neue Karten (insbesondere Rebrandings) haben immer etwas die Tendenz, leicht zu teuer in den Markt zu kommen.

Radeon R9 270X Radeon R7 370 Radeon R7 370X GeForce GTX 950
Chipbasis AMD Pitcairn, 2,8 Mrd. Transistoren in 28nm auf 212mm² Chipfläche nVidia GM206, 2,94 Mrd. Transistoren in 28nm auf 227mm² Chipfläche
Architektur GCN 1.0, DirectX 11.2a (DX12 in Software) Maxwell 2, DirectX 12.1
Technik 2 Raster Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 256 Bit DDR Interface angeblich 2 Raster Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface angeblich 2 Raster-Engines, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit DDR Interface
Taktraten ≤975/2800 MHz ≤1080/2800 MHz angeblich ≤1050/2800 MHz bis zu maximal ≤1180/2800 MHz angeblich 1150/1350/3300 MHz
Speicherausbau 2 GB GDDR5
(4 GB gegen Aufpreis)
2 GB GDDR5
(4 GB gegen Aufpreis)
angeblich 2 GB GDDR5 angeblich 2 GB GDDR5
TDP 180W 110W ? angeblich 90W
3DC Perf.Index 290% 250% geschätzt 290-310% geschätzt 260-280%
Straßenpreis 145-165 Euro
(4GB +30€)
160-180 Euro
(4GB +45€)
vermutlich ~170 Euro vermutlich ~160 Euro

Sofern AMD die Radeon R7 370X perfekt in die Mitte zwischen Radeon R7 370 (Perf.Index 250%) und Radeon R9 380 (Perf.Index 350%) legen wollte, wäre im übrigen eine Performance und damit Taktrate minimal oberhalb der Radeon R9 270X angeraten, somit würde die Radeon R7 370X einen Performance-Index von 300% erreichen. In jedem Fall sollte die Radeon R7 370X leicht oberhalb der GeForce GTX 950 herauskommen – deren Performance-Profil allerdings natürlich auch noch nicht sicher festzulegen ist. Hier sieht man dann auch den Grund, wieso AMD nicht gleich beim Launch der Radeon R300 Serie eine solche Radeon R7 370X herausgebracht hat: nVidia sollte unbedingt zuerst herauskommen – damit AMD später zielgenau kontern kann, sprich das letzte Wort in diesem Duell hat. Zusätzlich gewürzt wurde diese Situation durch den Punkt, daß nVidia in diesem Preisbereich oberhalb von 150 Euro zuletzt immer nur noch die inzwischen altehrwürdige GeForce GTX 660 stehen hatte, ergo nunmehr wirklich handeln musste.

Terminlich ist zwar noch nichts fest, aber aufgrund dieser vorliegenden Information kann man davon ausgehen, daß die Radeon R7 370X in absehbarer Zeit herauskommt. Der Launch der GeForce GTX 950 soll am 17. August stattfinden, die Radeon R7 370X könnte dann kurz darauf – Ende August bis maximal Anfang September – an den Start gehen. Dann wird das eigentlich volumenstarke Segment der Grafikkarten zwischen 150 und 180 Euro endlich auch mit neuen Grafikkarten bestückt werden, selbst wenn es seitens AMD wieder nur Rebrandings basierend auf einem inzwischen mehr als drei Jahre alten Grafikchip gibt. Am Ende zählt aber gerade in diesem Preissegment nur die gebotene Performance und der dafür abverlangte Preis – womit jeder der beiden Grafkchip-Entwickler seine faire Chance bekommen wird.

28

Transistorenanzahl, Chipfläche und Packdichte früherer Spitzen-Grafikchips von AMD & nVidia

Im Zuge der Diskussion, wieviel Hardware nVidia in die angeblich 17 Milliarden Transistoren des GP100-Chips hineinstecken kann und was AMD hier gegenüber bei deren Arctic-Islands-Generation bieten wird, ist ein Blick zurück zu früheren Spitzen-Grafikchips von AMD und nVidia eventuell ganz nützlich. Natürlich gibt es hierbei jeweils größere Sprünge beim Erreichen eines neuen Fertigungsverfahrens – und schaut man ganz weit zurück, dann fällt auch auf, daß die Spitzen-Grafikchips von vor einer Dekade (und älter) keineswegs auf Größenordnung von 500-600mm² Chipfläche kamen. Ob man seinerzeit noch nicht so große Chips (wirtschaftlich) herstellen konnte oder ob es schlicht keine Notwendigkeit zu diesen gab, ist im Nachhinein leider eher schwer zu erruieren:

Grafikchip Fertigung Transistoren Chipfläche Packdichte Spitzenprodukt
Pascal GP100 (Sommer 2016) 16nm 17 Mrd. ? ? ?
GeForce 900 GM200 (März 2015) 28nm 8 Mrd. 601mm² 13,31 MTr/mm² GeForce GTX Titan X
GeForce 600/700 GK110 (Febr. 2013) 28nm 7080 Mill. 551mm² 12,85 MTr/mm² GeForce GTX 780 Ti
GeForce 400 GF100 (März 2010) 40nm 3040 Mill. 526mm² 5,78 MTr/mm² GeForce GTX 480
GT200b (Dez. 2008) 55nm 1400 Mill. 470mm² 2,98 MTr/mm² GeForce GTX 285
GeForce 200 GT200 (Juni 2008) 65nm 1400 Mill. 576mm² 2,43 MTr/mm² GeForce GTX 280
GeForce 9 G92 (Okt. 2007) 65nm 754 Mill. 324mm² 2,33 MTr/mm² GeForce 9800 GTX
GeForce 8 G80 (Nov. 2006) 90nm 681 Mill. 484mm² 1,41 MTr/mm² GeForce 8800 Ultra
G71 (März 2006) 90nm 278 Mill. 196mm² 1,42 MTr/mm² GeForce 7900 GTX
GeForce 7 G70 (Juni 2005) 110nm 303 Mill. 333mm² 0,91 MTr/mm² GeForce 7800 GTX
GeForce 6 NV40 (April 2004) 130nm 222 Mill. 305mm² 0,73 MTr/mm² GeForce 6800 Ultra
GeForce FX NV30 (Jan. 2003) 130nm 125 Mill. ? ? GeForce FX 5800 Ultra

Jene Trennlinie befindet sich bei beiden Grafikchip-Entwicklern bei den ersten DirectX-10-Grafikchips nVidia G80 und ATI R600 aus den Jahren 2006/2007. Davor haben beide Grafikchip-Entwickler ihre jeweils größten Grafikchips nur in Größenordnungen von 280-330mm² Chipfläche herausgebracht – doch danach brach die Zeit der Grafikchips oberhalb von 400mm² an. Bei nVidia wurde ab dem G80-Chip faktisch nichts mehr kleiner als 484mm² (die Ausnahme beim GT200b bestätigt wegen der dort nur genutzten 55nm-Fertigung bei ansonsten unverändertem Grafikchip die Regel), während AMD zuerst auch mit 408mm² beim R600-Chip anfing, dann jedoch nochmals einige mittelgroße Grafikchips auflegte, bis in der 28nm-Generation die Chipfläche dann doch noch auf satte 596mm² beim Fiji-Chip gesteigert wurde.

Grafikchip Fertigung Transistoren Chipfläche Packdichte Spitzenprodukt
Radeon R300 Fiji (Juni 2015) 28nm 8,9 Mrd. 596mm² 14,93 MTr/mm² Radeon R9 Fury X
Radeon R200 Hawaii (Okt. 2013) 28nm 6,2 Mrd. 438mm² 14,16 MTr/mm² Radeon R9 290X
Radeon HD 7000 Tahiti (Dez. 2011) 28nm 4312 Mill. 352mm² 12,25 MTr/mm² Radeon HD 7970 "GHz Edition"
Radeon HD 6000 Cayman (Dez. 2010) 40nm 2640 Mill. 389mm² 6,79 MTr/mm² Radeon HD 6970
Radeon HD 5000 Cypress (Sep. 2009) 40nm 2154 Mill. 334mm² 6,45 MTr/mm² Radeon HD 5870
Radeon HD 4000 RV770 (Juni 2008) 55nm 956 Mill. 256mm² 3,73 MTr/mm² Radeon HD 4870
Radeon HD 3000 RV670 (Nov. 2007) 55nm 666 Mill. 192mm² 3,47 MTr/mm² Radeon HD 3870
Radeon HD 2000 R600 (Mai 2007) 80nm 720 Mill. 408mm² 1,76 MTr/mm² Radeon HD 2900 XT
Radeon X1900 R580 (Jan. 2006) 90nm 384 Mill. 352mm² 1,09 MTr/mm² Radeon X1900 XTX
Radeon X1800 R520 (Okt. 2005) 90nm 321 Mill. 288mm² 1,11 MTr/mm² Radeon X1800 XT-PE
Radeon X800 R420 (Juni 2004) 130nm 160 Mill. 281mm² 0,57 MTr/mm² Radeon X800 XT PE
Radeon 9000 R300 (Aug. 2002) 150nm 107 Mill. 218mm² 0,49 MTr/mm² Radeon 9700 Pro

Bezüglich der reinen Packdichten sind natürlich zuerst die großen Sprünge anhand neuer Fertigungsverfahren augenscheinlich – und dennoch, sobald beide Grafikchip-Entwickler mal wirklich neue Grafikchips unter derselben Fertigung aufgelegt haben, ist immer auch die Packdichte trotz identischer Fertiung nach oben gegangen: Bei nVidia kürzlich zwischen GK110 und GM200 um +3,6%, oder auch früher zwischen G92 und GT200 um +4,3%. Bei AMD waren es kürzlich zwischen Fiji und Hawaii um +5,4%, zwischen Fiji und Tahiti sind es sogar sehr starke +21,9% (bei allerdings deutlich differierender Chipgröße). Die früheren Sprünge bei AMD deuten dann darauf hin, daß letztgenannter Wert eine klare Ausnahme darstellt und daß 3-5% der Normalzustand sind, welchen man im Zuge einer regulären Chipentwicklung herausholen kann. Einen ähnlichen Wert könnte nVidia also durchaus beim kommenden GP100-Chip herausholen – zusätzlich zum regulären Packdichten-Vorteil von TSMCs 16FF+ Fertigung vom Faktor 2.

27

Hardware- und Nachrichten-Links des 27. Juli 2015

Als Folge der kürzlichen Meldung über (angeblich) 17 Milliarden Transistoren bei nVidias GP100-Chip der Pascal-Architektur wird in unserem Forum intensiv darüber diskutiert, was man in diese große Transistorenanzahl alles packen könnte bzw. ob jene überhaupt realistisch ist. In der Tat kommt eine Modellrechnung mit der bekannt um den Faktor 2 verbesserten Packdichte von TSMCs 16FF+ Fertigung auf eine Chipfläche von eher ~640mm² für den GP100-Chip – was eigentlich als (minimal) zu groß gilt, um überhaupt noch sinnvoll hergestellt werden zu können. Andererseits könnte nVidia natürlich noch weitere kleine Fortschritte in der designspezifischen Packdichte erzielen und so das endgültige GP100-Design wieder auf die bekannten ~600mm² drücken, eventuell sind ja auch jene bis zu 640mm² doch noch irgendwie herstellbar. Dennoch drohen auch noch andere Probleme, welche an der für mehr Shader-Einheiten nutzbaren Transistoren-Anzahl zehren werden: Nach dem reinen Gamer-Chip GM200 wird nVidia beim GP100 wieder alle für das professionelle Segment notwendigen Features bieten müssen, darunter vor allem eine hohe DoublePrecision-Power.

Beim GM200-Chip hat man sich dies zugunsten der reinen Anzahl der Shader-Einheiten gespart, beim GP100 kommt dieses Feature-Set nun wieder hinzu – und begrenzt damit auch die Anzahl der Shader-Einheiten etwas, zumindest funktioniert eine pure Hochrechnung ausgehend von der um den Faktor 2,2 höheren Transistoren-Anzahl nun nicht mehr. Eine glatte Verdopplung der Anzahl der Shader-Einheiten auf 6144 Stück beim GP100 wäre also nur das alleroberste Ende der Möglichkeiten – und keinesfalls die wahrscheinlichste Auflösung. Eher anzunehmen wäre irgendetwas zwischen 5000 und 5500 Shader-Einheiten – was zusammen mit vielleicht auch etwas mehr Taktrate und der viel höheren Speicherbandbreite des HBM-Speichers trotzdem für einen Performance-Boost um knapp den Faktor 2 im Gaming-Bereich sorgen könnte. Dies gilt allerdings nur für den voll ausgefahrenen GP100-Chip – und zu vermuten ist natürlich, daß nVidia jenen anfänglich überhaupt nicht voll ausfährt, weil erst einmal die Produktionsausbeute niedrig sein wird und das Fertigungsverfahren noch nicht ausoptimiert genug ist, um die allerhöchsten Taktraten zu erreichen. Einen gehörigen Performance-Sprung gegenüber den aktuellen 28nm-Chips wird es jedoch in jedem Fall geben, dafür sorgt allein der sehr deutliche Unterschied zwischen 28nm und 16FF+.

Laut WinFuture empfiehlt Microsoft höchstselbst seinen Unternehmenskunden, erst im Herbst auf Windows 10 umzusteigen – konkret nach dem für den Herbst 2015 geplanten ersten größeren Update, welches Microsoft-intern "Threshold Wave 2" genannt wird ("Threshold" ist der Codename von Windows 10 selber). Da von diesem ersten größeren Update aufgrund der Kürze der Zeit nach dem schon am mittwöchlichen 29. Juli anstehenden Release von Windows 10 kaum größere inhaltliche Änderungen zu erwarten sind, dürfte sich jenes Herbst-Update in erster Linie der Fehlerbereinigung und Systemstabilität widmen. Was dann im Umkehrschluß durchaus auch für Normalanwender die Frage aufwirft, ob man nicht lieber auf dieses Herbst-Update warten sollte: Microsoft hat sogar bis zuletzt an inhaltlichen Änderungen und diversen Feinheiten gearbeitet, empfiehlt seinen Unternehmenskunden offiziell das Abwarten – und am Ende läuft die Kostenlos-Umstiegs-Aktion ein ganzes Jahr ab Release, könnte man diesen Schritt schließlich auch noch im ersten Halbjahr 2016 gehen. Die Gaming-Enthusiasten werden natürlich auf die Vorteile von DirectX 12 scharf sein und demzufolge Windows 10 kaum abwarten können – aber für Produktivsysteme kann man ruhig bleiben und auf anderen Maschinen erst einmal ein wenig Windows-10-Erfahrung sammeln.

Die PC Games Hardware zeigt den neuesten "Beweis" für das kommende "Ende des PCs" – eine Grafik zu Stückzahlenabsätzen, nach welcher iOS-Geräte inzwischen genauso häufig wie Windows-Geräte verkauft werden, mit zudem klar steigender Tendenz zugunsten von iOS. Was vor einigen Jahren noch wenigstens lustig war, geht nun eher in Richtung "peinlich", wenn sich erklärte Marktexperten zu solcherart Äpfel-zu-Birnen-Vergleichen hinreißen lassen. Schließlich handelt es sich bei dem einen um ein Betriebsystem für Smartphones und Tablets, bei dem anderen um ein Betriebssystem für Desktop-PCs und Notebook mit bislang eher geringem Anklag im Smartphone/Tablet-Segment. Insbesondere da Smartphones mittlerweile um den Faktor 3 häufiger verkauft werden als PCs (zusammen mit Tablets um den Faktor 4), verbietet sich eigentlich jeder Vergleich anhand absoluter Zahlen – das wäre wie wenn man Antilopen und Tiger schlicht anhand ihrer Anzahl vergleicht. Die hohen Verkaufszahlen von iOS und Android im Smartphone/Tablet-Segment haben bislang wenig an der Bedeutung von Windows für den PC gerüttelt – die inzwischen erreichten Nutzungsmöglichkeiten von Smartphones & Tablets haben zwar dem PC insgesamt zugesetzt, aber dies war und ist keine Frage des Betriebssystems.

Die PC Games Hardware berichtet über die Aussage eines Spieleentwicklers zu einem ungefähren Hardware-Gleichstand der aktuellen Spielekonsolen – weil die bekannt stärkere Grafikeinheit der Playstation 4 durch eine stärkere CPU auf der Xbox One ausgeglichen werden soll. Ob dies wirklich derart funktioniert, sei allerdings bezweifelt: Die Differenz beim Grafikchip ist schon ziemlich heftig, da sprechen 50% mehr Rechenleistung und 100% mehr nomineller Speicherbandbreite (ohne Berücksichtigung des eDRAMs) sehr deutlich für Sonys Ansatz. Dies mit der etwas höheren CPU-Leistung der Xbox One ausgleichen zu wollen, erscheint ein wenig vermessen – immerhin gibt es auf Basis derselben CPU-Architektur nur etwas mehr CPU-Takt (1.75 GHz anstatt 1.6 GHz) und Microsoft erlaubt mittlerweile die Nutzung von maximal sieben anstatt nur sechs CPU-Kernen für Spieleentwickler. Hieraus ergibt sich ein nomineller CPU-Unterschied von 28% – was im Sinne einer CPU nicht wahnwitzig viel ist, da jene (beispielsweise im Sinne der Minimum-Frameraten) sowieso kaum vollständig ausgelastet werden darf. Zudem läßt sich eine höhere CPU-Performance nicht in höhere Auflösungen umwandeln, wie dies dagegen bei der höheren GPU-Performance der PS4 möglich ist. Wenn man es auf einen Wert herunterbrechen muß, liegt hardwaretechnisch tatsächlich die PS4 vorn – was durch die vielen Fälle, wo die Sony-Konsole die höheren Auflösungen gegenüber der Xbox One bietet, auch aus der Praxis bestätigt wird.

27

nVidia legt der GeForce-900-Serie "Metal Gear Solid V" bei

Grafikchip-Entwickler nVidia hat Ende letzter Woche ein neues Spielebundle für die GeForce-900-Serie aufgelegt, welches die drei früheren Spielebundles unter Beteiligung von GeForce-900-Karten ersetzt, die GeForce GTX Titan X allerdings erneut spezifizisch ausschließt. Somit erhalten nur Käufer von GeForce GTX 960, 970, 980 & 980 Ti sowie von Notebooks mit GeForce GTX 970M & 980M bei teilnehmenden Händlern eine Lizenz für das allerdings erst am 15. September herauskommende "Metal Gear Solid V: The Phantom Pain". Alle früheren nVidia-Spielebundle sind dagegen inzwischen offensichtlich ausgelaufen – allerdings ist die Gutschein-Einlösung für diese alten nVidia-Bundles nach wie vor noch möglich. Im Gegensatz dazu wird AMDs letztes Never-Settle-Spielebundle inzwischen sowohl nicht mehr angeboten als auch ist eine Gutschein-Einlösung hierfür nicht mehr möglich. Auffallend ist etwas, daß AMDs eigentlich sehr beliebte (und klar besser bewertete) Spielebundle inzwischen keine Nachfolger mehr gefunden haben, während nVidia weiterhin an dieser Marketingaktion festhält.

Wie üblich bei Spielebundle-Aktionen gilt auch hier, daß den genannten nVidia-Grafikkarten – gekauft bei einem an der Aktion teilnehmenden Händler – entsprechende Coupons beiliegen, welche auf einer speziellen nVidia-Webseite dann in Download-Codes eingelöst werden können. Die neue Spielebundle-Aktion von nVidia läuft nach bisherigem Kenntnisstand bis zum 1. September 2015 (oder bis die von nVidia eingekauften Spiellizenzen aufgebraucht sind). Bei der Bestellung ist auf das Vorhandensein eines entsprechenden nVidia-Coupons in der Angebotsbeschreibung zu kontrollieren, da nicht jeder Händler an dieser Aktion teilnimmt und selbst bei den teilnehmenden Händler nicht jedes Produktangebot Teil dieser Aktion sein muß.

Inhalt des Spielebundles
GeForce GTX 660 bis 690 & Titan
GeForce GTX 760 bis 780 Ti
ab Aktionsstart 12. März 2014: Spiel "Daylight"  (Einlöse-Webseite)
GeForce GTX 660 bis 690
GeForce GTX 760 bis Titan Black
ab Aktionsstart 29. April 2014: Spiel "Watch Dogs"  (Einlöse-Webseite)
GeForce GTX 770 bis Titan Black ab Aktionsstart 13. August 2014: Spiel "Borderlands: The Pre-Sequel"  (Einlöse-Webseite)
GeForce GTX 780 & 780 Ti
GeForce GTX 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 4. November 2014: "Pick your Path" Spielebundle mit einem von drei Ubisoft-Spielen: "Assassin’s Creed: Unity", "Far Cry 4" oder "The Crew"  (Einlöse-Webseite)
GeForce GTX 960, 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 10. März 2015: Spiel "The Witcher 3: Wild Hunt"  (Einlöse-Webseite)
GeForce GTX 970 & 980 ab Aktionsstart 5. Mai 2015: Spiele "The Witcher 3: Wild Hunt" und "Batman: Arkham Knight"  (Einlöse-Webseite)
GeForce GTX Titan X für jegliche verkaufte Karte (keine Coupons etc. notwendig): Spiel "The Witcher 3: Wild Hunt"  (Einlöse-Webseite)
GeForce GTX 960, 970, 980 & 980 Ti
GeForce GTX 970M & 980M
ab Aktionsstart 23. Juli 2015: Spiel "Metal Gear Solid V: The Phantom Pain"  (Einlöse-Webseite)
26

Hardware- und Nachrichten-Links des 25./26. Juli 2015

Etwas einschränkend zu den kürzlich genannten guten Overclocking-Ergebnissen von Skylake muß ergänzt werden, daß die gemeldeten luftgekühlten 5.2 GHz nicht wirklich stabil waren – Stabilität wurde in diesem Overclocking-Versuch erst auf 5.0 GHz Takt unter gleichzeitiger Deaktivierung von HyperThreading erreicht. Wirklich beeindruckend ist das dann auch nicht mehr – so daß sich in der Skylake-Diskussion in unserem Forum schon eine gewisse Enttäuschung über die Skylake-Architektur niederschlägt: Immer noch kein echter Taktraten-Gewinn durch die 14nm-Fertigung, laut den letzten Tests auch keine wirklich überzeugende IPC-Steigerung – eine "neue Architektur" hat bei Intel früher durchaus einmal anders ausgesehen. Andererseits steht für viele Nutzer älterer PC-Systeme endlich einmal wieder eine Aufrüstung an – wofür sich im Sinne des neuen Sockels 1151 und der neuen Mainboard-Plattform die kommende Skylake-Architektur eben stark anbietet.

Für jene Nutzer älterer PC-Systeme ist eine mittelprächtige IPC-Steigerung zwischen Haswell und Skylake dann auch kein Beinbruch, da zurückgerechnet auf Nehalem oder Sandy Bridge dennoch gute Steigerungen herauskommen: Angenommen eine 10%ige IPC-Steigerung zwischen Haswell und Skylake, würde Skylake (auf gleichem Takt) grob 45% schneller als Nehalem herauskommen, gegenüber Sandy Bridge wären es noch grob 25% Mehrperformance auf gleichem Takt. Eingerechnet die höheren Taktraten von Skylake könnte die insgesamte Performance sogar grob 75% schneller als Nehalem bzw. grob 40% schneller als Sandy Bridge ausfallen – keine schlechten Zahlen, insbesondere für Nehalem-Besitzer würde sich dieser Wechsel nominell lohnen (je nach Nutzerprofil natürlich). Unter typischem Overclocking dürfte der Performance-Abstand zu Nehalem in etwa gleich bleiben – bei Sandy Bridge jedoch eher geringer ausfallen, da Skylake kein so guter relativer Overclocker wie Sandy Bridge zu werden scheint. Jene Zahlen sind jedoch derzeit eher nur grobe Prognosen, auf welche man nicht all zu viel geben sollte, da es hierzu schon Anfang August echte Zahlen und Benchmarks geben wird.

Weil aber Intels Skylake den wirklich performancedurstigen und umstiegswilligen Anwendern auf schon vorhandenen Systemen mit Ivy-Bridge- oder Haswell-Unterbau bislang wenig Ansatzpunkt für einen sofortigen Umstieg zu geben scheint, gibt es auch genügend Stimmen, die nunmehr eher auf AMDs Zen-Architektur warten wollen. Passend hierzu wird über deren Marktverfügbarkeit spekuliert – viele wollen Zen natürlich eher schon Anfang 2016 sehen, gerade da AMD kürzlich die Tape-Outs mehrerer 14nm-Chips bekanntgegeben hat. Doch unabhängig, daß das erste Zen-Silizium da sicherlich darunter ist (große CPUs samt neuer Architektur benötigen Vorlaufzeiten von deutlich mehr als einem Jahr), existiert eigentlich eine klare AMD-Unterlage, nach welcher mit kaufbaren Zen-Prozessoren erst zum Jahresende 2016 zu rechnen ist. Sofern AMD bereits über den Sommer 2016 erste 14nm-Grafikchips ins Rennen schickt, hängt dies auch weniger an der Reife der 14nm-Fertigung von GlobalFoundries – sondern wohl eher daran, daß das Zen-Design erst jetzt fertig geworden ist, erst jetzt seinen Tape-Out hatte und dann in die für CPUs üblicherweise sehr lange Phase der intensiven Vorserientests, Fehlerbereinigung, weiteren Samplefertigung und letztlich Produktionsvorbereitung geht. Es wäre schön, wenn AMD überhaupt diesen angegebenen Termin halten – vor Ende 2016 wird aber sicherlich nichts bei Zen passieren.

Nebenbei wurde in unserem Forum auch eine erste Testlieferung von AMDs "Stoney Ridge" APU entdeckt: Hierbei handelt es sich um eine Carrizo-Abspeckung, welche aber nicht über Teildeaktivierung des Chips erreicht wird, sondern welche abgespeckt regelrecht in Silizium gegossen wird: Nur 2 anstatt 4 Excavator-Rechenkerne, nur 3 anstatt 8 GCN-Shader-Cluster, nur ein SingleChannel- anstatt eines DualChannel-Speicherinterfaces. AMD wird mittels "Stoney Ridge" seine bisher als extra Architektur ausgeführten LowPower-Prozessoren der "Cats-Serie" (Bobcat, Januar, Puma) komplett ablösen – mit wohl weniger Entwicklungsaufwand, weil man schließlich nur das bestehende Carrizo-Design erneut melkt. Interessant ist, daß die gelieferten Stoney-Ridge-Mainboards teilweise auch DDR3 beherrschen sollen – bislang wurde "Stoney Ridge" als rein für DDR4-Speicher gedacht beschrieben. In dem Preisbereich, wo "Stoney Ridge" hineingeht, könnte es je nach Entwicklung der Speicherpreise aber notwendig sein, auch auf günstigeren DDR3-Speicher zu setzen – AMD fährt hier also zweigleisig wie auch schon bei Carrizo, welches zwei Speicherinterfaces für DDR3 und für DDR4 trägt (derzeit ist nur das DDR3-Interface aktiv). "Stoney Ridge" wird regulär im Sommer 2016 erwartet – zusammen mit dem Carrizo-Refresh "Bristol Ridge" im gemeinsamen Sockel AM4.

In diesem Zusammenhang ist es natürlich auch diskutabel, wieso AMD die eigentlich immer gut bewertete "Cats-Serie" mittels "Stoney Ridge" auslaufen lassen wird – gerade bei diesen LowPower-Prozessoren war man konkurrenzfähig und es gab auch viele entsprechende Notebooks, am Ende basieren sogar die Konsolen-SoCs von XBox One und Playstation 4 auf diesen CPU-Architekturen. Dafür gibt es neben der extra notwendigen Architektur-Entwicklung für die Cats-Serie jedoch handfeste Gründe: Die damit erzielbaren CPU-Preise machen die extra Entwicklung wenig lukrativ – und kürzlich kam AMD auf diesem Geschäftsfeld durch Intels neue 14nm Braswell-Prozessoren stärker unter Druck, weil sich jene gut passiv kühlen lassen (was niedrigere Gesamtkosten für die PC-Hersteller und damit einen hohen Wettbewerbsvorteil für Intel ergibt). Leider stand die Cats-Serie mit ihren TDPs von 10 bis 25 Watt gerade zuletzt immer mehr im Niemandland: Für einen echten LowPower-Ansatz im Jahr 2015 sind dies zu hohe TPDs – die Leistungsfähigkeit konnte sich aber nicht mit auf 15 Watt TDP heruntergebrochenen Notebook-Prozessoren (Intels U-Serien) messen.

Hier liegt wohl der Hauptgrund dafür, daß AMD von diesem Modell einer extra LowPower-Architektur abgeht und zukünftig dieses Segment mit Abwandlungen seiner normalen Mainstream-APUs bedienen wird: Jene normalen Mainstream-APUs müssen heutzutage schon gut im 15-Watt-Segment funktionieren, werden gerade wie bei Carrizo zu sehen inzwischen auch von AMD explizit auf diese Anforderung hin optimiert. Eine extra LowPower-Architektur (im Sinne einer eigenen Architektur) für dieselbe TDP-Klasse lohnt da überhaupt nicht mehr, gerade wenn jene am Ende nur die gleiche oder gar weniger Performance bietet. Etwas schade ist es, daß AMD über die Cats-Serie nicht Ausflüge ins Feld der Tablet-SoCs unternimmt – mit der 14nm-Fertigung müsste sich der Stromverbrauch von Beema bzw. Carrizo-L eigentlich in einen dafür passenden Bereich drücken lassen. Doch AMD steht momentan derart mit dem Rücken an die Wand, daß alles abgesägt wird, was nicht direkt Geld bringt oder aber durch andere Entwicklungen irgendwie ersetzbar ist – wie nunmehr bei der eigentlich erfolgreichen und beliebten Cats-Serie zu sehen.

26 26

Welches PC-Betriebssystem ist im Einsatz?

Diese Umfrage soll vor dem offiziellen Launch von Windows 10 feststellen, wie die Betriebssystem-Verteilung im 3DCenter liegt. Da dies eine gerätespezifische und keine nutzerspezifische Fragestellung ist, kann natürlich von mehreren PC-Geräten (Desktop-PC, Notebook, Zweit- und Drittgeräte) jeweils extra abgestimmt werden. Als Nebenfrage ist angesetzt, ob die Absicht für einen Wechsel zu Windows 10 in absehbarer Zeit existiert.

Inhalt abgleichen