12

Die Grafikkarten-Performance unter Battlefield Hardline

Mittels entsprechender Berichte von HT4U, der PC Games Hardware, von HardOCP und dem TechSpot liegen nunmehr gleich vier Quellen zur Grafikkarten-Performance unter Battlefield Hardline vor, welche wir nachfolgend auswerten wollen. Das Spiel auf Basis der Frostbite-Engine bedingt DirectX 11 und bietet die von Battlefield 4 her gewohnte weitgehend hervorragende Grafikqualität. Die nachfolgende Übersichtstabelle bietet dann einen Schnitt der gemessenen Performance bei HT4U (SinglePlayer, niedrige Frameraten), PCGH (SinglePlayer, hohe Frameraten) und TechSpot (MultiPlayer, hohe Frameraten) an – HardOCP stellt leider keine vollständigen Benchmarks zur Verfügung, womit deren Messungen hierbei nicht eingerechnet werden konnten:

Battlefield Hardline – 1920x1080 MaxQuality 4xMSAA  (Quellen: HT4U, PCGH & TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7850 650Ti-Boost 750Ti
30-39 fps 7870
7870-Boost
7950
7950-Boost
265
270
270X
660
660Ti
760
40-49 fps 7970
7970-GHz
280
285
280X
670
680
770 960
50-59 fps 290 Titan 780
ab 60 fps 290X Titan Black
780Ti
970
980
Titan X

Wie auf den ersten Blick zu sehen, kommt alle moderne Grafik-Hardware unter Battlefield Hardline gut mit – die echten HighEnd-Modelle haben auch regelmäßig noch einige Reserven für Supersampling Anti-Aliasing übrig. Rein fps-technisch kommt nVidia bei den schnelleren Grafikkarten deutlich besser weg: Auf nVidia-Seite knacken immerhin 5 Grafikkarten die 60-fps-Marke, auf AMD-Seite nur eine einzige. Sehr wechselseitig ist dagegen das Ergebnis bei den Frametimes: Laut den Ausführungen der PCGH hat nVidia im Singleplayer-Modus die besseren Frametimes, AMD hingegen im Multiplayer-Modus, besonders unter der Mantle-Schnittstelle. Interessanterweise hat insbesondere die GeForce GTX Titan X als klar schnellste Grafikkarte im Testfeld nahezu durchgehend mit den schlechtesten Frametimes zu kämpfen. Angesichts des klaren Multiplayer-Charakters von Battlefield Hardline kann man diese Frametimes-Messungen durchaus als Pluspunkt zugunsten von AMD werten, trotz der nominell niedrigeren erreichten Frameraten.

Benchmarks unter 2560x1440 kommen zudem von HT4U und dem Techspot, unter 3840x2160 noch von HT4U und der PCGH. Leider weichen die Meßergebnisse gerade unter 3840x2160 dann schon extrem voneinander ab: Bei der PCGH erzielte eine GeForce GTX Titan X noch erstklassige 68,8 fps, bei HT4U waren es dagegen nur arg grenzwertige 27,4 fps – da ist es schwer zu bestimmen, ob sich die Karte noch in einem spielbaren Bereich befindet. Generell betrachtet scheint 2560x1440 mit erstklassiger Hardware noch gut zu schultern, 3840x2160 aber wie gesagt eher grenzwertig bis unspielbar zu laufen. Der TechSpot bietet zudem noch einige CPU-Benchmarks – welche schlicht aussagen, daß das Spiel auch auf modernen Zweikerner von Intel noch völlig problemlos Frameraten Richtung 100 fps erzeugen kann. Bei HardOCP ist man dagegen wie bekannt einem gänzlich anderen Ansatz gefolgt, und hat eher ermittelt, bis zu welcher Auflösung & Setting einzelne Grafikkarten noch spielbare Frameraten auswerfen.

9

Hardware- und Nachrichten-Links des 9. April 2015

WCCF Tech zeigen das angeblich erste Produktbild einer Fiji-basierten Grafikkarte in Form der "XFX Radeon R9 390 Double Dissipation" – welche aller Wahrscheinlichkeit nach eine abgespeckte Variante des Fiji-Chips enthalten wird und wie zu sehen mit normaler Luftkühlung auskommt. Als Stromversorgung dient (neben dem PCI-Express-Slot) ein 6poliger und ein 8poliger Stromstecker, was eine TDP von maximal 300 Watt erlauben dürfte – wobei nicht klar ist, ob diese offensichtliche Hersteller-Variante diesbezüglich nicht etwas mehr bietet als das Referenzmodell von AMD. Andererseits ist der Fiji-Chip oftmals als ziemlich stromdurstig beschrieben worden und eingedenk einer Übertaktungsreserve ist dieser TDP-Spielraum zwischen 225 und 300 Watt selbst bei der "nur" zweitbesten Lösung damit nicht gänzlich überraschend.

Desweiten wurde das Fehlen von CrossFire-Anschlüssen bemerkt, bei Fiji wird sich AMD also vollkommen auf CrossFire per PCI Express verlassen. Ansonsten ist den zwei Fotos nicht viel mehr zu entnehmen – nur deren pure Existenz spricht zudem natürlich dafür, daß der Fiji-Chip nun wirklich auf die Zielgerade einbiegt und Anfang Juni zur Computex vermutlich nicht einfach einen Paperlaunch hinlegen, sondern vielmehr voll verfügbar sein wird. Mit etwas Glück könnte AMD den Launch (angesichts dieser nahezu spruchreifen Herstellerkarte) sogar noch vorziehen – oder aber man ist tatsächlich nur deshalb gezwungen zu warten, weil zwar Fiji-Chip und die kleineren Grafikkarten-Varianten fertig sind, aber die Speicherbestückung von 8 GB HBM1-Speicher bei der Radeon R9 390X WCE eine gewisse zusätzliche Vorbereitungszeit erfordert (und man dieses Spitzenprodukt eben nicht nachträglich launchen will).

Die PC Games Hardware bringt eine Entwickleraussage zum Thema DirectX 12 in Spielen: DICE-Mitarbeiter Johan Andersson möchte gern für alle Spiele mit der DICE-eigenen Frostbite-Engine ab Erscheinungsdatum Herbst 2016 auf DirectX 12 als Minimum setzen, alternativ will man zukünftig die Vulkan-API unterstützen (neben der schon existierenden Mantle-Unterstützung). Dieses Vorhaben hört sich ambitioniert an, allerdings dürfte dahinter kaum die Forderung nach expliziter DirectX-12-Hardware stehen, sondern allein die Forderung nach Hardware, für welche DirectX-12-Treiber existieren – egal, ob jene DirectX 12 dann nur mit "Feature Level 11.0" umsetzen. Relevant für DICE dürften nicht die neuen Hardware-Features von DirectX 12 sein, sondern vielmehr der andere Ansatz der API, respektive die Mantle-artige CPU-Beschleunigung durch DirectX 12. Und wird nur nach Grafikkarten mit DirectX-12-Treiber gefragt, so kommen wesentlich mehr Modelle heraus: Dies wird bei AMD auf alles ab der GCN-Architektur (Radeon HD 7000 Serie) und bei nVidia auf alles ab der Fermi-Architektur (GeForce 400 Serie) zutreffen.

WinFuture berichten über ein Referenz-Notebook der Skylake-Generation seitens Intel – mittels welchem klar wird, in welche Richtung sich Intel die technologische Zukunft im PC-Bereich vorstellt. Das Referenz-Notebook kommt nämlich ohne jede andere Anschlüsse als USB 3.1 (Typ C) daher – es gibt nicht einmal einen regulären Stromanschluß für das Notebook selber, weil auch diese Funktionalität letztlich problemlos (und wie von Smartphones her bekannt) über USB gelöst werden kann. Auch alle anderen Anschlußfunktionalitäten können letztlich über USB 3.1 abgedeckt werden – dies ist größtenteils schon jetzt möglich, aber bei diesem Referenz-Notebook wurde es erstmals in dieser Konsequenz auch bis zum letzten Fall durchgezogen. Ob die PC- und Notebook-Hersteller dies dann wirklich alle so bauen, ist noch eine andere Frage – doch in jedem Fall deutet sich hiermit an, daß USB 3.1 (Typ C) die große, alles umfassende Anschlußform der Zukunft sein wird, alle anderen Protokolle dann darüber laufen werden.

9

GeForce GTX Titan X: Neue Werte bei Stromverbrauch und Performance-Index

Mittels des neuen Testberichts zur GeForce GTX Titan X seitens HT4U können die Stromverbrauchs-Werte der Karte vervollständigt werden, zudem ergeben sich natürlich auch (leicht) abweichende Durchschnittswerte – welche nunmehr auf 13 Watt Idle-Verbrauch bzw. 244 Watt Spiele-Verbrauch bei der GeForce GTX Titan X lauten. Die von HT4U ermittelten 1092 MHz durchschnittlich real anliegender Boost-Takt (gemessen im offenen Gehäuse) entsprechen zudem grob der bisherigen Messung der ComputerBase, welche 1067 MHz durchschnittlich real anliegenden Boost-Takt nach einer Vorwärmphase von 20 Minuten ausgemessen haben.

Hardware.fr Heise HT4U PCGH TechPowerUp Tom's HW Ø Perf./TDP
GeForce GTX Titan X 15W
255W
11,8W
250,0W
18W
242W
11W
223W
9W
224W
13W
244W
720%
250W
GeForce GTX 980 12W
155W
?
173W
11,2W
180,0W
11,5W
160W
8W
156W
15W
185W
12W
174W
570%
165W
GeForce GTX 780 Ti 15W
220W
?
243W
12,9W
260,0W
16W
248W
10W
229W
10W
244W
13W
245W
530%
250W
GeForce GTX Titan Black 13,3W
243,0W
11W
226W
~13W
~230W
500%
250W
GeForce GTX Titan 13W
180W
11,9W
198,1W
13W
214W
10W
208W
11W
233W
12W
206W
480%
250W
Radeon R9 290X (Quiet) 21W
219W
?
266W
20,0W
231,1W
21W
249W
16W
236W
16W
248W
19W
241W
480%
250W
Radeon R9 290X (Uber) 22W
278W
20,0W
306,9W
21W
269W
17W
246W
16W
242W
19W
276W
520%
250W
Der obere Wert einer Zelle ist immer der Idle-Stromverbrauch, der untere Wert einer Zelle immer der Spiele-Stromverbrauch. In der Durchschnitts-Spalte ("Ø") fettgedruckte Werte basieren auf Berechnungen, die nicht fettgedruckte Werte sind Schätzungen. Die letzte Spalte enthält Angaben zum 3DCenter Performance-Index (oben) sowie zur offiziellen TDP (unten).

Eine nochmals veränderte Darstellungsform zur Performance der GeForce GTX Titan X unter einzelnen Auflösungen im Vergleich zu den anderen HighEnd-Grafikkarten ergab sich nach der Diskussion zu einer entsprechenden Meldung. Die unten zu sehende Darstellungsform konzentriert sich auf die relativen Unterschiede der Karten zueinander, insbesondere im Vergleich zwischen den einzelnen Auflösungen. Richtig gut ist hierbei die steigenden Performance-Tendenz der Radeon R9 290X unter höheren Auflösungen zu sehen, genauso auch wie die fallende Performance-Tendenz von GeForce GTX 780 Ti und 980 unter höheren Auflösungen:

Und letztlich ergab sich aus der Diskussion über eine bessere Darstellung zur Performance dieser extrem schnellen und nur noch für sehr hochauflösende Monitore gedachten Grafikkarten wie eben der GeForce GTX Titan X die Idee, zukünftig mit einem weiteren Performance-Index allein für 4K-Bedürfnisse zu arbeiten und dafür den regulären 3DCenter Performance-Index auch für die GeForce GTX Titan X bei der Auflösung von 1920x1080 (FullHD) zu belassen. Sicherlich gäbe es auch andere Möglichkeiten, aber mit diesem zweiten Performance-Index bleibt die grundlegende Zielsetzung des 3DCenter Performance-Index noch am besten erhalten – nämlich in einer Zahl einen gewissen generellen Anhaltswert abzuliefern, ohne deswegen den (unrealistischen) Anspruch auf eine vollständige Performance-Aussage zu haben.

Wer werden zukünftig diesen Weg gehen und alle Grafikkarten mit Eignung für 4K-Gaming mit einem zweiten, auf die 4K-Auflösung ausgerichteten Performance-Index ausstatten. Der reguläre Performance-Index wird sich hingegen wie bisher primär auf die Performance unter FullHD konzentrieren – was dann aber auch bedeutet, daß jener reguläre Performance-Index für die GeForce GTX Titan nunmehr korrigiert werden muß. In der ursprünglichen Launch-Analyse wurde die GeForce GTX Titan X mit einem Performance-Index von "750%" bedacht, was aber einem Mix der Ergebnisse unter 1920x1080, 2560x1440 und 3840x2160 geschuldet war. Nunmehr mit der Konzentration des regulären Performance-Index auf die Resultate unter 1920x1080 muß dieser Wert für die GeForce GTX Titan X auf 720% korrigiert werden.

290X (U) 780Ti 980 Titan X
1920x1080 4xMSAA/FXAA 66,6% 70,6% 80,7% 100%
2560x1440 4xMSAA/FXAA 69,0% 67,7% 76,2% 100%
3840x2160 MSAA/FXAA 69,7% 64,6% 74,6% 100%
3DCenter Performance-Index (FullHD) 520% 530% 570% 720%
3DCenter 4K Performance-Index 70% 65% 75% 100%
Spiele-Stromverbrauch 279W 251W 174W 244W
Straßenpreis 330-370€ ausgelaufen 510-550€ 1110-1150€

Gänzlich neu ist dagegen der "3DCenter 4K Performance-Index", welchen wir für die GeForce GTX Titan X einfach einmal auf 100% festgesetzt haben. Dies hat den Vorteil, daß der optische Unterschied in der Höhe gegenüber dem regulären 3DCenter Performance-Index ausreichend hoch ist, um keinerlei Mißverständnisse zu provozieren. Zudem ermöglicht die niedrige Zahl von 100% für die GeForce GTX Titan X, daß dieser Performance-Index noch lange Zeit benutzt werden kann, ohne in utopisch hohen Zahlen zu enden. Davon abgesehen ist die Spielbarkeit der GeForce GTX Titan X unter der 4K-Auflösung wie bekannt als "grenzwertig" zu betrachten, insofern ist die Karte mit 100% im 4K Performance-Index regelrecht wohlwollend eingeordnet.

8

Hardware- und Nachrichten-Links des 8. April 2015

Die PC Games Hardware & Golem haben Grand Theft Auto V vor dem Release anspielen können und sind bislang begeistert vom Spiel als auch der Grafik und vor allem der Flüssigkeit der Grafik. Die zuletzt genannten offiziellen Systemanforderungen scheinen ergo wohl korrekt zu sein, selbst wenn die Präsentation auf einem HighEnd-System mit GeForce GTX 980 SLI stattfand. Die dabei erreichten Frameraten von zumeist 60 fps unter UltraHD sind ansprechend, mit etwas Tweaking könnte vielleicht auch eine einzelne GeForce GTX Titan X diese Auflösung flüssig meistern. Der Grafikkartenspeicher scheint dabei wohl kein Problem zu werden, laut nochmals der PC Games Hardware kommt man bei humanen Settings unter UltraHD mit 3,5 GB aus – wobei extreme Settings unter UltraHD auch bis zu 5,6 GB Speicherauslastung ergeben können. Für FullHD- und WHQD-Spieler dürfte dies auch auf Grafikkarten mit "nur" 3 GB Speicher wohl keine größeren Probleme ergeben.

Die EETimes bringen eine TSMC-Aussage zur 16FF+ Fertigung von TSMC – welche als Massenfertigung allerdings erst zum Jahresmitte 2015 anlaufen wird. Dies ist dann erheblich hinter Samsungs 14nm-Fertigung zurückliegend, welche bereits seit November 2014 laufen soll. Auch gegenüber GlobalFoundries 14nm-Fertigung, welche eben erst als startend vermeldet wurde, ergibt sich damit nominell ein Rückstand von 2-3 Monaten. Allerdings ist bei GlobalFoundries nicht klar, ob die kürzliche Erfolgsmeldung nur den kleineren 14PLE-Prozeß betrifft, oder auch den größeren 14LPP-Prozeß. Auch wenn der ausgeschriebene Name "14nm Low Power Plus" eher auf einen Fertigungsprozeß für kleinere, wenig Strom ziehende Chips hindeutet, steht 14LPP in GlobalFoundries aktueller Roadmap tatsächlich auch für Chips im Segment "High Performance Computing" an, sprich für große Grafikchips und Prozessoren – während 14LPE ("14nm Low Power Early") in der Tat nur für kleinere Chips mit überschaubarem Strombedarf gedacht ist.

Mal wieder übers Ziel hinausgeschossen ist Microsoft mit der teilweise automatischen Installation eines Werbe- und Downloadprogramms für Windows 10 auf Windows-7/8-Systemen, welches sich dort als "empfohlenes Sicherheitsupdate" tarnt. Das Windows-Update KB3035583 prüft im Hintergrund allein die Verfügbarkeit von Windows 10 und wird bei Erreichen der Verfügbarkeit den Nutzer mit Desktop- oder/und Systemtray-Benachrichtigungen darüber "informieren" aka nerven. Die Möglichkeiten von Microsoft, für ein neues Produkt zu werben, in allen Ehren – aber so etwas gehört absolut nicht in den Bereich der Sicherheitsupdates, mit einer solchen Aktion wird die Wichtigkeit und Ernsthaftigkeit von Windows-Sicherheitsupdates komplett ad absurdum geführt. Bei Heise gibt es eine Anleitung, wie man dieses Werbeupdate wieder losbekommt bzw. wie man verhindert, daß sich jenes erneut installiert. Microsoft hingegen sollte diese Politik dringend überdenken – und darf schon jetzt entgegennehmen, daß nach solchen wilden Aktionen Windows 10 nicht gerade unter einem günstigen Stern starten wird.

WinFuture haben nochmals etwas genaueres zu den Windows-10-Updates mit dem Codenamen "Redstone" aufzubieten: So bezeichnet "Redstone" nicht ein einzelnes Update, sondern vielmehr das, was Microsoft im allgemeinen im Jahr 2016 mit Windows 10 vor hat. So sollen aus "Redstone" zwei große Updates entwachsen – eines soll im Sommer 2016 kommen, das andere dann schon im Herbst 2016 (zuzüglich eines weiteren, nicht zu "Redstone" gehörenden Updates im Herbst 2015). Obwohl derzeit formal zur Integration von neuer Hardware gedacht, dürfte insbesondere das Sommer-Update auch der großen Bereinigung in Anpassung an die Nutzerrückmeldungen zu Windows 10 dienen. Bezeichnungstechnisch soll daraus jedoch keineswegs ein "Windows 11" etc. erwachsen – möglich dagegen wäre die Bezeichnung "Windows 10.1" etc. oder auch einfach nur eine Update-Kennung wie seinerzeit bei "Windows 8.1 Update". Rein von der aktuellen Strategie her dürfte es Microsoft normalerweise daran gelegen sein, den "Windows 10" Markennamen möglichst lange nicht durch irgendwelche Zusätze zu verwässern bzw. in Einzel-Version wie bei Windows 8.0 und 8.1 aufzuspalten.

8

Der Markt an Consumer-Elektronik: PCs und Telefone dominieren, Tablets & anderes weit abgeschlagen

Die Marktforscher von IC Insights haben eine feine Aufstellung herausgegeben, welche die Größenordnungen der einzelnen Marktsegmente im Markt der Consumer-Elektronik aufzeigt (im deutschsprachigen Raum kommt hierzu die Wortwahl "Unterhaltungselektronik" am nächsten, dies ist jedoch begrifflich nicht gänzlich deckungsgleich). Jene Aufstellung ist unterteilt in zwei Teile: Erstens der komplette erzielte Umsatz in den einzelnen Marktsegmenten der Consumer-Elektronik, zweitens der reine Wertanteil der verschiedenen Chips innerhalb dieser Systeme. Die Grafiken geben neben der Umsatzgrößenordnung dann auch noch den Anteil des jeweiligen Marktsegments sowie die (prognostizierten) jährlichen Wachstumsraten der einzelnen Marktsegmente über die Jahre 2013 bis 2018 wieder:

Marktüberblick Consumer-Elektronik, Teil 1
Marktüberblick Consumer-Elektronik, Teil 1
Marktüberblick Consumer-Elektronik, Teil 2
Marktüberblick Consumer-Elektronik, Teil 2

Bemerkenswert an diesen Zahlen ist, daß hiermit mal wieder die Relationen zugunsten des PCs zurechtgerückt werden: Zu allermeist wird der PC nur nach Stückzahlen verglichen und wird demzufolge gern mal wieder der kommende Sieg der Tablets (bei den reinen Stückzahlen) prognostiziert. Doch trotz daß PCs und Tablets bei den Stückzahlen inzwischen nicht mehr weit auseinander liegen, besteht beim Umsatz nach wie vor ein riesiger Dimensionsunterschied: PCs haben im Jahr 2014 noch für 130% mehr Umsatz als Tablets gesorgt, bei den reinen Chips sind es sogar 225% mehr Umsatz – sprich, zwischen dem Zwei- bis Dreifachen. Selbst wenn also eines Tages mehr Tablets als PCs verkauft werden, wird das PC-Geschäft aufgrund der höheren Durchschnittspreise und des viel breiteren Zubehörgeschäfts immer der (deutlich) größere Umsatzträger bleiben. Und selbst gegenüber dem Telefon-Geschäft sieht der PC noch gut aus: Es werden mehr als dreimal so viele Telefone wie PCs verkauft – und trotzdem sind die Umsatzgrößenordnungen beider Marktsegmente nicht wirklich auseinander.

Allerdings existiert durchaus ein Problem für den PC – es lauert in den mittelfristigen Wachstumsaussichten, welche mit "mager" noch sehr freundlich beschrieben sind: -1,1% beim Umsatz sowie +1,4% beim Chipumsatz (jeweils pro Jahr) im Zeitraum 2013 bis 2018 sprechen für einen wenig interessanten Markt mit großem Konkurrenzkampf und letztlich ohne Sieger, sondern wohl ausschließlich Verlierern. Zudem sollen laut IC Insights die meisten anderen Marktsegmente über die Jahre 2013 bis 2018 deutlich stärker nach vorn gehen, selbst wenn einige dieser Prognosen eher kritisch zu sehen sind: Ein Umsatzwachstum bei Tablets von 10,4% pro Jahr über mehrere Jahre erscheint aus heutiger Sicht kaum noch realistisch, da die Tablet-Stückzahlen nicht mehr entsprechend wachsen und die Durchschnittspreise bei Tablets eher noch reichlich Potential haben, weiter abzusinken.

Umsatz 2014 Wachstum 2013-2018 (pro Jahr) IC-Umsatz 2014 IC-Wachstum 2013-2018 (pro Jahr)
Telefone 265,2 Mrd. $ +5,% 70,7 Mrd. $ +8,7%
PCs 196,0 Mrd. $ -1,1% 59,1 Mrd. $ +1,4%
Tablets 85,1 Mrd. $ +10,4% 17,6 Mrd. $ +14,7%
Spielekonsolen 10,5 Mrd. $ +1,3% 4,5 Mrd. $ +10,2%
Server 52,2 Mrd. $ +1,6% 14,0 Mrd. $ +1,6%
Wireless-Eqipment 21,9 Mrd. $ +15,9% 9,4 Mrd. $ +19,8%
Internet of Things 48,3 Mrd. $ +20,8% 3,3 Mrd. $ +22,3%
Medizin-Elektronik 51,1 Mrd. $ +8,1% 4,5 Mrd. $ +10,6%
Auto-Elektronik 125,0 Mrd. $ +7,5% 21,7 Mrd. $ +10,9%
Digital-Fernseher 166,0 Mrd. $ +3,1% 14,1 Mrd. $ +8,9%

Auch manche tolle Wachstums-Prognose bezüglich der Internet-of-Things-Gerätschaften rechnet unserer Meinung nach nicht den üblichen Preisverfall mit ein, wenn eine Geräteklasse dann einstmals den (wirklichen) Massenmarkt erreicht. Nichtsdestotrotz läßt sich durchaus sehen, daß der PC für den Markt der Consumer-Elektronik als auch für den Chip-Markt mittelfristig etwas an Bedeutung einbüßen wird. Die neuen Gerätschaften werden kaum so groß wie der PC werden, der PC wird auch mittelfristig noch zu den größten Umsatzträgern gehören. Aber andere Umsatzträger werden dann – gemäß dieser Prognose – ähnlich bedeutsame Größenordnungen erreichen, der PC dürfte (zusammen mit den Telefonen) zum Ende der Dekade nicht mehr so alleine an der Spitze der Consumer-Elektronik stehen.

7

Hardware- und Nachrichten-Links des 7. April 2015

WCCF Tech haben sich für eine gewisse Zeit durch eine fehlerhafte Angabe in der SiSoft Sandra Datenbank in die Irre führen lassen und daher einen Vollausbau des Tonga-Chips mit gleich 2240 Shader-Einheiten (an einem 384 Bit DDR Speicherinterface) vermeldet. Wie bekannt, ist die SiSoft Datenbank bzw. die Hardware-Erkennung der SiSoft-Programme allerdings in solcherart Fragen arg unzuverlässig, womit sich immer mal wieder solcherart Fehler einstellen können. In unserem Forum wurde das ganze schnell als reiner Deutungsfehler identifiziert – nach dessen Richtigstellung leider wieder nur ein "Tonga Pro" herauskommt, wie schon von der Radeon R9 285 her bekannt. Ein Vollausbau des Tonga-Chips ist nach wie vor nirgendwo im PC-Segment zu sehen – und mittlerweile steht sogar zur Debatte, ob AMD jenen überhaupt noch einmal bringt. Womöglich war Tonga immer nur als Auftragsarbeit für Apple gedacht und die Radeon R9 285 ist nur die fällige Restchip-Verwertung, ohne aber der ernsthaften Absicht, irgendwann einen Vollausbau ins PC-Segment zu bringen.

Fudzilla bringen das wilde Gerücht, der kommende Fiji-Chip von AMD könnte auch HBM2-Speicher verkraften. Dies erscheint uns allerdings als relativ weit hergeholt – und augenscheinlich haben Fudzilla auch nur die offiziellen Dokumente von Speicherchiphersteller Hynix hierzu gelesen und dabei festgestellt, das die technischen Bedingungen von HBM1 & HBM2 sehr ähnlich sind. Dabei könnte man rein technisch möglicherweise wirklich auch HBM2-Speicher an Fiji dranhängen – nur wird AMD dies in der Realität kaum tun, weil dies (aufgrund des höheren Speichertakts von HBM2) zu einer extremen Bandbreite führen würde, welche der Fiji-Chip nicht wirklich benötigt. Zudem ist auch nicht klar, ob das auf HBM1-Speicher ausgerichtete Speicherinterface des Fiji-Chip überhaupt die hohen Speichertaktungen von HBM2 aushalten kann – die reine technische Fertigkeit, HBM2-Speicher ansprechen zu können, reicht natürlich nicht dafür aus, um auch einen wirklich stabilen Betrieb zu gewährleisten. Am Ende ist HBM2 sowieso eine Sache des Jahres 2016, in welchem der Fiji-Chip sicherlich durch die in der 14nm-Fertigung viel günstiger herzustellenden AMD-Grafikchips der Arctic-Islands-Generation abgelöst werden wird.

Die ComputerBase zeigt Intel-Angaben und -Bilder, wonach die kommende nächste Atom-Generation "Airmont" an LowPower-Prozessoren durch den Wechsel von der 22nm- auf die 14nm-Fertigung eine um bis zu 64% kleinere Chipfläche aufweisen kann. Diese Angabe trifft zwar nur auf das Zweikern-Modul zu, zeigt jedoch in jedem Fall die Möglichkeiten dieses Sprungs in der Fertigungstechnologie (zumindest bei Intel) eindrucksvoll an. Beim Vierkern-Modul von Airmont dürfte dieser Sprung wohl hingegen kleiner ausfallen, da Intel hier die Grafiklösung überdeutlich aufmotzt: Von 4 geht es auf 16 Ausführungseinheiten hinauf – da kann es durchaus passieren, daß der Flächenvorteil zwischen Airmont und Silvermont im Vierkern-Bereich überhaupt nicht mehr bedeutsam ist. Beim Zweikern-Modul scheint Intel hingegen nicht noch mehr Grafik-Ausführungseinheiten hinzugepackt haben, womit sich hier auch eine klare Produkt-Trennung ergibt: Der Airmont-basierte Atom-Vierkerner mit 16 AE geht wohl in die Multimedia-Gerätschaften wie Tablets, Notebooks und AiOs – und der Airmont-basierte Atom-Zweikerner mit vermutlich weiterhin nur 4 AE geht wohl in den Embedded- und Server-Bereich, wo die Grafik maximal nur zur Display-Ausgabe benutzt wird.

Golem berichten vom offiziellen Start der 14nm-Fertigung bei GlobalFoundries – welche wie bekannt die Fertigungstechnologie von Samsung in Lizenz verwenden, praktisch kann man damit mit demselben Chipdesign bei Samsung oder GlobalFoundries fertigen lassen. Dies nutzen wohl auch einige Chipentwickler und selbst Samsung ist diesbezüglich nicht unglücklich, dies ist anscheinend vielmehr sogar innerhalb der Strategie von Samsung liegend, um sich einen größeren Teil vom Kuchen der Auftragsfertiger zu holen – durch Vorsprung bei Technik und Preisen, gleichzeitig aber auch einer höchstmöglichen Verfügbarkeit durch möglichst viele 14nm-Produktionsstätten, wofür nun eben GlobalFoundries mit ins Spiel kommt. Trotzdem hat die 14nm-Fertigung von GlobalFoundries einen klaren zeitlichen Nachteil gegenüber dem Samsung-Original, dort wurde der offizielle Startschuß zur 14nm-Fertigung bereits vor fünf Monaten gegeben. Speziell für GlobalFoundries-Hauptauftraggeber AMD bedeutet dies aber auch, daß man mit der 14nm-Fertigung von GlobalFoundries kaum noch einen zeitlichen Vorsprung vor der 16FF+ Fertigung von TSMC hat, welche nun auch in etwa spruchreif sein soll. Große Grafikchips & Prozessoren werden sich jedoch sowieso noch lange Monate nicht mit beiden neuen Fertigungverfahren herstellen lassen, dies ist klar ein Thema des Jahres 2016.

Gemäß WinFuture lautet der Codename der nächsten Windows-Iteration nach Windows 10 auf "Redstone". Aller Vermutung nach dürfte es sich hierbei allerdings nicht um ein "Windows 11" handeln, sondern ein größeres Update wie bei Windows 8.1 oder Windows 8.1 Update. Geht es nach Microsoft, soll Windows 10 wie bekannt sowieso "das letzte Windows" werden, sprich sollen neue Funktionen per Update nachgereicht werden, am Grundgerüst bzw. der Namensgebung jedoch nichts mehr verändert werden. Ob dies funktioniert, wird man sehen müssen – bei Windows 8 wollte man schon einen ähnlichen Weg gehen, hat jenen aber wegen des offensichtlichen Mißerfolgs von Windows 8 letztlich wieder aufgeben müssen. Windows 10 wiederum mag zwar die "Fachpresse" begeistern (primär weil man über etwas – egal was – berichten kann), muß sich aber auch daran messen lassen, wie gut es die mittels Windows 8 geschädigten bzw. vergraulten Nutzer wieder einfangen kann. Das, was bisher zu Windows 10 zu sehen war, mag teilweise ansprechend sein – aber sieht trotzdem immer noch weit mehr nach Windows 8 aus als nach entweder etwas neuem oder eben einfach einem modernisierten Windows 7. Microsoft mag zwar derzeit für den Erfolg von Windows 10 alle Hebel in Bewegung setzen, aber gänzlich sicher ist dieser Erfolg mitnichten – und dann könnte am Ende (in ein paar Jahren) doch noch ein neues Windows stehen.

Inhalt abgleichen