5

ARM kündigt mit dem Cortex-A72 seine zweite 64-Bit-Generation an

Prozessorenentwickler ARM hat mit dem Cortex-A72 seinen zweiten 64-Bit-Prozessor der ARMv8-Architektur vorgestellt, welcher erhebliche Vorteile gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57 bringen soll. Leider sind die von ARM zur Verfügung gestellten Angaben arg dürftig, im Endeffekt vermeldet man nur, was der Prozessor am Ende können soll – nicht aber, wie diese großen Sprünge erreicht worden sind. Zudem wird der seitens ARM primär gegenüber dem schnellsten 32-Bit-Chip Cortex-A15 verglichen, nicht direkt gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57. Trotzdem gibt ARM auch in diesem Vergleich noch hohe Performancegewinne an, zwischen Cortex-A57 und Cortex-A72 soll die Performance (bei typischem Power-Budget eines Smartphones) um immerhin ~84% steigen, der Energieverbrauch (bei gleicher Workload) um 55% niedriger liegen.

Cortex-A15 Cortex-A57 Cortex-A72
Architektur ARM v7 (32-Bit) ARM v8 (32/64-Bit) ARM v8 (32/64-Bit)
max. CPU-Kerne 4 4 4
max. Taktraten 2.5 GHz ~2.0 GHz 2.5 GHz
(Ankündigung)
Fertigung 32/28nm 20nm 16nm
Performance lt. ARM
(selbes Energiebudget)
100% 190% 350%
(~85% mehr als A57)
Energieverbrauch lt. ARM
(gleiche Workload)
100% ~55% 25%
(~55% weniger als A57)

In beide Fälle dürfte die 16nm-Fertigung des Cortex-A72 maßgeblich mit hineinspielen, weil mit jener natürlich höhere Taktraten als mit der 20nm-Fertigung des Cortex-A57 möglich werden. So haben die bisherigen 20nm-Chips bekannterweise gewisse Taktprobleme, während ARM für die 16nm-Chip Taktraten von bis zu 2.5 GHz verspricht. Ein größerer Teil des Performance-Gewinns sowie nahezu alles vom Stromspareffekt dürfte somit schlicht auf diese 16nm-Fertigung zurückzuführen sein. Danach wird es dann aber eng mit Erklärungen für die (versprochene) höhere Performance des Cortex-A72 – selbst das an dieser Stelle oftmals erwähnte 128 Bit DDR Speicherinterface gab es letztlich schon beim Cortex-A15, das offizielle Blockschaltbild zeigt zudem kaum Veränderungen gegenüber dem Cortex-A57 an.

Die zweite 64-Bit-Generation von ARM soll wie gesagt in der 16nm-Fertigung hergestellt werden, vor dem Jahr 2016 wird es diesbezüglich also nichts geben. Die große Masse entsprechender Prozessoren könnte sogar erst 2017 kommen, schließlich stellt ARM nur das Design einer Architektur zur Verfügung, keinerlei produktionsreife Chips. Viele Hersteller verwenden zudem nicht das originale ARM-Design, sondern setzen einige Verbesserungen und Erweiterungen an (oftmals eine eigene oder von Drittherstellern stammende Grafiklösung), was weitere Designzeit kosten wird. Das ganze ist aus Endverbrauchersicht also weder ein Launch noch eine Vorstellung, sondern eher eine Ankündigung für ein in der mittleren Zukunft liegendes Produkt. Interessant ist der Cortex-A72 neben dem Smartphone/Tablet-Segment aber auch aus PC-Sicht, denn schließlich dürfte AMD die Architektur des Cortex-A72 als Grundlage für die eigenen ARM-basierten Prozessoren für den LowPower- und Microserver-Bereich benutzen.

4

Hardware- und Nachrichten-Links des 4. Februar 2015

In einem Nebensatz erwähnen Business Korea, daß zu den ersten Kunden von Samsungs 14nm-Fertigung, welche ab dem zweiten Quartal 2015 anlaufen soll, neben den üblichen Verdächtigen Apple & Qualcomm nun auch nVidia gehören soll. Wenn sich dies bestätigen sollte, wäre dies natürlich ein Schocker, denn nVidia hat seit den Anfangstagen immer nur bei TSMC fertigen lassen. Zwar bezieht sich der Artikel von Business Korea nirgendwo auf Grafikchips, andererseits hat nVidia kaum noch anderes im Programm, was eine derart fortschrittliche Fertigungstechnologie bedingen würde – ob die Tegra-Chips nun in 28nm, 20nm oder 14nm herauskommen, spielt für deren Performance im aktuellen Aufgabenbereich (vorwiegend Car-Technologie) kaum eine Rolle. Nur im Grafikchip-Bereich benötigt nVidia wirklich dringend neue Fertigungsverfahren und würde sicherlich gern die 14nm-Fertigung von Samsung benutzen, da man damit eine (unerhoffte) Antwort auf die Gefahr hat, AMD könnte mit der 14nm-Fertigung von GlobalFoundries (in Lizenz von Samsung) nVidia mal fix die Rücklichter zeigen.

Von einer sicheren Information sollte man hierbei allerdings noch lange nicht ausgehen, dafür sind die Verbindungen nVidias zu TSMC zu stark und langjährig, zudem ist man bei Samsung als Auftragnehmer auch weit weniger wichtig als die Schwergewichte Apple & Qualcomm, kann unter Umständen auch erst nach diesen bedient werden – was bei den riesigen Volumen von Apple & Qualcomm eine monatelange Verzögerung bedeuten könnte. Zudem wurde die der Maxwell-Generation nachfolgende Pascal-Architektur eigentlich regelmäßig als in 16nm gefertigt beschrieben, was es eben nur bei TSMC gibt. Unter Umständen ändert sich an diesen Plänen auch nichts und nVidia legt bei Samsung nur einen Testballon auf – welcher bei den Preisverhandlungen mit TSMC immer als nutzvoll erscheint. Alternativ ist auch eine parallele Herstellung derselben Chips bei zwei Auftragsfertigern denkbar. Daß sich nVidia hingegen von TSMC verabschieben sollte, erscheint als die eher unwahrscheinlichste Auflösung dieser Geschichte – welche wie gesagt wegen vieler Unwägbarkeiten keineswegs als gesicherte Information angesehen werden kann

Die chinesische VR-Zone (maschinelle Übersetzung ins Deutsche) zeigt die genauen Daten zu den kommenden 100er Chipsätzen für Intels Skylake-Architektur im Sockel 1151. Ähnlich den letzten Chipsatz-Serien bei Intel wird es hier wieder Business-, Mainstream- und Overclocking-Chipsätze geben, letzteres ist natürlich mangels K-Prozessoren aus der Skylake-Architektur nur arg eingeschränkt möglich. Entscheidender Punkt der neuen Chipsatz-Serie ist die deutliche Aufwertung der Southbridge, welche endlich einmal PCI Express 3.0 anbieten wird. Selbiges wird in letzter Zeit immer mehr notwendig durch schnelle SSDs, welche auf PCI Express 2.0 einfach zu viele (der meist knappen) PCI Express Lanes benötigen, um ihre Performance ausspielen zu können. Zugleich werden die hochwertigen Chipsätze H170 und Z170 auch eine viel höhere Anzahl an PCI Express Lanes bieten – anstatt bisher maximal 8 dann 16 bzw. 20. Damit steigt die insgesamt zur Anbindung von PCI-Express-Peripherie zur Verfügung stehende Bandbreite zwischen Z97-Chipsatz mit 8 PCI Express 2.0 Lanes auf 20 PCI Express 3.0 Lanes beim Z170-Chipsatz auf das nahezu Vierfache an. Wer mit umfangreichen Festplatten- und SSD-Konfigurationen arbeitet, für den werden diese Skylake-Chipsätze also viel gutes bringen.

Heise berichten über die Entscheidung der US-Wettbewerbsbehörde FCC, das Internet analog dem Telefonnetz zum "Universaldienst" zu erklären, worauf man gesetzlich deutlich mehr Regulierungsmöglichkeiten haben würde. Hintergrund dieser Entscheidung ist das Ringen um die Netzneutralität – wo es in den USA der FCC mit der bisherigen Rechtslage nicht möglich ist, eine Netzneutralität gegenüber den Netzbetreibern durchzusetzen. Nach der Definition als "Universaldienst" ist dagegen eine fast unbeschränkte Regulierung möglich – weshalb die Anwälte der großen Internet-Provider in den USA schon ihre Messer wetzen (bzw. großen Zahltagen entgegensehen), um eben jene Neu-Definition anzuzweifeln. Angesichts des recht freizügigigen US-Unternehmensrechts können sich die Internet-Provider durchaus Chancen ausrechnen, diesen Rechtsstreit zu gewinnen oder in einen faulen Kompromiß zu treiben. Sollte sich dagegen die FCC durchsetzen, wäre eine Netzneutralität nachfolgend durchaus durchsetzbar – zumindest so lange nicht eine neue Regierung nach der US-Wahl 2016 eventuell eine andere FCC-Führung einsetzt.

4

Das Speicherinterface der GeForce GTX 970 erreicht nirgendwann mehr als 224 Bit DDR

Die bisherigen Beschreibungen der Speicheraufteilung der GeForce GTX 970 sind zumeist auch noch nicht gänzlich korrekt, natürlich geschuldet den nach wie vor mangelhaft wenigen Informationen seitens nVidia. Allgemein geht man bisher davon aus, daß es sich um "3,5 + 0,5" GB Speicher handelt und vor allem um ein Speicherinterface in einer "224 + 32" Bit DDR Unterteilung – sprich, der schnelle Speicherbereich ist mit 224 Bit angebunden, der langsame nur mit 32 Bit. Letzteres läßt allerdings eine wichtige Information aus, wie einem erklärenden Forums-Posting zu entnehmen ist: Danach fehlt in dieser (üblichen) Darstellung noch der Punkt, daß beide Speicherbereiche nicht gleichzeitig ansprechbar sind. Sofern der Grafikchip etwas aus dem langsamen Speicherbereich holt oder schreibt, ist zu dieser Zeit der Zugriff auf den schnellen Speicherbereich nicht möglich (und umgedreht).

Die Grafikkarte kann also zu keinem Zeitpunkt ihr volles 256 Bit DDR Speicherinterface ausnutzen, sondern kann gleichzeitig maximal 224 Bit nutzen – und beim Zugriff auf den langsamen Speicherbereich sogar nur insgesamt 32 Bit. Dies senkt dann natürlich auch die theoretische Speicherbandbreite deutlich ab, denn angenommen eines mit 4 GB voll belegten Speichers und eines gleichförmigen Zugriffs auf den Speicher würde zu 7/8 der Zeit der schnelle Speicherbereich mit 224 Bit DDR Interface benutzt (196 GB/sec, zu 1/8 der Zeit aber der langsame Speicherbereich mit seinem nur 32 Bit DDR Interface (28 GB/sec). Weil beide Speicherbereiche nicht gleichzeitig ansprechbar sind, kann man die erreichten Speicherbandbreiten dann auch nicht addieren, sondern muß sie vielmehr gegeneinander aufrechnen: Gemittelt erreicht die GeForce GTX 970 bei 4 GB Speicherbelegung eine Speicherbandbreite von nur noch 175 GB/sec – und damit weniger als bei einer Speicherbelegung von bis zu 3,5 GB.

GeForce GTX 970
(alt & falsch!)
GeForce GTX 970
(Korrektur No.1)
GeForce GTX 970
(Korrektur No.2)
GeForce GTX 980
Technik 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 256 Bit DDR Interface (nur 224 Bit performant nutzbar), 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 224 Bit DDR Interface, 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache
ROP-Leistung 70,4 GPix/sec 61,6 GPix/sec 61,6 GPix/sec 73,2 GPix/sec
Speicherbandbreite 224 GB/sec 196 GB/sec
(nur 224 Bit performant nutzbar)
196 GB/sec
(nur bis 3,5 GB Speicherbelegung)
224 GB/sec
Speicherausbau 4 GB GDDR5 4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5

Neben dieser weiteren Absenkung der Rohleistung (welche aber wie gesagt erst ab einer Speichernutzung oberhalb von 3,5 GB zutrifft) dürfte bezüglich diesem Detail vor allem der Punkt der offiziellen Speicherinterface-Spezifikation von Interesse sein. Bisher wurde die GeForce GTX 970 trotz der Änderungen durch die 3,5-GB-Problematik weiterhin als mit einem "256 Bit DDR Speicherinterface" ausgerüstet beschrieben. Da von jenem Speicherinterface gleichzeitig aber nur maximal 224 Bit DDR nutzbar sind und die letzten 32 Bit DDR eben nur exklusiv funktionieren, stellt sich wirklich die Frage, ob diese Schreibweise richtig sein kann. Auch wenn acht 32bittige Speichercontroller verbaut und 256 Datenleitungen verlegt sind, beherrscht das verbaute Speicherinterface eben nur bestenfalls einen 224-Bit-Modus.

Korrekterweise müsste man dazu auch "224 Bit DDR Speicherinterface" sagen – und zwar selbst in den offiziellen Spezifikationslisten. Jegliches "+32 Bit" als Zusatz verbietet sich, da das Pluszeichen fälschlicherweise suggerieren würde, daß es noch mehr oben drauf gibt. Real gibt es aber eben weniger Speicherbandbreite und weniger Performance, sofern man den langsamen Speicherbereich anspricht. Wenn man es ganz genau nimmt, wäre die korrekte Beschreibung ein "32/224 Bit DDR Speicherinterface" – welches man in Kurzform sicherlich als "224 Bit DDR Interface" bezeichnen kann. In jedem Fall kommt es hiermit zu einem weiteren Punkt, in welchem die offiziellen Kartenspezifikationen der GeForce GTX 970 falsch sind: Es kann kein reales 256 Bit DDR Speicherinterface anliegen, wenn selbst im allerbesten Fall nur eine Konfiguration erreicht wird, die ein 224 Bit DDR Speicherinterface ergibt.

4

Die Systemanforderungen zu Battlefield Hardline

Spielepublisher Electronic Arts hat bei Origin die offiziellen Systemanforderungen für Battlefield Hardline bekanntgegeben und damit gleichzeitig auch den Start der bis zum 8. Februar reichenden OpenBeta-Phase eingeläutet. Der neueste Teil der Battlefield-Spielereihe ist von den Systemanforderungen her ähnlich zu Battlefield 4, in Teilen will das Spiel aber dann doch etwas stärkere Hardware sehen. Mit dabei sind wieder die üblichen Verdächtigen in Form von 4 GB Speicher als Minimum und 8 GB als Empfehlung sowie ein 64-Bit-Windows ab Windows Vista – und EA-typisch der Zwang zum hauseigenen Origin-Onlinedienst.

Bei den Prozessoren reichen als Minimum ein Core i3 ab 2.4 GHz Takt sowie ein Athlon II oder Phenom II ab 2.8 GHz Takt – wobei dies dann doch schon ein großer Unterschied ist, denn bei AMD fallen unter diese Charakteristik auch vergleichsweise schwache Prozessoren, während bei Intel ein Core i3 immer eine ehrbare Sache darstellt. Aufgrund dieser allgemein recht niedrigen Mindest-Anforderungen auf CPU-Seite dürften auch Intels Core 2 Modelle noch irgendwie mitkommen – die Vierkerner besser, die Zweikerner dann schlechter.

Empfohlen werden dagegen auf Prozessoren-Seite ein Sechskerner von AMD oder ein Vierkerner von Intel – was ebenfalls einigen Interpretationsspielraum offenläßt. Denn auch ein Core 2 Quad ist ein Intel-Vierkerner, die Erfahrungen mit Battlefield 4 zeigen jedoch, daß es diese älteren Prozessoren inzwischen recht schwer haben. Vermutlich sind an dieser Stelle die von Electronic Arts notierten Anforderungen etwas zu zahm gegenüber der Anwenderpraxis, welche für einen echten Spielgenuß eher einen Vierkerner von Intel ab der Sandy-Bridge-Serie oder einen Achtkerner von AMD mit hoher Taktrate sehen sollte.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows Vista, 7, 8.0 oder 8.1
Prozessor AMD Athlon II & Phenom II ab 2.8 GHz
Intel Core i3 ab 2.4 GHz
AMD Sechskern-CPU
Intel Vierkern-CPU
RAM 4 GB
(nicht zwingend vorausgesetzt)
8 GB
DirectX DirectX 10.0 DirectX 11.0
Grafikkarte AMD Radeon HD 5770 1GB
nVidia GeForce GTX 260 896MB
AMD Radeon R9 290
nVidia GeForce GTX 760
VRAM ~1 GB
(nicht zwingend vorausgesetzt)
3 GB
HDD 60 GB freier Festplattenspeicherplatz
Dienste Origin

Bei den Grafikkarten reichen als Minimum (angeblich) Radeon HD 5770 oder GeForce GTX 260 – wobei die Notierung letztgenannter nVidia-Grafikkarte auch aussagt, daß man nicht zwingend DirectX 11 benötigt (wie von Electronic Arts explizit auch als Minimum so genannt), sondern daß eben auch eine Grafikkarte auf "nur" DirectX 10 auszureichen scheint. Ob auf der Leistungsklasse der beiden genannten Grafikkarten – im 3DCenter Performance-Index auf Werten von 115% bzw. ~125% liegend – eine anständige Performance herauskommen kann, darf daneben aber sowieso bezweifelt werden, die Erfahrungen von Battlefield 4 sprechen hier dagegen.

Empfohlen werden dagegen auf Grafikkarten-Seite dann Radeon R9 290 oder GeForce GTX 760 mit jeweils 3 GB Grafikkartenspeicher – wobei dies gleich in doppelter Hinsicht nicht passt. Zum einen ist die Radeon R9 290 (Perf.Index 460%) aber massiv schneller als die GeForce GTX 760 (Perf.Index 310%), zum anderen wird das nVidia-Modell per default nur mit 2 GB Grafikkartenspeicher ausgeliefert (auch wenn es Hersteller-Varianten mit gleich 4 GB Speicher gibt). An der Stelle läßt Electronic Arts einen regelrecht raten, was denn nun diese Anforderungen zu bedeuten haben: Benötigt Battlefield Hardline eine wirklich so viel stärkere AMD-Hardware – oder hat man nVidia durch die Nennung der GeForce GTX 760 schlicht einen Gefallen getan, wird real eher so etwas wie eine GeForce GTX 780 benötigt? Man darf sich überraschen lassen, mit welcher Hardware Battlefield Hardline dann wirklich optimal spielbar sein wird.

Zwischen minimalen und empfohlenen Anforderungen herrscht bei den Grafikkarten ein heftiger Performance-Unterschied (ausgehend von der Radeon R9 290 satte 300% mehr), was auf eine extrem starke Skalierung des Spiels mit steigenden Anforderungen hindeutet. Vermutlich gibt es damit kaum Reserven für Downsampling Anti-Aliasing oder die 4K-Auflösung, zumindest nicht mit "normalen" Grafikkarten. Als echte Zwänge sind bei diesem Spiel wie gesagt "nur" das 64-Bit-Windows, DirectX 10 und Origin zu nennen, die erwähnten 4 GB Speicher als Minimum darf man laut weiterführenden Angaben von Electronic Arts dagegen unterschreiten.

3

Hardware- und Nachrichten-Links des 3. Februar 2015

Zum "3,5-GB-Problem" der GeForce GTX 970 gibt es nur ein paar kleinere Neuigkeiten: Die Mindfactory weist inzwischen in den Kartenspezifikationen zur GeForce GTX 970 einen extra Eintrag "Aufteilung des Grafikspeichers" aus, welche mit "3584MB + 512MB" notiert wird (in der Seitenmitte unter "Produktdatenblatt" zu finden). Trotz daß sich nVidia immer noch nicht geäußert hat, soll es angeblich aber weiterhin Gespräche zwischen den Grafikkartenhersteller und den Hardware-Händlern geben, letztere machen wahrscheinlich entsprechenden Druck. Daneben läuft eine Petition gegenüber der EU-Kommission, sich mit diesem Fall zu beschäftigen und nVidia zu einer Kompensation zu bewegen. Und letztlich wurde das ganze in den USA schon von Rechtsanwälten entdeckt, welche auf Sammelklagen spezialisert sind und derzeit Informationen zu diesem Fall sammeln.

Golem berichten über Gerüchte zu einer neuen Hardware-Revision für Xbox One & Playstation 4, nach welcher jene dann zum Abspielen von 4K-Videos in der Lage sein sollen. Bislang wird dies mit den aktuellen Spielekonsolen nicht gehen – zum einen fehlt ein Decoder-Chip mit 4K-Fähigkeit, zum anderen werden von beiden Konsolen nur HDMI 1.4 Ausgänge angeboten, welche mit 4K-Bildmaterial nichts anfangen können. Beides müsste man ergo nachrüsten, wollte man wirklich 4K-Videos auf den Konsolen bieten – und es ist unsicher, ob Microsoft & Sony dies tun werden. Bislang waren später nachgerüstete Hardware-Funktionen bei Spielekonsolen eher selten, schließlich bedeutet dies immer auch, daß die Erstkäufer damit im Regen stehen gelassen werden. Andererseits gilt auch, daß wenn Microsoft & Sony so etwas vorhätten, immer höchste Geheimhaltung angesetzt werden dürfte, damit die aktuellen Verkäufe nicht durch zu frühe Ankündigungen einer verbesserten Konsolen-Version gestört werden. Es bleibt einfach abzuwarten, wie sich Microsoft & Sony in dieser Frage entscheiden.

Laut den Marktbeoachtern von IDC ist er Tablet-Markt im vierten Quartal 2014 erstmals (leicht um 3,2%) rückläufig gewesen – das man hierbei aber das eigentlich wie für Tablets geschaffene Weihnachtsgeschäft verrissen hat, macht die Sache allerdings richtig delikat. Denn bisher kannte der Tablet-Markt ausschließlich Zugewinne, selbst wenn jene in letzter Zeit in der Höhe deutlich kleiner wurden. Nun aber bedeutet ein Negativ-Quartal, daß gar nichts mehr von den früheren Weisheiten sicher ist – so unter anderem auch nicht, ob es für das Gesamtjahr 2015 ein kleines Plus geben wird. Vielmehr scheint der Tablet-Markt an einem entscheidenden Umschwung-Punkt zu stehen: Mit der Möglichkeit, daß dies ein Ausnahmequartal war und daß es zukünftig ein eher ausgeglichenes Geschäft gibt – mit aber auch der Möglichkeit, daß erst einmal die Absätze bedeutsam fallen und es erst danach zu einem ausgeglichenen Geschäft kommt.

Damit kommt der Tablet-Markt deutlich früher als seitens der Industrie gedacht in normale Fahrgewässer, wo es eben nicht nur nach vorn geht, sondern oftmals nur seitwärts und manchmal eben auch rückwärts. Dies dürfte den Konkurrenzkampf der Hersteller untereinander natürlich erst richtig befeuern, da nun zumindest kurzfristig deutlich höhere Absatzziele existieren als Absatzmöglichkeiten überhaupt vorhanden sind. Der härtere Konkurrenzkampf wird in jedem Fall in niedrigeren Preisen resultieren, womit aber auch die erzielten Umsätze der Tablet-Hersteller in den Keller gehen werden, gerade wenn keine Absatzsteigerung erzielt werden kann. Dies dürfte in absehbarer Zeit einige Illusionen über die Macht und Möglichkeiten der Tablet-Hersteller – insbesondere bei Börsenanalysten – zerstören und vielleicht den PC-Markt (verdientermaßen wegen der viel höheren Umsätze) wieder in ein besseres Licht rücken.

Inhalt abgleichen