5

HighEnd-Grafikkarten samt CrossFire & SLI unter 5K getestet

Die PC Games Hardware hat anläßlich des 5K-Monitors Dell UP2715K mehrere HighEnd-Grafikkarten samt deren CrossFire/SLI-Pendants unter der Monsterauflösung von 5120x2880 verglichen. Solcherart Benchmarks sind – auf ein beachtbares Benchmark-Feld – eher selten, weswegen sich die extra Betrachtung dieses Artikels lohnt. Das Benchmark-Feld besteht aus einem Mix an halbwegs neuen und ein paar Jahren alten Spielen, die extrem anspruchsvollen Titel wurden wohlweislich gar nicht erst bemüht. Zudem wurde durchgehend auf ein extra Anti-Aliasing verzichtet, was bei einer solch hohen Auflösung bzw. Pixeldichte schließlich auch kaum noch zu einer besseren Bildqualität beiträgt, dafür aber viel zu viel an Performance kostet.

eine GPU zwei GPUs @ CrossFire/SLI CrossFire/SLI-Gewinn
Radeon R9 290X 115,7% 160,0% +38%
Radeon R9 280X 65,8% 90,0% +37%
GeForce GTX 980 100% 136,1% +36%
GeForce GTX 970 84,1% 111,0% +32%
GeForce GTX 960 49,4% 67,6% +37%

Rein technisch (sprich nur die Relationen der Zahlen betrachtend) ergeben sich hier einige interessante Schlüsse: So liegt die GeForce GTX 960 in diesem Test deutlich unterhalb ihres normalen Abstands zu den HighEnd-Grafikkarten, an dieser Stelle wird die Karte dann von ihrem nur 128 Bit DDR breiten Speicherinterface sowie den nut 2 GB Speicher limitiert (ist aber natürlich auch niemals für eine solche Auflösung konstruiert worden). Zudem überrascht die Radeon R9 290X mit einem herausragendem Ergebnis, welches sogar die Performance der nominell schnelleren GeForce GTX 980 um immerhin 15% schlägt. Hier zahlt sich das doppelte Speicherinterface der AMD-Karte wohl vollens aus. Die anderen Karten laufen hingegen im Rahmen der von diesen erwartbaren Performance mit.

Unter CrossFire & SLI ändert sich daran wenig, der Abstand zwischen Radeon R9 290X CrossFire und GeForce GTX 980 SLI steigt leicht auf 17½%, resultierend aus einer leicht besseren CrossFire-Skalierung als SLI-Skalierung. Über alle Karten betrachtend sind die CrossFire- bzw. SLI-Gewinne aber im selben Rahmen – welcher jedoch mit zwischen +32% bis +38% viel zu niedrig liegt, hierfür lohnt die zweite Grafikkarte eigentlich nicht. Ironischerweise kommt man allerdings unter 5K bei den meisten Spielen nur unter CrossFire bzw. SLI auf halbwegs spielbare Frameraten, bei einer einzelnen Grafikkarte gibt es nur auf der Hälfte der getesteten Spieletitel halbwegs anständige Frameraten für Radeon R9 290X und GeForce GTX 980 – und in diesem Testfeld fehlen wie gesagt die wirklich anspruchsvollen Hardware-Schocker noch.

In der Summe der Dinge ist dies ein schöner Sieg für die Radeon R9 290X, welche einmal mehr ihre bessere Eignung für besonders hohe Auflösung unter Beweis stellt. Nichtsdestotrotz wird 5K-Gaming nicht vor der nächsten Grafikchip-Generation ein beachtbares Thema werden, derzeit sind die erreichten Frameraten im SingleChip-Bereich noch viel zu niedrig und die CrossFire/SLI-Gewinne durch augenscheinlich unabgepasste Treiber völlig indiskutabel. Besitzer von 5K-Monitoren sollte Spiele eher unter der geviertelten Auflösung von 2560x1440 starten, während die native Displayauflösung von 5120x2880 derzeit nur für den Windows-Betrieb wirklich nutzbar ist.

5

ARM kündigt mit dem Cortex-A72 seine zweite 64-Bit-Generation an

Prozessorenentwickler ARM hat mit dem Cortex-A72 seinen zweiten 64-Bit-Prozessor der ARMv8-Architektur vorgestellt, welcher erhebliche Vorteile gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57 bringen soll. Leider sind die von ARM zur Verfügung gestellten Angaben arg dürftig, im Endeffekt vermeldet man nur, was der Prozessor am Ende können soll – nicht aber, wie diese großen Sprünge erreicht worden sind. Zudem wird der seitens ARM primär gegenüber dem schnellsten 32-Bit-Chip Cortex-A15 verglichen, nicht direkt gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57. Trotzdem gibt ARM auch in diesem Vergleich noch hohe Performancegewinne an, zwischen Cortex-A57 und Cortex-A72 soll die Performance (bei typischem Power-Budget eines Smartphones) um immerhin ~84% steigen, der Energieverbrauch (bei gleicher Workload) um 55% niedriger liegen.

Cortex-A15 Cortex-A57 Cortex-A72
Architektur ARM v7 (32-Bit) ARM v8 (32/64-Bit) ARM v8 (32/64-Bit)
max. CPU-Kerne 4 4 4
max. Taktraten 2.5 GHz ~2.0 GHz 2.5 GHz
(Ankündigung)
Fertigung 32/28nm 20nm 16nm
Performance lt. ARM
(selbes Energiebudget)
100% 190% 350%
(~85% mehr als A57)
Energieverbrauch lt. ARM
(gleiche Workload)
100% ~55% 25%
(~55% weniger als A57)

In beide Fälle dürfte die 16nm-Fertigung des Cortex-A72 maßgeblich mit hineinspielen, weil mit jener natürlich höhere Taktraten als mit der 20nm-Fertigung des Cortex-A57 möglich werden. So haben die bisherigen 20nm-Chips bekannterweise gewisse Taktprobleme, während ARM für die 16nm-Chip Taktraten von bis zu 2.5 GHz verspricht. Ein größerer Teil des Performance-Gewinns sowie nahezu alles vom Stromspareffekt dürfte somit schlicht auf diese 16nm-Fertigung zurückzuführen sein. Danach wird es dann aber eng mit Erklärungen für die (versprochene) höhere Performance des Cortex-A72 – selbst das an dieser Stelle oftmals erwähnte 128 Bit DDR Speicherinterface gab es letztlich schon beim Cortex-A15, das offizielle Blockschaltbild zeigt zudem kaum Veränderungen gegenüber dem Cortex-A57 an.

Die zweite 64-Bit-Generation von ARM soll wie gesagt in der 16nm-Fertigung hergestellt werden, vor dem Jahr 2016 wird es diesbezüglich also nichts geben. Die große Masse entsprechender Prozessoren könnte sogar erst 2017 kommen, schließlich stellt ARM nur das Design einer Architektur zur Verfügung, keinerlei produktionsreife Chips. Viele Hersteller verwenden zudem nicht das originale ARM-Design, sondern setzen einige Verbesserungen und Erweiterungen an (oftmals eine eigene oder von Drittherstellern stammende Grafiklösung), was weitere Designzeit kosten wird. Das ganze ist aus Endverbrauchersicht also weder ein Launch noch eine Vorstellung, sondern eher eine Ankündigung für ein in der mittleren Zukunft liegendes Produkt. Interessant ist der Cortex-A72 neben dem Smartphone/Tablet-Segment aber auch aus PC-Sicht, denn schließlich dürfte AMD die Architektur des Cortex-A72 als Grundlage für die eigenen ARM-basierten Prozessoren für den LowPower- und Microserver-Bereich benutzen.

4

Hardware- und Nachrichten-Links des 4. Februar 2015

In einem Nebensatz erwähnen Business Korea, daß zu den ersten Kunden von Samsungs 14nm-Fertigung, welche ab dem zweiten Quartal 2015 anlaufen soll, neben den üblichen Verdächtigen Apple & Qualcomm nun auch nVidia gehören soll. Wenn sich dies bestätigen sollte, wäre dies natürlich ein Schocker, denn nVidia hat seit den Anfangstagen immer nur bei TSMC fertigen lassen. Zwar bezieht sich der Artikel von Business Korea nirgendwo auf Grafikchips, andererseits hat nVidia kaum noch anderes im Programm, was eine derart fortschrittliche Fertigungstechnologie bedingen würde – ob die Tegra-Chips nun in 28nm, 20nm oder 14nm herauskommen, spielt für deren Performance im aktuellen Aufgabenbereich (vorwiegend Car-Technologie) kaum eine Rolle. Nur im Grafikchip-Bereich benötigt nVidia wirklich dringend neue Fertigungsverfahren und würde sicherlich gern die 14nm-Fertigung von Samsung benutzen, da man damit eine (unerhoffte) Antwort auf die Gefahr hat, AMD könnte mit der 14nm-Fertigung von GlobalFoundries (in Lizenz von Samsung) nVidia mal fix die Rücklichter zeigen.

Von einer sicheren Information sollte man hierbei allerdings noch lange nicht ausgehen, dafür sind die Verbindungen nVidias zu TSMC zu stark und langjährig, zudem ist man bei Samsung als Auftragnehmer auch weit weniger wichtig als die Schwergewichte Apple & Qualcomm, kann unter Umständen auch erst nach diesen bedient werden – was bei den riesigen Volumen von Apple & Qualcomm eine monatelange Verzögerung bedeuten könnte. Zudem wurde die der Maxwell-Generation nachfolgende Pascal-Architektur eigentlich regelmäßig als in 16nm gefertigt beschrieben, was es eben nur bei TSMC gibt. Unter Umständen ändert sich an diesen Plänen auch nichts und nVidia legt bei Samsung nur einen Testballon auf – welcher bei den Preisverhandlungen mit TSMC immer als nutzvoll erscheint. Alternativ ist auch eine parallele Herstellung derselben Chips bei zwei Auftragsfertigern denkbar. Daß sich nVidia hingegen von TSMC verabschieben sollte, erscheint als die eher unwahrscheinlichste Auflösung dieser Geschichte – welche wie gesagt wegen vieler Unwägbarkeiten keineswegs als gesicherte Information angesehen werden kann

Die chinesische VR-Zone (maschinelle Übersetzung ins Deutsche) zeigt die genauen Daten zu den kommenden 100er Chipsätzen für Intels Skylake-Architektur im Sockel 1151. Ähnlich den letzten Chipsatz-Serien bei Intel wird es hier wieder Business-, Mainstream- und Overclocking-Chipsätze geben, letzteres ist natürlich mangels K-Prozessoren aus der Skylake-Architektur nur arg eingeschränkt möglich. Entscheidender Punkt der neuen Chipsatz-Serie ist die deutliche Aufwertung der Southbridge, welche endlich einmal PCI Express 3.0 anbieten wird. Selbiges wird in letzter Zeit immer mehr notwendig durch schnelle SSDs, welche auf PCI Express 2.0 einfach zu viele (der meist knappen) PCI Express Lanes benötigen, um ihre Performance ausspielen zu können. Zugleich werden die hochwertigen Chipsätze H170 und Z170 auch eine viel höhere Anzahl an PCI Express Lanes bieten – anstatt bisher maximal 8 dann 16 bzw. 20. Damit steigt die insgesamt zur Anbindung von PCI-Express-Peripherie zur Verfügung stehende Bandbreite zwischen Z97-Chipsatz mit 8 PCI Express 2.0 Lanes auf 20 PCI Express 3.0 Lanes beim Z170-Chipsatz auf das nahezu Vierfache an. Wer mit umfangreichen Festplatten- und SSD-Konfigurationen arbeitet, für den werden diese Skylake-Chipsätze also viel gutes bringen.

Heise berichten über die Entscheidung der US-Wettbewerbsbehörde FCC, das Internet analog dem Telefonnetz zum "Universaldienst" zu erklären, worauf man gesetzlich deutlich mehr Regulierungsmöglichkeiten haben würde. Hintergrund dieser Entscheidung ist das Ringen um die Netzneutralität – wo es in den USA der FCC mit der bisherigen Rechtslage nicht möglich ist, eine Netzneutralität gegenüber den Netzbetreibern durchzusetzen. Nach der Definition als "Universaldienst" ist dagegen eine fast unbeschränkte Regulierung möglich – weshalb die Anwälte der großen Internet-Provider in den USA schon ihre Messer wetzen (bzw. großen Zahltagen entgegensehen), um eben jene Neu-Definition anzuzweifeln. Angesichts des recht freizügigigen US-Unternehmensrechts können sich die Internet-Provider durchaus Chancen ausrechnen, diesen Rechtsstreit zu gewinnen oder in einen faulen Kompromiß zu treiben. Sollte sich dagegen die FCC durchsetzen, wäre eine Netzneutralität nachfolgend durchaus durchsetzbar – zumindest so lange nicht eine neue Regierung nach der US-Wahl 2016 eventuell eine andere FCC-Führung einsetzt.

4

Das Speicherinterface der GeForce GTX 970 erreicht nirgendwann mehr als 224 Bit DDR

Die bisherigen Beschreibungen der Speicheraufteilung der GeForce GTX 970 sind zumeist auch noch nicht gänzlich korrekt, natürlich geschuldet den nach wie vor mangelhaft wenigen Informationen seitens nVidia. Allgemein geht man bisher davon aus, daß es sich um "3,5 + 0,5" GB Speicher handelt und vor allem um ein Speicherinterface in einer "224 + 32" Bit DDR Unterteilung – sprich, der schnelle Speicherbereich ist mit 224 Bit angebunden, der langsame nur mit 32 Bit. Letzteres läßt allerdings eine wichtige Information aus, wie einem erklärenden Forums-Posting zu entnehmen ist: Danach fehlt in dieser (üblichen) Darstellung noch der Punkt, daß beide Speicherbereiche nicht gleichzeitig ansprechbar sind. Sofern der Grafikchip etwas aus dem langsamen Speicherbereich holt oder schreibt, ist zu dieser Zeit der Zugriff auf den schnellen Speicherbereich nicht möglich (und umgedreht).

Die Grafikkarte kann also zu keinem Zeitpunkt ihr volles 256 Bit DDR Speicherinterface ausnutzen, sondern kann gleichzeitig maximal 224 Bit nutzen – und beim Zugriff auf den langsamen Speicherbereich sogar nur insgesamt 32 Bit. Dies senkt dann natürlich auch die theoretische Speicherbandbreite deutlich ab, denn angenommen eines mit 4 GB voll belegten Speichers und eines gleichförmigen Zugriffs auf den Speicher würde zu 7/8 der Zeit der schnelle Speicherbereich mit 224 Bit DDR Interface benutzt (196 GB/sec, zu 1/8 der Zeit aber der langsame Speicherbereich mit seinem nur 32 Bit DDR Interface (28 GB/sec). Weil beide Speicherbereiche nicht gleichzeitig ansprechbar sind, kann man die erreichten Speicherbandbreiten dann auch nicht addieren, sondern muß sie vielmehr gegeneinander aufrechnen: Gemittelt erreicht die GeForce GTX 970 bei 4 GB Speicherbelegung eine Speicherbandbreite von nur noch 175 GB/sec – und damit weniger als bei einer Speicherbelegung von bis zu 3,5 GB.

GeForce GTX 970
(alt & falsch!)
GeForce GTX 970
(Korrektur No.1)
GeForce GTX 970
(Korrektur No.2)
GeForce GTX 980
Technik 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 256 Bit DDR Interface (nur 224 Bit performant nutzbar), 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 224 Bit DDR Interface, 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache
ROP-Leistung 70,4 GPix/sec 61,6 GPix/sec 61,6 GPix/sec 73,2 GPix/sec
Speicherbandbreite 224 GB/sec 196 GB/sec
(nur 224 Bit performant nutzbar)
196 GB/sec
(nur bis 3,5 GB Speicherbelegung)
224 GB/sec
Speicherausbau 4 GB GDDR5 4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5

Neben dieser weiteren Absenkung der Rohleistung (welche aber wie gesagt erst ab einer Speichernutzung oberhalb von 3,5 GB zutrifft) dürfte bezüglich diesem Detail vor allem der Punkt der offiziellen Speicherinterface-Spezifikation von Interesse sein. Bisher wurde die GeForce GTX 970 trotz der Änderungen durch die 3,5-GB-Problematik weiterhin als mit einem "256 Bit DDR Speicherinterface" ausgerüstet beschrieben. Da von jenem Speicherinterface gleichzeitig aber nur maximal 224 Bit DDR nutzbar sind und die letzten 32 Bit DDR eben nur exklusiv funktionieren, stellt sich wirklich die Frage, ob diese Schreibweise richtig sein kann. Auch wenn acht 32bittige Speichercontroller verbaut und 256 Datenleitungen verlegt sind, beherrscht das verbaute Speicherinterface eben nur bestenfalls einen 224-Bit-Modus.

Korrekterweise müsste man dazu auch "224 Bit DDR Speicherinterface" sagen – und zwar selbst in den offiziellen Spezifikationslisten. Jegliches "+32 Bit" als Zusatz verbietet sich, da das Pluszeichen fälschlicherweise suggerieren würde, daß es noch mehr oben drauf gibt. Real gibt es aber eben weniger Speicherbandbreite und weniger Performance, sofern man den langsamen Speicherbereich anspricht. Wenn man es ganz genau nimmt, wäre die korrekte Beschreibung ein "32/224 Bit DDR Speicherinterface" – welches man in Kurzform sicherlich als "224 Bit DDR Interface" bezeichnen kann. In jedem Fall kommt es hiermit zu einem weiteren Punkt, in welchem die offiziellen Kartenspezifikationen der GeForce GTX 970 falsch sind: Es kann kein reales 256 Bit DDR Speicherinterface anliegen, wenn selbst im allerbesten Fall nur eine Konfiguration erreicht wird, die ein 224 Bit DDR Speicherinterface ergibt.

4

Die Systemanforderungen zu Battlefield Hardline

Spielepublisher Electronic Arts hat bei Origin die offiziellen Systemanforderungen für Battlefield Hardline bekanntgegeben und damit gleichzeitig auch den Start der bis zum 8. Februar reichenden OpenBeta-Phase eingeläutet. Der neueste Teil der Battlefield-Spielereihe ist von den Systemanforderungen her ähnlich zu Battlefield 4, in Teilen will das Spiel aber dann doch etwas stärkere Hardware sehen. Mit dabei sind wieder die üblichen Verdächtigen in Form von 4 GB Speicher als Minimum und 8 GB als Empfehlung sowie ein 64-Bit-Windows ab Windows Vista – und EA-typisch der Zwang zum hauseigenen Origin-Onlinedienst.

Bei den Prozessoren reichen als Minimum ein Core i3 ab 2.4 GHz Takt sowie ein Athlon II oder Phenom II ab 2.8 GHz Takt – wobei dies dann doch schon ein großer Unterschied ist, denn bei AMD fallen unter diese Charakteristik auch vergleichsweise schwache Prozessoren, während bei Intel ein Core i3 immer eine ehrbare Sache darstellt. Aufgrund dieser allgemein recht niedrigen Mindest-Anforderungen auf CPU-Seite dürften auch Intels Core 2 Modelle noch irgendwie mitkommen – die Vierkerner besser, die Zweikerner dann schlechter.

Empfohlen werden dagegen auf Prozessoren-Seite ein Sechskerner von AMD oder ein Vierkerner von Intel – was ebenfalls einigen Interpretationsspielraum offenläßt. Denn auch ein Core 2 Quad ist ein Intel-Vierkerner, die Erfahrungen mit Battlefield 4 zeigen jedoch, daß es diese älteren Prozessoren inzwischen recht schwer haben. Vermutlich sind an dieser Stelle die von Electronic Arts notierten Anforderungen etwas zu zahm gegenüber der Anwenderpraxis, welche für einen echten Spielgenuß eher einen Vierkerner von Intel ab der Sandy-Bridge-Serie oder einen Achtkerner von AMD mit hoher Taktrate sehen sollte.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows Vista, 7, 8.0 oder 8.1
Prozessor AMD Athlon II & Phenom II ab 2.8 GHz
Intel Core i3 ab 2.4 GHz
AMD Sechskern-CPU
Intel Vierkern-CPU
RAM 4 GB
(nicht zwingend vorausgesetzt)
8 GB
DirectX DirectX 10.0 DirectX 11.0
Grafikkarte AMD Radeon HD 5770 1GB
nVidia GeForce GTX 260 896MB
AMD Radeon R9 290
nVidia GeForce GTX 760
VRAM ~1 GB
(nicht zwingend vorausgesetzt)
3 GB
HDD 60 GB freier Festplattenspeicherplatz
Dienste Origin

Bei den Grafikkarten reichen als Minimum (angeblich) Radeon HD 5770 oder GeForce GTX 260 – wobei die Notierung letztgenannter nVidia-Grafikkarte auch aussagt, daß man nicht zwingend DirectX 11 benötigt (wie von Electronic Arts explizit auch als Minimum so genannt), sondern daß eben auch eine Grafikkarte auf "nur" DirectX 10 auszureichen scheint. Ob auf der Leistungsklasse der beiden genannten Grafikkarten – im 3DCenter Performance-Index auf Werten von 115% bzw. ~125% liegend – eine anständige Performance herauskommen kann, darf daneben aber sowieso bezweifelt werden, die Erfahrungen von Battlefield 4 sprechen hier dagegen.

Empfohlen werden dagegen auf Grafikkarten-Seite dann Radeon R9 290 oder GeForce GTX 760 mit jeweils 3 GB Grafikkartenspeicher – wobei dies gleich in doppelter Hinsicht nicht passt. Zum einen ist die Radeon R9 290 (Perf.Index 460%) aber massiv schneller als die GeForce GTX 760 (Perf.Index 310%), zum anderen wird das nVidia-Modell per default nur mit 2 GB Grafikkartenspeicher ausgeliefert (auch wenn es Hersteller-Varianten mit gleich 4 GB Speicher gibt). An der Stelle läßt Electronic Arts einen regelrecht raten, was denn nun diese Anforderungen zu bedeuten haben: Benötigt Battlefield Hardline eine wirklich so viel stärkere AMD-Hardware – oder hat man nVidia durch die Nennung der GeForce GTX 760 schlicht einen Gefallen getan, wird real eher so etwas wie eine GeForce GTX 780 benötigt? Man darf sich überraschen lassen, mit welcher Hardware Battlefield Hardline dann wirklich optimal spielbar sein wird.

Zwischen minimalen und empfohlenen Anforderungen herrscht bei den Grafikkarten ein heftiger Performance-Unterschied (ausgehend von der Radeon R9 290 satte 300% mehr), was auf eine extrem starke Skalierung des Spiels mit steigenden Anforderungen hindeutet. Vermutlich gibt es damit kaum Reserven für Downsampling Anti-Aliasing oder die 4K-Auflösung, zumindest nicht mit "normalen" Grafikkarten. Als echte Zwänge sind bei diesem Spiel wie gesagt "nur" das 64-Bit-Windows, DirectX 10 und Origin zu nennen, die erwähnten 4 GB Speicher als Minimum darf man laut weiterführenden Angaben von Electronic Arts dagegen unterschreiten.

Inhalt abgleichen