6

Angebliche AMD NextGen-Benchmarks zeigen deutlich mehr Performance als bei der GeForce GTX 980

Unter dem markanten Schlagsatz "The Return of the King" (wann schafft es das AMD-Marketing eigentlich, mal so etwas rauszuhauen?) haben sich im Chiphell-Forum neue Benchmarks einer zukünftigen HighEnd-Grafikkarte eingefunden. Die etwas kryptische Beschreibung deutet darauf hin, daß es sich hierbei weder um Benchmarks zu nVidias GM200- noch AMDs Bermuda-Chip handeln soll – was allein AMDs Fiji-Chip übrig läßt. Daß es ein AMD-Chip ist, deutet das verwendete Bild einer tropischen Insel schon erst einmal ziemlich eindeutig an (interessanterweise ein Bild von Treasure Island, weder von Fiji, noch von Bermuda). Allerdings sind diese (angeblichen) Benchmarks nunmehr wieder komplett abweichend von den bisherigen Zahlen bzw. entsprechend einem Performance-Niveau, welches bei den bisherigen Benchmarks nicht der Fiji-, sondern der Bermuda-Chip erreichte.

Andererseits war es schon immer zweifelhaft, wieso seinerzeit im Dezember 2014 bereits lauffähige Exemplare des Bermuda-Chips vorliegen sollten, denn jener Chip scheint nun eher ein Projekt des Jahresendes 2015 zu sein und setzt dabei wahrscheinlich sogar die 14nm-Fertigung voraus, welcher derzeit noch gar nicht spruchreif genug für lauffähige und vor allem auf echter Taktrate laufende Exemplare ist. Gut möglich, daß bei den früheren Benchmarks allesamt nur Fiji-Exemplare vorlagen und nur mangels Kenntnis falsch benannt wurden. Die sehr unterschiedliche Performance dieser Fiji-Exemplare läßt sich gut und gerne mittels verschiedener Taktungen erklären, zu dieser Zeit scheint sich AMD sowieso in einer Phase der Taktfindung zum Fiji-Chip befunden zu haben.

Angebliche AMD NextGen-Benchmarks, Teil 1
Angebliche AMD NextGen-Benchmarks, Teil 1
Angebliche AMD NextGen-Benchmarks, Teil 2
Angebliche AMD NextGen-Benchmarks, Teil 2

Lange Rede, kurzer Sinn: Wirklichen Sinn ergeben die neuen Benchmarks nur, wenn man die früheren Benchmarks nicht mehr ernst nimmt bzw. zumindest deren Benennung in Frage stellt. Was umgedreht aber auch wieder bedeutet, daß man die neuen Benchmarks nicht zwingend ernst nehmen muß, denn auch hierbei könnte es sich um glatte Fälschungen, einen Scherz seitens AMD oder aber Mißinterpretationen handeln. Nicht einfacher macht die Betrachtung dann der Punkt, daß alle diese Zahlen aus dem Chiphell-Forum von ein und demselben Poster stammen – welcher sich leider nur extrem unzureichend erklärt und letztlich nahezu mehr Fragen aufwirft als beantwortet.

Doch wenn man sich einmal auf diese Zahlen einlassen will, dann ergibt sich schlicht das Bild einer AMD NextGen-Grafikkarte, welche im Schnitt einiger Spiele-Benchmarks um immerhin 51,2% vor der Radeon R9 290X sowie um 34,5% vor der GeForce GTX 980 liegen soll und dabei durchaus nahe der Performance-Sphäre einer Radeon R9 295X2 kommt (letztere nur um 13,3% schneller). Erreicht werden soll dies zu einem Stromverbrauch, welcher gegenüber der Radeon R9 290X nahezu unverändert ist, was aber mit 295 Watt (reine Grafikkarte augenscheinlich) auch nicht gerade niedrig ausfällt. Andererseits wäre es gegenüber der Radeon R9 290X ein extremer Effizienzgewinn, wenn AMD hier 51,2% mehr Performance zu nur 2,4% mehr Stromverbrauch bieten würde. Die Stromersparnis durch Verwendung von HBM-Speicher wird hier natürlich auch mit hineinspielen.

Im 3DCenter Performance-Index würde AMDs NextGen-Karte damit auf einen Wert von ~760-780% kommen, was deutlich mehr als bei der schnellsten SingleChip-Grafikkarte in Form der GeForce GTX 980 (Perf.Index 570%) wäre und durchaus in die Nähe der DualChip-Grafikkarten Radeon R9 295X2 (Perf.Index 840%) und GeForce GTX Titan Z (Perf.Index ~840%) geht. Zudem wäre man damit in Reichweite der Performance von nVidias kommendem HighEnd-Chip GM200, dessen letzte Performance-Prognosen auf +30-40% zur GeForce GTX 980 stehen, AMDs NextGen-Grafikkarte würde hierbei mit +34,5% zur GeForce GTX 980 sehr gut mitspielen können. Ob dies alles so passend ist, steht aber wie gesagt zur Debatte – echte Sicherheiten gibt es zu diesen neuen Zahlen nicht, erst die Praxis späterer Benchmarks der Serienprodukte wird letztlich zeigen, ob diese Vorab-Zahlen uns in die richtige oder falsche Richtung verwiesen haben.

5

Hardware- und Nachrichten-Links des 5. Februar 2015

Im Fall des "3,5-GB-Problem" der GeForce GTX 970 gibt es laut der PC Games Hardware mit Cyberport einen weiteren Händler, welche die Karte umstandslos zurücknimmt. Zudem wird ein Warnhinweis beim beliebten Geizhals-Preisvergleich vermeldet, welcher bei einer GeForce GTX 970 Karte auf "Achtung! Nur 3.5GB performant nutzbar" lautet. Daneben gibt es eine gewisse Diskussion zu der kürzlichen Meldung, die GeForce GTX 970 könne in keiner Situation mehr als ein 224 Bit DDR Speicherinterface nutzen, womit die offizielle Spezifikationsangabe "256 Bit DDR Speicherinterface" ebenfalls falsch sei. Die Diskussion zur Meldung zeigt sowohl Beführworter als auch Kritiker dieser Darstellung, das letzte Wort hierzu scheint also noch nicht gesprochen zu sein bzw. bleibt es abzuwarten, ob hier noch irgendwas erhellendes nachkommt (wir korrigieren uns bei Vorlage neuer Informationen gern). Und letztlich ist in unserem Forum noch ein neues "GeForce GTX 970 Meme" aufgetaucht.

Nochmals die PC Games Hardware berichtet über die Möglichkeit, daß sich die Grafikchip-Entwickler zukünftig für CrossFire-/SLI-Settings verstärkt dem "Split Frame Rendering" (SFR) Modus zuwenden könnten, welcher im Gegensatz zum derzeitig vornehmlich genutzten "Alternate Frame Rendering" (AFR) Modus weniger Probleme bezüglich Mikrorucklern hat und zudem nicht den Punkt mitbringt, daß in den Speichern aller genutzten Grafikchips immer weitgehend derselbe Inhalt liegt, eine CrossFire-/SLI-Kombination mit 2x4 GB Speicher also nur real nutzbare 4 GB Speicher hat. Allerdings ist der Hintergrund der ganze Diskussion nur ein Twitter-Posting eines AMD-Mitarbeiters, welcher die Klassifizierung einer 2x4-GB-Grafikkarte als "real nur 4 GB" anzweifelt. Ob man daraus wirklich eine intensive und vor allem von den Spieleentwicklern auch angenommene Arbeit an SFR herauslesen kann, darf man bis zum Vorliegen offizieller Aussagen oder praktischer Ergebnisse durchaus anzweifeln. Letztlich gilt hierzu die einfache Weisheit, daß sich die wenigsten Spielentwickler großartig Gedanken um CrossFire/SLI machen und daher an dieser Stelle immer diesen Weg gehen werden, welcher möglichst wenig Arbeit mit sich bringt.

Videocardz zeigen dagegen eine kleine Facebook-Konversation zwischen einem AMD und einem Anwender, bei welcher letzterer AMD ein wenig zum Releasetermin neuer HighEnd-Grafikkarten kitzeln wollte. AMD hat nur eher ausweichend mit "We're still putting the finshing touches on the 300 series" geantwortet – was man in Richtung eines baldigen Erscheinungsdatums lesen kann (sicherlich von AMD so beabsichtigt), letztlich aber gar nichts festes hierzu aussagt. Das einzige, was hier passiert ist, wäre die semi-offizielle Bestätigung der Radeon R300 Serie durch AMD höchstselber – und da die Hersteller normalerweise nicht einmal die Existenz unreleaster Produkte bestätigen wollen, ist dies auch schon etwas. Als Erscheinungstermin der Radeon R300 Serie darf man weiterhin vom Ende des zweiten Quartals ausgehen – was dann aber neben dem Fiji-Chip respektive der Radeon R9 380X genau kommt, ist aber noch vollkommen in der Schwebe.

Gulf News bringen die offizielle Aussage eines Intel-Mitarbeiters, wonach Intel seine ersten 10nm-Chips Anfang 2017 herausbringen wird. Als einziges 10nm-Produkt seitens Intel ist bislang die Skylake-Nachfolgearchitektur "Cannonlake" bekannt, welche auf früheren Roadmaps für das Jahr 2016 eingezeichnet war. Gemäß dem zuletzt bei Intel geltenden Releaseverlauf von üblicherweise Sommer-Start von neuen Architekturen für Mainstream-, HighEnd- und Server-Prozessoren verspätet sich "Cannonlake" mit dieser Meldung also um mindestens ein halbes Jahr – je nach endgültigem Releasetermin auch bis zu einem dreiviertel Jahr. Angesichts des breiten Starts der Skylake-Architektur nun schon in diesem Sommer hat Intel damit eigentlich gar nichts mehr im Jahr 2016 geplant – möglicherweise kommt 2016 noch Skylake-E, aber dies ist für den Mainstream-Markt nicht weiter interessant. Da Intel kaum ein ganzes Jahr im Mainstream-Bereich nichts vorstellen wird, darf man sich wohl auf einen Skylake-Refresh irgendwo im zweiten Quartal 2016 einstellen – nachdem der (notgedrungene) Haswell-Refresh anno 2014 sich nun nicht schlecht für Intel entwickelt hat, dürfte man hierzu weniger Berührungsängste haben.

5

HighEnd-Grafikkarten samt CrossFire & SLI unter 5K getestet

Die PC Games Hardware hat anläßlich des 5K-Monitors Dell UP2715K mehrere HighEnd-Grafikkarten samt deren CrossFire/SLI-Pendants unter der Monsterauflösung von 5120x2880 verglichen. Solcherart Benchmarks sind – auf ein beachtbares Benchmark-Feld – eher selten, weswegen sich die extra Betrachtung dieses Artikels lohnt. Das Benchmark-Feld besteht aus einem Mix an halbwegs neuen und ein paar Jahren alten Spielen, die extrem anspruchsvollen Titel wurden wohlweislich gar nicht erst bemüht. Zudem wurde durchgehend auf ein extra Anti-Aliasing verzichtet, was bei einer solch hohen Auflösung bzw. Pixeldichte schließlich auch kaum noch zu einer besseren Bildqualität beiträgt, dafür aber viel zu viel an Performance kostet.

eine GPU zwei GPUs @ CrossFire/SLI CrossFire/SLI-Gewinn
Radeon R9 290X 115,7% 160,0% +38%
Radeon R9 280X 65,8% 90,0% +37%
GeForce GTX 980 100% 136,1% +36%
GeForce GTX 970 84,1% 111,0% +32%
GeForce GTX 960 49,4% 67,6% +37%

Rein technisch (sprich nur die Relationen der Zahlen betrachtend) ergeben sich hier einige interessante Schlüsse: So liegt die GeForce GTX 960 in diesem Test deutlich unterhalb ihres normalen Abstands zu den HighEnd-Grafikkarten, an dieser Stelle wird die Karte dann von ihrem nur 128 Bit DDR breiten Speicherinterface sowie den nut 2 GB Speicher limitiert (ist aber natürlich auch niemals für eine solche Auflösung konstruiert worden). Zudem überrascht die Radeon R9 290X mit einem herausragendem Ergebnis, welches sogar die Performance der nominell schnelleren GeForce GTX 980 um immerhin 15% schlägt. Hier zahlt sich das doppelte Speicherinterface der AMD-Karte wohl vollens aus. Die anderen Karten laufen hingegen im Rahmen der von diesen erwartbaren Performance mit.

Unter CrossFire & SLI ändert sich daran wenig, der Abstand zwischen Radeon R9 290X CrossFire und GeForce GTX 980 SLI steigt leicht auf 17½%, resultierend aus einer leicht besseren CrossFire-Skalierung als SLI-Skalierung. Über alle Karten betrachtend sind die CrossFire- bzw. SLI-Gewinne aber im selben Rahmen – welcher jedoch mit zwischen +32% bis +38% viel zu niedrig liegt, hierfür lohnt die zweite Grafikkarte eigentlich nicht. Ironischerweise kommt man allerdings unter 5K bei den meisten Spielen nur unter CrossFire bzw. SLI auf halbwegs spielbare Frameraten, bei einer einzelnen Grafikkarte gibt es nur auf der Hälfte der getesteten Spieletitel halbwegs anständige Frameraten für Radeon R9 290X und GeForce GTX 980 – und in diesem Testfeld fehlen wie gesagt die wirklich anspruchsvollen Hardware-Schocker noch.

In der Summe der Dinge ist dies ein schöner Sieg für die Radeon R9 290X, welche einmal mehr ihre bessere Eignung für besonders hohe Auflösung unter Beweis stellt. Nichtsdestotrotz wird 5K-Gaming nicht vor der nächsten Grafikchip-Generation ein beachtbares Thema werden, derzeit sind die erreichten Frameraten im SingleChip-Bereich noch viel zu niedrig und die CrossFire/SLI-Gewinne durch augenscheinlich unabgepasste Treiber völlig indiskutabel. Besitzer von 5K-Monitoren sollte Spiele eher unter der geviertelten Auflösung von 2560x1440 starten, während die native Displayauflösung von 5120x2880 derzeit nur für den Windows-Betrieb wirklich nutzbar ist.

5

ARM kündigt mit dem Cortex-A72 seine zweite 64-Bit-Generation an

Prozessorenentwickler ARM hat mit dem Cortex-A72 seinen zweiten 64-Bit-Prozessor der ARMv8-Architektur vorgestellt, welcher erhebliche Vorteile gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57 bringen soll. Leider sind die von ARM zur Verfügung gestellten Angaben arg dürftig, im Endeffekt vermeldet man nur, was der Prozessor am Ende können soll – nicht aber, wie diese großen Sprünge erreicht worden sind. Zudem wird der seitens ARM primär gegenüber dem schnellsten 32-Bit-Chip Cortex-A15 verglichen, nicht direkt gegenüber der ersten 64-Bit-Generation in Form des Cortex-A57. Trotzdem gibt ARM auch in diesem Vergleich noch hohe Performancegewinne an, zwischen Cortex-A57 und Cortex-A72 soll die Performance (bei typischem Power-Budget eines Smartphones) um immerhin ~84% steigen, der Energieverbrauch (bei gleicher Workload) um 55% niedriger liegen.

Cortex-A15 Cortex-A57 Cortex-A72
Architektur ARM v7 (32-Bit) ARM v8 (32/64-Bit) ARM v8 (32/64-Bit)
max. CPU-Kerne 4 4 4
max. Taktraten 2.5 GHz ~2.0 GHz 2.5 GHz
(Ankündigung)
Fertigung 32/28nm 20nm 16nm
Performance lt. ARM
(selbes Energiebudget)
100% 190% 350%
(~85% mehr als A57)
Energieverbrauch lt. ARM
(gleiche Workload)
100% ~55% 25%
(~55% weniger als A57)

In beide Fälle dürfte die 16nm-Fertigung des Cortex-A72 maßgeblich mit hineinspielen, weil mit jener natürlich höhere Taktraten als mit der 20nm-Fertigung des Cortex-A57 möglich werden. So haben die bisherigen 20nm-Chips bekannterweise gewisse Taktprobleme, während ARM für die 16nm-Chip Taktraten von bis zu 2.5 GHz verspricht. Ein größerer Teil des Performance-Gewinns sowie nahezu alles vom Stromspareffekt dürfte somit schlicht auf diese 16nm-Fertigung zurückzuführen sein. Danach wird es dann aber eng mit Erklärungen für die (versprochene) höhere Performance des Cortex-A72 – selbst das an dieser Stelle oftmals erwähnte 128 Bit DDR Speicherinterface gab es letztlich schon beim Cortex-A15, das offizielle Blockschaltbild zeigt zudem kaum Veränderungen gegenüber dem Cortex-A57 an.

Die zweite 64-Bit-Generation von ARM soll wie gesagt in der 16nm-Fertigung hergestellt werden, vor dem Jahr 2016 wird es diesbezüglich also nichts geben. Die große Masse entsprechender Prozessoren könnte sogar erst 2017 kommen, schließlich stellt ARM nur das Design einer Architektur zur Verfügung, keinerlei produktionsreife Chips. Viele Hersteller verwenden zudem nicht das originale ARM-Design, sondern setzen einige Verbesserungen und Erweiterungen an (oftmals eine eigene oder von Drittherstellern stammende Grafiklösung), was weitere Designzeit kosten wird. Das ganze ist aus Endverbrauchersicht also weder ein Launch noch eine Vorstellung, sondern eher eine Ankündigung für ein in der mittleren Zukunft liegendes Produkt. Interessant ist der Cortex-A72 neben dem Smartphone/Tablet-Segment aber auch aus PC-Sicht, denn schließlich dürfte AMD die Architektur des Cortex-A72 als Grundlage für die eigenen ARM-basierten Prozessoren für den LowPower- und Microserver-Bereich benutzen.

4

Hardware- und Nachrichten-Links des 4. Februar 2015

In einem Nebensatz erwähnen Business Korea, daß zu den ersten Kunden von Samsungs 14nm-Fertigung, welche ab dem zweiten Quartal 2015 anlaufen soll, neben den üblichen Verdächtigen Apple & Qualcomm nun auch nVidia gehören soll. Wenn sich dies bestätigen sollte, wäre dies natürlich ein Schocker, denn nVidia hat seit den Anfangstagen immer nur bei TSMC fertigen lassen. Zwar bezieht sich der Artikel von Business Korea nirgendwo auf Grafikchips, andererseits hat nVidia kaum noch anderes im Programm, was eine derart fortschrittliche Fertigungstechnologie bedingen würde – ob die Tegra-Chips nun in 28nm, 20nm oder 14nm herauskommen, spielt für deren Performance im aktuellen Aufgabenbereich (vorwiegend Car-Technologie) kaum eine Rolle. Nur im Grafikchip-Bereich benötigt nVidia wirklich dringend neue Fertigungsverfahren und würde sicherlich gern die 14nm-Fertigung von Samsung benutzen, da man damit eine (unerhoffte) Antwort auf die Gefahr hat, AMD könnte mit der 14nm-Fertigung von GlobalFoundries (in Lizenz von Samsung) nVidia mal fix die Rücklichter zeigen.

Von einer sicheren Information sollte man hierbei allerdings noch lange nicht ausgehen, dafür sind die Verbindungen nVidias zu TSMC zu stark und langjährig, zudem ist man bei Samsung als Auftragnehmer auch weit weniger wichtig als die Schwergewichte Apple & Qualcomm, kann unter Umständen auch erst nach diesen bedient werden – was bei den riesigen Volumen von Apple & Qualcomm eine monatelange Verzögerung bedeuten könnte. Zudem wurde die der Maxwell-Generation nachfolgende Pascal-Architektur eigentlich regelmäßig als in 16nm gefertigt beschrieben, was es eben nur bei TSMC gibt. Unter Umständen ändert sich an diesen Plänen auch nichts und nVidia legt bei Samsung nur einen Testballon auf – welcher bei den Preisverhandlungen mit TSMC immer als nutzvoll erscheint. Alternativ ist auch eine parallele Herstellung derselben Chips bei zwei Auftragsfertigern denkbar. Daß sich nVidia hingegen von TSMC verabschieben sollte, erscheint als die eher unwahrscheinlichste Auflösung dieser Geschichte – welche wie gesagt wegen vieler Unwägbarkeiten keineswegs als gesicherte Information angesehen werden kann

Die chinesische VR-Zone (maschinelle Übersetzung ins Deutsche) zeigt die genauen Daten zu den kommenden 100er Chipsätzen für Intels Skylake-Architektur im Sockel 1151. Ähnlich den letzten Chipsatz-Serien bei Intel wird es hier wieder Business-, Mainstream- und Overclocking-Chipsätze geben, letzteres ist natürlich mangels K-Prozessoren aus der Skylake-Architektur nur arg eingeschränkt möglich. Entscheidender Punkt der neuen Chipsatz-Serie ist die deutliche Aufwertung der Southbridge, welche endlich einmal PCI Express 3.0 anbieten wird. Selbiges wird in letzter Zeit immer mehr notwendig durch schnelle SSDs, welche auf PCI Express 2.0 einfach zu viele (der meist knappen) PCI Express Lanes benötigen, um ihre Performance ausspielen zu können. Zugleich werden die hochwertigen Chipsätze H170 und Z170 auch eine viel höhere Anzahl an PCI Express Lanes bieten – anstatt bisher maximal 8 dann 16 bzw. 20. Damit steigt die insgesamt zur Anbindung von PCI-Express-Peripherie zur Verfügung stehende Bandbreite zwischen Z97-Chipsatz mit 8 PCI Express 2.0 Lanes auf 20 PCI Express 3.0 Lanes beim Z170-Chipsatz auf das nahezu Vierfache an. Wer mit umfangreichen Festplatten- und SSD-Konfigurationen arbeitet, für den werden diese Skylake-Chipsätze also viel gutes bringen.

Heise berichten über die Entscheidung der US-Wettbewerbsbehörde FCC, das Internet analog dem Telefonnetz zum "Universaldienst" zu erklären, worauf man gesetzlich deutlich mehr Regulierungsmöglichkeiten haben würde. Hintergrund dieser Entscheidung ist das Ringen um die Netzneutralität – wo es in den USA der FCC mit der bisherigen Rechtslage nicht möglich ist, eine Netzneutralität gegenüber den Netzbetreibern durchzusetzen. Nach der Definition als "Universaldienst" ist dagegen eine fast unbeschränkte Regulierung möglich – weshalb die Anwälte der großen Internet-Provider in den USA schon ihre Messer wetzen (bzw. großen Zahltagen entgegensehen), um eben jene Neu-Definition anzuzweifeln. Angesichts des recht freizügigigen US-Unternehmensrechts können sich die Internet-Provider durchaus Chancen ausrechnen, diesen Rechtsstreit zu gewinnen oder in einen faulen Kompromiß zu treiben. Sollte sich dagegen die FCC durchsetzen, wäre eine Netzneutralität nachfolgend durchaus durchsetzbar – zumindest so lange nicht eine neue Regierung nach der US-Wahl 2016 eventuell eine andere FCC-Führung einsetzt.

4

Das Speicherinterface der GeForce GTX 970 erreicht nirgendwann mehr als 224 Bit DDR

Die bisherigen Beschreibungen der Speicheraufteilung der GeForce GTX 970 sind zumeist auch noch nicht gänzlich korrekt, natürlich geschuldet den nach wie vor mangelhaft wenigen Informationen seitens nVidia. Allgemein geht man bisher davon aus, daß es sich um "3,5 + 0,5" GB Speicher handelt und vor allem um ein Speicherinterface in einer "224 + 32" Bit DDR Unterteilung – sprich, der schnelle Speicherbereich ist mit 224 Bit angebunden, der langsame nur mit 32 Bit. Letzteres läßt allerdings eine wichtige Information aus, wie einem erklärenden Forums-Posting zu entnehmen ist: Danach fehlt in dieser (üblichen) Darstellung noch der Punkt, daß beide Speicherbereiche nicht gleichzeitig ansprechbar sind. Sofern der Grafikchip etwas aus dem langsamen Speicherbereich holt oder schreibt, ist zu dieser Zeit der Zugriff auf den schnellen Speicherbereich nicht möglich (und umgedreht).

Die Grafikkarte kann also zu keinem Zeitpunkt ihr volles 256 Bit DDR Speicherinterface ausnutzen, sondern kann gleichzeitig maximal 224 Bit nutzen – und beim Zugriff auf den langsamen Speicherbereich sogar nur insgesamt 32 Bit. Dies senkt dann natürlich auch die theoretische Speicherbandbreite deutlich ab, denn angenommen eines mit 4 GB voll belegten Speichers und eines gleichförmigen Zugriffs auf den Speicher würde zu 7/8 der Zeit der schnelle Speicherbereich mit 224 Bit DDR Interface benutzt (196 GB/sec, zu 1/8 der Zeit aber der langsame Speicherbereich mit seinem nur 32 Bit DDR Interface (28 GB/sec). Weil beide Speicherbereiche nicht gleichzeitig ansprechbar sind, kann man die erreichten Speicherbandbreiten dann auch nicht addieren, sondern muß sie vielmehr gegeneinander aufrechnen: Gemittelt erreicht die GeForce GTX 970 bei 4 GB Speicherbelegung eine Speicherbandbreite von nur noch 175 GB/sec – und damit weniger als bei einer Speicherbelegung von bis zu 3,5 GB.

GeForce GTX 970
(alt & falsch!)
GeForce GTX 970
(Korrektur No.1)
GeForce GTX 970
(Korrektur No.2)
GeForce GTX 980
Technik 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 256 Bit DDR Interface (nur 224 Bit performant nutzbar), 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 224 Bit DDR Interface, 1,8 MB Level2-Cache 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR Interface, 2 MB Level2-Cache
ROP-Leistung 70,4 GPix/sec 61,6 GPix/sec 61,6 GPix/sec 73,2 GPix/sec
Speicherbandbreite 224 GB/sec 196 GB/sec
(nur 224 Bit performant nutzbar)
196 GB/sec
(nur bis 3,5 GB Speicherbelegung)
224 GB/sec
Speicherausbau 4 GB GDDR5 4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5

Neben dieser weiteren Absenkung der Rohleistung (welche aber wie gesagt erst ab einer Speichernutzung oberhalb von 3,5 GB zutrifft) dürfte bezüglich diesem Detail vor allem der Punkt der offiziellen Speicherinterface-Spezifikation von Interesse sein. Bisher wurde die GeForce GTX 970 trotz der Änderungen durch die 3,5-GB-Problematik weiterhin als mit einem "256 Bit DDR Speicherinterface" ausgerüstet beschrieben. Da von jenem Speicherinterface gleichzeitig aber nur maximal 224 Bit DDR nutzbar sind und die letzten 32 Bit DDR eben nur exklusiv funktionieren, stellt sich wirklich die Frage, ob diese Schreibweise richtig sein kann. Auch wenn acht 32bittige Speichercontroller verbaut und 256 Datenleitungen verlegt sind, beherrscht das verbaute Speicherinterface eben nur bestenfalls einen 224-Bit-Modus.

Korrekterweise müsste man dazu auch "224 Bit DDR Speicherinterface" sagen – und zwar selbst in den offiziellen Spezifikationslisten. Jegliches "+32 Bit" als Zusatz verbietet sich, da das Pluszeichen fälschlicherweise suggerieren würde, daß es noch mehr oben drauf gibt. Real gibt es aber eben weniger Speicherbandbreite und weniger Performance, sofern man den langsamen Speicherbereich anspricht. Wenn man es ganz genau nimmt, wäre die korrekte Beschreibung ein "32/224 Bit DDR Speicherinterface" – welches man in Kurzform sicherlich als "224 Bit DDR Interface" bezeichnen kann. In jedem Fall kommt es hiermit zu einem weiteren Punkt, in welchem die offiziellen Kartenspezifikationen der GeForce GTX 970 falsch sind: Es kann kein reales 256 Bit DDR Speicherinterface anliegen, wenn selbst im allerbesten Fall nur eine Konfiguration erreicht wird, die ein 224 Bit DDR Speicherinterface ergibt.

Inhalt abgleichen