9

DDR4-Speicher scheint nicht langsamer zu sein als DDR3-Speicher

Eine der Erfahrungen beim seinerzeitigen Wechseln von DDR- auf DDR2-Speicher sowie nachfolgend beim Wechsel von DDR2- auf DDR3-Speicher war, daß die neuen Speichersorten auf gleicher Taktrate und selbst auf gleichen Latenzen etwas langsamer als die jeweilige Vorgänger waren. Dies begründete sich in dem Effizienzverlust, welchen sich zwischen dem halbierten internen Takt der reinen Speicherzellen und dem gleich gebliebenen Interface-Takt ergab. Seinerzeit stellte man daher die grobe Regel auf, für die gleiche Speicherperformance immer eine Taktstufe höher in der neuen Speichernorm gehen zu müssen – sprich, daß erst DDR3/1066 also DDR2/800 gleich schnell ersetzen kann.

Heuer nun steht mit DDR4 erneut ein Wechsel der Speichersorte an, welche natürlich von derselben Frage begleitet wird. Bislang sieht es allerdings ganz gut aus bezüglich der Speicher-Performance von DDR4 gegenüber DDR3. Die hierzu vorliegenden Testberichte aus dem Haswell-E Launch zeigen zwar einen gewissen Vorteil von DDR3-Speicher auf gleichem Takt an, wenn jedoch auch noch dieselbe Latenz angestrebt wird, gleichen sich die Unterschiede schnell an und DDR3 sowie DDR4 erzielen grob dieselbe Takt- und Latenz-normierte Performance. Der klare Unterschied, welcher seinerzeit noch zwischen DDR und DDR2 bzw. DDR2 und DDR3 zu bemerken war, ist nunmehr kaum noch sichtbar:

ComputerBase OCaholic Hardware.fr
DDR3/1866 9-9-9-24 78,8% 89,5% 99,0%
DDR3/2133 11-13-13-35 - 96,8% -
DDR3/2133 13-13-13-31 - 110,8%
DDR4/2133 11-11-11-31 - - 104,8%
DDR4/2133 15-15-15-35 100% 100% 100%
DDR4/2666 13-13-13-31 - - 108,4%
DDR4/2800 16-18-18-36 110,0% - -
DDR4/3000 15-15-15-35 - 127,6% 109,5%

Die Grundlage für diese nahezu gleiche Performance dürfte schlicht darin liegen, daß man bei DDR4 erstmals seit langsam nicht mehr den "Prefetch" erhöht hat (sprich, die interne Taktrate der Speicherzellen abgesenkt hat). Vielmehr ist DDR4 in dieser Frage wie DDR3 aufgebaut, womit auch das kleine "Performanceloch" beim Wechsel auf DDR4-Speicher ausbleibt. Noch keinen Effekt sehen wir allerdings von der neuen DDR4-Funktion, pro Taktzyklus je einmal Activation, Read, Write oder Refresh in verschiedenen Speicherbänken fahren zu können. In der Vorab-Berichterstattung zu DDR4-Speicher wurde dies als möglicher Performance-Bringer genannt, zum Launch wurde dieses Feature dann aber gar nicht mehr erwähnt, so daß es sich augenscheinlich nur um einen Tweak im kleineren Umfang handeln dürfte.

Rein technisch sind derzeit DDR4-Module dennoch etwas langsamer als gleich getaktete DDR3-Module. Dies hängt allerdings nur daran, daß DDR3-Speicher inzwischen auf wirklich heruntergetriebenen Latenzen angeboten wird, während DDR4-Speicher derzeit nur auf JEDEC-konformen Latenzen zu haben ist. Im Laufe der Zeit dürfte aber auch hier eine entsprechende Entwicklung einsetzen und man sollte dann auch DDR4-Speicher mit knappen Latenzen erstehen können, so wie es derzeit auch bei DDR3-Speicher der Fall ist. Die Fähigkeiten beider Speichersorten bezüglich des Erreichens niedriger Latenzen, scheinen sich jedenfalls kaum zu unterscheiden.

8

Hardware- und Nachrichten-Links des 8. September 2014

Die PC Games Hardware hat sich die das kommende OpenWorld-Rennspiel "The Crew" im Technik-Check angesehen. Das Spiel befindet sich derzeit in der geschlossenen Beta-Phase und benötigt auch sicherlich noch einen gewissen Feinschliff angesichts der vermeldeten Grafikfehler, dem Fehlen eines anisotropen Filters (ziemlich tödlich gerade bei Rennspielen), der generell schwachen Performance von AMD-Grafikkarten und des geradezu extremen Performanceverlusts unter Multisampling Anti-Aliasing (-61% bei einer GeForce GTX 750). Sollten diese Punkte noch vor Release gelöst werden können, dürfte wohl eine gute Performance-Karte für FullHD mit Multisampling Anti-Aliasing ausreichend sein, eventuell auch gutklassige Mainstream-Lösungen wie die GeForce GTX 750 Ti oder Radeon R7 260X. Ohne Multisampling Anti-Aliasing scheinen auch schwächere Mainstream-Modelle schon jetzt gute Frameraten abzuwerfen, so daß "The Crew" wohl kein Hardware-Fresser werden wird.

Blue's News stellen hingegen nochmals aktualisierte Systemanforderungen zu "Ryse: Son of Rome" zur Verfügung, welche die benötigte Hardware-Power für diesen Xbox-One-Hit sehr viel genauer ausdrücken. Erstmals hat es ein Spielepublisher dabei auch fertiggebracht, nicht stur auf Vierkern-Prozessoren zu bestehen, sondern die im Spieleeinsatz erstklassig laufenden Intel-Zweikerner mit HyperThreading explizit zu erwähnen – Ryse verlangt also einen AMD-Vierkerner oder einen Intel-Zweikerner mit HyperThreading als Minimum. Ebenfalls gut gelungen sind die Beispielnennungen zur benötigten Grafikkarten-Power, womit man ungefähr abschätzen kann, wo man mit der eigenen Hardware-Ausstattung performancemäßig landen wird. In seinen empfohlenen Anforderungen ist Ryse natürlich kein Leisetreter – gut möglich, daß das Spiel mit allen PC-Verbesserungen auch PC-Hardware bis zum äußersten ausreizen kann.

In einem Interview mit Bloomberg hat AMD zugegeben, derzeit durch ein schwieriges Tal gehen zu müssen, ehe dann "in anderthalb Jahren" eine neue Chip-Generation zur Verfügung stehen wird. Leider wird überhaupt nicht ausgeführt, über welches Thema der AMD-CEO hier redete – aber natürlich bietet sich der Verdacht an, daß es um AMDs Performance-Prozessoren geht, welche derzeit in der Bulldozer-Schiene gefangen sind und da kurzfristig auch nicht herauskommen werden. In allen anderen Geschäftsfeldern – Grafikchips, Mainstream- und LowPower-APUs – hat AMD in jedem Fall nicht solche Technologie-Probleme wie bei den Performance-Prozessoren. Einmal davon ausgehend, daß es hierbei wirklich um jene geht, steht damit die Aussage seitens AMD, schon im ersten Quartal 2016 seine "NextGen CPU-Architektur" fertig zu haben – was dann mal eine gute Nachricht wäre, denn bisher war für jene nur grob das Jahr 2016 umrissen.

Aller Wahrscheinlichkeit nach in GlobalFoundries 14nm-Fertigung hergestellt, wird sich AMDs "NextGen CPU-Architektur" dann im Jahr 2016 mit Intels ersten 10nm-Prozessoren in der Cannonlake-Architektur herumschlagen müssen – sofern Intel diesesmal seine Zeitpläne für ein neues Fertigungsverfahren einhalten kann, was bei der 14nm-Fertigung wie aktuell zu sehen nicht wirklich funktioniert hat. Aber auch bei AMD können sich Verschiebungen ergeben bzw. sind Verschiebungen bei der Entwicklung einer gänzlich neuen CPU-Architektur sogar überaus natürlich. Zu hoffen bleibt somit, daß wenigstens das Jahr 2016 wirklich gehalten werden kann – und daß AMD mit der "NextGen CPU-Architektur" natürlich endlich wieder eine echte Konkurrenz-Situation gegenüber Intel bei den wirklich interessanten Performance-Prozessoren aufstellen kann.

Heise haben sich auf der IFA die breitflächige Ignoranz der TV-Hersteller zur Frage von UltraHD-Inhalten gegeben – derselben Hersteller, welche natürlich mit reihenweisen UltrahD-Fernsehern warben. In der Sache verweisen jene mehrheitlich auf Streaming-Angebote für UltraHD, welche aber in Deutschland derzeit noch eher zögerlich an den Start gehen. Wer auf eine schnelle Lösung zu Disks für UltraHD-Inhalte hoffte, wird zudem von der weiteren Meldung enttäuscht, daß es eine Blu-Ray für 4K erst zu Weihnachten 2015 geben soll. Angesichts dessen, das UltraHD-Fernseher nicht erst seit gestern verkauft werden, ist dies eine böse Schlappe seitens der Industrie. Zwar kann niemand erwarten, derzeit große Umsätze mit 4K-Disks zu machen – aber eine zur Verfügung stehende Disk-Technik würde den Trend zu UltraHD weiter anheizen können, anstatt jenen wie derzeit zu sehen eher abzukühlen.

8

Aktualisiert: AMD & nVidia Grafikchip-Roadmap für die Herbst/Winter-Saison 2014/2015

Nach dem Release des Tonga-Chips sowie den neuen Details zur nVidias GM204-Chip musste unsere AMD & nVidia Grafikchip-Roadmap natürlich überarbeitet und mit den neuen Informationen bestückt werden. Markanteste Änderung ist dabei sicherlich der Verzicht auf einen weiteren, dritten schnellen Grafikchip von AMD, da AMD für die Herbst/Winter-Saison 2014/15 augenscheinlich nur zwei große Grafikchips herausbringen wird: Den schon vorgestellten Tonga-Chip sowie noch einen weiteren größeren Chip für absolute HighEnd-Bedürfnisse.

Demzufolge bietet es sich nicht nur an, sondern zwingt es sich fast auf, dem Tonga-Chip deutlich mehr Hardware-Einheiten zuzusprechen als AMD derzeit zugibt. Wenn der Tonga-Chip (später) nicht wenigstens teilweise in das Performance-Niveau des Hawaii-Chips geht, hätte AMD ansonsten eine riesige Performance-Lücke zwischen Fiji und Tonga klaffen – welche man natürlich auch mit dem Hawaii-Chip selber schließen könnte, diese Option bleibt offen. Wie dies letztlich ausgeht, ist noch nicht ganz klar, hier existieren noch mehrere, durchaus als gleichberechtigt anzusehende Zukunfts-Varianten. Wirtschaftlicher wäre es für AMD aber natürlich, mittelfristig ganz auf den Hawaii-Chip zu verzichten und die dadurch entstehenden Portfolio-Lücken mit kleinen Fiji-Lösungen und großen Tonga-Lösungen zu stopfen.

Bislang unsicher war zudem noch, was AMD in den niedrigeren Performance-Regionen vorhat: Aber da sich nunmehr eine eher zurückhaltende Strategie von AMD offenbart, scheint es fast so, als würde es dort keine neuen Grafikchips unter der 28nm-Fertigung mehr geben und AMD schlicht mit dem leben, was man bereits hat. Dies bietet sich mangels großer neuer Architektur-Ansätze bzw. einem neuen Fertigungsverfahren auch eigentlich an. Gut möglich, daß also auch die Grafikchips Bonaire, Cape Verde und Pitcairn dann noch innerhalb der Radeon R300 Serie im Jahr 2015 weiterverwendet werden, trotz daß es für die zwei letztgenannten Grafikchips dann schon die zweite Zweitverwertung aka Rebranding wäre.

Bei nVidias kommenden Grafikchips wurden nur ein paar nunmehr bekannte Daten ergänzt und ein paar Performance-Prognosen anhand der jüngst vorliegenden ersten GM204-Benchmarks angepasst. Anhand dessen, daß Daten und Performance zum GM204-Chip nunmehr grob bekannt sind, lassen sich die beiden anderen Chips GM206 und GM200 ebenfalls um so besser abschätzen. Sofern sich die bisher zu sehende Effizienz der Maxwell-Architektur auch auf den GM206-Chip übertragen läßt, darf man von diesem nach einigen wenig beachtenswerten Performance-Chips seitens nVidia mal wieder einen recht interessanten Grafikchip für das Performance-Segment erwarten.

Eine spannende, aber nach wie vor offene Frage zu allen kommenden Grafikchips sogar inklusive des schon veröffentlichten Tonga-Chips ist deren DirectX-Support in Hardware. DirectX 12 in Software werden diese Grafikchips alle beherrschen – dies ist keine Frage, da selbiges Feature auch schon für die aktuellen Grafikchips zur Verfügung gestellt werden soll. Um eine genaue Aussage darüber, ob die kommenden Grafikchips aber auch die eventuellen Hardware-Features von DirectX 12 unterstützen werden, drücken sich die Chipentwickler bestmöglich – und dies teils nicht zu Unrecht, stehen die finalen Spezifikationen von DirectX 12 noch lange nicht fest. So lange hierzu jedoch keine genaueren Informationen vorliegen, sollte man besser keine dieser Grafikchips als mit "DirectX-12-fähig" beschreiben.

PS: Eine alternative Grafikchip-Roadmap findet sich bei der PC Games Hardware.

8

Der Boom des "Personal Computing" bleibt ungebrochen

IC Insights bringen eine schöne Statistik, welche alle ernsthaften Computing-Devices ab Tablets mit den Netbooks, Notebooks und Desktop-PCs zusammenzählt und daraufhin klar macht, daß der Siegeszug des "Personal Computing" ohne Pause weitergelaufen ist und noch weiterläuft – nur eben in Form der Tablets mittels einer neuen Geräteklasse weitergeführt wird. Zählt man die verschiedenen Geräteklassen zusammen, ergibt sich ein ungebremster Aufwärtstrend, welcher wohl auch in den kommenden Jahren noch anhalten wird. Die dazugehörige Grafik zeigt wunderbar an, welchen Boom die PC/Tablet-Branche hingelegt hat und immer noch hinlegt: Im Jahr 2002 wurden weltweit nur 142 Millionen Geräte verkauft, für das Jahr 2017 werden hingegen 731 Millionen Geräte erwartet, eine Steigerung auf mehr als das 5fache innerhalb von nur 15 Jahren.

Allerdings zeigt die Grafik auch an, daß das reine PC-Segment von seinem Höhepunkt in den Jahren 2011 und 2012 etwas verloren hat und derzeit sowie für die nahe Zukunft sich mit einer Rolle ähnlich dem Jahr 2009 zufriedengeben muß (was aber immer noch deutlich mehr ist als zu Anfang des neuen Jahrtausends). Dagegen soll das Tablet-Segment weiter an Bedeutung gewinnen, schon nächstes Jahr erwartet man seitens IC Insight etwas mehr verkaufte Tablets als PCs (Anmerkung: andere Marktbeobachter sehen diesen Punkt konservativer, wenngleich in der Tendenz trotzdem ähnlich). Für das Jahr 2017 prophezeihen IC Insight dann ein Verhältnis zwischen PC und Tablet von ca. 40% zu 60% nach Stückzahlen. Umsatz-technisch könnte der PC aber trotzdem leicht in Führung bleiben, da PC-Durchschnittspreise deutlich höher liegen als Tablet-Durchschnittspreise, sowie letztere zudem derzeit immer noch am fallen sind.

Relevanter Punkt an dieser Marktentwicklung ist für die Hersteller-Industrie, nahezu zwingend in beiden Teil-Segmenten präsent sein zu müssen. Insbesondere Hersteller, welche wie beispielsweise Intel und AMD sehr stark nur in einem der beiden Teil-Segmente präsent sind, spüren schon jetzt die sich daraus ergebenden Probleme. Für Chipentwickler ist es allerdings auch viel schwieriger, einen Zugang zu einem völlig anderen Marktsegment zu bekommen. Währenddessen haben sich unter den Komponenten- und PC-Herstellern viele inzwischen zweigleisig aufgestellt und liefern sowohl für PC- als auch Tablet-Segment sowohl komplette Geräte als auch Komponenten. Gute Beispiele hierfür sind ausgerechnet die fernöstlichen Hersteller Acer, Asus, Lenovo und Toshiba, welche jeweils starke PC-Marken stellen, mittlerweile aber auch erfolgreich im Tablet-Segment unterwegs sind. Diese Hersteller können allen etwaigen Entwicklungen in der Zukunft entsprechend gelassen entgegenblicken.

7

Hardware- und Nachrichten-Links des 6./7. September 2014

Gemäß einem Posting in unserem Forum erkennt SiSoft Sandra bei einer nicht genauer benannten GM204-basierten Grafikkarte nicht 15 Shader-Cluster, sondern gleich deren 16 – sprich, nicht 1920, sondern gleich 2048 Shader-Einheiten beim GM204-Chip im Vollausbau. Darüber, wie zuverlässig SiSoft Sandra das ganze ausliest, wird zwar noch gestritten, aber diese Anzahl an Shader-Einheiten passt durchaus in die bisher vorliegenden Daten zum GM204-Chip. Und letztlich sprechen auch die bisher bekannten Performance-Werte zu GeForce GTX 970 & 980 zugunsten eines eher hohen Unterschieds zwischen diesen beiden GM204-basierten Grafikkarten: Bei gut 20% Performance-Differenz auf gleicher Speicherbandbreite müssen beide Grafikkarten einfach einen hohen Unterschied bei der Rechenleistung aufweisen, ansonsten kommt man schwer auf solche Performance-Differenzen.

Eine Erkenntnis aus dem Launch von AMDs Tonga-Chip in Form der Radeon R9 285 wurde bislang überhaupt noch nicht betrachtet: Da Tonga nunmehr eine Chipfläche von 359mm² aufweist, scheint Tonga selber einer der beiden früher genannten kommenden HighEnd-Chips von AMD zu sein – was bedeutet, daß AMD neben Tonga nur noch einen weiteren HighEnd-Chip in Vorbereitung hat. Dies dürfte dann "Fiji" mit einer Chipgröße von über 500mm² sein, was aber gut und gerne auch 550 bis 600mm² sein können – AMD wird sich in dieser Frage sicherlich so lange wie möglich nicht in die Karten schauen lassen. Ein bißchen problematisch ist allein, nunmehr die ebenfalls noch herumschwirrenden AMD-Codenamen "Bermuda" und "Maui" einzuordnen – andererseits hat AMD schon in jüngerer Vergangenheit durchaus mit mehr Codenamen operiert als es überhaupt Chips gab.

Neben dem Punkt, daß nach Tonga also nur noch ein größerer Grafikchip von AMD zu erwarten ist, verfestigt diese Einschätzung zu AMDs zukünftigen Chip-Portfolio auch die These, daß der Tonga-Chip im eigentlichen zu höherem berufen sein dürfte als nur dem Ersatz des Tahiti-Chips in Form der Radeon R9 280 & 280X Grafikkarten. Vermutlich kann AMD aus dem Tonga-Chip wesentlich mehr herausholen als mit der Radeon R9 285 gezeigt und wenigstens die Performance der Radeon R9 290 ungefähr angreifen. Damit würde Tonga am Ende ein gutes HighEnd-Niveau zu einer passablen Chipgröße hinlegen – während der wohl erst im neuen Jahr nachfolgende Fiji-Chip dann sowohl die Radeon R9 295X ersetzen als auch neue Performance-Höhen im Enthusiasten-Segment ins Visier nehmen dürfte. Wieviel dies wird, bleibt abzuwarten – AMD hat mehr Spielraum als nVidia wegen der kleineren Chipfläche des Hawaii-Chips, läuft aber genauso irgendwo bei um die 600mm² Chipfläche in eine generelle Limitation bezüglich der noch sinnvoll herzustellenden Chipgröße.

Noch nachzutragen zum Tonga-Chip ist noch eine Bestätigung, daß der Chip laut AMD definitiv in "28nm HP bei TSMC" gefertigt wird. Die Idee No.4 unserer Fragerunde, wofür AMD den Tonga-Chip aufgelegt hat, erledigt sich somit umgehend. Im übrigen muß sich diese Angabe von "28nm HP" nicht wirklich mit der früheren Meldung von zwei AMD HighEnd-Chips in "28nm HPM" beißen. Die Fertigungsverfahren-Bezeichnungen sind leider nicht so exakt abgegrenzt bzw. werden von verschiedenen Chipentwicklern auch unterschiedlich angewandt: Beispielsweise bezeichnet Microsoft den bei TSMC gefertigten Xbox-One-SoC auch als "28nm HPM" im Sinne einer Abkürzung von "28nm HP-HKMG", während bei Chipentwickler AMD derselbe Chip als "28nm HP" bezeichnet wird. Die wahrscheinlichste Auflösung ist schlicht, daß hier nirgends wirklich "28nm High Performance Mobile (HPM)" gemeint ist, sondern überall das standardmäßige "28nm High Performance" (28nm HP). 28nm HPM wird wohl wirklich nur für Mobile-Chips mit deutlich geringerem Energiehunger eingesetzt, was schlecht auf Grafikchips und Konsolen-SoCs übertragbar ist.

Laut Computerbetrug wird das "Recht auf Vergessen" nunmehr inzwischen dazu eingesetzt, Berichte über frühere unsaubere Geschäftsmethoden von Firmen aus der Google-Suche zu tilgen. Computerbetrug ist davon in mehreren Fällen selber betroffen – und keiner der Fälle sieht so aus, als wären dies einmalige Ausrutscher der jeweiligen Firmen bzw. inzwischen gelöste Probleme. Vielmehr wird wohl scheinbar nur eine Schamfrist abgewartet, nach welcher man das eigentlich für die Probleme von Privatpersonen gedachte Gesetzesurteil dafür benutzt wird, wertvolle Verbraucherhinweise über – selbst derzeit noch laufende – unsaubere Geschäftsmethoden faktisch aus der Welt zu schaffen. Sicherlich hat in dieser Frage auch die Google-Prüfung der jeweiligen Löschbegehren geschlampt, aufgrund dessen, daß das "Recht auf Vergessen" aber nur ein Gerichtsurteil und kein ausformuliertes Gesetz darstellt, waren derart "Interpretierungsfehler" jedoch vorhersehbar.

7

Neue 3DMark-Werte zu GeForce GTX 970 & 980 sowie GeForce GTX 970M & 980M

Von Videocardz kommt eine Zusammenstellung derzeit bekannter 3DMark-Messungen zu den kommenden nVidia-Grafikkarten GeForce GTX 970 & 980 sowie sogar schon zu deren Mobile-Pendants GeForce GTX 970M & 980M. Allerdings ist gleich vorab anzumerken, daß trotz daß man sich seitens Videocardz rein auf die GPU-Werte unter dem 3DMark13 Firestrike konzentriert hat, der 3DMark kein wirklich zuverlässiges Meßinstrument ist, um eine Grafikkarten-Performance endgültig zu bestimmen: Zum einen können reale Spiele gänzlich andere Differenzen zwischen verschiedenen Grafikchip-Architekturen aufzeigen (trifft inbesondere auf den Vergleich mit AMD zu), zum anderen fehlen im 3DMark die hohen Bandbreiten-Anforderungen mancher Spiele, kommen also Grafikkarten mit schwacher oder durchschnittlicher Speicherbandbreite überdurchschnittlich gut weg. Zusammen mit den früheren Benchmark-Werten (und unter Weglassung der wenig nutzvollen 3DMark11 "Performance" Werte) ergibt sich somit folgender Stand der bisher bekannten Performance-Messungen:

Technik 3DM11 Extreme 3DM11 Extreme (GPU) 3DM13 Firestrike (GPU) 3DM13 Firestrike Extreme
GeForce GTX 980 nVidia GM204 (Maxwell), 1920-2048 Shader-Einheiten, 120-128 TMUs, 32 ROPs, 256 Bit DDR Interface, ?/1128/3500 MHz - - 12328 ~5500
GeForce GTX 970 nVidia GM204 (Maxwell), 1664 Shader-Einheiten, 104 TMUs, 32 ROPs, 256 Bit DDR Interface, 1051/1178/3500 MHz 4625 4303 10282 -
GeForce GTX 780 Ti nVidia GK110 (Kepler), 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Interface, 875/928/3500 MHz 5119 4721 10902 4941
GeForce GTX 780 nVidia GK110 (Kepler), 2304 Shader-Einheiten, 192 TMUs, 48 ROPs, 384 Bit DDR Interface, 863/902/3000 MHz 4286 3892 8998 4152
GeForce GTX 770 nVidia GK110 (Kepler), 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface, 1046/1085/3500 MHz 3599 3259 7408 3352
Radeon R9 290X (Uber) AMD Hawaii (GCN 1.1), 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface, ≤1000/2500 MHz 4599 4186 10355 4796
Radeon R9 290X (Quiet) 4332 3914 9905 4562
Quellen: 3DMark-Werte zu GeForce GTX 970/980 von Videocardz, Chiphell & Coolaler. Vergleichswerte der anderen Grafikkarten von TweakPC.

Die bisher gemeldeten, hoffnungsvollen Werte zu GeForce GTX 970 & 980 scheinen sich mit den neuen Werte zu bestätigen: Die GeForce GTX 970 will ca. 10-14% schneller als die GeForce GTX 780 sein und käme damit sogar nur knapp unterhalb der GeForce GTX 780 Ti heraus, während die GeForce GTX 980 ca. 11-13% auf die GeForce GTX 780 Ti oben drauf legen will. Allerdings gehen wir eingedenk der vorgenannten Limitationen des 3DMark davon aus, daß bei Messungen unter realen Spielen diese Unterschiede maßgeblich kleiner ausfallen werden: Die GeForce GTX 970 dürfte wohl eher 5-10% schneller als die GeForce GTX 780 herauskommen, die GeForce GTX 980 ebenfalls nur 5-10% schneller als die GeForce GTX 780 Ti. Zudem dürften beide Karten vermutlich eher Schwierigkeiten unter ganz hohen Auflösungen haben, dafür ist das 256 Bit DDR Speicherinterface beider Karten einfach nicht gemacht.

Zugleich werden auch ein paar neue Informationen über Taktraten und Hardware-Daten fallengelassen: So scheint die GeForce GTX 980 mit einem Boost-Takt von 1128 MHz zu laufen – etwas weniger als die 1178 MHz der GeForce GTX 970, dafür hat die GeForce GTX 980 dann aber auch mehr aktive Shader-Cluster und somit eine insgesamt klar höhere Rechenleistung. Die Differenz im 3DMark-Wert von +19,9% deutet dabei eher auf 2048 Shader-Einheiten (+23,1%) bei der GeForce GTX 980 hin, nicht auf "nur" 1920 Shader-Einheiten (+15,4%). In dieser Frage kann man sich aber auch noch herzlich irren, weil weder die 1664 Shader-Einheiten der GeForce GTX 970 in Stein gemeißelt sind, noch die von Videocardz angegebenen Taktraten wirklich stimmen müssen. Als Speichertakt werden im übrigen die gleichen 3500 MHz wie bei der GeForce GTX 970 angegeben.

Erstmals Hardware-Daten und Benchmarks gibt es zu den Mobile-Lösungen GeForce GTX 970M & 980M, welche beide wohl – aufgrund des augenscheinlich zeitgleichen Launches – auf dem GM204-Chip basieren dürften. Die Taktraten der Mobile-Lösungen sind deutlich niedriger als bei den Desktop-Ausführungen, zudem dürfte es sicherlich noch weitere Hardware-Abspeckungen geben, respektive weniger aktive Shader-Cluster. Bei der GeForce GTX 970M wurde zudem das Speicherinterface auf nur 192 Bit DDR reduziert, was die Karte sehr deutlich an Performance verlieren läßt. Trotzdem sind die bis dato gezeigten Leistungen überragend, selbst die GeForce GTX 970M schlägt die bisher im Mobile-Segment sowieso schon einsam führende GeForce GTX 880M sehr deutlich (+23,8%) – die GeForce GTX 980M holt sogar einen Vorteil von +56,6% heraus. Die einzige Frage zu diesen neuen Mobile-Lösungen ist nur, zu welchem Stromhunger nVidia das ganze hinbekommen hat – höchstwahrscheinlich ist der Einsatzort von GeForce GTX 970M & 980M wieder rein auf Desktop-Replacement-Geräte beschränkt.

Inhalt abgleichen