16

Die Systemanforderungen zu Deus Ex: Mankind Divided

Spielepulisher Square Enix hat die offiziellen PC-Systemanforderungen zu "Deus Ex: Mankind Divided" bekanntgegeben, dem vierten Titel der immerhin schon im Jahr 2000 gestarteten Deus-Ex-Spielereihe. Das am 23. August 2016 erscheinende Spiel basiert auf der Dawn-Engine, einer Weiterentwicklung der Glacier-2-Engine (Hitman: Absolution), und unterstützt sowohl DirectX 11 als auch DirectX 12 (letzteres selbstredend nur unter Windows 10). Beim Hauptspeicher will man minimal 8 GB sehen, empfohlen sind dagegen gleich 16 GB. Die minimalen CPU-Anforderungen sind mit einem Core i3-2100 aus der Nehalem-Generation vergleichsweise gering, da dürfte eine Vielzahl an Alt-Prozessoren (bei ansprechenden Taktraten) noch mitkommen können. Die CPU-Empfehlung geht mit FX-8350 bzw. Core i7-3770K dagegen recht hoch hinaus – erfahrungsgemäß dürfte vernünftige Core-i5-Modelle aber auch noch gut mitkommen, wenn der FX-8350 ebenfalls notiert wurde.

Die Grafikkarten-Anforderungen entsprechen dann vollens einem Spiel des Jahres 2016: Minimal Radeon HD 7870 bzw. GeForce GTX 660 mit der Betonung auf jeweils 2 GB Grafikkartenspeicher sind überhaupt nicht ohne – dies ist aus Sicht der neuesten 14/16nm-Generation zwar gerade einmal Einsteiger-Niveau, aber viele Gamer-PCs im Massenmarkt laufen noch mit solchen oder ähnlichen Konfigurationen. Empfohlen werden hingegen gleich Radeon RX 480 bzw. GeForce GTX 970, mit einer offensichtlichen (aber nicht ausgesprochenen) Grafikkartenspeicher-Anforderung von gleich 4 GB. Jene Grafikkarten-Empfehlungen beziehen sich dabei gerade einmal auf die bestmögliche Bildqualität zu flüssigen Frameraten unter der FullHD-Auflösung – wer höhere Auflösungen fährt, muß mit entsprechend nochmals kräftigeren Hardware-Anforderungen rechnen. Deus Ex: Mankind Divided liegt damit schon leicht über den Systemanforderungen für die PC-Spiele 2015/2016, ist aber natürlich noch weit entfernt vom Status eines wirklichen Hardware-Schockers.

minimale Anforderungen empfohlene Anforderungen
Ziel-Auflösung keine Angabe FullHD
Betriebssystem Windows Vista *inoffiz.*     Windows 7     Windows 8.0     Windows 8.1     Windows 10     Linux
32/64-Bit 32-Bit     64-Bit
Prozessor AMD K10 4C
AMD K10 6C
AMD Bulldozer 4C
AMD Bulldozer 6C
AMD Bulldozer 8C
AMD Mainstream-APU 4C
Intel Core 2 Duo
Intel Core 2 Quad
Intel Celeron/Pentium (2C)
Intel Core i3 (2C+HT)
Intel Core i5 (4C)
Intel Core i7 (4C+HT)
Intel Core i7-E (6C/8C/10C)
AMD K10 4C
AMD K10 6C
AMD Bulldozer 4C
AMD Bulldozer 6C
AMD Bulldozer 8C  (ab ~4 GHz)
AMD Mainstream-APU 4C
Intel Core 2 Duo
Intel Core 2 Quad
Intel Celeron/Pentium (2C)
Intel Core i3 (2C+HT)
Intel Core i5 (4C)  (ab ~3.5 GHz)
Intel Core i7 (4C+HT)
Intel Core i7-E (6C/8C/10C)
RAM 8 GB 16 GB
Festplatte 45 GB freier Festplattenplatz  (+10 GB für alle DLCs)
Grafik-API DirectX 11     DirectX 12     OpenGL     Vulkan
Grafikkarte AMD Radeon HD 5000
AMD Radeon HD 6000
AMD Radeon HD 7000ab 7870
AMD Radeon R200ab 270
AMD Radeon R300ab 360
AMD Radeon R400ab 460
nVidia GeForce 400
nVidia GeForce 500ab 580
nVidia GeForce 600ab 660
nVidia GeForce 700ab 760
nVidia GeForce 900ab 950 SE
nVidia GeForce 1000ab 1060-3GB
AMD Radeon HD 5000
AMD Radeon HD 6000
AMD Radeon HD 7000
AMD Radeon R200ab 290X
AMD Radeon R300ab 390
AMD Radeon R400ab 480
nVidia GeForce 400
nVidia GeForce 500
nVidia GeForce 600
nVidia GeForce 700ab 780 Ti
nVidia GeForce 900ab 970
nVidia GeForce 1000ab 1060-6GB
Grafik-RAM 2 GB 4 GB  (inoffizielle Angabe)
Anmerkung: Die angegebenen Anforderungen zu Prozessor und Grafikkarte stellen eine eigene Interpolation der offiziellen Anforderungen dar.
16

nVidias Volta-Generation kommt mit den Grafikchips GV104, GV102 und GV110

The Motley Fool berichten über in Fernost aufgetauchte Gerüchte zu nVidias nachfolgender Grafikchip-Generation Volta. Die Quelle der Informationen liegt dabei bei einem bekannten Leaker aus dem chinesischen Baidu-Forum, darf also durchaus ernst genommen werden. Hiervon stammen nunmehr drei neue Informationen zu Volta: Erstens soll der GP104-Nachfolger GV104 eine "wirklich starke" Performance aufbieten. Zweitens sollen die Shader-Cluster von Volta gegenüber dem Prinzip von Maxwell & Pascal deutlich verändert sein. Und drittens soll die Volta-Generation (zum jetzigen Wissensstand) mit drei Grafikchips antreten: GV104, GV102 und GV110. Letztere Nennung ist im übrigen abweichend von der allerersten Nennung eines Volta-Chips in einem früheren nVidia-Treiber: Dort wurde seinerzeit ein "GV100" notiert – die jetzige Nennung eines "GV110" deutet darauf hin, das nVidia hierbei designtechnisch noch einmal etwas verändert hat.

Die Anzahl der Volta-Grafikchips kann sich natürlich ebenfalls noch ändern, üblicherweise werden die kleineren Grafikchips – in der Pascal-Generation sind dies GP108, GP107 und GP106 – bei Leaks und Vorab-Meldungen kaum beachtet. Wirklich einzuschätzen ist das ganze derzeit sowieso noch nicht, da eine alles entscheidende Information fehlt: Kommt Volta nun nochmals in der 16nm-Fertigung – oder dann doch schon in der 10nm-Fertigung? Auf letzteres haben alle früheren Gerüchte ziemlich klar hingewiesen, wo nVidia nicht nur von einem nahezu verdoppelten Performance/Stromverbrauchs-Verhältnis bei Volta gesprochen hat, sondern explizit auch von viel höheren nominellen Rechenleistungen – was eigentlich nur mit einer neueren Fertigungstechnologie zu realisieren ist. Da auch die Terminlage zu Volta derzeit weiterhin ungewiß ist – frühere Termine sprechen eher für 16nm, spätere Termine eher für 10nm – kann man derzeit die ganze Sache fast nur zweigleisig betrachten bzw. prognostizieren:

Ausrichtung Vorgänger-Lösung Prognose bei 16nm Prognose bei 10nm
GV110 HPC GP100, 610mm², 3840 SE @ 4096 Bit HBM2
10,6 TFlops
angen.: ~700mm², ~5000 SE
~15 TFlops
angen.: ~540mm², ~6500 SE
~21 TFlops
GV102 Enthusiast GP102, 471mm², 3840 SE @ 384 Bit GDDR5X
11,3 TFlops
angen.: ~540mm², ~5000 SE
~16 TFlops
angen.: ~400mm², ~6500 SE
~23 TFlops
GV104 HighEnd GP104, 314mm², 2560 SE @ 256 Bit GDDR5X
8,7 TFlops
angen.: ~370mm², ~3500 SE
~12 TFlops
angen.: ~280mm², ~4500 SE
~17 TFlops
GV106 * Midrange GP106, 200mm², 1280 SE @ 192 Bit GDDR5
4,7 TFlops
angen.: ~270mm², ~2000 SE
~7 TFlops
angen.: ~200mm², ~2500 SE
~10 TFlops
* Unter der Annahme, das der GV106-Chip ebenfalls existiert. Gleiches trifft auch auf GV107 und GV108 zu, welche ebenfalls derzeit noch nicht bestätigt sind.

Kommt nVidias Volta-Generation schon in der 10nm-Fertigung daher, dann sind alle früheren Performance-Vorgaben sicherlich spielend zu erfüllen, weil mittels der kleineren Strukturgrößen natürlich viel mehr Hardware-Einheiten verbaubar sind – im Idealfall die doppelte Anzahl. Diese Möglichkeit dürfte nVidia kaum ausnutzen, sondern unter der 10nm-Fertigung lieber versuchen, mittels Effizienzgewinnen und eventuell nochmals höheren Taktraten die Steigerung der Anzahl der Hardware-Einheiten zu begrenzen – und damit natürlich auch die Chipflächen eher klein zu halten, um die Fertigungskosten bei der natürlich nochmals teureren 10nm-Fertigung nicht explodieren zu lassen. Die einzige Frage ist nur, ob nVidia jene Fertigungstechnologie rechtzeitig für Volta zur Verfügung steht – wenn ja, dann spricht absolut gar nichts dagegen, diese für Volta auch einzusetzen.

Muß nVidia bei Volta hingegen doch noch einmal mit der 16nm-Fertigung arbeiten, stehen die Vorzeichen vollkommen anders: Dann wird es ganz stark um Effizienzgewinne und höhere Taktraten gehen – denn die Möglichkeiten zu mehr Hardware-Einheiten sind unter der 16nm-Fertigung deutlich begrenzt. Sicherlich kann man alle kleineren nVidia-Chips entsprechend mit mehr Hardware-Einheiten ausrüsten, aber speziell beim HPC-Chip GV110 ist dies dann nur noch arg begrenzt möglich, kommt der Vorgänger-Chip GP100 schließlich schon mit 610mm² Chipfläche daher (und liegt das technologische Limit irgendwo bei knapp 700mm²). Es würde schon einem Kunststück gleichen, wenn nVidia aus dem GV110 in der 16nm-Fertigung tatsächlich noch jenen Sprung von +75% mehr DP-Rechenleistung herausholen kann, welchen man früher einmal prognostizierte. Bei den kleineren Chips ist dies wie gesagt einfacher zu erreichen, theoretisch könnte man bei diesen auch eine Einheiten-Verdopplung anstreben. Typischerweise setzt man einen solch großen Schritt aber nur mit einer neueren Fertigungstechnologie an – ergo sollten die Volta-Chips unter der 16nm-Fertigung kaum eine Einheiten-Verdopplung bekommen, sondern sich wohl mit klar weniger zufriedengeben müssen.

Kommt Volta also tatsächlich noch in der 16nm-Fertigung daher, dann wird der Performance-Sprung gegenüber der aktuellen Pascal-Generation somit deutlich kleiner werden als die typischerweise anzustrebende Performance-Verdopplung. Daneben ergeben sich unter Weiterverwendung der 16nm-Fertigung die ungünstigsten Effekte gerade beim HPC-Chip GV110: Mehr Performance selbst unter der 16nm-Fertigung ist bei diesem sicherlich möglich – aber dies wird dann auch das Power-Budget zwingend nach oben reißen, was im Profi-Segment viel kritischer als im Gaming-Segment gesehen wird. Einen wirklich sinnvollen neuen HPC-Chip kann nVidia eigentlich nur unter Verwendung einer neuen Fertigungstechnologie erstellen – dieser Punkt spricht nach wie vor eher für die Verwendung der 10nm-Fertigung bei Volta. Sicherlich hat nVidia auch in der Vergangenheit schon entsprechende Planungen umstoßen müssen (Maxwell war für 20nm geplant und musste dann doch noch unter 28nm erscheinen), aber für den Augenblick sieht es nun nicht gerade so aus, als würde der 10nm-Fertigung ein ähnlich halbgares Schicksal bevorstehen wie seinerzeit der 20nm-Fertigung.

16

Zen-Benchmarks unter AotS zeigen ansprechende Performance eines Vorserien-Samples

Noch nachzutragen von letzter Woche sind die ersten Zen-Benchmarks eines Vorserien-Samples, welche kurzzeitig in der Benchmark-Datenbank von Ashes of the Singularity aufgetaucht waren. Jene sind natürlich nicht ganz so einfach zu vergleichen – schon allein die real anliegende Taktrate ist ungewiß, da jene in dieser Datenbank nicht erfasst wird. Man kann ergo nur annehmen, daß das Zen-Sample wirklich mit den sich aus der OPN-Nummer "1D2801A2M88E4_32/28_N." ergebenden Taktraten von 2.8/3.2 GHz lief – dies wäre ein vergleichsweise niedriger Takt, welcher aller Wahrscheinlichkeit nach von den Verkaufsmodellen noch überboten wird. Die Varianz eines einzelnen Benchmark-Ablaufs, das praktische Vorhandensein von SMT beim Vorserien-Sample, unterschiedliche Spielversionen und andere benutzte Grafikkarten können genauso Einfluß auf das Ergebnis nehmen, demzufolge sind die Ergebnisse wirklich nicht auf die Goldwaage zu legen. Aber natürlich wird dies trotzdem getan, unter anderem von WCCF Tech, welche einige Vergleichsresultate im selben Standard-Test unter FullHD liefern:

Technik AotS, Standard, FullHD
Intel Core i5-6600K Skylake, 4C, 3.5/3.9 GHz 68,9 fps 118,8%
Intel Core i7-4790 Haswell, 4C+HT, 3.6/4.0 GHz 65,4 fps 112,8%
AMD Zen  (Vorserien-Sample) Zen, 8C (+HT ?), 2.8/3.2 GHz 58,0 fps 100%
Intel Core i5-4670K Haswell, 4C, 3.4/3.8 GHz 52,6 fps 90,7%
AMD FX-8350 Vishera, 8C, 4.0/4.2 GHz 42,0 fps 72,4%

Hieraus ergibt sich erst einmal ein kräftiger Performancegewinn gegenüber einem FX-8350 von immerhin +38% – allein dies dürfte AMD schon erheblich voranbringen, gerade wenn man ähnliches dann auch in der Anwendungsperformance der Zen-Prozessoren bieten kann. Bei der Gaming-Performance sind die Intel-Modelle nicht nur gewohnt vorn, sondern werden hierbei auch besonders schnell getaktete Prozessoren immer noch deutlich bevorzugt, was dann dem Vorserien-Sample von Zen naturgemäß weniger schmeckt. Gegenüber Intels Haswell-Generation kann sich der Zen-Prozessor gemäß diesen Benchmarks zwischen Core i5 (4C) und Core i7 (4C+HT) einordnen – im Vergleich mit Intels Skylake-Generation verliert der Zen-Prozessor dann jedoch selbst schon gegen einen Core i5.

An dieser Stelle muß man wirklich darauf hoffen, das die Zen-Prozessoren im Auslieferungszustand mit beachtbar höheren Taktraten antreten können. Bei guter Taktratenskalierung des Benchmarks dürfte man sich ab 3.2/3.6 GHz mit dem Core i7-4790 anlegen können, ab 3.3/3.7 GHz mit dem Core i5-6600K – was irgendwie das Ziel von Zen sein muß, schließlich sollte man Haswell schlagen und die Performance eines Skylake-Vierkerners ohne HyperThreading anpeilen. Ob AMD dies liefern kann, bliebe abzuwarten – die einen hoffen angesichts der bekannten Taktraten von Zen Vorserien-Samples auf Serien-Modelle mit bis zu 4 GHz Takt, während andere vor zu hohen Erwartungen warnen und Zen im Auslieferungstand eher nahe der 3-GHz-Marke einordnen. Da bleibt aus heutiger Sicht noch sehr viel Spielraum, welcher zu diesen sowieso mit einer gewissen Unsicherheit behafteten AotS-Benchmarks hinzukommt. Der ganz große Performance-Aufräumer scheint Zen jedoch nicht zu werden, von mehr als den von AMD vorab geweckten Erwartungen auf grob Haswell-Niveau sollte man daher besser nicht ausgehen.

15

Hardware- und Nachrichten-Links des 15. August 2016

Videocardz vermelden einen kleinen Vega-Teaser seitens AMD – welcher aus dem per Facebook verbreiteten Foto einer leeren (und reichlich kaputten) Fabrikhalle besteht – welches erst durch den Kommentar von AMD-Marketingchef Chris Hook Sinn ergibt, hierbei würde es sich um die Räumlichkeiten für den Vega-Launch handeln. Damit endet auch schon der Teaser – und läßt letztlich nicht mehr zurück, als die Information über einen irgendwann in der Zukunft anstehenden Vega-Launch. Angesichts des langen Zeitraums, welchen sich AMD bei Polaris zwischen ersten Teasern und dem letztlichen Launch gelassen hat, braucht man davon ausgehend sicherlich nicht fest anzunehmen, das es sich nunmehr um einen kurzen Zeitraum bis zum Launch handeln würde – dies wäre wünschenswert, jedoch keinesfalls selbstverständlich. Im Fall des Falles ist vom zuerst zu erwartenden Vega-10-Chip grob die Hardware des früheren Greenland-Projekts zu erwarten – sprich 4096 Shader-Einheiten an einem wohl 2048 Bit breiten HBM2-Speicherinterface.

Sofern vor allem die Effizienzbremsen früherer AMD-Grafikchips bei hoher Anzahl an Shader-Einheiten gelöst werden können und es unter der 14nm-Fertigung auch noch eine gute Taktrate gibt, ist von Vega 10 ein Performanceplus von 20-30% zum Fiji-Chip (mit ebenfalls 4096 Shader-Einheiten) anzunehmen. Dies könnte Vega-10-basierte Grafikkarten im allerbesten Fall bis an das Performanceniveau der GeForce GTX 1080 heranführen – ein würdiger Kontrahent für die GeForce GTX 1070 würde in jedem Fall abfallen. Vor allem aber dürfte dann endlich der Wettbewerb bei diesen HighEnd-Grafikkarten anziehen, so daß auch nVidia dann nicht mehr einfach jede absurde Preisnotierung unwidersprochen aufrufen kann. Besonders billig dürften Vega-10-Grafikkarten aber auch nicht werden: AMD mag zwar seine Grafikchips ausreichend günstig abgeben – gut zu sehen bei Radeon RX 460, 470 & 480 – aber der bei Vega 10 aller Erwartung nach verwendete HBM2-Speicher wird wie bei den Fiji-basierten Grafikkarten deutlich ins Kontor schlagen. Die nächsten Wochen werden hierzu sicherlich noch genauere Informationen hervorbringen, derzeit läßt sich leider noch nicht viel griffigeres zu AMDs Vega sagen.

Die PC Games Hardware hat derweil eine angeblich sogar schon lieferbare GeForce GTX 1060 3GB bei einem deutschen Onlinehändler entdeckt – zum mit 340 Euro natürlich deutlich überzogenen Vorlaunch-Preis für diese gegenüber der originalen GeForce GTX 1060 bei Speichermenge und Anzahl der Shader-Einheiten abgespeckte Karte. Diese frühe Listung – und noch dazu vor dem offiziellen Launch der Karte – überrascht einigermaßen, ein Fake zur Erringung von Medienaufmerksamkeit ist hierbei nicht auszuschließen. Andererseits ist die GeForce GTX 1060 3GB sicherlich dafür prädestiniert, vielleicht sogar ohne echten Launch und als mehr oder weniger inoffizielles Angebot in den Markt zu kommen – darauf deutet schließlich schon der Grafikkarten-Name hin, welcher ganz bewußt Nähe zur originalen GeForce GTX 1060 suggerieren soll, ohne aber das die GeForce GTX 1060 3GB jene Nähe wirklich zur Verfügung stellen könnte. Der bisher genannte Termin erst im vierten Quartal ist damit in jedem Fall in ernster Gefahr, ein kurzfristiges Erscheinen der GeForce GTX 1060 3GB – ohne allerdings offiziellem Launch – durchaus im Bereich des Möglichen.

Nochmals die PC Games Hardware sowie Gamers Nexus zeigen erste Performance-Messungen unter No Man's Sky. Der eigentlich aus dem Indie-Bereich stammende OpenGL-Titel hat nicht nur nette Hardware-Anforderungen, sondern derzeit auch mit einigen technischen Problemen sowie (teilweise) einer unzureichenden Performance zu kämpfen. Dabei fallen die nominellen Performance-Messungen vernünftig aus und sieht das Spiel auf den ersten Blick wie ein High-fps-Titel aus. Allerdings gibt es rein praktisch immer wieder mal stark springende Frameraten, welche selbst auf einer Titan XP mit durchschnittlich weit über 100 fps auffallend sind. Hier fehlen sicherlich noch einige Optimierungen seitens der Spiele- und Treiberentwickler, die Grafikkarten-Performance von No Man's Sky wird sich somit erst mit einigem Abstand solide betrachten lassen. Die ersten Prozessoren-Benchmarks der PCGH zeigen zudem darauf hin, daß das Spiel auch mit mehr als vier CPU-Threads noch etwas anfangen kann – ob dies bei den schnellen Intel-Vierkernern allerdings praktisch etwas ausmacht, ist unklar, da (noch) nicht getestet.

15

Umfrage-Auswertung: Wie ist der Ersteindruck zur Titan X?

Die Umfrage der letzten Woche widmete sich natürlich dem Ersteindruck zur am Monatsanfang erschienenen Titan X – die entsprechende Umfrage zur im gleichen Zeitraum erschienenen Radeon RX 470 läuft daher erst in dieser Woche. Die Titan X als klarstmögliche Enthusiasten-Lösung kommt in solcherart Umfrage mit einem größeren Teilnehmerfeld üblicherweise nie gänzlch gut weg, demzufolge überraschen die "erreichten" nur 19,6% positiver Ersteindruck zu immerhin 56,3% negativer Ersteindruck nicht wirklich. Allerdings muß auch gesagt werden, das die orginale GeForce GTX Titan diesbezüglich klar besser lag, selbst die vorhergehende GeForce GTX Titan X auf Maxwell-Basis war noch etwas besser.

Als erstes und klar hauptsächliches Problemfeld der Titan X wird deren Preislage empfunden, gleich 76,3% der Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck votierten hierfür. Hier spielt augenscheinlich auch immer mit eine Rolle, wie ungewöhnlich hoch die Preisfestsetzung im Vergleich zu anderen Grafikkarten-Preisen gesehen wird: Die orginale GeForce GTX Titan kam mit 77,1% diesbezüglich auf einen ähnlich schlechten Wert – zu einer Zeit, wo Listenpreise bis maximal 599 Dollar normal waren und daher der Listenpreis der GeForce GTX Titan mit gleich 999 Dollar vollkommen aus dem Rahmen fiel. Bei der späteren (Maxwell-basierten) GeForce GTX Titan X waren die Grafikkartenkäufer dann augenscheinlich die hohen Preislagen viel besser gewohnt, hier votierten "nur" noch 60,1% in diese Richtung hin.

Mit dem hochgesetzten Listenpreis der Titan X von gleich 1200 Dollar war es natürlich klar, wie diese Teilfrage ausgeht – gerade da die Karte ansonsten mit wenig Problemen belastet ist: Eine nicht ausreichend große Performancedifferenz (zur GeForce GTX 1080) bemängelten nur 16,2% der Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck, während hingegen das Nichtvorhandsein von Herstellerdesigns mit nur 4,1% Stimmenanteil kaum Beachtung fand. Bis auf den sehr hohen Preispunkt ist es also schwer, an der Titan X etwas auszusetzen – und den hohen Preispunkt kann nVidia derzeit mangels AMD-Konkurrenz in diesem Feld einfach nehmen. Der hohe Preispunkt hat aber natürlich seine Auswirkungen beim potentiellen Kaufinteresse, welches mit 3,7% aller Umfrage-Teilnehmer ausgesprochen niedrig ausfällt – aber dies ist angesichts der Ausrichtung der Karte auf absolute Enthusiasten ebenfalls nicht anders zu erwarten.

  positiv durchschn. negativ Kaufint.
Radeon RX 480 45,5% 30,0% 24,5% 30,2%
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380X 21,8% 47,0% 31,2% 8,1%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R7 360 24,5% 32,1% 43,4% 7,6%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
Titan X 19,6% 24,1% 56,3% 3,7%
GeForce GTX 1080 45,9% 28,6% 25,5% 12,2%
GeForce GTX 1070 44,0% 30,4% 25,6% 17,5%
GeForce GTX 1060 43,7% 36,2% 20,1% 22,6%
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 950 23,1% 33,1% 43,8% 4,9%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
15

Hardware- und Nachrichten-Links des 13./14. August 2016

Wenngleich die Radeon RX 460 durchaus als Gaming-Einsteigerlösung zu verwenden ist, promotet AMD jene ganz offiziell sogar nur als "eSports-Lösung". Entsprechende Messungen des TechSpots zeigen jedoch auf, das unter League of Legends und Counter-Strike: Global die Performance der Karte unter der bestmöglichen Bildqualität schnell in den Bereich von 200 fps unter FullHD geht, die Radeon RX 460 für diese Zweck also schon viel zu schnell ist. Bezogen auf die beiden genannten Titel erreicht eine Radeon R7 250 auf Basis des "Oland" LowCost-Chips schon übermäßige Frameraten zwischen 90-140 fps, gutklassige integrierte Lösungen dürften am Ende für diesen Anwendungszweck sogar ausreichend sein. Natürlich können die Hardware-Anforderungen auch von typischen eSports-Titel mit der Zeit ansteigen – aber da jene gerade in den preissensitiven Märkten in Schwellen- und Entwicklungsländern sehr populär sind, wären größere Anforderungs-Sprünge nun nicht gerade zu erwarten, richten sich die Spieleentwickler in diesem Fall eher an der bestehenden Hardware aus.

Nochmals der TechSpot hat sich in einem Artikel die Grafikkarten-Performance von GeForce GTX 480 zu 1080 unter neueren Spielen angesehen. Hierbei mussten natürlich auch erst einmal Spiele-Settings gefunden werden, welche insbesondere GeForce GTX 480 & 580 mit ihren nur 1,5 GB Speicher nicht an eben dieser Speichermenge limitieren – und die Nutzung von DirectX 12 fiel natürlich gänzlich flach. Nichtsdestotrotz sind die herausgekommende Ergebnisse immer noch gut im Rahmen der Erwartungen bzw. entsprechend grob unserem Performance-Index. Nur die Fermi-basierten Karten verlieren gegenüber ihren früheren Index-Werten inzwischen jeweils gut 17% an Performance – dies kann natürlich doch noch an der Speichermenge liegen oder aber an den kaum noch für diese Karten optimierten Treibern auf zugleich neuen Spieleengines. Dies ist letztlich jedoch der Lauf der Welt, das ältere Grafikkarten unter neueren Spielen nicht mehr dieselbe Performance aufzeigen können, wie dies einstmals zu deren Glanzzeiten noch der Fall war.

480 580 680 780 780Ti 980 980Ti 1080
Generation Fermi (GF100) Fermi (GF110) Kepler (GK104) Kepler (GK110) Kepler (GK110) Maxwell (GM204) Maxwell (GM200) Pascal (GP104)
erreichte FullHD-Performance 100% 116,0% 170,4% 220,7% 249,2% 294,9% 377,7% 481,7%
erreichte FullHD-Performance 20,8% 24,1% 35,6% 46,0% 51,9% 61,2% 78,6% 100%
FullHD Performance-Index 240% 280% 360% 440% 520% 600% 750% 960%
Index-Abweichung mittel (-17%) mittel (-17%) gering keine gering marginal keine Ausgangspunkt

Und damit läßt sich dann nochmals zur Launch-Analyse zur Radeon RX 460 zurückkommen – und dort zu den für die GeForce GTX 750 Ti und 950 aufgelaufenen Performance-Werten. Jene beiden Karten, zu welchen es ausschließlich Benchmarks von 2-GB-Versionen gibt (die GeForce GTX 950 ist gar nicht anders erhältlich), fallen im Vergleich zum früher festgesetzten Performance-Index schon leicht zurück. Die Differenz ist um jeweils -10 Index-Punkte überhaupt nicht großartig, aber um so bemerkenswerter, wenn man es mit den Benchmarks von GeForce GTX 960, Radeon R7 370 und R9 380 vergleicht, welche jeweils auf 4-GB-Werte normiert wurden – deren mit dem Launch der Radeon RX 460 neu ausgemessene Performance passt nämlich zum früheren Performance-Index. Hier fallen augenscheinlich exakt diese Grafikkarten zurück, welche nur als 2-GB-Ausführungen vorliegen – und dies selbst im Fall von nVidia-Grafikkarten, welche auf diesen Punkt noch viel weniger reagieren als AMD-Grafikkarten. Den Performance-Index von GeForce GTX 750 Ti und 950 werden wir deswegen wohl nicht abändern, da jenes Problem natürlich auch alle früheren Grafikkarten mit (aus heutiger Sicht) zu wenig Speicher betrifft. Nur kann man dies als erneuten Hinweis darauf sehen, das die Zeit von 2 GB Grafikkartenspeicher selbst im Einsteigersegment abgelaufen ist – und Nutzer entsprechender Karten mit Einschränkungen leben müssen bzw. zum vollen Ausfahren der Kartenperformance insbesondere speicherfressende Details (Texturenauflösung) reduzieren müssen.

Gemäß Fudzilla wird Grafikchip-Entwickler nVidia noch innerhalb diesen Jahres erste 14nm-Chips bei Samsung fertigen lassen. Hierbei soll es sich nicht um irgendwelche Randprodukte im Angebotsportfolio von nVidia handeln – sondern um Pascal-basierte Grafikchips, was bisher die Domäne von Hauptfertiger TSMC war. Aufgrund anscheinend unzuverlässiger Produktionszahlen will nVidia nunmehr allerdings über einen Zweitfertiger eine zusätzliche Sicherheit erlangen – darüber war zwar schon lange geredet worden, nun wird es jedoch endlich in die Tat umgesetzt. So oder so bedingt die Chipfertigung bei Samsung für nVidia natürlich einen zusätzlichen Tape-Out – und wegen der feinen Differenzen zwischen 16FF+ bei TSMC und 14LPP bei Samsung/GlobalFoundries ist es sogar möglich, das sich Samsungs 14nm-Fertigung nur bedingt für den Ansatz der sehr hohen Taktraten von nVidias Midrange- und HighEnd-Grafikchips eignet. Gut möglich also, das Samsung in erster Linie den Chip-Nachschub bei den noch kommenden LowCost- und Mainstream-Grafkchips GP108 & GP107 stärken soll, das nVidia also nur diese eher unkritischen Grafikchips bei Samsung zweitfertigen läßt.

Inhalt abgleichen