7

Kann die GeForce GTX 970 noch eine Kaufempfehlung erhalten?

Ein Thema, welches aus der Diskussion zu unserem letzten Grafikkarten-Marktüberblick noch übrig blieb, ist die Frage, ob man der GeForce GTX 970 tatsächlich noch eine generelle Kaufempfehlung geben darf – wie es dieser Marktüberblick tat. Dies ist eine nach wie vor ziemlich aufgeladene Frage, da es auf der einen Seite diejenigen gibt, welche immer noch wegen nVidias Mauschel-Marketing mächtig angefressen sind – und auf der anderen Seite diejenigen, welche das Problem für zu hochgespielt halten, weil am Ende zu selten in der Praxis anzutreffen. Dabei lassen sich gewisse unversöhnlich vorgetragene Standpunkte sicherlich niemals ausgleichen – aber trotzdem muß für die Frage, ob die GeForce GTX 970 noch eine generelle Kaufempfehlung bekommen kann, immer noch eine solide Informationsbasis gefunden werden. Folgende Teilfragen stehen hierbei zur Debatte:

  • 1.  Wie oft kommt es auf der GeForce GTX 970 zu zusätzlichen Rucklern an der Speichergrenze, welche bei der GeForce GTX 980 nicht auftreten?
  • 2.  Wie oft treten diese Ruckler in einem praxisrelevanten Bereich auf, d.h. außerhalb von sowieso unspielbaren Frameraten respektive für die GeForce GTX 970 ungeeigneten Auflösungen?
  • 3.  Wie hoch sind die Chancen dafür einzuschätzen, daß in der Zukunft die Häufigkeit für Ruckler in einem praxisrelevanten Bereich zunehmen?
  • 4.  Könnten zukünftige Grafik-APIs mit ihrer eigenen Speicherverwaltung diese Häufigkeit (für Ruckler in einem praxisrelevanten Bereich) deutlich ansteigen lassen?

Letztere Frage ist natürlich extrem spekulativ – denn wir können nicht ermessen, was nVidia hierzu an Gegenmaßnahmen bereit hält. Rein theoretisch ist es jedoch unter DirectX 12 so, daß der Treiber nicht mehr sein eigenes Süppchen bei der Speicherbelegung kochen kann, womit auch nVidias aktueller Treiber-Trick flachfallen würde, die GeForce GTX 970 möglichst nur mit bis zu 3,5 GB Speicherbelegung zu belasten. Natürlich könnte sich nVidia für DirectX 12 auf der GeForce GTX 970 einen neuen Trick einfallen lassen (beispielsweise die Karte treiberseitig als nur mit "3,5 GB" Speicher ausgerüstet definieren), unter Umständen umschiffen die Spieleentwickler bei neuen Spielen diese spezielle Hürde der GeForce GTX 970 auch von ganz alleine. Am Ende führen diese technischen Fragen letztlich zu zwei Gewissensfragen zur GeForce GTX 970:

  • 5.  Ist die GeForce GTX 970 aktuell derart gehandicapt, daß sich eine Kaufempfehlung verbietet?
  • 6.  Wird die GeForce GTX 970 unter zukünftigen Anforderungen derart gehandicapt sein, daß sich eine Kaufempfehlung für die Zukunft verbietet?

Da einzelne Stimmen hierzu immer fehlbar und unvollständig sein können, werden wir mal versuchen, diese Problematik durch Schwarmintelligenz zu lösen: Wer mag, kann sich in der Diskussion zu dieser Meldung bezüglich dieser sechs Fragen (bitte Fragen-Nummerierung bei der Antwort nicht vergessen) äußern – wir bitten insbesondere um Teilnahme der Forums-Koryphäen, um wenigstens bei den technischen Fragen auf einen halbwegs soliden Stand zu kommen. Daneben wird es nach der Auswertung dieser Diskussion (voraussichtlich am nächsten Wochenende) noch eine allgemeine Umfrage an dieser Stelle geben, welche die obigen Fragen 5 & 6 noch einmal einem größerem Publikum unterbreiten wird. Erst danach werden wir uns wohl endgültig entscheiden, ob die GeForce GTX 970 in zukünftigen Marktüberblicks-Artikel eine Kaufempfehlung bekommt.

7

Umfrage-Auswertung: Wie ist der Ersteindruck zur GeForce GTX Titan X?

Die Umfrage der vorletzten Woche schloß an den Launch der GeForce GTX Titan X an und stellte natürlich die Frage nach dem Ersteindruck zu nVidias neuem Topmodell. Jene ist natürlich als 999-Dollar-Grafikkarte – was bei derzeitig ungünstigem Dollar/Euro-Kurs in Straßenpreisen oberhalb von 1100 Euro resultiert – keinesfalls jedermanns Sache, eine zurückhaltende Betrachtung bei so teurer Hardware hat eine gewisse Tradition. Trotzdem sind die 23,5% positiver Ersteindruck bei der GeForce GTX Titan X ein eher unterdurchschnittliches Ergebnis, die orginale GeForce GTX Titan (43,0%) als auch die Radeon HD 7990 (36,9%) machten es seinerzeit in der 999-Dollar-Klasse wesentlich besser als die GeForce GTX Titan X – von den Zustimmungsraten anderer HighEnd-Beschleuniger wie der Radeon R9 290X (67,9%), GeForce GTX 780 Ti (60,2%) oder GeForce GTX 980 (67,3%) ganz zu schweigen.

Als klares Problem der GeForce GTX Titan X wird dabei deren Preispunkt ausgemacht, für diese Variante stimmten immerhin 60,1% der Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck. Der nur maßvolle Vorteil gegenüber bisherigen Grafikkarten vereinte noch 14,3% der Stimmen auf sich, die nicht erreichte Eignung für 4K dann noch 20,2%. Zusammengefasst könnte man also sagen, daß die GeForce GTX Titan X daran scheitert, zu viel versprochen zu haben und dafür deutlich zu viel zu kosten – und natürlich aus Sicht des aktuellen Dollar/Euro-Kurses eben nicht mehr im dreistelligen Eurobereich zu liegen, sondern gleich vierstelligen monetären Einsatz zu erfordern, was für viele potentielle Käufer einfach eine Spur zu übertrieben ist. Sofern die GeForce GTX Titan ihre Zielsetzung einer spielbaren 4K-Performance hätte erfüllen können, hätte man wohl eher über diese ungünstige Preislage hinwegsehen können – so aber wird augenscheinlicher, wieviel man mehr gegenüber der GeForce GTX 980 investieren muß (glatt das Doppelte) für einen Performancesprung von (selbst im besten Fall) klar unterhalb von 40%, ohne aber das eigentliche Ziel der 4K-Spielbarkeit zu erreichen.

Wiederum wohl wegen des aktuellen Euro-Preispunkts und eben der vorbeschriebenen Problematik kommt die GeForce GTX Titan X auch beim (bislang) absolut niedrigsten potentiellen Kaufinteresse heraus: Gerade einmal 2,4% der Umfrage-Teilnehmer äußerten die Meinung, daß die GeForce GTX Titan "interessant für eine Neuanschaffung" sein könnte – dies ist nochmals deutlich niedriger als das vormalig schlechteste Ergebnis in dieser Disziplin (Radeon HD 7990 bei 3,5%). Es wird interessant werden zu sehen, ob die GeForce GTX Titan X in der Verkaufspraxis diesem Trend trotzen kann – beispielsweise wurde die originale GeForce GTX Titan trotz ebenfalls schwacher Wertung in dieser Disziplin (4,3%) doch ganz gut verkauft, die nachfolgende GeForce GTX Titan Black war und ist hingegen immer arg selten in der Anwenderpraxis anzutreffen.

positiv durchschnittlich negativ Kaufinteresse
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz Edition" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 970  (Ersteindruck) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970  (Zweiteindruck) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
6 6

Welche Chancen werden Spielestreaming auf dem PC noch eingeräumt?

Das Ableben von OnLive zum Ende dieses Monats sieht nach einem schweren Schlag für das Spielestreaming im generellen aus – dabei gibt es OnLive-Konkurrenz Gaikai nach wie vor und werden der grundsätzlichen Technologie nach wie vor große Chancen gerade im Umfeld von Spielekonsolen und Mobile-Gaming eingeräumt. Doch nur einmal auf dem PC bezogen, wo sich Spielestreaming bislang überhaupt nicht durchsetzen konnte: Wo sieht man – auch langfristig betrachtet – noch die Chancen für Spielestreaming auf dem PC?

Sehe nirgendwo ein Potential, auch auf Konsolen und im Mobile-Bereich wird dies eine Nische bleiben.
50% (1111 Stimmen)
Sehe Potential nur außerhalb des PCs, nicht aber auf dem PC selber.
22% (483 Stimmen)
Kann ein gewisses zusätzliches Element auf dem PC werden, wird aber kaum elementare Bedeutung erlangen.
19% (434 Stimmen)
Langfristig wird es ein Erfolgsmodell, welches dann auch die PC-Branche gehörig verändert.
9% (208 Stimmen)
Gesamte Stimmen: 2236
5

Hardware- und Nachrichten-Links der Osterfeiertage 2015

Gemäß Bits & Chips (maschinelle Übersetzung ins Deutsche) soll nVidia an einer (offiziellen) wassergekühlten GeForce GTX Titan X arbeiten, welche mit einem Taktsprung von immerhin 250 MHz und einer TDP in der Nähe von 300 Watt operieren soll. Prinzipiell gesehen erscheint dies als vollkommen logische Lösung der Frage, wie nVidia dem Fiji-Chip begegnen sollte, wenn jener tatsächlich etwas schneller als der GM200-Chip herauskommt – und da AMD am oberen Ende ebenfalls eine wassergekühlte Lösung ansetzt, kann dies nVida natürlich genauso tun und damit dem Kampf um die absolute Leistungskrone erneut aufnehmen. Der Taktratensprung sieht dafür in jedem Fall potent aus, die Steigerung des Stromverbrauchs ist dagegen etwas niedrig, da gut übertaktete GeForce GTX Titan X Karten schon jetzt eher 350 Watt ziehen. Einziges Problem für nVidia wäre wohl der Preispunkt, denn eine wassergekühlte GeForce GTX Titan X müsste dann noch teurer werden als das Original, welches immerhin 1150 Euro kostet. Mal schauen, ob sich dieses Gerücht bewahrheitet – aber sinnvoll erscheint diese Idee durchaus, die Karte könnte tatsächlich in dieser oder ähnlicher Form erscheinen.

Hartware berichten in zwei Meldung über die großen Erfolge von Samsungs 14nm-Fertigung: Zum einen soll nunmehr Apples A9-SoC nahezu ausschließlich bei Samsung hergestellt werden – und als Ausweich- und Ersatzfertiger nimmt Apple nicht wie früher gedacht TSMC, sondern GlobalFoundries, welche bekannterweise Samsungs 14nm-Fertigung in Lizenz betreiben. Und zum anderen will auch der langjährige TSMC-Stammkunde Qualcomm seine nächste SoC-Generation bei Samsung herstellen lassen, wobei hier womöglich nicht nur technische Gründen, sondern vor allem auch eine sehr aggressive Preisgestaltung seitens Samsung die Grundlage ist. Jene lockt auch andere Chipentwickler an, Samsung will sich offenbar mit der 14/16nm-Fertigung ein viel größeres Stück vom Kuchen der Auftragsfertiger abschneiden. Dies kommt natürlich für die anderen Auftragsfertiger zum ungünstigst möglichen Zeitpunkt, denn die Vorbereitung aller neuen Fertigungsverfahren unterhalb von 28nm wird bekannt elendig teuer – womit man sich eigentlich keine Preiskämpfe leisten kann, sondern eher auf steigende Wafer-Preise setzen wollte. Inwiefern bei diesem Trend hin zur 14nm-Fertigung von Samsung auch technologische Gründe eine Rolle spielen, muß man abwarten – bis man dann die Möglichkeiten von in 16nm bei TSMC und in 14nm bei Samsung hergestellten Chips in der Praxis vergleichen kann.

Die GameZone vermeldet die Einstellung des Spielestreaming-Pioniers "OnLive" zum 30. April 2015. Die Patente und einige "Assets" (vermutlich die Server-Struktur) wurden schon von Sony aufgekauft und werden Sony beim weiteren Aufbau der eigenen Spielestreaming-Kapazitäten dienen. OnLive schiebt die Unternehmensaufgabe ziemlich deutlich auf die negative Presse der Jahre 2012 und 2013, nachdem das Unternehmen im August 2012 nach einigen finanziellen Schwierigkeiten einen Eigentümer-Wechsel durchmachen musste. Allerdings hat die Presse im allgemeinen das Thema Spielestreaming trotz des nicht erbrachten Beweises, das dies wirklich ein funktionierendes Geschäftsmodell sein kann, immer eher wohlwollend betrachtet, in den entscheidenden Fragen nach der zusätzlichen Latenz durch die Internetverbindung wurde eher den Anbieter-Angaben vertraut als es selber nachgeprüft.

Das eigentliche Problem von OnLive war und ist eher darin liegend, daß es kein tieferes Interesse für so etwas gibt. Es ist für einige Nutzer nett, wenn Spielestreaming als Option zur Verfügung steht – doch nur die allerwenigsten suchen regelrecht nach so einer Lösung. Funktionieren kann Spielestreaming daher wohl nur dann, wenn es im Rahmen einer sowieso schon vorhandenen, breit besuchten Plattform als zusätzliche Option angeboten wird – sprich, auf Xbox One, Playstation 4 oder auf Steam. Dann ist die große Menge an Publikum, die benötigt wird, um das ganze über eine gewisse kritische Masse anzuheben, automatisch schon vorhanden – womit man sich den ganzen mühsamen Aufbauweg spart, welchen OnLive alleine hätte gehen müssen. So gesehen hatte OnLive nie wirklich eine Chance – die wäre nur gegeben, wenn es ein wirkliches Eigeninteresse der Nutzer an Spielestreaming geben würde. Wie die letzten 4-5 Jahre seit dem Start von OnLive jedoch zeigen, ist das Thema außerhalb von rein technischem Interesse überhaupt nichts, worum sich irgendjemand schlagen würde.

Mal wieder absurde Schadenszahlen durch P2P-Downloads vermeldet die PC Games Hardware in Berufung auf einer Auswertung von Statista: Dabei sollen illegale P2P-Downloads im Jahr 2014 weltweit für eine Schadenssummer von satten 837 Milliarden Dollar gesorgt haben, wobei die Software-Piraterie allein für 652 Milliarden Dollar steht. Zum Vergleich: Ersterer Zahl ist in etwa so viel wie der Umsatz der 10 größten deutschen Unternehmen zusammen – und daraus ergibt sich schon, daß diese Schadenzahlen nonsens sind, Diese mögen im Einzelfall notwendig sein, um vor Gericht ein Strafmaß (auf Basis des entstandenen Schadens) bemessen zu können, in der Praxis existiert bei den Raubkopierern aber nicht im Ansatz so viel Geld, um dies alles regulär kaufen zu können. Selbst wenn es also keinerlei Möglichkeiten zu Raubkopien geben würde, könnte die Herstellerindustrie nur einen (extrem kleinen) Bruchteil dieser Gelder zusätzlich einnehmen – die Produkte würden dann einfach nicht genutzt werden, wenn man sie nicht raubkopieren kann. Es besteht natürlich auf der anderen Seite die Möglichkeit, die Wirtschaftkraft der Bevölkerung derart zu steigern, daß Raubkopien aus Gründen des Geldsparen obsolet werden – aber das würde ja engagierte Arbeit seitens der Regierung erfordern, was eine eher unwahrscheinliche Alternative ergibt.

4

Wie AMDs Arctic-Islands-Generation für das Jahr 2016 aussehen könnte

Nach der Vorschau auf nVidias 2016er Pascal-Generation darf natürlich auch eine Vorschau auf die Konkurrenz nicht fehlen: Zu einem wohl ähnlichen Zeitpunkt wie nVidia wird AMD im Jahr 2016 mit der "Arctic Islands" Generation antreten. Zu jener sind leider noch weniger Details bekannt als zu nVidias Pascal-Generation – resultierend schlicht aus dem Umstand, daß Pascal nVidias direkt nächste Grafikchip-Generation sein wird, während bei AMD bekannterweise noch die 2015er Pirate-Islands-Generation dazwischensteht, welche derzeit noch auf ihren Release wartet. Damit geht bei AMD derzeit das Augenmerk eher eben auf diese Pirate-Islands-Generation, griffige Informationen zur Arctis-Islands-Generation gibt es so gut wie noch gar keine – einzig allein wurde kürzlich mit "Greenland" ein erster Grafikchip aus dieser Generation erwähnt, ohne aber das es eine gewisse Einordnung dieses Grafikchips gäbe (und eventuell gehört jener auch schlicht zu Arctic-Islands-basierten APUs, also nicht zum eigentlichen Grafikchip-Programm).

Trotzdem gibt es zumindest gewisse Eckpunkte bezüglich AMDs Arctic-Islands-Generation, welche wahrscheinlich als "Radeon R400" Serie in den Verkauf gehen wird: Klar ist zum einen die Verwendung einer neuen Fertigungstechnologie aus der 14/16nm-Generation – wobei AMD erstmals bei seinen Grafikchips komplett von Auftragsfertiger TSMC weggehen und statt deren 16FF+ Fertigung die 14nm-Fertigung von GlobalFoundries benutzen wird. Jene in Lizenz von Samsung stehende Fertigungstechnologie soll der 16FF+ Fertigung von TSMC sowohl zeitlich als auch technologisch etwas voraus sein – wobei AMD dadurch, daß man nicht bei Samsung selber, sondern bei GlobalFoundries fertigen lassen wird, den zeitlichen Vorteil womöglich wieder einbüßt. In jedem Fall ergibt sich bei den 2016er Grafikchips die bislang nie in dieser Form dagewesene Situation, daß die Grafikchip-Entwickler mit unterschiedlichen Fertigern antreten – was unerwartete Risiken und Nebenwirkungen ergeben könnte. Bislang war es schließlich immer so, daß ein Problem bei Auftragsfertiger TSMC die Grafikchips von AMD und nVidia gleichermaßen betraf und sich damit kein Vor- oder Nachteil für den einen oder anderen Grafikchip-Entwickler ergeben konnte.

Doch nun könnte der kommende Zweikampf zwischen AMD Arctic Islands und nVidia Pascal auch durch die Wahl des jeweiligen Auftragsfertigers entschieden werden: Hat beispielsweise der eine Auftragsfertiger echte Probleme (bei der Fertigstellung eines Chips oder bei der Produktionsausbeute), dann könnte der jeweils andere Grafikchip-Entwickler faktisch kampflos gewinnen – oder sich zumindest mit hohem zeitlichen Vorteil im Markt positionieren, lange bevor der andere Grafikchip-Entwickler nachziehen kann. Eine solche Situation muß natürlich nicht eintreten, es besteht allerdings nunmehr das grundsätzliche Risiko hierfür. Eher wahrscheinlich sind gewisse Differenzen bei der zeitlichen Verfügbarkeit, der Produktionsausbeute und der technischen Features wie erreichbare Transistorendichte und Stromverbrauch der produzierten Chips, welche dann allesamt einen gewissen Einfluß auf den Konkurrenzkampf der zwei Chip-Architekturen nehmen werden.

Eine andere Folge des Wechsels auf die 14nm-Fertigung von GlobalFoundries ist die damit erzielbare enorme Steigerung der Packdichte um den Faktor 2 (oder leicht mehr) – was es für AMD sinnvoll macht, mal wieder ein komplettes Chip-Portfolio neu aufzulegen. In der letzten Zeit hat AMD bekannterweise ziemlich viel mit Rebrandings gearbeitet, selbst die kommende Radeon R300 Serie wird wahrscheinlich mehrheitlich aus Rebrandings bestehen. Dies ist auch einfach dem Umstand geschuldet, daß es sich oftmals nicht lohnt, innerhalb derselben Fertigungstechnologie neue Chips aufzulegen, wenn man bereits vorhandene Chips für dieselbe Aufgabe nutzen kann. nVidias Maxwell-Generation ist hier bei die Ausnahme von der Regel – welche aber auch nur Sinn machte durch den hohen Effizienzgewinn der Maxwell-Architektur. Da AMD die Effizienz der einzelnen 28nm-Chips nur eher maßvoll gesteigert hat, machte und macht für AMD eine komplett neue Chip-Generation in der 28nm-Fertigung wenig Sinn, sind die Rebrandings somit vielleicht eher verständlich.

Unter der 14nm-Fertigung sieht dies wie gesagt ganz anders aus: Mittels dieser kann man dieselben Grafikchips mit deutlich kleineren Chipflächen und damit (trotz steigender Kosten pro Transistor) geringeren Kosten herstellen – bzw. wird dieser Gewinn logischerweise wieder draufgehen zur Herstellung ähnlich großer Chips mit entsprechend höherem Leistungspotential. Allein die Existenz von nVidias kommende Pascal-Generation wird AMD sowieso letztlich dazu zwingen, die Vorteile der 14nm-Fertigung dahingehend auszunutzen, viel leistungsfähigere Grafikchips anzubieten – so lange ein Wettstreit im Grafikchip-Segment existiert, wird sich in dieser Frage keiner der beiden Grafikchip-Entwickler eine Blöße geben können. Ähnlich wie bei nVidia ist von AMDs Arctic-Islands-Generation demzufolge eine starke Steigerung der Anzahl der Hardware-Einheiten zu erwarten.

Die genaue Höhe der Steigerung hängt von vielfältigen technischen Faktoren sowie auch der jeweiligen Zielsetzung der Grafikchip-Entwickler ab und ist daher derzeit nur höchst ungenau mit +50% bis maximal +100% anzugeben. Aufgrund der aktuell höheren Effizienz der Grafikchip-Architektur von nVidia scheint AMD erneut mehr Shader-Einheiten zu benötigen als nVidia, um in etwa dieselbe Performance erzielen zu können. Daher könnte es durchaus vorkommen, daß AMD in der Arctic-Islands-Generation beim Spitzenchip mit bis zu 8000 Shader-Einheiten antritt. Um dies ordentlich mit Speicherbandbreite versorgen zu können, wird AMD dann HBM2-Speicherinterfaces und HBM2-Speicher breit verbauen – wahrscheinlich aber nicht für alle Grafikchips, denn HBM2-Speicher könnte für LowCost- und Mainstream-Bedürfnisse auch im Jahr 2016 noch zu teuer sein. In jedem Fall liegt in der breitflächigen Verwendung von HBM2 ein weiterer, durch AMD schon indirekt bestätigter Punkt der Arctic-Islands-Generation.

Da die genauen Codenamen der einzelnen Grafikchips von AMDs Arctic-Islands-Generation noch nicht bekannt sind, haben wir für die nachfolgende Tabelle als Platzhalter ein mit nVidia vergleichbares Nummernschema gewählt (100 = Enthusiast, 104 = HighEnd, 106 = Performance, 107 = LowCost), mit einem "AI" für "Arctic Islands" vorangestellt. Damit sollte sich halbwegs erkennen lassen, welcher Grafikchip in welches Preis- und Performance-Segment gehen soll. Sofern AMD diese zu starke Anlehnung der (ja nur als Platzhalter benutzten) Codenamen an nVidia stört, darf man uns natürlich mittels exakter Informationen zu den Codenamen der Arctic-Islands-Generation gern eines besseren belehren:

Northern Islands Sea/Volcanic/Pirate Isl. Arctic Islands
Enthusiast - Fiji
~550mm² @ 28nm TSMC
4096 Shader-Einheiten
4096 Bit DDR HBM1-Interface
Release: Juni 2015
"AI-100"
vmtl. ~500-550mm² @ 14nm GloFo
vmtl. ~6000-8000 Shader-Einheiten
vmtl. 4096 Bit DDR HBM2-Interface
vmtl. Release: 2016
HighEnd Tahiti
352mm² @ 28nm TSMC
2048 Shader-Einheiten
384 Bit DDR GDDR5-Interface
Release: Dezember 2011
Hawaii
438mm² @ 28nm TSMC
2816 Shader-Einheiten
512 Bit DDR GDDR5-Interface
Release: Oktober 2013
"AI-104"
vmtl. ~350mm² @ 14nm GloFo
vmtl. ~4000-5000 Shader-Einheiten
vmtl. 2048 Bit DDR HBM2-Interface
vmtl. Release: 2016
Performance Pitcairn
212mm² @ 28nm TSMC
1280 Shader-Einheiten
256 Bit DDR GDDR5-Interface
Release: März 2012
- "AI-106"
vmtl. ~200mm² @ 14nm GloFo
vmtl. ~2000-2500 Shader-Einheiten
vmtl. 256 Bit DDR GDDR5-Interface
(oder 1024 Bit DDR HBM2-Interface)
vmtl. Release: 2016
Mainstream Cape Verde
123mm² @ 28nm TSMC
640 Shader-Einheiten
128 Bit DDR GDDR5-Interface
Release: Februar 2012
Bonaire
160mm² @ 28nm TSMC
896 Shader-Einheiten
128 Bit DDR GDDR5-Interface
Release: März 2013
"AI-107"
vmtl. ~120mm² @ 14nm GloFo
vmtl. ~1000-1200 Shader-Einheiten
vmtl. 128 Bit DDR GDDR5-Interface
vmtl. Release: 2016
Anm.: Diese Tabelle enthält für die 2016er Arctic-Islands-Generation inklusive auch der Chipnamen rein spekulative Angaben.

Prinzipiell gesehen sind dies natürlich alles nur Vermutungen, welche auf den technischen Rahmenbedingungen fußen – echte Angaben hat derzeit noch keiner zur Arctic-Islands-Generation. AMD könnte uns auch mit einem deutlich kleineren Ansatz überraschen, um die höheren Fertigungskosten der 14nm-Fertigung besser zu kaschieren – andererseits wurde zuletzt doch deutlich, daß sich AMD nicht mehr mit der Rolle des nahezu kampflosen Erfolgs von nVidia im Kampf um die Leistungskrone im SingleChip-Segment zufrieden geben und daher ab dem Fiji-Chip auch wieder wirkliche Enthusiasten-Chips auflegen will. Sofern AMD diese Strategie nicht gleich wieder umstößt, benötigt man sicherlich einen ähnlich wie vorstehend beschriebenen Enthusiasten-Chip innerhalb der Arctic-Islands-Generation – und der Rest des Portfolios ergibt sich dann nahezu automatisch von selbst. Etwas unsicher ist allerdings noch, ob AMD wirklich einen HighEnd-Chip auflegt – oder nicht einfach den Fiji-Chip dafür benutzt, jener ist technisch schließlich ziemlich gleich zum HighEnd-Chip der Arctic-Islands-Generation. Fertigungstechnisch müsste es allerdings trotz steigenden Kosten für die 14nm-Fertigung günstiger sein, einen ~350mm² großen Chip unter der 14nm-Fertigung aufzulegen, als einen ~550mm² großen Chip unter der 28nm-Fertigung.

Leider sehr wenig gibt es dazu zu sagen, was AMD an Architektur-Änderungen für die Arctic-Islands-Generation plant: Dafür ist diese Grafikchip-Generation einfach noch zu weit weg (kommt schließlich erst einmal die Pirate-Islands-Generation), ist AMD auch arg wenig freigiebig mit Informationen zu langfristigen Zielsetzungen. Ob AMD also mal wieder größere Änderungen an der GCN-Architektur einfließen läßt oder es aber bei den stetigen, jedoch zumeist eher kleinen Verbesserungen bleibt, muß man einfach abwarten. AMD wird sich diesbezüglich nicht in die Karten schauen lassen, sondern dieses Jahr erst einmal die Pirate-Islands-Generation groß promoten – erst im Jahr 2016 wird es vermutlich halbwegs griffige Informationen zur Arctic-Islands-Generation geben, welche nicht (wie vorstehend) auf Vermutungen basieren.

3

Die Systemanforderungen zu Grand Theft Auto V

Für das nun endlich (am 14. April 2015) auch für den PC erscheinende "Grand Theft Auto V" gibt es bei Steam die offiziellen Systemanforderungen. Jene sehen im Gegensatz zu GTA 4 keinen großartigen Sprung, da GTA V letztlich dieselbe Engine verwendet. Wie üblich wird ein 64-Bit-Windows samt 4 GB Hauptspeicher gefordert und 8 GB Hauptspeicher werden empfohlen, unterhalb einer DirectX-10-Grafikkarte geht es zudem nicht los. GTA-typisch sollte ein guter Prozessor mit vielen Rechenkernen im System sein, intessanterweise werden als Mindestanforderungen jedoch auch noch solch alte Boliden wie Phenom 9850 und Core 2 Quad Q6600 genannt. Die Empfehlungen sind auf Prozessoren-Seite mit FX-8350 oder Core i5-3470 dagegen schon eher anspruchsvoll – wieviel GTA V wirklich an CPU-Leistung verbrät, wird man sehen müssen. Eventuell geht der neue Teil mehr wieder in Richtung Grafikkarten-Limitierung, nachdem GTA 4 eher sehr stark CPU-limitiert war.

Auf Grafikkarten-Seite werden minimal Radeon HD 4870 (Perf.Index ~125%) oder GeForce 9800 GT (Perf.Index 70%) vorausgesetzt, die Empfehlungen lauten dagegen auf Radeon HD 7870 (Perf.Index 260%) oder GeForce GTX 660 (Perf.Index 250%). Dies erzeugt sicherlich keinen echten Aufrüstdruck, denn auf der minimalen Anforderung kommen auch aktuelle LowCost-Modelle noch mit, während die Empfehlungen gerade einmal am unteren Rand des Performance-Segments rangieren. Zu beachten wäre allerdings die explizit notierten Grafikkartenspeicher-Größen von 1 GB für die Minimal-Anforderungen und 2 GB für die Empfehlungen – aber der Speicherhunger des Spiels war letztlich schon von GTA 4 her bekannt.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows Vista SP2, 7 SP1, 8 & 8.1
Prozessor AMD Phenom 9850 (4C, 2.5 GHz)
Intel Core 2 Quad Q6600 (4C, 2.4 GHz)
AMD FX-8350 (8C, 4.0 GHz)
Intel Core i5-3470 (4C, 3.2 GHz)
RAM 4 GB 8 GB
DirectX DirectX 10.0
Grafikkarte AMD Radeon HD 4870 1GB
nVidia GeForce 9800 GT 1GB
AMD Radeon HD 7870 2GB
nVidia GeForce GTX 660 2GB
VRAM 1 GB 2 GB
HDD 65 GB freier Festplattenspeicherplatz
Dienste Rockstar Games Social Club
Speichermenge und Anzahl an CPU-Rechenkernen werden in aller Regel nicht zwingend vorausgesetzt

Die Performance-Differenz zwischen Minimum und Empfehlungen sowie die allgemeine Höhe der empfohlenen Hardware ergibt am Ende sicherlich einige Reserven für die Besitzer von echter HighEnd-Hardware, um GTA V auch mit UltraHD-Auflösungen oder Downsampling Anti-Aliasing genießen zu können. Andererseits bleibt abzuwarten, was das Spiel noch für weitere Bildqualitätsoptionen besitzt – Stichwort Sichtweite – um überschüssige Hardware-Power zu nutzen bzw. den eigenen PC in die Knie zu zwingen, wie dies noch mit GTA 4 hervorragend gelang. Als echte Zwänge sind bei diesem Spiel das 64-Bit-Betriebssystem, eine DirectX-10-Grafikkarte und die Benutzung von Rockstars "Social Club" zur Installation und für das Online-Gaming nochmals zu erwähnen, die genannten 4 GB Hauptspeicher sowie Vierkern-CPUs dürften hingegen wie üblich nicht erzwungen werden.

Nachtrag vom 8. April 2015

Die PC Games Hardware & Golem haben Grand Theft Auto V vor dem Release anspielen können und sind bislang begeistert vom Spiel als auch der Grafik und vor allem der Flüssigkeit der Grafik. Die zuletzt genannten offiziellen Systemanforderungen scheinen ergo wohl korrekt zu sein, selbst wenn die Präsentation auf einem HighEnd-System mit GeForce GTX 980 SLI stattfand. Die dabei erreichten Frameraten von zumeist 60 fps unter UltraHD sind ansprechend, mit etwas Tweaking könnte vielleicht auch eine einzelne GeForce GTX Titan X diese Auflösung flüssig meistern. Der Grafikkartenspeicher scheint dabei wohl kein Problem zu werden, laut nochmals der PC Games Hardware kommt man bei humanen Settings unter UltraHD mit 3,5 GB aus – wobei extreme Settings unter UltraHD auch bis zu 5,6 GB Speicherauslastung ergeben können. Für FullHD- und WHQD-Spieler dürfte dies auch auf Grafikkarten mit "nur" 3 GB Speicher wohl keine größeren Probleme ergeben.

Nachtrag vom 13. April 2015

Gegenüber PCGamer hat sich GTA-Entwickler Rockstar Games zu den 4K-Anforderungen von GTA 5 geäußert. Dabei wurde zuerst präzisiert, daß die schon bekannten offiziellen System-Empfehlungen – lautend auf Radeon HD 7870 oder GeForce GTX 660 – für 1920x1080 mit 60 fps ausreichend sein sollen. Für 3840x2160 mit 30 fps sollen es dagegen dieselbe Radeon HD 7870 oder eine GeForce GTX 760 sein, für 3840x2160 mit 60 fps dagegen ein leider nicht genauer spezifiziertes "HighEnd SLI oder CrossFire Setup". Ehrlicherweise erscheint diese Angabe leider etwas als Wischi-Waschi – wenn eine Radeon HD 7870 30 fps unter 4K erreichen soll, dann dürfte eine Radeon R9 290X durchaus die Chance haben, dieselbe Anforderung auf 60 fps zu erledigen. Auch auf nVidia-Seite sollte die GeForce GTX 980 dazu die Chance haben, die GeForce GTX Titan X müsste dies in jedem Fall schaffen können. Schade, daß man seitens des Spieleentwicklers nicht geschafft hat, sich hierzu genauer zu äußern – und dabei auch ein paar PC-Eigenheiten zu beachten, denn diese Zwangsvereinheitlichung von Frameraten mit ausschließlich "30 fps" oder "60 fps" ist auf dem PC nicht notwendig, hier kann man durchaus eher sinnvolle 45 fps anstreben. PS: Die neu erschienenen Grafikkarten-Treiber von AMD und nVidia sind schon direkt auf GTA 5 hin optimiert.

Inhalt abgleichen