15

AMD Performance-Lösung Polaris 10 kommt wahrscheinlich mit 2560 Shader-Einheiten

Nachdem es kürzlich schon halbwegs sichere Spezifikationen zu AMDs kleinstem Grafikchip der 14/16nm-Generation in Form von "Polaris 11" gab, kommen nun von VR World ebensolche Spezifikationen zur nächsthöheren AMD-Lösung: "Polaris 11" soll ins Performance-Segment gehen und wird dort voraussichtlich die Performance der Radeon R9 390 Serie bieten. VR World zeigen hierzu einen Screenshot mit Daten einer Polaris-10-Samplekarte mit dementsprechend auch Vorserien-Taktung, haben im Text aber auch noch ein paar weitere Informationen zu dieser Karte anzubieten.

So läuft diese Samplekarte mit 2304 Shader-Einheiten an einem 256 Bit breiten GDDR5-Speicherinterface auf Taktraten von ≤1050/2500 MHz. Laut VR World soll diese Samplekarte jedoch nicht den Vollausbau des Polaris-10-Chips enthalten, welcher hingegen gleich 2560 Shader-Einheiten bieten soll – ohne leider das genannt wird, woher man diese (sicherlich nachvollziehbare) Angabe hat. Desweiteren gehen VR World von finalen Taktraten von ≤1150/3500-4000 MHz aus – dies sieht dann stark nach eigenen Annahmen ohne jede handfeste Grundlage aus. Sicherlich sind die Taktraten der Samplekarte noch nicht der Weisheit letzter Schluß – die Annahmen zu den finalen Taktraten seitens VR World aber ebenso nicht.

    AMD Polaris 10

  • bestätigt:  früherer Codename "Ellesmere"
  • bestätigt:  AMD Polaris/Vega-Generation, GCN 2.0 Architektur
  • bestätigt:  14nm Fertigung von GlobalFoundries
  • wahrscheinlich:  232mm² Chipfläche (AMDs "Project F")
  • vermutlich:  2560 Shader-Einheiten
  • nahezu sicher:  256 Bit GDDR5-Speicherinterface
  • möglicherweise:  bis zu 8 GB GDDR5-Speicher
  • vermutlich:  110-130 Watt TDP (Desktop-Lösungen)
  • vermutlich:  Performance in Richtung Radeon R9 390 bis 390X
  • höchstwahrscheinlich:  Launch im Sommer 2016 (möglicherweise Vorstellung zur Computex Anfang Juni oder E3 Mitte Juni)
  • angenommen:  Desktop-Verkaufsname Radeon R9 480 Serie

Prinzipiell gesehen hat man jene 2560 Shader-Einheiten auch vorher schon vermutet – es sind exakt das Doppelte des Polaris-11-Chips. Dies schiebt den Polaris-10-Chip von der reinen Anzahl der Shader-Einheiten (SE) her zwischen die früheren AMD-Grafikchips Tahiti (2048 SE), Tonga (2048 SE) und Hawaii (2816 SE). Aufgrund der Verbesserungen bei der GCN 2.0 Architektur müsste AMD aus jenen 2560 Shader-Einheiten bei Polaris 10 eventuell mehr herausholen können, vielleicht hier und da etwas eingebremst durch das kleinere Speicherinterface. Über modernere Kompressionsverfahren wird dies sicherlich kaum einen Einfluß auf die Performance unter FullHD und ähnlichen Auflösungen haben – nur für 4K-Experimente ist Polaris 10 weder gemacht noch gedacht.

Der entscheidende Punkt an Polaris 10 wird sowieso die (über die 14nm-Fertigung und die Verbesserungen der GCN 2.0 Architektur) erreichte Energieeffizienz sein: Wir schätzen entsprechende Polaris-10-Grafikkarte auf TDPs von 110 bis 130 Watt ein, weit weg von den 250 Watt der Radeon R9 390 Serie. Mit Polaris 10 kommt also nicht mehr Performance an der Leistungsspitze daher (dies ist Aufgabe der Vega-Lösungen des Jahres 2017) – sondern jene Nutzer, welche üblicherweise im Performance-Segment oder/und zu TPDs klar unter 150 Watt kaufen, bekommen etwas deutlich leistungsstärkeres in die Hand. Wir erwarten demzufolge Launch-Preislagen von 200-300 Euro für die Polaris-10-Grafikkarten, welche zudem mittelfristig auf ein Preisniveau von um die 200 Euro abrutschen sollten – eine klassische Ablösung von Radeon R9 380/X und GeForce GTX 960 also.

Terminlich ist die ganze Sache noch nicht ganz entschieden: Es steht der von AMD so genannte Sommer-Termin, welcher aber nur für den kleineren Polaris-11-Chip wirklich sicher ist. Angenommen, Polaris 10 erscheint grob zeitgleich, bieten sich dann zwei Launchtermine an: Zusammen mit Polaris 11 zur Computex Anfang Juni – oder mit zwei Wochen Abstand zur E3 Mitte Juni. Die Lieferfähigkeit sollte dann umgehend gegeben sein, AMD verschickt Testkarten schließlich schon seit Monaten durch die Weltgeschichte, zudem ist man augenscheinlich nicht auf die Lieferbarkeit einer neuen Speichersorte wie nVidia bei GDDR5X angewiesen. Kommen beide Polaris-Chips im Sommer, wird faktisch das komplette Radeon R300 Portfolio obsolet und durch Polaris-basierte Grafikkarten ersetzt – nur die Nano/Fury-Karten hätten noch eine (schwache) Existenzberechtigung, wenngleich sich zu diesen nach dem Release von nVidias GP104-Chip sicherlich Preissenkungen anbieten.

Polaris 11 Polaris 10 Vega 10 Vega 11
alter Codename bestätigt Baffin bestätigt Ellesmere angenommen Greenland -
Chipgröße per vorgezeigtem Die geschätzt 120-150mm² wahrscheinlich 232mm²  (AMDs "Project F") vermutlich Richtung ~350mm² vermutlich Richtung ~500mm²
Shader-Einheiten vermutlich 1280 vermutlich 2560 bestätigt 4096 spekulativ 6144 (?)
Speicherinterface nahezu sicher 128 Bit GDDR5 nahezu sicher 256 Bit GDDR5 wahrscheinlich 2048 Bit HBM2 wahrscheinlich 4096 Bit HBM2
Speichermenge wahrscheinlich 4 GB GDDR5 wahrscheinlich 4-8 GB GDDR5 wahrscheinlich 8 GB HBM2 wahrscheinlich 16 GB HBM2
Speicherbandbreite vermutlich 96-112 GB/sec vermutlich 192-224 GB/sec vermutlich 512 GB/sec vermutlich 1024 GB/sec
Zielrichtung laut AMD Mainstream & Mobile höchstwahrscheinlich Performance höchstwahrscheinlich HighEnd höchstwahrscheinlich neue Enthusiasten-Klasse
Vergleich vermutlich Radeon R7 370 bis R9 380 vermutlich Radeon R9 390 bis R9 390X vermutlich klar (+20-30%) schneller als Radeon R9 Fury X vermutlich sehr deutlich (+50-70%) schneller als Radeon R9 Fury X
TDP-Klasse vermutlich 70-80W vermutlich 110-130W vermutlich 160-180W vermutlich 240-260W
Launch laut AMD Sommer 2016 höchstwahrscheinlich Sommer 2016 laut AMD Anfang 2017 höchstwahrscheinlich Anfang bis Mitte 2017
Verkaufsname angenommen Radeon R9 470 Serie angenommen Radeon R9 480 Serie angenommen Radeon R9 490 Serie neuer Sondername?
14

Hardware- und Nachrichten-Links des 14. April 2016

WCCF Tech spekulieren darüber, das der eigentliche GP104-Launch nicht zur Computex Anfang Juni stattfinden könnte – sondern vielmehr sogar schon früher mit nVidias "Editor Day". Auf diesem wird nVidia die versammelte Presse ins Bild setzen und eventuell (laut der Meinung von WCCF Tech) bereits das GP104-NDA lüften, so das nachfolgend eine freie Berichterstattung möglich wäre. Im Anschluß an den "Editor Day" würden dann erste GP104-Pressesamples herausgegeben, womit mit ersten GP104-Reviews dann sogar schon Mitte Mai zu rechnen wäre. Soweit die Überlegungen von WCCF Tech – welche nicht den Bereich des Möglichen verlassen, aber nichtsdestotrotz derzeit reine Spekulation ohne handfeste Anhaltspunkte sind. Allerdings ergibt sich wenigstens ein griffiger Grund dafür, wieso nVidia den GP104-Launch vorverlegen könnte: AMDs erste Polaris-Chips werden ebenfalls zur Computex erwartet – und eventuell will nVidia einfach den Pluspunkt "allererste 14/16nm-Lösung" eindeutig abgreifen – ganz egal ob AMDs und nVidias Computex-Angebote wohl in jeweils völlig verschiedene Preis- und Leistungsregionen gehen.

Motherboards haben sich mit dem Energiebedarf von Bitcoin beschäftigt, welcher nicht nur das Bitcoin-Mining auf normaler Hardware (vollkommen) unrentabel gemacht hat, sondern inzwischen sogar im Sinne des gesamten Bitcoin-Systems zum Problem wird: So verbraucht eine einzelne Bitcoin-Transaktion (die Bezahlung in einem Onlineshop oder die Überweisung zwischen zwei Konten) 1,6mal so viel Strom wie ein durchschnittlicher US-Haushalt am Tag verbraucht (~30kWh im Jahr 2014) – sprich, zu üblichen US-Strompreisen liegen die (reinen!) Stromverbrauchskosten einer Transaktion bei ~12 Dollar. Bitcoin ist damit gesamtgesellschaftlich gesehen geradezu sagenhaft ineffizient – und diese Ineffizienz wird mit der jederzeit zunehmenden Bitcoin-Schwierigkeit in Zukunft weiterhin ansteigen. Motherboards rechnen gar ein Beispiel vor, nachdem Bitcoin im Jahr 2020 den Stromverbrauch eines kleinen Staates wie Dänemark (5,7 Mill. Einwohner) haben könnte.

Hier liegt sicherlich ein Stolperstein für das gesamte Bitcoin-System, denn es darf bezweifelt werden, das eine derartige Problematik dauerhaft tragfähig ist. So oder so stößt das Bitcoin-System an gewisse Grenzen, wenn jetzt schon Transaktionen nicht zeitnah durchgeführt werden können bzw. die Zukunftsaussicht mit steigenden Kosten und höheren Wartezeiten noch weitere Probleme versprechen, welche prinzipbedingt in Bitcoin drinstecken und daher gar nicht ohne gewaltige Systemänderungen lösbar sind. Gut möglich, das Bitcoin irgendwann einen Nachfolger benötigt, welcher jene konzeptionellen Schwächen nicht mehr aufweist – weil der Nachfolger dann einfach anhand der Erfahrungen designt wird, welche mit Bitcoin gemacht wurden. Derzeit bewerben sich schon eine ganze Reihe von anderen Kryptowährungen um diese Position – bislang ist es aber noch keiner dieser alternativen Kryptowährungen gelungen, hierbei eine klare Pole Position als Bitcoin-Herausforderer einzunehmen.

14

Aktualisierte Systemanforderungen zu Dark Souls III

Mit dem offiziellen Launch von Dark Souls III hat Spieleentwickler Bandai Namco nun nochmals veränderte Systemanforderungen zu seinem RPG-Titel herausgegeben – welche gegenüber dem Stand zum Februar endlich auch System-Empfehlungen enthalten. Die seinerzeit genannten Systemanforderungen wurden zudem in Detailpunkten stark verändert, wobei die generellen Performance-Anforderungen einigermaßen nach oben geschraubt wurden. Dummerweise existieren allerdings derzeit gleich zwei leicht differierende Systemanforderungen zu Dark Souls III: Einmal auf der offiziellen japanischen Seite und einmal bei Steam. Die Differenzen sind meistens eher gering – wir gehen nachfolgend von den Angaben seitens der offiziellen Webseite aus. Wie heutzutage üblich, setzt man dabei ein 64-bittiges Windows samt einer DirectX-11-Grafikkarte voraus, beim Hauptspeicher liegt die minimale Anforderung wie auch die Empfehlung bei 8 GB.

Auf Prozessoren-Seite sind die Anforderungen gegenüber dem Stand zum Februar dann doch maßgeblich nach oben gegangen: Minimal will man AMD FX-6300 (6C, 3.5/4.1 GHz) oder Intel Core i5-2500 (4C, 3.3/3.7 GHz) haben, was ergo ein ordentliches Gamer-System von halbwegs moderner Architektur voraussetzt. Ältere Vierkern-Lösungen dürften hierbei ebenso nicht mehr mitkommen wie AMDs APUs – aber eventuell doch noch Intels Core-i3-Prozessoren neueren Baudatums, dies bliebe die Praxis abzuwarten. Die Empfehlung geht dann in Richtung AMD FX-8350 (8C, 4.0/4.2 GHz) oder Intel Core i7-2600 (4C+HT, 3.4/3.8 GHz), was nochmals ein gutes Stück härter ist und generell auf einen großen CPU-Hunger des Spiels hindeutet. Trotzdem dürfte auch diese Anforderung von echten Gamer zu erfüllen sein, heutige Systeme bieten dann doch einigermaßen mehr CPU-Power durch die um einige Generationen neueren Prozessoren.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem Windows Vista, 7, 8, 8.1 & 10 64-Bit  (Windows Vista & 8 nicht offiziell erwähnt)
Prozessor AMD FX-6300 (6C, 3.5/4.1 GHz)
Intel Core i5-2500 (4C, 3.3/3.7 GHz)
AMD FX-8350 (8C, 4.0/4.2 GHz)
Intel Core i7-2600 (4C+HT, 3.4/3.8 GHz)
RAM 8 GB
DirectX DirectX 11
Grafikkarte AMD Radeon HD 7950
nVidia GeForce GTX 750 Ti
nVidia GeForce GTX 970
VRAM keine Angabe
HDD 20 GB freier Festplattenplatz
Dienste kein Dienst benötigt
Anmerkung: Speichermengen sowie Anzahl an CPU-Rechenkernen werden in aller Regel nicht zwingend vorausgesetzt

Auf Grafikkarten-Seite will man dann minimal AMD Radeon HD 7950 (Perf.Index 310%) oder nVidia GeForce GTX 750 Ti (Perf.Index 210%) sehen – eine etwas seltsame Zusammenstellung, welche sich vielleicht aus der nVidia-Nähe des Spiels begründet. Damit sind die Anforderungen für AMD- und nVidia-Nutzer doch einigermaßen unterschiedlich: Während für nVidia-Nutzer eine Mainstream-Lösung ausreicht, muß es bei AMD mindestens eine Performance-Lösung sein – zumindest wenn sich der Spieleentwickler in diesem Punkt nicht irrt oder aber ein optimierter AMD-Treiber das Verhältnis doch wieder zurechtrückt. Die offizielle Empfehlung sieht dann nur noch eine nVidia GeForce GTX 970 (Perf.Index 520%) oder eine gleichwertige Lösung vor – bei normalem Performancebild würde dies auf AMD-Seite eine Radeon R9 390 (Perf.Index 530%) bedeuten. Wenn es dagegen wieder einen gehörigen Performanceaufschlag auf AMD-Seite benötigt, dann geht es gleich auf eine Radeon R9 Fury X (Perf.Index 670%), was jedoch ebenfalls die Praxis abzuwarten bliebe. Insofern kann derzeit auch noch nicht gesagt werden, ob sich hier große Reserven für Supersampling/Downsampling Anti-Aliasing oder UltraHD-Auflösungen ergeben – auf nVidia-Seite erscheint dies zumindest als Möglichkeit, auf AMD-Seite ist dies hingegen eher unwahrscheinlich.

13

Hardware- und Nachrichten-Links des 13. April 2016

Beim tschechischen PCTuning (noch im Google-Cache zu finden) stand kurzzeitig eine Meldung online, welche im Nebensatz den Hinweis enthielt, das nVidia derzeit schon Presseeinladungen bezüglich der kommenden ersten Consumer-Karten auf Pascal-Basis herausschicken würde. Und in der Tat deuten alle Anzeichen derzeit darauf hin, das nVidia tatsächlich mit einem Computex-Launch das 14/16nm-Zeitalter einläutet – gerade die kürzlichen Detail-Informationen aus Fernost (Meldung No.1 & No.2) zeigen an, das sich die Grafikkarten-Hersteller nun schon mit dem Thema "Pascal" beschäftigen, einen noch handfesteren Hinweis auf dessen baldiges Erscheinen kann es kaum geben. Aus dieser Richtung ist im übrigen in den kommenden Wochen eventuell noch der eine oder andere Leak zu erwarten, immerhin ist die Computex noch gut sechs Wochen entfernt.

In jedem Fall zeigt sich die Situation an der 14/16nm-Front nun dermaßen, das AMD trotz recht früher (offizieller) Informationen zum Thema keinen Zeitvorsprung haben wird, eventuell sogar nVidia die allererste Consumer-Grafikkarte auf Basis dieser neuen Fertigungsstufe vorbehalten bleibt. In jedem Fall werden AMD und nVidia hier grob gleichzeitig herauskommen, ein paar Tage Differenz ändern so oder so nichts am Gesamtbild. Allerdings gehen sich AMD und nVidia dabei bei ihren allerersten 14/16nm-Lösungen fast vollständig aus dem Weg: Der GP104-Chip von nVidia besetzt das neue HighEnd-Segment, während die Polaris 11 & 10 Chips von AMD das neue Mainstream- und Performance-Segment besetzen werden. Allenfalls bei der kleinsten GP104-Lösung könnte sich ein Berührungspunkt ergeben: Wir schätzen den Polaris-10-Chip durchaus für stark genug ein, um das Performance-Potential der Radeon R9 390 & 390X erreichen zu können – was im Idealfall knapp dazu ausreichen könnte, um sich mit der kleinsten GP104-Lösung anzulegen.

Neben diesem initialen Launch der 14/16nm-Generation von AMD und nVidia muß man dann abwarten, was da noch in absehbarer Zeit daherkommt. AMD dürfte nach dem Launch von Polaris 11 & 10 sein Pulver für dieses Jahr verschossen haben, die eigentlichen nVidia-Konter kommen laut offizieller Roadmap allesamt erst im Jahr 2017. Selbiges trifft auf neue Enthusiasten-Lösungen von nVidia zu, ob nun basierend auf dem GP100-Chip, oder auch dem GP102-Chip. Eine gewisse Chance auf ein 2016er Release hat noch der GP106-Chip, bei welchem nVidia die Autoelektronik-Lösung "Drive PX2" zum Jahresende ausliefern will, so das dieser Chip bis vor diesen Zeitpunkt eigentlich komplett fertig sein muß. Eventuell sehen wir also noch eine GeForce GTX 1060 Serie für das Performance-Segment im Herbst – das wäre dann im Jahr 2016 auch das einzige Preissegment, wo sich AMD und nVidia innerhalb der 14/16nm-Generation ernsthaft berühren. Erst das Jahr 2017 wird dann den vollen Ausbau beider 14/16nm-Portfolios bringen, erst dann wird der Wettbewerb unter diesen Grafikkarten richtig losgehen.

Zur Verfügbarkeit von GDDR5X-Speicher kommt aus unserem Forum der Hinweis, das Speicherchip-Hersteller Micron bei seinen letzten Quartalszahlen von einer Produktverfügbarkeit von GDDR5X-Speicher zum Ende des laufenden Fiskalquartals berichtet – welches bei Micron abweichend vom Kalenderjahr nur bis zu den allerersten Juni-Tagen geht. Dies ist dann mal ein sehr positives Zeichen bezüglich der Verfügbarkeit von GDDR5X-Speicher – denn selbst wenn die Speicherchip-Hersteller die Fortschritte bei neuen Produkten & Technologien gern in zu blumigen Farben beschreiben, darf in solchen für Börsenanalysten gedachten Berichten möglichst nichts drinstehen, was irgendeinen Klagegrund bei Nichterfüllung liefern würde. Für den Augenblick kann man damit davon ausgehen, das keine der mit GDDR5X-Speicher geplanten Grafikkarten irgendwelche Probleme mit ihrem Launchtermin haben werden – eventuelle Lieferschwierigkeiten nach dem Launch blieben die Praxis abzuwarten, dürften wenn dann aber auch nur eher sehr kurzfristiger Natur sein.

Golem vermelden Hinweise auf eine verbesserte Xbox One – der US-Behörde FCC liegen zur Genehmigung der jeweiligen Funklösungen zwei entsprechende Designs vor, ohne aber das deren Details bekannt wären. Aufgrund des Seitenumfangs der beiliegenden (nicht einsehbaren) Dokumentation handelt es sich um eine Xbox-One-Variante mit wenig Änderungen sowie eine weitere Xbox-One-Variante mit relativ vielen Änderungen. Daraus spekuliert man nunmehr eine deutlich bei der Hardware verbesserte Xbox One hervor – etwas gewagt angesichts der Faktenlage, aber dennoch natürlich nicht unmöglich. Allerdings denken wir, das Microsoft sicherlich nicht den Weg von Sony mit einem wirklichen Hardwareschub bei der PS4K gehen wird, sondern eher nur die Skalierungs- und Videofunktionen der Xbox One auf UltraHD unter allen Anforderungen aufbohren wird. Ironischerweise dürfte dies für das Konsolengeschäft ausreichend sein – während dagegen zu bezweifeln ist, das sich der von Sony für die PS4K augenscheinlich betriebene Hardwareaufwand mit einem klar leistungsfähigeren SoC wirklich rechnet.

13

nVidias GP104-Chip kommt angeblich in drei Chip- und damit Grafikkarten-Varianten

Beim (für oftmals korrekte Leaks bekannten) koreanischen Hardware Battle (maschinelle Übersetzung ins Deutsche) will man genaueres zu den einzelnen Chipvarianten auf Basis des kommenden GP104-Chips aus nVidias Pascal-Generation in Erfahrung gebracht haben. Dabei soll es drei Chip-Varianten geben: GP104-150, GP104-200 und GP104-400 – und daraus resultierend drei GP104-basierte Grafikkarten. Jene sind von nVidia (angeblich) als Ersatz für GeForce GTX 970, 980 und 980 Ti gedacht, laut Hardware Battle liefert nVidia für diese drei Maxwell-Grafikkarten schon gar keine entsprechenden Grafikchips mehr aus. Ob dies wirklich auch für die GeForce GTX 970 zutrifft, bliebe noch abzuwarten – diese Maxwell-Lösung ist weit genug unten im Performancespektrum angesiedelt und sollte daher eigentlich vom GP106-Chip zu ersetzen sein, und nicht vom GP104-Chip.

Davon abgesehen ist natürlich derzeit nicht klar, wo die exakten Unterscheidungspunkte zwischen diesen drei Chip- und Grafikkarten-Varianten liegen: Sicherlich werden die beiden schnellsten Varianten eine unterschiedliche Anzahl an Shader-Einheiten beherbergen. Danach wird aber alles ein Feld von Spekulationen: Die beiden kleineren Varianten liegen von ihrer Codenummer her sehr eng beieinander – hier könnte es andere Unterschiede geben, und dafür eventuell eine identische oder nur minimal abweichende Anzahl an Shader-Einheiten. Denkbar wäre bei diesen beiden kleineren GP104-Varianten in erster Linie ein Unterschied zwischen der Speicherart GDDR5 und GDDR5X – oder auch nur bei der Speichermenge in Form von 4 GB zu 8 GB:

GP104-150 GP104-200 GP104-400
Hardware-Ansetzung abgespeckte GP104-Variante mit 4 oder 8 GB GDDR5-Speicher abgespeckte GP104-Variante mit 8 GB GDDR5- oder GDDR5X-Speicher wahrscheinlich GP104-Vollausbau mit 8 GB GDDR5X-Speicher
Referenz/Hersteller-Designs nur Herstellerdesigns sowohl Referenz- als auch Hersteller-Designs
sichere Hardware-Abspeckungen klar niedrigere Anzahl an Shader-Einheiten gegenüber GP104-400, kein GDDR5X klar niedrigere Anzahl an Shader-Einheiten gegenüber GP104-400 -
eventuelle Hardware-Abspeckungen eventuell geringfügig niedrigere Anzahl an Shader-Einheiten gegenüber GP104-200, eventuell nur 4 GB Speicher eventuell kein GDDR5X -
angenommenes Performance-Ziel Richtung GeForce GTX 980 (Perf.Index ~580-610%) GeForce GTX 980 plus vielleicht 10-15% (Perf.Index ~660-690%) GeForce GTX 980 Ti plus vielleicht 10-15% (Perf.Index ~810-840%)
angenommener Listenpreis 399 Dollar
(zwischen GeForce GTX 970 & 980)
499 Dollar
(wie GeForce GTX 980)
649 Dollar
(wie GeForce GTX 980 Ti)
angenommener Verkaufsname (Var. 1) GeForce GTX 1070 GeForce GTX 1075 GeForce GTX 1080
angenommener Verkaufsname (Var. 2) GeForce GTX 1070 GeForce GTX 1080 GeForce GTX 1080 Ti
Termin (wahrsch. Vorstellung) Mitte Juni Anfang Juni Anfang Juni

Aufgrund dessen, wie nVidia sich seine letzten Grafikkarten-Portfolios zusammengestellt hat, läßt sich durchaus schon ganz gut spekulieren, auf welchen Performance- und Preispunkten diese GP104-Grafikkarten dann herauskommen könnten. Mit der Topvariante wird man sicherlich die GeForce GTX 980 Ti klar ersetzen wollen – nur die gleichschnelle Performance dürfte für nVidia zu wenig sein, auch eingedenk der vielen gut ab Werk übertakteten Modelle zur GeForce GTX 980 Ti. Wesentlich mehr als +10-15% muß nVidia beim GP104-400 aber auch wieder nicht drauf legen – von AMD droht derzeit keine Konkurrenz, und jedes Stück an dieser Stelle "zurückgehaltene" Performance wird dann zukünftige nVidia-Grafikkarten für das (neue) Enthusiasten-Segment um so besser aussehen lassen.

Die zweite Variante GP104-200 schätzen wir auf ca. 15-20% weniger Performance gegenüber GP104-200 ein. Dies wäre recht gut über den Verzicht auf GDDR5X zu erreichen, die obligatorische Abspeckung bei der Anzahl der Shader-Einheiten kommt dann noch dazu. Dabei könnte dann am Ende auch ein größerer Performanceverlust als vorstehend angenommen herausgenommen – dies bliebe die Praxisdifferenz zwischen GDDR5 und GDDR5X abzuwarten. Die dritte Variante GP104-150 deutet wie gesagt vom Namen her auf einen eher geringen Unterschied hin – möglicherweise kommt diese Karte schlicht mit etwas weniger Taktrate daher und wird dann primär auf 4 GB Speicher beschnitten. Dazu passt auch, das es für GP104-150 kein Referenzdesign von nVidia geben soll – wäre es das einzige GP104-Design auf Basis von GDDR5-Speicher, würde man hierfür eigentlich ein eben solches Referenzdesign erwarten.

Preislich kann man das ganze derzeit natürlich nur schätzen – aber mangels Konkurrenz in diesem Preissegment sind günstige Preislagen sicherlich nicht zu erwarten. Die Preise dürften sich an der erreichten Performance orientieren – und Preise senken kann nVidia später schließlich immer noch. Allenfalls erwarten wir selbst bei einem nachvollziehbaren GP104-Preisniveau nicht, das damit die Preislagen der GeForce GTX 970 erreichbar sind – jene dürfte noch für eine gewisse Zeit die Rolle der 300-Dollar/Euro-Lösung übernehmen müssen, so tief wird nVidia die GP104-Grafikkarten zumindest anfänglich sicherlich nicht einstufen wollen. Trotzdem werden diese drei GP104-Lösungen dafür ausreichen, den HighEnd- und Enthusiasten-Bereich bei nVidia komplett neu auszugestalten – ohne allerdings einen großen Performancesprung für die reinen Enthusiasten-Käufer zu bringen, dafür ist der GP104-Chip auch nicht gedacht.

Terminlich ist man beim Hardware Battle im übrigen im Einklang mit den letzten Meldungen: Die Vorstellung der beiden größeren GP104-Lösungen soll Anfang Juni erfolgen, dies deutet erneut auf die Computex hin. Die kleinste GP104-Lösung soll dann Mitte Juni nachgeschoben werden. Unklar ist noch, ob dies nur Präsentations-, sondern auch Ausliefertermine sind. Sofern allerdings schon gewisse Kontingente an GDDR5X-Speicher verfügbar sind, spricht nichts gegen einen Hardlaunch – wenn anfänglich alles ausverkauft ist und die Nachlieferungen etwas auf sich warten lassen, dann kann man das vom Marketing immer noch als einen "unerwarteten Käuferansturm" positiv anstreichen lassen. Die GDDR5X-Liefersituation dürfte sich wohl automatisch in absehbarer Zeit entspannen, so kompliziert sind diese (technologisch nahe an GDDR5 liegenden) Speicherchips schließlich nicht herzustellen.

12

Hardware- und Nachrichten-Links des 12. April 2016

Für einige Fachdiskussionen sorgt derzeit ein Posting im AnandTech-Forum zu einer mögliche Veränderung der GCN Shader-Cluster – basierend anscheinend auf einer früheren Patentschrift. Gezeigt wird dabei ein neuer Shader-Cluster mit nur 14 Shader-Einheiten, welcher zudem in nicht gleichmäßig große Funktionsblöcke unterteilt ist: Anstatt es 4 Funktionsblöcke mit jeweils 16 Shader-Einheiten gibt (wie bei allen bisherigen GCN-Lösungen), gibt es hier einen Funktionsblock mit 2 Shader-Einheiten, einen mit 4 und einen mit 8 – insgesamt 14 Shader-Einheiten. Dies soll dazu dienen, je nach konkret anliegendem Leistungsbedarf unterschiedlich große Teile des Shader-Clusters abschalten zu können und die ganze Lösung somit deutlich energieeffizienter hinzubekommen. Ob dies allerdings jemals in dieser Form so realisiert wird, ist eine andere Frage – das Vorliegen einer Patentschrift bedeutet erst einmal gar nichts in diese Richtung hin. Am Ende könnten sich zudem für dieselbe Zielsetzung auch andere Lösungsvorschläge anbieten – beispielsweise ist nicht klar, warum das Abschalten einzelner Funktionsblöcke im bisherigen GCN-Design nicht annähernd gleich gut energieeffizient sein soll.

Die größe Wahrscheinlichkeit liegt derzeit aber schlicht darin, das es sich hierbei nur um eine Idee handelt, die aber in der Praxis derzeit nicht umgesetzt wird. Für die GCN 2.0 Architektur von Polaris & Vega wäre sowieso alles andere als die bekannten 64 Shader-Einheiten pro Shader-Cluster eine größere Überraschung – weil ansonsten der Polaris-11-Chip mit seinen bislang gemeldeten mindestens 16 Shader-Clustern nicht auf eine sinnvolle Anzahl an Shader-Einheiten kommen würde. Zudem gibt es auch Stimmen, das die ganze Schemazeichnung eventuell nicht ernst zu nehmen ist, da man den ganzen Effekt der Abschaltbarkeit kleinster Einheiten auch nicht in Hardware gießen muß, sondern durchaus in Software realisieren könnte. Für den Augenblick ist das ganze also nur zur theoretischen Diskussion taugend, hat aber augenscheinlich (noch) keinerlei Praxisbezug.

Ein bißchen untergegangen unter den Grafikkarten-Rumors der letzten Tage sind die neuesten Zahlen zur (weltweiten) Betriebssystem-Verbreitung seitens der Statistikdienste NetMarketShare und StatsCounter für den März 2016. In diesem Zeitraum wird Windows 10 inzwischen auf 14,15% bzw. 16,53% eingeschätzt, ein Zugewinn von 1,33% bzw. 1,67%. Der Zugewinn ist damit bemerkbar höher als der bisher fast regelmäßig gepostete eine Prozentpunkt pro Monat – möglicherweise zieht nun die letzte Upgradewelle an, nachdem das Auslaufen des Kostenlosumstiegs-Angebots im Juli 2016 in die Nähe rückt. Trifft diese Annahme zu, könnte Windows 10 nochmals einen größeren Nutzerzuwachs in den nächsten drei Monaten erzielen, vielleicht kann man dann schon im August die 20-Prozent-Marke nehmen. Danach fängt allerdings der eigentliche Kampf für Windows 10 an, denn dann gibt es Zuwachs nur noch über PC-Neukäufe – was derzeit schwer verdientes Brot darstellt.

Zumindest wird sich Windows 10 in den nächsten Monaten als die klare Nummer 2 etablieren, nachdem Windows 7 weiterhin die (überaus) klare Nummer 1 mit 51,89% bzw. 45,7% an installierter Basis darstellt, die anderen Betriebssysteme allerdings inzwischen allesamt klar abgeschlagen nahe der 10-Prozent-Marke oder klar darunter liegen. Immerhin ist Windows XP mit 10,9% bzw. 7,5% immer noch gut dabei – und baut nach wie vor viel langsamer ab, als es gemäß des Alters des Betriebssystems zu erwarten wäre. Möglicherweise wird Windows XP immer noch eine beachtbare Nutzerschar aufweisen, wenn Windows Vista, 8 & 8.1 längst unter die 1-Prozent-Marke gefallen sind. Zurückkommend zu Windows 10 wäre noch zu erwähnen, das unter Gamern das neue Microsoft-Betriebssystem deutlich erfolgreicher läuft als im allgemeinen Markt: Die aktuellen Steam-Zahlen sehen Windows 10 64-Bit im März 2016 erstmals an der Spitze der (nach 32/64-Bit-Systemen unterteilten) Statistik. Die beiden Bit-Varianten zusammengezählt liegt Windows 7 zwar immer noch mit 39,96% zu 38,28% knapp vorn, aber angesichts der monatlichen Veränderung dürfte sich dieses Verhältnis schon im laufenden April auch noch zugunsten von Windows 10 wandeln.

Die Marktbeobachter von Gartner haben die ersten Zahlen zum weltweiten PC-Markt des ersten Quartals 2016 vorgelegt – welche es in sich haben: Gegenüber dem schon schlechten Stand des Vorjahres ging es nochmals um 9,6% (im Vergleich zum ersten Jahresquartal 2015) nach unten – was dann das sechste Verlustquartal hintereinander darstellt und zudem den PC-Markt auf ein Niveau herunterbringt, welches zuletzt im Jahr 2007 gesehen wurde. Damit fängt das Jahr 2016 leider genauso an, wie schon das Jahr 2015 – mit einem unerwartet hohen Verlust, den man vielleicht hofft, über das Jahr wieder auszugleichen, was aber auch schon im Jahr 2015 nicht funktioniert hatte. Einschränkenderweise muß hinzugesagt werden, das dieserart Statistiken nur einen groben Blick auf den PC-Markt geben, da nur Stückzahlen an verkauften Komplett-PCs und Notebooks erfasst werden – nicht aber damit erzielte Umsätze, nicht selbst zusammengestellte PC und vor allem überhaupt nicht das Umrüster- und Zubehörgeschäft. Ob man hiermit einen Verlust von 9,6% ausgleichen kann, wagen wir zwar auch zu bezweifeln – aber die eigentliche Umsatzzahl für den gesamten PC-Bereich könnte eventuell viel weniger schlecht liegen.

Inhalt abgleichen