21

Neue offizielle AMD Grafikchip-Roadmap für die Jahre 2015 bis 2018 aufgetaucht

Im Investoren-Bereich von AMDs Webseiten ist eine aktualisierte "Product and Tech Roadmap" (PDF) aufgetaucht – welche zum einen die seit Jahresanfang bekannten AMD-Roadmaps enthält, daneben aber auch eine bisher noch nicht gesehene "AMD Graphics Roadmap" für die Jahre 2015 bis 2018 aufbietet. Jene auf März 2016 datierte Präsentationsfolie weicht dabei nicht wirklich von der ebenfalls im März offiziell gezeigten Grafikchip-Roadmap ab, sondern bringt primär nur eine andere Darstellungsform dieser daher. Dabei werden den Polaris-Lösungen des Jahres 2016 dann die Features der 14nm-Fertigung, der vierten GCN-Generation sowie des Supports von HDMI 2.0 und DisplayPort 1.3 zugesichert – dies war allerdings über andere Informationen schon bekannt gewesen:

Die vielleicht einzige neue Information dieser Roadmap wäre daher, das AMD mit den Polaris-Lösungen des Jahres 2016 augenscheinlich schon die komplette vorherigen Radeon R300 & Fury Generation ablösen will – so ist es zumindest eingezeichnet. Allerdings ist an dieser Stelle einzuwenden, das man sich bei Roadmaps ganz gern einmal die Freiheit herausnimmt, mittels einer sehr optimistischen Darstellungsform einen Punkt nahezulegen, welchen dann die jeweiligen Hersteller im Gespräch niemals bestätigen würden – weil dieser Punkt eben nur suggeriert werden soll, nicht aber der Realität entspricht. In diesem Fall suggeriert die Roadmap unserer Meinung nach nur, das mit Polaris 11 & 10 bereits das aktuelle AMD-Portfolio vollständig abgelöst werden kann – in der Praxis dürfte Polaris 10 (2560 Shader-Einheiten @ 256 Bit GDDR5) klar zu schwach dafür sein, um sich mit einer Radeon R9 Fury X (4096 Shader-Einheiten @ 4096 Bit HBM1) anzulegen.

Wir würden die gewählte Darstellungsform sowieso gänzlich anders auslegen wollen: Sie zeigt nicht an, wie das komplette Produktportfolio des jeweiligen Jahres aussieht – sondern nur, welche neuen Lösungen in diesem Jahr in den Markt kommen, aber ohne jeden Performance-Vergleich der Generationen untereinander. Nur so läßt sich dann auch erklären, das die Vega-Lösungen des Jahres 2017 denselben Raum einnehmen wie die Polaris-Lösungen des Jahres 2016 – obwohl von den Vega-Lösungen (überaus) deutlich mehr Performance erwartet wird, weil Polaris und Vega eben eine Grafikchip-Generation bilden werden. Eine Performance- oder Performancesegment-Aussage würden wir daher aus dieser neuen offiziellen Roadmap nicht ableiten wollen – was natürlich trotzdem diskussionsfähig bleibt.

20

Hardware- und Nachrichten-Links des 20. April 2016

Videocardz zeigen nochmals die Kühlerabdeckung der kommenden GP104-basierten Grafikkarten GeForce GTX 1070 & 1080 – hiervon liegen inzwischen so viele Fotos vor, das ein Fake ziemlich unwahrscheinlich geworden ist. Interessanterweise ist in dieser Kühlerabdeckung bereits der Schriftzug "GTX 10 0" voreingestanzt – damit bestätigt sich zumindest die gewählte Verkaufsnamen-Serie als "GeForce 1000 Serie". Die voreingestanzte letzte Null zeigt zudem an, das zumindest die beiden GP104-Karten mit Referenzdesigns (die kleinste GP104-Lösung soll kein Referenzdesign bekommen) nicht auf eine "5" enden werden, das es also keine "GeForce GTX 1075" oder "GeForce GTX 1085" geben wird. Platz für ein angehöriges "Ti" gibt es auch nicht, so das sich auch eine "GeForce GTX 1080 Ti" ausschließt – die beiden größeren GP104-Grafikkarten dürften sich also ganz konventionell "GeForce GTX 1070" und "GeForce GTX 1080" nennen.

GP104-150 GP104-200 GP104-400
Hardware-Ansetzung abgespeckte GP104-Variante mit 4 oder 8 GB GDDR5-Speicher abgespeckte GP104-Variante mit 8 GB GDDR5- oder GDDR5X-Speicher wahrscheinlich GP104-Vollausbau mit 8 GB GDDR5X-Speicher
Referenz/Hersteller-Designs nur Herstellerdesigns sowohl Referenz- als auch Hersteller-Designs
sichere Hardware-Abspeckungen klar niedrigere Anzahl an Shader-Einheiten gegenüber GP104-400, kein GDDR5X klar niedrigere Anzahl an Shader-Einheiten gegenüber GP104-400 -
eventuelle Hardware-Abspeckungen eventuell geringfügig niedrigere Anzahl an Shader-Einheiten gegenüber GP104-200, eventuell nur 4 GB Speicher eventuell kein GDDR5X -
angenommenes Performance-Ziel Richtung GeForce GTX 980 (Perf.Index ~580-610%) GeForce GTX 980 plus vielleicht 10-15% (Perf.Index ~660-690%) GeForce GTX 980 Ti plus vielleicht 10-15% (Perf.Index ~810-840%)
angenommener Listenpreis 399 Dollar
(zwischen GeForce GTX 970 & 980)
499 Dollar
(wie GeForce GTX 980)
649 Dollar
(wie GeForce GTX 980 Ti)
voraussichtlicher Verkaufsname noch unbekannt GeForce GTX 1070 GeForce GTX 1080
voraussichtlicher Launch-Termin Mitte Juni Computex Anfang Juni Computex Anfang Juni

Offen bleibt damit noch der Verkaufsname der kleinsten GP104-Lösung, welche zumindest gemäß der Chipnummer einen eher geringen Unterschied zur mittleren GP104-Lösung haben soll. Denkbar wären hierbei "GeForce GTX 1060 Ti" oder "GeForce GTX 1065" – aber selbst der gleiche Verkaufsname in Form von "GeForce GTX 1070" ist noch möglich, wenn die Karte einen augenscheinlichen Unterschied bei der Speicherart (GDDR5 zu GDDR5X) oder/und der Speichermenge (4 GB zu 8 GB) aufweist. Spätestens zur Computex wird sich hierzu mehr ergeben, weil dann mit dem voraussichtlichen Launch von GeForce GTX 1070 & 1080 klar wird, welche Möglichkeiten nVidia zur weiteren Hardware-Abspeckung der (nachfolgenden) kleinsten GP104-Lösung noch übrig bleiben. Und unter Umständen wartet nVidia bei dieser kleinsten GP104-Lösung auch bewußt den Release von AMDs Polaris 10 ab, welche potentiell der kleinsten GP104-Lösung nahekommen könnte – um erst nach Polaris-10-Release die finalen Taktraten dieser kleinsten GP104-Lösung final festzulegen.

Das Kostenlosumstiegs-Angebot zu Windows 10 läuft nun in gut 100 Tagen nach dem 29. Juli 2016 aus – womit sich durchaus die Frage stellt, was Microsoft danach zur weiteren Ankurbelung der Windows-10-Nutzerschar zu tun gedenkt. Die platteste Lösung wäre eine schlichte Verlängerung dieses Angebots – was allerdings auch die unwahrscheinlichste Auflösung darstellt, damit würde sich Microsoft sehr unglaubwürdig machen und vor allem beim Konsumenten den (falschen) Eindruck erwecken, es ging ewig so weiter. Eher denkbar wären abgesenkte Umstiegs-Preispunkte, Microsoft laboriert schließlich schon an ähnlichen Dingen im Zuge der Idee, das man illegale Windows-Versionen beim Umstieg auf Windows 10 gegen einen Kostenbeitrag legalisieren will. Im diesem Sinne sollte es in Zukunft eigentlich auch ein günstiges Umstiegsangebot legaler Windows-Versionen zu Windows 10 geben. Ob dieses umgehend nach dem 29. Juli auftaucht, bliebe noch abzuwarten – verkaufspsychologisch wäre es sicherlich besser, die User erst einmal in das "Loch" der normalen Retailpreise fallen zu lassen, ehe man nachfolgend sein Preisbrecher-Angebot bekanntgibt.

20

GeForce GTX 950 "SE" ohne Stromanschluß ist ~10% langsamer

Ab Anfang März sind im Handel verschiedene GeForce GTX 950 Grafikkarten ohne extra PCI-Express-Stromanschluß aufgetaucht, deren TDP demzufolge auf 75 Watt abgesenkt wurde – ausgehend von den 90 Watt TDP der regulären GeForce GTX 950 sowie deren (geschätzten) Spiele-Realverbrauch von ~85 Watt. Schon seinerzeit wurde darauf hingewiesen, das dies bei dieser Sondervariante der GeForce GTX 950 ohne Stromanschluß wohl zu Performanceverlusten führen muß: Zwar laufen diese Karten auf den offiziellen nVidia-Taktraten oder sogar leicht darüber, aber der im Grafikkarten-BIOS hinterlegte niedrigere TDP-Wert wird diese Karten bei der Ermittlung des real anliegenden Chiptakts zuverlässig ausbremsen – oder anders formuliert: Um jenen niedrigeren TDP-Wert nicht in der Praxis zu überschreiten, kann diese Sondervariante der GeForce GTX 950 ohne Stromanschluß faktisch nur mit niedrigeren realen Chiptaktungen arbeiten.

Erschwerend kommt hierbei hinzu, das selbst unübertaktete Standardmodelle der GeForce GTX 950 vergleichsweise hohe reale Chiptaktungen aufweisen: Seinerzeit wurden 1332 MHz im Schnitt ermittelt – dies ist dann deutlich oberhalb des offiziellen Chiptakts von 1024/1188 MHz. Die erste GeForce GTX 950 ohne Stromanschluß im Test der ComputerBase kommt zwar genauso mit offiziellen Taktraten von 1026/1190/3300 MHz daher, die real anliegenden Taktraten liegen aber bei grob nur 1100 MHz. Selbst eine (mögliche) Anhebung des PowerTargets brachte hierbei nur marginale Zugewinne ein: Offenbar weiss die Karte darüber Bescheid, das sie ohne Stromstecker nicht mehr als 75 Watt ziehen "darf" – und zieht demzufolge auch bei höherem PowerTarget nicht mehr aus der Leitung, respektive wirft keine höheren Performancewerte aus.

Damit ist schon vor den eigentlichen Benchmarks klar, das eine solcherart GeForce GTX 950 ohne Stromanschluß nicht genauso schnell wie eine reguläre GeForce GTX 950 sein kann – denn ~1100 MHz gegen 1332 MHz Chiptakt sind eine klare Sache. Die von der ComputerBase hierzu angestellten Benchmarks sind trotz klarer Meßdaten leider nicht ganz so einfach zu werten: Zum einen wurde als Vergleichsmaßstab nur eine stark ab Werk übertaktete GeForce GTX 950 benutzt, was die GeForce GTX 950 ohne Stromanschluß nochmals schlechter dastehen läßt. Zudem erstaunt etwas die Wertung von GeForce GTX 750 Ti und Radeon R7 360 auf nahzu demselben Performancelevel – gemäß unseres Performance-Index besteht zwischen beiden Karten doch schon ein klarerer Unterschied. Trotzdem läßt sich am Ende nach eigenen Überlegungen und Gegenrechnerei mit einiger Gewißheit sagen, das die GeForce GTX 950 ohne Stromanschluß ungefähr 10% langsamer als eine reguläre GeForce GTX 950 herauskommt – dies ergibt einen FullHD Performance-Index von ~260%.

Radeon R7 370 GeForce GTX 950 "SE" GeForce GTX 950 GeForce GTX 960
Chipbasis AMD Pitcairn, 2,8 Mrd. Transistoren in 28nm auf 212mm² Chipfläche nVidia GM206, 2,94 Mrd. Transistoren in 28nm auf 227mm² Chipfläche
Architektur GCN 1.0, DirectX 12 Feature-Level 11_1 (DirectX 11.2a) Maxwell 2, DirectX 12 Feature-Level 12_1
Technik 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 256 Bit DDR Interface 2 Raster-Engines (mit doppelter Raster-Power), 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit DDR Interface 2 Raster-Engines (mit doppelter Raster-Power), 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 128 Bit DDR Interface
Taktraten ≤975/2800 MHz 1024/1188/3300 MHz
(Ø-Chiptakt: ~1100 MHz)
1024/1188/3300 MHz
(Ø-Chiptakt: 1332 MHz)
1127/1178/3500 MHz
(Ø-Chiptakt: 1316 MHz)
Speicherausbau 2 GB GDDR5
(4 GB mit Aufpreis)
2 GB GDDR5 2 GB GDDR5 2 GB GDDR5
(4 GB mit Aufpreis)
Stromstecker 1x 6pol. keine 1x 6pol. oder 1x 8pol. 1x 6pol. oder 1x 8pol.
TDP/TBP/GCP 110W (TBP) 75W (GCP) 90W (GCP) 120W (GCP)
Spiele-Verbrauch ~120W ~75W ~85W 98W
3DC Perf.Index 260% ~260% 290% 340%
Listenpreis 149$ 159$ 159$ 199$

Mit dieser klar gegenüber der regulären GeForce GTX 950 abweichenden Performance lohnt es sich, diese Sondervariante der GeForce GTX 950 ohne extra Stromanschluß künftig entsprechend eindeutig zu benennen: GeForce GTX 950 "SE" würde sich hierbei anbieten, wobei die Anführungszeichen um das "SE" den inoffiziellen Status dieser Bezeichnung andeuten. Jene Karte geht von der Performance her in direkte Konkurrenz zur Radeon R7 370, zu welcher nVidia bislang im Mainstream-Portfolio eigentlich noch kein (exakt) passenden Gegenangebot hatte. Allerdings sieht es derzeit so aus, als würde die GeForce GTX 950 "SE" nicht wirklich günstiger als die reguläre GeForce GTX 950 angeboten werden – zwar am unteren Rand des Preisbereichs dieser beiden Kartenvarianten, aber angesichts der klar abgesenkten Performance nicht wirklich mit einem entsprechenden Minderpreis.

Dies war zwar zu erwarten bei dieser faktisch inoffiziellen Kartenvariante, ist aber dennoch bedauerlich – eine echte Konkurrenz zur (günstigeren) Radeon R7 370 wird sich somit nicht ergeben. Die GeForce GTX 950 "SE" kann immerhin damit wuchern, die schnellste verfügbare Grafikkarte ohne extra Stromstecker zu sein, sie löst in dieser Frage die GeForce GTX 750 Ti ab. Aber um diesen Punkt wirklich zu den Grafikkarten-Käufern zu bringen, müsste nVidia diese Kartenvariante eigentlich offiziell machen. Derzeit schippert diese GeForce GTX 950 "SE" wegen des den meisten Grafikkarten-Käufern sicherlich nicht bewussten Fakts der deutlich niedrigeren realen Chiptaktraten irgendwo zwischen diesem Punkt der besten 75W-Lösung und einem "Neppangebot" wegen der niedrigeren Performance gegenüber der regulären GeForce GTX 950 (ohne echten Preisvorteil) herum.

20

Die Grafikkarten-Performance unter Hitman (2016)

Nachzutragen aus dem März ist noch eine Auswertung der verschiedenen Grafikkarten-Benchmarks seitens ComputerBase, PC Games Hardware und Guru3D unter Hitman (2016). Der Episoden-Titel hat den derzeit zu beobachtenden (unglückseligen) Trend der durch Microsofts UWP-Programm verhunzten Spieletitel faktisch mitbegründet – hierbei mussten sich die Performance-Tester erstmals mit seltsamen Restriktionen dieser Plattform bei einem (selbsterklärten) AAA-Titel herumschlagen, nur um die DirectX-12-Variante des Spiels mittesten zu können. Jene sorgte allerdings nicht bei jedem Testbericht für Performancegewinne, einzig der Nutzen für AMDs Spitzenbeschleuniger war unumstritten. Wenigsten beziehen sich hier alle durch UWP ausgelösten Probleme nur auf den Benchmark-Vorgang – als reines Computerspiel läuft Hitman (2016) recht anständig und zaubert auch eine stimmungsvolle Optik mittels der weiter verbesserten Glacier-Engine auf den Monitor. Die miteinander verrechneten Benchmarks der drei vorgenannten Artikel ergeben dann folgende durchschnittliche Grafikkarten unter Hitman (2016):

Hitman (2016) – FullHD, MaxQuality & SMAA  (Quellen: ComputerBase, PCGH & Guru3D)
AMD HD7000 AMD R200 AMD R300 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870-Boost 370-4GB 680 770 950
30-35 fps 7950
7950-Boost
960-2GB
35-39 fps 7970 280
285
380-2GB 780 960-4GB
40-49 fps 7970-GHz 280X 380-4GB
380X
Titan Titan Black
780Ti
970
50-59 fps 980
ab 60 fps 290
290X
390
390X
Nano
Fury
Fury X
980Ti
Titan X

Hitman (2016) überrascht unter FullHD mit einigen interessanten Benchmark-Ergebnissen: AMD-Grafikkarten laufen in dem Titel zumeist besser als ihre ansonsten üblichen nVidia-Kontrahenten, auch ist bei diesen der Einfluß der verbauten Speichermenge etwas geringer. Selbiger ist bei nVidia sehr ausgeprägt – und trotzdem fallen selbst auf gleicher Speichermenge die Kepler-basierten nVidia-Grafikkarten nochmals klar gegenüber den Maxwell-basierten Modellen ab (eine GeForce GTX 770 langsamer als eine GeForce GTX 950). So kommt es dazu, das auf AMD-Seite die 25-fps-Marke noch vom klaren Mainstream-Modell Radeon R7 370 4GB genommen wird, während bei nVidia sich im gleichen Performancefeld ehemalige Spitzen-Beschleuniger wie GeForce GTX 680 & 770 tummeln. In der Summe erarbeitet sich AMD hier einen beachtbaren Vorteil – sowohl in der Angebotsbreite als auch an der absoluten Leistungsspitze, wo gleich sieben AMD-Grafikkarten die 60-fps-Marke knacken, gegenüber nur zwei nVidia-Grafikkarten.

Hitman (2016) – WQHD, MaxQuality & SMAA  (Quellen: ComputerBase, PCGH & Guru3D)
AMD HD7000 AMD R200 AMD R300 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps
30-35 fps Titan Titan Black
35-39 fps 380-4GB 970
40-49 fps 290 380X 980
50-59 fps 290X 390
390X
980Ti
Titan X
ab 60 fps Nano
Fury
Fury X

Unter WQHD wird das ganze umgehend zur reinen Angelegenheit von 4-GB-Grafikkarten – selbst die nominell potenten Radeon R9 280X und GeForce GTX 780 Ti (mit jeweils 3 GB Speicher) können den Titel dann nicht mehr in der maximalen Bildqualität darstellen. Gleichzeitig wird der AMD-Vorteil unter diesem Titel noch offensichtlicher: AMD hat die einzigen drei Grafikkarten, welche die 60-fps-Marke knacken – und es kommt zu so seltsamen Konstellationen, das eine Radeon R9 380 4GB im gleichen Performancefeld liegt wie eine (nominell viel schnellere) GeForce GTX 970, und darüber hinaus noch schneller herauskommt als die früheren 999-Dollar-Beschleuniger GeForce GTX Titan und Titan Black. Damit dürfte dann letztlich auch klar sein, wieso AMD so gerne auf der Performance unter Hitman (2016) herumreitet – es handelt sich einfach um den Vorzeigetitel für AMD-Grafiklösungen. Unter den von allen drei Artikeln zusätzlich angestellten UltraHD-Messungen ändert sich dies dann auch nicht mehr – AMD liegt auch hier klar vorn, mit ausnahmsweise ganz anständigen 4K-Frameraten für Radeon R9 390X, Nano, Fury und Fury X bei zwischen 35-40 fps.

19

Hardware- und Nachrichten-Links des 19. April 2016

Laut den SweClockers (maschinelle Übersetzung ins Deutsche) kommt der GP106-Chip aus nVidias Pascal-Generation im Zeitrahmen August bis September 2016 – und damit halbwegs so, wie bislang von uns gedacht. Mit dem GP106-Chip wird nVidia die GeForce GTX 950 & 960 Karten auf Basis des GM206-Chip zu einer natürlich höheren Performance beerben – aller Vermutung nach dürften GP106-Grafikkarten (möglicherweise "GeForce GTX 1060 Serie") in den breiten und bislang nicht genutzten Performance-Bereich zwischen GeForce GTX 960 (Perf.Index 340%) und GeForce GTX 970 (Perf.Index 520%) hineingehen. Damit wird der GP106-Chip den natürlichen Kontrahenten von AMDs Polaris-10-Grafikchip darstellen – auch wenn dies nicht bedeutet, das beide eine identische Performance aufweisen müssen, aber man dürfte bei der ungefähren Zielrichtung und vor allem dem Hardware-Aufwand in Richtung Transistoren-Anzahl und benötiger Chipfläche in etwa gleichliegend sein.

Verschiedene Kommentatoren dieser SweClockers-Meldung notieren dann auch noch, das GP106-Grafikkarten ohne extra Stromstecker auskommen sollen. Dies erscheint schon beim ersten Hören als arg unwahrscheinlich, denn dies liegt außerhalb dessen, wofür die Performance-Klasse üblicherweise gemacht ist – dort sollen Grafikkarten mit TDPs von 100 bis knapp unter 150 Watt TDP auftauchen, nicht aber derart stromverbrauchsoptimierte Modelle. Allerdings dürften hier schlicht die Tücken der automatischen Übersetzung zugeschlagen haben, denn SweClockers notieren in ihrem Original nur, das die GM206-basierte GeForce GTX 950 kürzlich in einer Sondervariante ohne extra Stromstecker erschienen ist – und nehmen dann an, das dies bei GP106-basierten Grafikkarten ähnlich sein könnte. Erstens handelt es sich damit um eine klare Annahme ohne jeden Gerüchte-Hintergrund – und zweitens dürfte sich das wenn dann nur auf ein einzelnes GP106-Modell beziehen. Die schnellsten GP106-Modelle werden hiermit sicherlich nicht dienen können, jene sind auf TDPs von 100-120 Watt zu schätzen.

Videocardz beschäftigen sich mit den Mobile-Grafiklösungen von AMDs Radeon M400 Serie, zu welchen derzeit schon einige Informationen, Treibereinträge und sogar Vorserien-Notebooks durch die Gegend schwirren. Wie üblich im Notebook-Business, machen allerdings die Rebranding-Lösungen den Anfang, zu welchen derzeit schon eine umfangreiche Liste mit Device-IDs und bestätigtem Rebranding-Status existiert. In der Folge gehen Videocardz dann davon aus, das die wirklich neuen Grafiklösungen innerhalb der Radeon M400 Serie ausschließlich den Unterserien Radeon R9 M480 & M490 vorbehalten sein wird. Sehr sicher wird hierbei der kleinere Polaris 11 zum Einsatz kommen, jener ist schließlich sogar primär für Mobile-Anforderungen gedacht. Normalerweise sollte AMD aber auch den größeren Polaris 10 ins Mobile-Segment übernehmen können, schließlich war auch der indirekte Vorgänger-Chip "Pitcairn" in diesem zu finden. Bei (vermutlich) bis zu 2560 Shader-Einheiten könnten sich für DTR- und Gaming-Notebooks interessante Alternativen ergeben in einem Markt, welcher bislang an der Leistungsspitze von den klar energieeffzienerten nVidia-Grafikchips dominiert wurde.

EuroGamer bestätigen den Leak zu den PS4K-Specs aus unabhängiger Quelle: Auch dort liegt das entsprechende Sony-Dokument vor – womit man abgesehen von unwahrscheinlichen Restchancen davon ausgehen kann, das die ganzen Angaben passend sind und Sony die PS4K exakt so plant. Zu eben jener PS4K ist in der bisherigen Berichterstattung vielleicht noch nicht gut herüber gekommen, wie wenig dieser Hardware-Sprung eigentlich wert ist: Sicherlich sehen 128% mehr GPU-Rechenleistung zuerst nach viel aus – aber bei nur 24% mehr Speicherbandbreite (trotz wohl deutlich verbesserter Kompressionstechnologie), gleicher Speichermenge, und nur 31% mehr CPU-Rechenleistung handelt es sich eher nur um ein kräftiges Upgrade, weniger denn eine neue Generation. Alle direkt oder zwischen den Zeilen lesbaren Sony-Aussagen gehen schließlich auch in diese Richtung, die PS4K nur für höhere interne Renderauflösungen oder bestenfalls für bessere Grafikeffekte zu benutzen.

Nochmals wäre hierbei (die allerdings schon so notierte) Sony-Anforderungen zu erwähnen, das Sony keine Spiele zulassen will, welche allein für die PS4K geschrieben sind. Konkret muß alles für die originale PS4 geschrieben werden und kann dann über den extra "Neo-Modus" die höhere Hardwareleistung der PS4K zugunsten höherer interner Renderauflösungen nutzen. Für die Spieleentwickler soll damit weiterhin das Mantra der "einen" Hardware aufrecht erhalten werden – welche eben in zwei Stufen erhältlich ist, was für differierende interne Renderauflösungen genutzt werden kann. Gegen eine "neue Konsolengeneration" mit der PS4K spricht auch schon der Punkt, das die PS4K praktisch wohl nur das ursprüngliche Versprechen der PS4 als "FullHD-Konsole" (erneut) einlösen wird – für viel mehr wird der Hardwareschub der PS4K gar nicht ausreichend sein. Natürlich bleibt dies trotzdem eine eher verwunderliche Aktion, da es Hardware-Upgrades in dieser klaren Form bei früheren Konsolen eigentlich nicht gegeben hat und das ganze somit einigen Neuheitswert hat bzw. auch einen bisher nicht dagewesenen Trend im Konsolen-Business begründen könnte.

19

Angebliche Hardware-Daten zu Sonys verbesserter PS4K geleakt

Bei Giant Bomb will man ein in Entwicklerkreisen zirkulierendes Dokument in die Finger bekommen haben, welches Auskunft über die Veränderungen der verbesserten Version der Playstation 4 bietet. Zu jener scheint Sony immer noch keinen finalen Verkaufsnamen festgelegt zu haben, derzeit werden "Playstation 4.5" oder "PS4K" gehandelt – wobei unserer Meinung nach nur letzteres Chancen auf eine Verwirklichung hat. Alternativ könnte sich Sony auch des technischen Ansatzes bedienen und das ganze "PS4 Neo" nennen – nach dem Neo-Modus der verbesserten PS4, mittels welchem die Hardwareverbesserungen der neuen Spielekonsole ausgenutzt werden können. Spiele können sich dann dieses Modus' bedienen (müssen dies aber nicht) – wichtig ist vor allem, das Sony keinerlei Spiele zulassen wird, welche nur einen Neo-Modus bieten, also nur auf der verbesserten Konsolenversion lauffähig sind. Somit soll das Konsolen-übliche Feature der einheitlichen Hardwareplattform wenigstens halbwegs gerettet werden – "Neo" dient der Ausnutzung der besseren Hardware zugunsten höherer Auflösungen, mehr im eigentlichen nicht. Folgende Hardware-Daten wurden dann zur PS4K dann notiert:

PS4 PS4K Verbesserung
CPU 8 Jaguar-Cores @ 1.6 GHz 8 Jaguar-Cores @ 2.1 GHz 31% mehr CPU-Rechenleistung
GPU GCN-Lösung mit 18 CUs (1152 Shader-Einheiten) @ 800 MHz "verbesserte" GCN-Lösung mit 36 CUs (2304 Shader-Einheiten) @ 911 MHz 128% mehr GPU-Rechenleistung
Speicher 8 GB GDDR5 @ 176 GB/sec
(= 256 Bit Interface @ 2750 MHz)
8 GB GDDR5 @ 218 GB/sec
(= 256 Bit Interface @ 3400 MHz)
24% mehr Speicherbandbreite
(nutzbar) 4,5 GB Speicher 5 GB Speicher 512 MB mehr für Entwickler/Spiele nutzbarer Speicher
Upscaler bis zu FullHD bis zu UltraHD weitere Hochskalierung durch 4K TV-Gerät kann entfallen

Sofern diese Daten stimmen, verfolgt Sony damit augenscheinlich zwei Zwecke: Erstens die korrekte Unterstützung von UltraHD-Monitoren durch eine gerätinterne Hochskalierung auf die 4K-Auflösung. Und zweitens eine echte Leistungssteigerung der Konsole zur Unterstützung höherer Renderingauflösungen. Hier soll Sony zwar den Spieleentwicklern ebenfalls die 4K-Auflösung empfehlen, dies erscheint uns allerdings angesichts der praktischen Schwierigkeiten der originalen PS4 mit der Erfüllung der FullHD-Auflösung als (deutlich) zu hoch gegriffen. Sicherlich können Casual-Titel die 4K-Auflösung erreichen, aber typische AAA-Titel werden wohl mit der FullHD-Auflösung vorlieb nehmen müssen, dafür ist die höhere Rechenleistung der PS4K geradeso ausreichend. Schließlich liegt die theoretische Rechenleistung der PS4K mit 4,2 TFlops/sec nur geringfügig höher als jene der Radeon R9 380X mit 4,0 TFlops/sec – und diese AMD-Grafiklösung ist sicherlich nicht als UltraHD-tauglicher Beschleuniger bekannt.

Vielmehr dürfte die PS4K-Grafiklösung eher mit dem Polaris-10-Chip aus AMDs 14/16nm-Portfolio verwandt sein – jener kommende Grafikchip für das 14/16nm Performance-Segment wird derzeit auf 2560 Shader-Einheiten eingeschätzt, aber in AMDs Baukastensystem der SemiCustom-Sparte läßt sich letztlich jegliche gewünschte Lösung realisieren (so auch eine mit exakt 2304 Shader-Einheiten). Sicherlich wird das ganze dann auch in der 14nm-Fertigung von GlobalFoundries hergestellt, ansonsten ließe sich die faktisch verdoppelte Grafiklösung wirtschaftlich nicht realisieren bzw. würde dies in der 28nm- oder auch 20nm-Fertigung für einen zu hohen Strombedarf sorgen. So aber wird die PS4K in etwa den gleichen Strombedarf wie die originale PS4 aufweisen – dies ist etwas ungünstig im Sinne einer Kostenreduktion zugunsten von Sony, aber es reicht auch aus, um am Ende den gleichen Preispunkt wie bei der originalen PS4 (und keinen höheren Preispunkt) anzustreben. So wird zur PS4K auch berichtet, das jene den gleichen Listenpreis von 399 Dollar wie die originale PS4 haben soll.

AMD und Sony nutzen hier also "nur" den inzwischen eingetretenen Fortschritt bei der Fertigungstechnologie aus, versuchen aber ansonsten tunlichst nicht das Feld der originalen PS4 zu verlassen, also gerade keine neue Konsolengeneration zu kreiieren. Im Sinne der PS4K dürfte dies gelingen, im Sinne des herauskommenden Performancelevels bliebe die weitere Entwicklung bei der Nintendo NX abzuwarten: Kommt jene tatsächlich auf einem Performanceniveau klar oberhalb der originalen PS4 heraus, würden PS4K & NX am Ende eine eigene Performanceklasse bilden können. Kommt die NX hingegen nur auf PS4-Niveau heraus, würde die PS4K bezüglich der Performance allein auf weiter Spur stehen – ob man dies dann tatsächlich als "eigene Performanceklasse" ansieht, ist noch unklar. Ohnehin bliebe noch abzuwarten, ob dieser Leak der Hardware-Daten zur PS4K der Wirklichkeit entspricht bzw. ob die Nintendo NX irgendwelchen Hardware-Druck gegenüber Xbox One und originaler PS4 auslösen kann.

Nachtrag vom 19. April 2016

EuroGamer bestätigen den Leak zu den PS4K-Specs aus unabhängiger Quelle: Auch dort liegt das entsprechende Sony-Dokument vor – womit man abgesehen von unwahrscheinlichen Restchancen davon ausgehen kann, das die ganzen Angaben passend sind und Sony die PS4K exakt so plant. Zu eben jener PS4K ist in der bisherigen Berichterstattung vielleicht noch nicht gut herüber gekommen, wie wenig dieser Hardware-Sprung eigentlich wert ist: Sicherlich sehen 128% mehr GPU-Rechenleistung zuerst nach viel aus – aber bei nur 24% mehr Speicherbandbreite (trotz wohl deutlich verbesserter Kompressionstechnologie), gleicher Speichermenge, und nur 31% mehr CPU-Rechenleistung handelt es sich eher nur um ein kräftiges Upgrade, weniger denn eine neue Generation. Alle direkt oder zwischen den Zeilen lesbaren Sony-Aussagen gehen schließlich auch in diese Richtung, die PS4K nur für höhere interne Renderauflösungen oder bestenfalls für bessere Grafikeffekte zu benutzen.

Nochmals wäre hierbei (die allerdings schon so notierte) Sony-Anforderungen zu erwähnen, das Sony keine Spiele zulassen will, welche allein für die PS4K geschrieben sind. Konkret muß alles für die originale PS4 geschrieben werden und kann dann über den extra "Neo-Modus" die höhere Hardwareleistung der PS4K zugunsten höherer interner Renderauflösungen nutzen. Für die Spieleentwickler soll damit weiterhin das Mantra der "einen" Hardware aufrecht erhalten werden – welche eben in zwei Stufen erhältlich ist, was für differierende interne Renderauflösungen genutzt werden kann. Gegen eine "neue Konsolengeneration" mit der PS4K spricht auch schon der Punkt, das die PS4K praktisch wohl nur das ursprüngliche Versprechen der PS4 als "FullHD-Konsole" (erneut) einlösen wird – für viel mehr wird der Hardwareschub der PS4K gar nicht ausreichend sein. Natürlich bleibt dies trotzdem eine eher verwunderliche Aktion, da es Hardware-Upgrades in dieser klaren Form bei früheren Konsolen eigentlich nicht gegeben hat und das ganze somit einigen Neuheitswert hat bzw. auch einen bisher nicht dagewesenen Trend im Konsolen-Business begründen könnte.

Inhalt abgleichen