30

Hardware- und Nachrichten-Links des 29./30. September 2016

Von Fudzilla kommt das Gerücht, der AMDs Vega-10-Chip würde für das professionelle Segment sogar noch dieses Jahr vorgestellt werden. Ob dies auch in Auslieferungen resultiert, wurde nicht explizit bestätigt und bleibt damit offen – ergo ist also auch ein Paperlaunch oder gar nur eine reine Ankündigung noch dieses Jahr zu einem dann deutlich späteren Auslieferungstermin möglich. Insbesondere im professionellen Segment ist es nicht einmal unüblich, schon monatelang vor der Auslieferung ein Produkt bereits vorzustellen – dies war beim jetzt erst so langsam ausgelieferten GP100-Chip auch nicht anders, jener wurde sogar deutlich vor allen anderen Pascal-Chips angekündigt. Insofern muß man sich aus dieser Meldung resultierend noch keinen Hoffnungen hingeben, der Vega-10-Chip würde im Consumer-Segment noch dieses Jahr aufschlagen – dazu waren AMDs diesbezügliche Aussagen zu eindeutig. Allenfalls mag AMD erkannt haben, das man derzeit mit der Auffüllung seines Portfolios zurückhängt und benutzt daher möglicherweise die Methode der (bewußt) verfrühten Ankündigung, um die wartenden Nutzer bei der Stange zu halten.

WCCF Tech zeigen zwei 3DMark11-Messungen einer GeForce GTX 1050 Ti aus dem Chiphell-Forum, welche von dort inzwischen aber schon wieder verschwunden sind. Nominell lief die Karte laut dem beigefügten GPU-Z-Screenshot auf den Referenz-Taktraten von 1290/1382/3500 MHz – aber das muß natürlich nichts sagen, viel wichtiger wäre es zu wissen, ob auch das referenzmäßige Power-Limit gesetzt war. So gesehen haben die vergleichsweise guten Ergebnisse – unter FullHD in Form des 3DMark11 in seiner Extreme-Einstellung erreicht man sogar beachtbar mehr Performance als eine GeForce GTX 960 – kaum einen großen Wert, weil dieses Ergebnis allein durch Verwendung einer werksübertakteten Karte oder einem Modell mit freigeschaltetem Power-Limit (samt extra Stromstecker) erklärbar wäre. Wo die "Grund-Performance" einer referenzmäßigen GeForce GTX 1050 Ti herauskommt, läßt sich daran also leider nicht sicher ermessen – einmal abgesehen davon das ein Benchmark kein Benchmark ist. Allenfalls kann man die Vermutung aufstellen, das die Performance der GeForce GTX 1050 Ti möglicherweise nicht nur auf dem Niveau der letzten Schätzung liegen, sondern vielleicht sogar besser als jene Schätzung herauskommen könnte.

GeForce GTX 950 GeForce GTX 960 GeForce GTX 1050 Ti (Differenz)
Technik 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface, 1024/1188/3300 MHz 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 128 Bit GDDR5-Interface, 1127/1178/3500 MHz angbl. 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface, 1290/1382/3500 MHz
3DMark11 Perf. (insg.) 9263 10882 10054 +8,5%  /  -7,6%
3DMark11 Extreme (insg.) 2985 3470 3867 +29,5%  /  +11,4%
Quelle der Messungen: GeForce GTX 1050 Ti von WCCF Tech, GeForce GTX 950 & 960 von TweakPC

Nachdem nun auch noch der Spiegel darüber berichtet, muß man es wohl doch erwähnen: Aktuelle Browser belasten mit ihrer vorherige-Sitzung-wiederherstellen-Funktion den benutzten Datenträger ziemlich stark – mit bis zu 35 GB Schreibleistung am Tag. Hierbei wird für den Fall eines Browser- oder PC-Absturzes ein Cache mit den aktuell geöffneten Seiten aufgebaut, welcher auch sehr schnell aktualisiert wird und damit bei intensivem Surfen automatisch eine hohe Aktivität auf dem Datenträger nach sich zieht. Für herkömmliche Magnetspeicher-Festplatten (HDDs) mag dies kein großes Problem sein, aber für SSDs ist diese hohe Belastung zweifelhaft im Sinne des (eher seltenen) Nutzwerts der Funktion. Zumindest für den Firefox-Browser gibt es allerdings eine Lösung in Form dessen, das Cache-Interval von original 15 Sekunden einfach zu verlängert – damit kann man die durch Firefox ausgelöste SSD-Schreiblast dramatisch reduzieren. Allerdings sollte man sich von dieser Meldung auch nicht verrückt machen lasen: Die vorgenannte Schreibleistung von bis zu 35 GB am Tag liegt noch im Rahmen der typischen Garantieversprechungen – und wie Langzeittests ausdrücklich nachgewiesen haben, halten SSDs in der Praxis viel länger durch als was die Hersteller als Garantie angeben. (Forendiskussion zum Meldung)

30

Umfrage-Auswertung: Aus welcher Generation stammt die zum Spielen benutzte Grafiklösung (2016)?

Die Umfrage der letzten Woche ging mal wieder der Frage nach, aus welcher Grafikkarten-Generation die zum Spielen benutzte Grafiklösung stammt – und ist damit Teil einer gleichlautenden Umfrage-Serie, welche bis zum Jahr 2011 zurückgeht (Umfragen vom November 2015, August 2014, Mai 2013, Juni 2012 sowie April 2011). Bei einer solchen Generationen-basierten Fragestellung können natürlich die kleinen Feinheiten und Abweichungen der Grafikchip-Entwickler (wie die GeForce 750 Serie als Maxwell-basierte Grafikkarten in der eigentlich Kepler-zentrierten GeForce 700 Serie oder AMDs Chip-Mischmasch innerhalb der vor Polaris liegenden drei Grafikkarten-Generationen) nicht beachtet werden, es geht hierbei wirklich nur um die grundsätzlichen Grafikkarten-Generationen.

Die aktuelle Umfrage sieht als primäre Veränderung den Markteintritt der Polaris- und Pascal-Beschleuniger – was dann natürlich auch Abzüge bei den jeweils älteren Grafikkarten-Generationen ergibt. Zwischen den beiden neuen Grafikkarten-Generationen von AMD und nVidia kann man ganz klar sehen, wer hier das (nahezu) vollständige Portfolio hat – und wer nur gewisse Bereiche des Angebotspektrums besetzt. Denn nVidia liegt mit der GeForce 1000 Serie auf immerhin schon 13,0% Verbreitungsgrad unter den Umfrageteilnehmern sehr deutlich vor AMDs Radeon R400 Serie mit nur 5,6% Verbreitungsgrad. Dafür nahm allerdings der Verbreitungsgrad von AMDs Radeon R300 Serie sogar deutlich von 4,7% auf 8,4% – alle anderen Grafikkarten-Generationen verloren hingegen auch nVidias GeForce 900 Serie von 24,3% auf 22,6%.

Die deutlicheren Verluste gab es dann natürlich bei allen älteren Grafikkarten-Generationen – wobei verglichen mit den früheren, jeweils grob im Jahresabstand aufgestellten Umfragen die Verluste bei der aktuellen Umfrage eher nur mittelmäßig hoch ausgefallen sind. Noch ist da keine große Tendenz heraus abzuleiten, aber früher waren die Verluste der älteren Grafikkarten-Generationen teilweise erheblich stärker ausgeprägt, fand also der Wechsel auf neue Grafikkarten-Generationen schneller statt. Dies wird natürlich auch immer vom konkreten Umfrage-Termin sowie dem jeweiligen Releasetermin neuer Hardware mitbestimmt – wobei dieses Jahr eigentlich fast ideal für die neuen Grafikkarten-Generationen gewesen sein sollte, da jene (nach längerer Dürrezeit) schon im Sommer antraten und die Umfrage erst im Herbst lief.

Gut zu sehen daneben, wie sich einige Grafikkarten-Generationen im insgesamten Verlauf über den Lebenszyklus schlugen, respektive welche Spitzenwerte an Verbreitungsgrad jene dabei erreichen konnten. Ein guter Wert für eine vernünftige Verbreitung sind augenscheinlich oberhalb von 20% – erreicht beispielsweise von AMDs Radeon HD 5000 Serie, nicht jedoch der nachfolgenden Radeon HD 6000 Serie. Gleiches gilt für die Radeon HD 7000 Serie, während die nachfolgende Radeon R200 Serie diesen Wert ebenfalls nicht erreicht und die nochmals nachfolgende Radeon R300 Serie jenen wohl nicht mehr erreichen wird. Auf nVidia-Seite war eventuell mal die GeForce 400 Serie über jener Marke, aber dies liegt zeitlich noch vor der ersten diesbezüglichen Umfrage – die nachfolgende GeForce 500 Serie hat diese Marke dann aber nicht mehr erreicht. Selbiges Spiel gilt bei der GeForce 600 Serie, welche diese Marke klar genommen hat, die nachfolgende GeForce 700 Serie dann jedoch wiederum nicht.

April 2011 Juni 2012 Mai 2013 August 2014 Nov.2015 Sept. 2016
AMD Radeon R400 Serie (Polaris) - - - - - 5,6%
AMD Radeon R300 Serie (Pirate Islands) - - - - 4,7% 8,4%
AMD Radeon R200 Serie (Volcanic Islands) - - - 12,9% 17,3% 13,7%
AMD Radeon HD 7000 Serie (Southern Islands) - 8,0% 21,4% 20,3% 14,1% 10,9%
AMD Radeon HD 6000 Serie (Northern Islands) 12,7% 14,6% 11,9% 7,0% 4,5% 2,9%
AMD Radeon HD 5000 Serie (Evergreen) 22,2% 18,2% 10,9% 6,7% 4,7% 3,0%
AMD Radeon HD 4000 Serie 13,5% 9,0% 3,7% 1,7% 0,9% 0,6%
frühere AMD-Lösung DirectX10 2,8% 1,0% 0,9%
frühere AMD-Lösung DirectX9 und älter 1,9% 1,1% 0,7% 0,5% 0,4% 0,2%
Grafiklösung eines anderen Herstellers 1,1% 0,6% 1,0% 0,9% 1,3% 1,0%
frühere nVidia-Lösung DirectX9 und älter 3,0% 1,5% 1,0% 0,7% 0,6% 0,3%
frühere nVidia-Lösung DirectX10 6,7% 3,6% 1,7% 2,1% 1,1% 0,6%
nVidia GeForce 200 Serie 8,8% 5,5% 3,0%
nVidia GeForce 400 Serie (Fermi) 16,0% 12,4% 7,9% 4,7% 1,7% 1,4%
nVidia GeForce 500 Serie (Fermi-Refresh) 11,3% 18,6% 12,7% 7,5% 4,0% 2,5%
nVidia GeForce 600 Serie (Kepler) - 5,9% 23,2% 17,4% 9,9% 6,3%
nVidia GeForce 700 Serie (Kepler-Refresh) - - - 17,6% 10,5% 7,0%
nVidia GeForce 900 Serie (Maxwell 2) - - - - 24,3% 22,6%
nVidia GeForce 1000 Serie (Pascal) - - - - - 13,0%

Und aktuell hat die GeForce 900 Serie diesen Wert von oberhalb 20% Verbreitungsgrad unter den Umfrageteilnehmer aus dem Stand genommen, die GeForce 1000 Serie ist auf dem besten Weg dahin. Interessanterweise haben damit alle Grafikkarten-Generationen, welche auf durchgehend neuen Grafikchip basierten, jenen Marke an 20% Verbreitungsgrad erreicht – und alle Grafikkarten-Generationen, welche teilweise oder mehrheitlich auf Rebranding-Lösung basierten, dann jedoch nicht. Eine kleine Ausnahme hierzu stellt nur die Radeon HD 6000 Serie da, welche nur zu einem gewissen Teil auf Rebrandings bestand und dennoch jene 20%-Marke nicht nehmen konnte. Dennoch kann man hier durchaus klar erkennen, das die Grafikchip-Entwickler für einen wirklichen Markterfolg schlicht und einfach durchgehend neue Chips benötigen – mit Rebrandings und Refreshes ist deutlich weniger Eindruck zu machen respektive sind weniger Marktanteile zu erringen.

In der Frage nach der Herstellerentwicklung hat sich die Tendenz der letzten Umfragen weiter fortgesetzt, nach welcher nVidia gewinnt und AMD verliert. Aktuell steht es gemäß dem Voting der Umfrageteilnehmer bei 45,3% zu 53,7%, mit einem über die letzten Umfragen recht stabilen Anteil anderer Grafikchip-Entwickler (faktisch nur Intel) von grob einem Prozent. Die Differenz zur letzten Umfrage vom November 2015 von grob 1,5% Zugewinn bei nVidia bzw. Rückgang bei AMD dürfte für letztere zu verkraften sein – natürlich müssen da irgendwann auch mal wieder bessere Zeiten kommen, aber zumindest steht derzeit noch kein Rückgang unterhalb die 40%-Marke direkt vor der Tür. Bedenklich müssen AMD diesbezüglich allerdings die Zahlen der jeweils aktuellsten Grafikkarten-Generationen stimmen, denn durch die kleinere Portfolio-Bandbreite verliert AMD bei Neukäufern stärker als im allgemeinen Trend, verliert also mit den neuesten Grafikkarten-Generationen überproportional. Dies kann durchaus als Aufforderung an AMD verstanden werden, keine Zeit mehr mit der Aufstellung eines kompletten Portfolios an neuen Grafikkarten zu vertrödeln.

April 2011 Juni 2012 Mai 2013 August 2014 Nov. 2015 Sept. 2016
AMD 53,1% 51,9% 49,5% 49,2% 46,6% 45,3%
nVidia 45,8% 47,5% 49,5% 49,9% 52,1% 53,7%
anderer Hersteller 1,1% 0,6% 1,0% 0,9% 1,3% 1,0%

Beim DirectX-Level gab es logischerweise einen weiteren Rückgang älterer Beschleuniger zugunsten von DirectX-12-Modellen. Jene kommen inzwischen unter den Umfrageteilnehmern auf satte 92% – wobei nicht in jedem Fall das hierfür passende Betriebssystem (nur Windows 10) vorhanden sein wird, in dieser Frage hängt der Betriebssystem-Support dem Hardware-Support klar hinterher. Interessanterweise ist der Support des Feature-Levels 12 von DirectX 12 gegenüber der letzten Umfrage vom November 2015 deutlich von 42% auf 60% gestiegen. Bislang ist die Nutzung der Hardware-Fähigkeiten von DirectX 12 noch wenig bis gar nicht verbreitet, steht derzeit bei den Spieleentwicklern gerade erst einmal der Umstieg von DirectX 11 auf die Software-Fähigkeiten von DirectX 12 (sprich CPU-Beschleunigung) an. Den Vorbau, um spätere Spieletitel mit Support der Hardware-Fähigkeiten von DirectX 12 auch ausnutzen zu können, gehen die Umfrageteilnehmer derzeit augenscheinlich schon an.

April 2011 Juni 2012 Mai 2013 August 2014 Nov. 2015 Sept. 2016
DirectX 12 in Hardware (DX12 FL_12) - - - - ~42% ~60%
DirectX 12 in Software (DX12 FL_11) - - - - ~45% ~32%
DirectX 12 - - - - 87,2% 91,8%
DirectX 11 62,3% 77,8% 88,6% 95,0% 9,6% 6,2%
DirectX 10 31,9% 19,6% 9,6% 3,8% 2,1% 1,4%
DirectX 9 und älter 5,8% 2,6% 1,8% 1,2% 1,1% 0,6%
28

Hardware- und Nachrichten-Links des 28. September 2016

WCCF Tech berichten über angebliche Gerüchte zu einer Pascal-Refreshgeneration im Jahr 2017 und der nachfolgenden Volta-Generation dann erst im Jahr 2018. Leider wird hierzu keine Quelle angegeben und werden auch keine besonders spezifischen Daten genannt – insofern kann dies auch einfach nur gut spekuliert seitens WCCF Tech oder aber abgeschrieben aus diversen Foren-Spekulationen sein. Bislang gingen jene zwar eher in der Tendenz von einer schnellen Nachfolge durch nVidias Volta-Generation noch im Jahr 2017 aus – allerdings würde dies dem grundsätzlichen Vorgehen von nVidia widersprechen, eine Grafik-Generation immer in zwei Grafikkarten-Generationen münden zu lassen (so vorexerziert bei Fermi und Kepler). Somit gab es immer schon die Minderheitenmeinung, das nVidia die Pascal-Grafikchips wie gehabt für zwei Grafikchip-Generationen verwenden würde. Die Pascal-Refreshgeneration könnte mehr Chiptakt und Nutzung schneller Speichersorten mit sich bringen, vor allem aber würden die einzelnen Lösungen einer solchen "GeForce 1100" Serie jeweils eine Preisstufe nach unten rücken und damit ihre Vorgänger aus der GeForce 1000 Serie effektiv aus dem Markt drängen. nVidia hat da wie gesagt einige Erfahrungen damit, komplette Grafikchip-Generationen auf Rebranding-Basis zu erstellen (GeForce 500 & 700 Serien), insofern muß man diese (mögliche) Zukunftsvariante immer mit im Blickfeld behalten.

Golem & Heise berichten über nVidias nächsten Tega-Chip mit Codenamen "Xavier". In jenen packt nVidia acht ARM-basierte CPU-Kerne (wahrscheinlich wieder eine Eigenentwicklung aus der nVidia-eigenen Denver-Linie) mit 512 Shader-Einheiten der Volta-Generation zusammen – interessanterweise gefertigt noch in TSMC 16FF+ Fertigung. Als direkten Hinweis darauf, das die eigentlichen Grafikchips der Volta-Generation dann wirklich noch unter der 16nm-Fertigung daherkommen, kann man dies allerdings kaum ansehen – der Xavier-SoC ist sowieso ein gänzlich eigenes Produkt, zudem sind Grafikchip-Architekturen inzwischen auch nicht mehr so fest an einen expliziten Fertigungsprozeß gebunden. Dennoch kommt Xavier im Musterstatus erst im vierten Quartal 2017 – was man als Hinweis auf das Fortschreiten der Volta-Architektur verstehen kann, welche nur unwesentlich vorher spruchreif werden sollte (und dann aber noch durch Tape-Out und Chipvalidierung gehen muß). Wenn man es am Xavier-Vorgänger "Parker" mit Pascal-Grafiklösung ausmacht (erste Vorserien-Muster in Form von "Drive PX2" gab es bereits Anfang 2016), dann könnte die Volta-Generation durchaus später als zu diesem Xavier-Termin erscheinen, sprich erst Anfang des Jahres 2018.

Zur kürzlichen Meldung über die Performance aktueller Desktop-Grafikkarten im "Razer Core" externen Grafikkarten-Gehäuse wären noch die erheblichen Schwierigkeiten zu erwähnen, welche Ultrabookreview bei der Installation des Razer Core an einem Dell-Notebook hatten – wobei diese Problematik mit den richtigen Treibern und einer neuen BIOS-Version seitens Dell dann doch gelöst werden konnte. In eine ähnliche Richtung gehen aber auch frühere Berichte zum Razer Core an Notebooks von Alienware, Dell, HP und MSI – da gab es manchmal Erfolge, manchmal war aber auch gar kein Weg hinein zu finden. Inzwischen dürfte sich die Situation vielleicht mittels neuer Treiber und Firmware verbessert haben, gänzlich ausgestanden ist die Problematik aber sicher noch nicht. Mag sein, das externe Grafik über Thunderbolt für viele Notebook-Hersteller noch ein eher unbekanntes Feld darstellt – aber wer seine Produkte mit Thunderbolt-Anschluß ausstattet, sollte nun einmal für alle Nutzungsmöglichkeiten der Thunderbolt-Schnittstelle gewappnet sein bzw. dafür passende Treiber und Firmware auflegen. In Deutschland wäre es in jedem Fall ein Rückgabegrund, wenn ein normgerechtes Thunderbolt-Gerät nicht an einem Notebook mit angeblichem Thunderbolt-Feature funktionieren will.

28

GeForce GTX 1070 & 1080 zeigen gute Leistungen im "Razer Core" externen Grafikkarten-Gehäuse

Bei Ultrabookreview gibt es einen recht umfangreichen Test des externen Grafikkarten-Gehäuses "Razer Core" – des derzeit einzigen verfügbaren Grafikkarten-Gehäuses mit standardmäßiger Thunderbolt-3-Anbindung, welche man also mit jeglichem Notebook (mit ebenfalls Thunderbolt-3-Funktionalität) zusammen benutzen kann. Das Razer Core kann DualSlot-Grafikkarten bis zu einer Länge von 27cm aufnehmen und bringt ein eigenes 500-Watt-Netzteil mit sich – völlig ausreichend für die im Test benutzten GeForce GTX 970, 1070 und 1080 Desktop-Grafikkarten. Als PC-Basis standen ein Desktop-System (mit Core i5-3570K) sowie die beiden Notebooks Dell XPS 15 (Core i5-6300HQ) und Razer Blade Stealth (Core i7-6700HQ) zur Verfügung, letzteres das etwas schnellere der beiden aufgrund der verbauten Vierkern-CPU. Und dies macht durchaus einen Unterschied, das Dell-Notebook erreichte mit einer GeForce GTX 970 nur ~72-73% der Performance des Desktop-Systems (verlor also 27-28%), während das Razer-Notebook bei immerhin ~80-82% der Performance des Desktop-Systems herauskam (verlor also nur 18-20%).

Woher der trotzdem zu beobachtende Performanceverlust beim Razer-Notebook herkam, muß allerdings offen bleiben – mögliche Ansatzpunkte sind die gegenüber einem Desktop-Sytem generell etwas zurückhängende Systemperformance sowie die Anbindung nur über einfaches Thunderbolt 3 (nominell 5 GB/sec), welche übertragenerweise nur PCI Express 3.0 mit fünf PCI-Express-Lanes entspricht und daher für HighEnd- und Enthusiasten-Grafikkarten sicherlich nicht optimal ist. Andererseits ist das Razer Core mit (einfacher) Thunderbolt-3-Anbindung derzeit auch das einzige externe Grafikkarten-Gehäuse, welches es mit dieser vergleichsweise gutklassigen Anbindung überhaupt zu kaufen gibt – andere sind angekündigt, aber noch nicht lieferbar. Das einzige Grafikkarten-Gehäuse mit besserer Anbindung durch einen zweifachen Thunderbolt-3-Anschluß in Form der Asus ROG XG Station 2 ist immer noch nicht verfügbar – und wäre wenn dann (wegen propietärer Technik) sowieso nur zusammen mit ausgesuchten Asus-Notebooks nutzbar.

Desktop & GTX970 Dell XPS 15 & GTX970 Razer Blade & GTX970
Schnitt der FullHD-Performance 100% ~72% ~82%
Schnitt der WQHD-Performance 100% ~73% ~80%
WQHD-Performance mit GeForce GTX 1070 - ~89%  (+23%) ~114%  (+42%)
WQHD-Performance mit GeForce GTX 1080 - ~127%  (+75%) ~134%  (+67%)
Desktop-Vorteile unter WQHD: GeForce GTX 970 zu 1070: +61%, GeForce GTX 970 zu 1080: +95%

Die aufgestellten Performancewerte sind dabei mit etwas Spielraum zu sehen, da Ultrabookreview keine echten Benchmarks gefahren haben, sondern im Spiel schlicht den (über eine gewisse Spielzeit) auflaufenden Frameraten-Rahmen abgelesen haben. Da die Werte aber generell sinnig erscheinen und zudem wenigstens vier Spiele-Benchmarks angesetzt wurden, kann der Durchschnitt dieser Zahlen dann durchaus eine gewisse Idee geben, was mit Desktop-Grafikkarten im Razer Core zu erreichen ist. Somit ist gut zu sehen, wie der Wechsel auf GeForce GTX 1070 und 1080 nochmals Performance kostet, die Mehrperformance dieser Grafikkarten ebenfalls nicht komplett ausgenutzt werden kann. Gegenüber einem Desktop-System würde eine GeForce GTX 1080 überschlagen schon gut 29% an Performance verlieren – eine wirklich vollständige Ausnutzung der Grafikkarten-Power kann das Razer Core Grafikkarten-Gehäuse also leider nicht bieten.

Dies soll allerdings nicht vom insgesamt hervorragenden Eindruck ablenken: Denn bei früheren Grafikkarten-Gehäusen sah dies noch viel dramatischer aus – jene waren oftmals an ihre magere PCI-Express-Bandbreite gefesselt und machten viel früher schlapp. Meistens waren jene früheren Grafikkarten-Gehäuse nur sinnvoll mit Mainstream-Grafikkarten zu bestücken, selbst nominell viel schnellere Grafikkarten konnten dann nur noch wenig Performance oben drauf legen. Dies passiert beim Razer Core eben nicht – zwar bekommt man nur zwischen 70-80% der jeweiligen Desktop-Performance, aber das System skaliert zumindest bis zu einer GeForce GTX 1080 klar offensichtlich nach oben mit. Technisch gesehen funktioniert das Razer Core Grafikkarten-Gehäuse also – wirtschaftlich gesehen natürlich nicht: 500 Dollar für ein reines Grafikkarten-Gehäuse (ohne Grafikkarte) sind ein Mondpreis, mit welchem der Hersteller glatt 99% der potentiellen Kundschaft links liegen läßt. Aber das generelle Funktionieren der Technologie darf als Ansporn für andere Hersteller zu sehen sein, ähnliche Grafikkarten-Gehäuse zu dann vertretbaren Preispunkten aufzulegen.

27

Hardware- und Nachrichten-Links des 27. September 2016

Die PC Games Hardware hat sich die Grafikkarten-Performance unter der (aufgehübschten) "Ultimate Edition" von Gears of War angesehen. Das originale Spiel von anno 2006 kommt nun mit Unreal Engine 3 und sogar DirectX 12 daher, ist damit auch fest an Windows 10 und dessen UWP-System gebunden. Aufgrund des Alters des zugrundeliegenden Titels ist jener selbst für heutige Einsteiger-Grafikkarten kein großes Thema mehr – eine Radeon RX 460 4GB erreicht unter FullHD auf maximaler Bildqualität auch schon ihre 38 fps. Die nominelle UltraHD-Performance des Titels könnte wohl etwas besser sein – eine werksübertaktete GeForce GTX 1080 kommt gerade einmal auf 63 fps – aber das eigentliche Problem ist eine stark schwankende Framerate des Titels, welcher immer mal wieder mit Spitzen hoher CPU-Last zu kämpfen hat. Laut der PCGH wird damit ein durchgehend flüssiges Spiel unter den WHQD- und UltraHD-Auflösungen (trotz nominell passender Frameraten) effektiv unterbunden – sehr irritierend angesichts des Alters des Titels, der seinerzeit zur Verfügung stehenden Hardware und dem Ruf von DirectX 12 als eigentlichem CPU-Unterstützer. Augenscheinlich passt hier der alte Programmcode nicht wirklich mit neuer Engine und neuer Grafik-API zusammen, alternativ könnte der DirectX-12-Port auch mit zu heißer Nadel gestrickt worden sein (jener ist allerdings schon seit einem Jahr auf dem Markt, nur wurde das Spiel erst kürzlich in Deutschland vom Index genommen).

Beim russischen GameGPU (maschinelle Übersetzung ins Deutsche) hat man sich hingegen die Grafikkarten-Performance unter Forza Horizon 3 angesehen – die Benchmarks kann man auch so gut lesen, wobei der erste Test innerhalb derselben Auflösung sich auf die High-Bildqualität des Spiels bezieht, der jeweils zweite Test innerhalb derselben Auflösung dann auf die Ultra-Bildqualität. Selbige kann man mit einer leistungsfähigen Grafikkarte unter FullHD beruhigt ansetzen, eine Radeon R9 Nano erreicht hierbei 37 fps, eine GeForce GTX 970 ihre 40 fps. Die Hawaii-basierten Grafikkarten, welche laut den offiziellen Systemanforderungen gleichschnell sein sollten, kommen unter der Ultra-Bildqualität allerdings klar schlechter weg als jene beiden vorgenannten Modelle und sind nur unter der High-Bildqualität wirklich gleichwertig. Mit steigenden Auflösungen sinkt die Performance recht maßvoll ab, so das selbst UltraHD unter der High-Bildqualität mit GeForce GTX 1060 6GB auf 37 fps sowie Radeon R9 Nano auf 40 fps noch spielbar für eine Vielzahl an Grafikkarten sein sollte. Selbst das absolute Extrem in Form der UltraHD-Auflösung samt Ultra-Bildqualität läßt sich mit einer GeForce GTX 1080 auf 51 fps noch gut benutzen. Zu beachten wäre allerdings, das CrossFire und SLI unter Forza Horizon 3 gar nichts bringen – es wird immer nur ein Grafikchip angesprochen, die Performance ist dementsprechend genauso wie als wenn nur eine Grafikkarte im System wäre.

Der Planet 3DNow! bringt in Form einer aktualisierten AMD-Präsentationsfolie den Beweis dafür, das der bislang noch fehlende HighEnd Mainboard-Chipsatz der Sockel-AM4-Plattform auf den Namen "X370" hören wird. Zudem bestätigt die neue AMD-Folie, das mittels des X370-Chipsatzes dann auch zweifaches SLI und CrossFire auf diesem möglich werden sein werden – wobei dies im eigentlichen nicht zur Funktionalität des Chipsatzes selber gehört (die dafür angesprochenen PCI-Express-Lanes kommen direkt von der jeweiligen CPU), sondern schlicht allein nur für diesen X370-Chipsatz freigeschaltet wird. Allerdings wird diese Fähigkeit entsprechende X370-Platinen normalerweise dazu zwingen, immer mit mindestens zwei Grafikkarten-Steckplätzen auf dem Board anzutreten. Über die weiteren Fähigkeiten des X370-Chipsatzes ist leider noch nichts bekannt, jene dürften aber sicherlich oberhalb des Mainstream-Chipsatzes B350 und des LowCost-Chipsatzes A320 angesiedelt sein. X370-Platinen dürften primär nur für die Zen-basierten Summit-Ridge-Prozessoren gedacht sein, während B350- und A320-Platinen eher ein Fall der Bristol-Ridge-APUs und später nachfolgender der Zen-basierten Raven-Ridge-APUs sein dürften. Technisch gesehen können alle AM4-Platinen jedoch alle drei genannten Prozessoren-Serien tragen, diese totale Kompatibilität ist ein herausragendes Merkmal von AMDs kommender Sockel-AM4-Plattform.

27

Vega/Navi-Roadmaps: Zwei verschiedene Zukunftsvarianten bei AMDs Grafikchips

Die kürzlichen Informationen zu AMDs Vega- und Navi-Chips haben einiges Echo nach sich gezogen – gab es schließlich erstmals Hinweise darauf, wie AMD demnächst im HighEnd-Segment wieder angreifen will bzw. wie die generelle AMD-Strategie über die nächsten Jahre wohl aussieht. Allerdings liegen zu diesem Themenfeld nunmehr zwei differerende Meldungen vor – eine von Videocardz, welche im Web weithin beachtet wurde, sowie eine von Fudzilla, welche weit weniger beachtet wurde. Beide Online-Magazine hatten augenscheinlich Zugang zur selben Quelle – und haben daraufhin erstaunlicherweise in ihren Einzelheiten durchaus deutlich voneinander abweichende Meldungen geschrieben. Dabei sind die Videocardz-Daten sehr viel detaillierter ausgelegt, wovon einige dieser Einzelheiten vom Fachpublikum durchaus als wenig sinnig eingeschätzt werden. Die Fudzilla-Daten sind zwar weniger mit Einzelheiten zu den einzelnen Grafikchips gespickt, ergeben dafür aber weitaus mehr Sinn, sind insgesamt einfach runder.

Der primäre Unterschied liegt in der Betrachtung des Vega-20-Chips: Bei Videocardz handelt es sich hierbei um einen 7nm-Chip schon im zweiten Halbjahr 2018 – bei Fudzilla hingegen um einen 14nm-Chip gegen Ende 2017. Da die Ansetzung einer 7nm-Fertigung schon im zweiten Halbjahr 2018 als sehr optimistisch gelten darf, ergibt die Fudzilla-Auslegung dieses wesentlichen Unterschiedes unserer Meinung nach viel mehr Sinn. Daß daneben Fudzilla den Vega-20-Chip nicht mit den gleichen 64 Shader-Clustern wie den Vega-10-Chip vermelden, ergibt zudem die Möglichkeit einer gänzlich anderen Betrachtungsweise bei Vega 20 – nicht als schnöden 7nm-Ersatz von Vega 10, sondern als der große Enthusiasten/HPC-Chip von AMD innerhalb der 14/16nm-Generation, mittels welchem AMD dann auch in Konkurrenz zu nVidias GP100- & GP102-Chip gehen sollte. Um diesen erheblichen Unterschied in der Auslegung der vorliegenden Daten besser zu illustrieren, haben wir einfach einmal eine zweite Version der (eigenerstellten) "AMD Grafikchips-Roadmap 2016-2019" aufgelegt.

AMD Grafikchips-Roadmap 2016-2019 No.1 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.1 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.2 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.2 (eigenerstellt)

Die ersterstellte dieser beiden Roadmaps bezog sich dabei alleinig auf die Daten von Videocardz – und die zweite bezieht ihre Daten primär von Fudzilla, nur die Lücken werden mit Daten von Videocardz bestückt, sofern sich jene nicht wiedersprechen. Unsere aktuelle Tendenz geht dabei eher in Richtung der Daten von Fudzilla, da jene mehr Sinn ergeben und auch die 7nm-Fertigung nicht derart zeitig wie bei Videocardz ins Spiel kommt. Aber weil die Videocardz-Meldung früher und in vollständigerer Form als die (verteilten) Fudzilla-Meldungen ins Web kam, geht man in vielen Forenspekulationen derzeit primär nur von den Videocardz-Daten aus – meistens wird dabei gar nicht beachtet, das mittels der Fudzilla-Daten eine andere Auslegung existiert, welche eben auch etwas für sich hat sowie einige Ungereihmtheiten der Videocardz-Daten besser erklären kann. Zu welcher dieser beiden Zukunftsvarianten es letztlich geht, läßt sich derzeit natürlich noch nicht beschwören – am Ende könnten sogar beide Roadmaps teilweise Recht haben oder auch beide komplett danebenliegen.

Inhalt abgleichen