8

Hardware- und Nachrichten-Links des 7./8. Januar 2017

In unserem Forum wurden vielfältige Zweifel an der Echtheit der neuen "AMD-Unterlagen" geäußert, welche wir nachfolgend zur AMD Grafikchip-Roadmap 2016-2019 verwurstet haben. Insbesondere relevant ist dabei wohl die Inperfektion der Präsentationsfolien selber, welche nicht gerade auf einen professionellen Hintergrund schließen lassen. Und in der Tat ist dieser Punkt (auch bei uns) wohl etwas untergegangen: Die Möglichkeit eines Fakes ist vorhanden und darf nicht negiert werden. Für uns war dies wohl zu schnell "sicher", das es sich um echte Unterlagen handeln soll – aus unserer Sicht begründet durch die technische Stimmigkeit und natürlich vor allem dadurch, das dieselben Daten bereits im September (ohne Original-Unterlagen) vermeldet wurden. Eine abschließenden Gewähr gegenüber einem Fake- oder auch Troll-Versuch ist dies natürlich nicht – doch nun ist das Kind nun einmal in den Brunnen gefallen und wir werden einfach abwarten müssen, inwiefern sich das ganze bestätigt oder nicht. Es dürfte bekannt sein, das wir an dieser Stelle mit Fehlern und Fehldeutungen offen umgehen und diese auch öffentlich entschuldigen bzw. wieder zurechtrücken.

Das erste Bild einer Vega-Grafikkarte in Aktion ist einem YouTube-Video von Linustechtips zu entnehmen – hierbei wurde Vega in einem CES-Demonstrationssystem im eingebauten Zustand fotografiert. Aufgrund diverser Abklebungen sind Teile der Karte noch nicht zu sehen, mit dem Rest präsentiert sich ein typisches Test-Board – mit (eifrig diskutierter) expliziter Sensorplatine und extra Sensorausgängen, mittels denen AMD dann diverse Chipdaten in hoher Menge & Genauigkeit zur Auswertung erhält. Rückschlüsse auf das Aussehen von Serienkarten kann man darauf basierend natürlich nicht ziehen – AMD könnte hierbei regelrecht alles bis hin sogar zum Kühlsystem noch einmal verändern. Interessant aus jetziger Sicht ist vor allem das, was AMD da abklebt hat: Es sind die PCI-Express-Stromanschlüsse – welche Hinweise zum Stromverbrauch und damit der TDP der Karte geben würden. Angesichts der genannten 225 Watt für den Vega-10-Chip könnte es AMD hierbei sicherlich mit zwei 6poligen Stromsteckern versuchen – besser wäre gerade im Sinne eines Prototypen allerdings eine wirklich sichere Lösung mit 1x 6pol. und 1x 8pol. oder auch gleich 2x 8pol. Stromsteckern. Möglicherweise wollte AMD an dieser Stelle nur den Aufschrei "Vega frisst 300 Watt" vermeiden (oder gar 375W bei 2x8pol.), welcher sich aus einer Milchmädchen-Hochrechnung dieser Anschlüsse ergeben hätte.

Videocardz haben ein weiteres neues Notebook mit einer Grafiklösung aus der "Radeon RX 500 Serie" in Form des Samsung Odyssey mit Radeon RX 570 ausgegraben. Zugleich gab es sogar eine direkte Bestätigung, das es sich hierbei um Rebrandings der Radeon RX 400 Serie für OEM-Bedürfnisse handelt – wobei davon auszugehen ist, das AMD diese Rebrandings später auch im Retail-Segment auflegen wird. Für alle kleineren Bedürfnisse fehlen AMD innerhalb der Vega-Generation die Grafikchips (selbst Vega 11 dürfte oberhalb von Polaris 10 herauskommen), ergo wird man sich hier bei der Polaris-Generation bedienen. Erst zusammen ergeben die drei Polaris- und zwei Vega-Chips ein vollständiges Lineup – nVidia hat für sein Pascal-Lineup schließlich sogar ganze sechs Grafikchips angesetzt (GP100, GP102, GP104, G106, GP107, der noch nicht releaste GP108). Gerade da AMD die 10nm-Fertigung auch im Grafikchip-Bereich überspringt, ist es für AMD wichtig, ein vollständiges Produktprogramm unter der 14nm-Fertigung bieten zu können, da jene bei AMD für 2-3 Jahre "State of the Art" sein wird, Grafikchips älterer Fertigungsverfahren zur Lineup-Vervollständigung sich da eher schlecht machen. Auch wenn es von der Grafikchip-Architektur her augenscheinlich große Unterschied gibt, stellen Polaris und Vega somit so etwas wie eine gemeinsame Generation dar.

WCCF Tech bringen die direkte Bestätigung seitens AMD (dokumentiert mittels entsprechender Präsentationsfolien), das alle Ryzen-CPUs "unlocked" sind. Dies war gemäß früherer AMD-Aussagen sowie der bisherigen AMD-Verfahrensweise bei den FX-Prozessoren bereits stark vermutet worden, die AMD-Bestätigung schiebt nun nur noch anderslautenden Thesen einen Riegel vor. Mit dem Overclocking für alle Anwender bringt AMD natürlich einen gewichtigen Nebenpunkt pro seiner Prozessoren in Stellung – bei Intel muß man hierfür schließlich immer die Spitzenmodelle kaufen. Abzuwarten bleibt, wie AMD nun allerdings die Abstufung seines Ryzen-Produktportfolios vornimmt – all zu viele Taktabstufungen erscheinen angesichts des freien Overclockings als nicht besonders sinnvoll. AMD hat hier allerdings Glück und kann gut mit Abstufungen anhand der freigeschalteten CPU-Kerne operieren: So dürfte das Ryzen-Portfolio wohl Vierkerner, Sechskerner und Achtkerner beinhalten, mit jeweils zwei Taktstufen käme man auf allein 6 CPU-Modelle, was für ein initiales Produktportfolio ausreichend sein mag.

8 8

Welches PC-Spiel wird 2017 am meisten erwartet?

Eine Auflistung voraussichtlicher 2017er Spielereleases gibt es bei der PC Games Hardware, eine kommentierte Spiele-Vorschau für das Jahr 2017 dagegen bei Golem. "Red Dead Redemption 2" listen wir im übrigen allein aus diesem Grunde nicht, weil es zumindest anfängliche Konsolen-exklusiv sein dürfte und daher für den PC sicherlich nicht mehr im Jahr 2017 verfügbar wird. Genauso ist das Erscheinen von "Cyberpunk 2077" für das Jahr 2017 arg ungewiß, jenes Spiel geht eher in Richtung des Jahres 2019.

Aquanox Deep Descent
6% (98 Stimmen)
Assassin's Creed 2017
2% (27 Stimmen)
ARK: Survival Evolved
1% (24 Stimmen)
Call of Duty 2017
1% (19 Stimmen)
Divinity: Original Sin 2
2% (33 Stimmen)
Elex
5% (78 Stimmen)
For Honor
1% (23 Stimmen)
Get Even
0% (4 Stimmen)
Ghost Recon: Wildlands
2% (31 Stimmen)
Kingdom Come: Deliverance
4% (60 Stimmen)
Mass Effect: Andromeda
19% (319 Stimmen)
Need for Speed 2017
1% (23 Stimmen)
Outcast: Second Contact
3% (46 Stimmen)
Prey
4% (63 Stimmen)
Quake Champions
5% (78 Stimmen)
Resident Evil 7
3% (52 Stimmen)
South Park: Die rektakuläre Zerreißprobe
2% (42 Stimmen)
Spellforce 3
3% (48 Stimmen)
Star Citizen: Squadron 42
14% (243 Stimmen)
Star Trek: Bridge Crew
2% (37 Stimmen)
Star Wars Battlefront 2
3% (49 Stimmen)
Sudden Strike 4
1% (23 Stimmen)
Thimbleweed Park
1% (11 Stimmen)
Torment: Tides of Numenera
2% (40 Stimmen)
Warhammer 40k: Dawn of War 3
4% (62 Stimmen)
... ein anderer Titel
10% (178 Stimmen)
Gesamte Stimmen: 1711
7

Neuer Artikel: AMD Grafikchip-Roadmap 2016-2019

Videocardz sind nun auch noch die originalen AMD-Präsentationsunterlagen zugespielt wurden, welche Ausgangspunkt breiter Diskussionen über die AMD-Grafikchips Vega 10, Vega 11, Vega 20, Navi 10 & Navi 11 im letzten September gewesen sind. Zu diesem Zeitpunkt waren jene Informationen aber nur auf indirektem Wege bekannt, was zu manchem (nun zusehendem) Mißverständnis und letztlich sogar zu zwei verschiedenen Auslegungen jener Informationen führte. In der Summe der Dinge war dabei bereits jenes korrekt, was in der ersten Meldung zum Thema stand – die nun veröffentlichen originalen AMD-Unterlagen bestätigen dies nunmehr vollumfänglich. Wir haben nachfolgend die entsprechende (eigenerstellte) AMD Grafikchip-Roadmap 2016-2019 in einer dritten Version neu aufgelegt, welche allerdings nur geringe Differenzen zur ersten Version dieser Roadmap trägt ... zum Artikel.

6

Hardware- und Nachrichten-Links des 6. Januar 2017

In unserem Forum hat man den Vega 10 Die-Shot nochmals besser analysiert: Nach Drehung und Entzerrung wurde jener (anhand bekannter Angaben zur Größe der ebenfalls zu sehenden HBM2-Speicherstacks) neu vermessen, wobei eine Chipfläche von 485-515mm² herauskam. Angesichts der klaren AMD-Aussage von "unter 500mm²" läuft dies im Endeffekt auf 485-500mm² hinaus – sprich, nicht irgendetwas unterhalb von 500mm², sondern nur knapp unterhalb von 500mm². Damit ist weiterhin der GP102-Chip mit 471mm² Chipfläche der nächstgelegene nVidia-Chip, AMDs Vega 10 wird aber in jedem Fall etwas größer als jener herauskommen. Damit sollte AMD natürlich dennoch eine Performance in der Nähe des GP102-Chips der Titan (Pascal) anstreben – und es muß in jedem Fall klar mehr werden als beim GP104-Chip (314mm²) von GeForce GTX 1070 & 1080, selbst wenn sich nVidia bei seinen vorgenannten Chips natürlich alle Profi-Funktionalitäten (zugunsten des GP100-Chips) weitgehend gespart hat.

Nach AMD mit seinem FreeSync 2 hat nun auch nVidia eine neue G-Sync-Norm in Form von "G-Sync HDR" vorgestellt. Wie schon bei AMDs neuer Norm geht es auch hier primär um HDR-Bedürfnisse – bei nVidia fehlen sogar alle Verbesserungen an G-Sync selber und geht es allein um die zusätzliche HDR-Funktionalität. Hier schlägt man wie AMD in die Kerbe, das "High Dynamic Range" nicht wirklich spezifiziert ist und nVidia mit seinem "G-Sync HDR" dann eben selbst für gewisse HDR-Mindeststandards sorgt. Im Gegensatz zu AMD hat nVidia selbige Spezifikationen allerdings schon festgelegt, so daß die Monitor-Hersteller mit ihrer Arbeit beginnen können – erste Monitore mit "G-Sync HDR" sind dann im dritten Quartal zu erwarten. Wie bei AMD wird nVidia einen zusätzlichen Inputlag durch ein weiteres Tonemappping im Monitor vermeiden – was dann (ebenfalls wie bei AMD) darauf hinausläuft, das die Spiele explizit für "G-Sync HDR" angepasst werden müssen.

Ganz generell betrachtet sollte gerade die Aufstellung von "G-Sync HDR" bei nVidia langsam aber sicher mal zum Anlaß genommen werden, über den Support des allgemeinen "Adaptive Sync" Standards nachzudenken – und damit die ziemlich blödsinnige Unterteilung in FreeSync- und G-Sync-Monitore zumindest im Einsteigerbereich zu beenden. Schließlich kann man die Enthusiasten dann immer noch mit "G-Sync HDR" versorgen und bei diesen entsprechend (über höhere Monitorpreise) abkassieren. Im Einsteigerbereich wird die Luft dagegen dünner für nVidia, denn Techniken zur variablen Refreshrate gehen immer mehr in Richtung einer allgemeinüblichen Anforderung – ab einem gewissen Zeitpunkt dürfte es dann schwer werden zu erklären, wieso G-Sync-Monitore teurer sein müssen als gleichwertige FreeSync-Modelle. Wenn nVidia hier nicht den richtigen Zeitpunkt für einen Absprung von dieser Strategie findet, kann man sich irgendwann einmal in der Situation wiederfinden, das jede Grafikkarten-Empfehlung zugunsten von FreeSync ausfällt – weil dort die günstigeren Monitore (samt inzwischen sogar größerer Auswahl) zu finden sind.

Eine inzwischen breite Diskussion in unserem Forum dreht sich um das Thema, ob Spielestreaming die Zukunft darstellt. Schon das Eröffungsposting zählt auf, wieso dies keine unrealistische Zukunftsversion ist – nicht, weil es jetzt größere Vorteile für den Konsumenten hätte, sondern weil es vor allem größere Vorteile auf Herstellerseite mit sich bringt, besonders zu erwähnen hierbei die neu entstehende Abhängigkeit des Konsumenten von seinen Streaming-Abos und damit deren Anbietern. Sollte sich dieses Modell eines Tages vollumfänglich durchsetzen, würde dies auch erhebliche Auswirkungen auf den Hardware-Markt haben – da in einer solchen Zukunft nur noch Basis-PCs bzw. Eingabekonsolen vonnöten wären und somit der Retail-Markt und seine Produkte komplett überzählig werden würden. Der PC würde in dieser Zukunftsvision zurückgeschraubt auf das Niveau von einfachstmöglichen Büro-Maschinen, die eigentliche Entwicklung würde dann nur noch im Server-Bereich stattfinden.

Als weiterhin nicht ausgeräumte Gegenthese zu einem breiten Einsatz von Spielestreaming darf jedoch das Problem des Inputlags nicht unerwähnt bleiben. Hier spielen dann sogar physikalische Gesetzmäßigkeiten (Signallaufzeiten über größere Entfernungen) eine Rolle, welche selbst im Falle einer idealen Technik den Inputlag beim Spielestreaming nicht unterhalb eines gewissen Niveaus drücken können. Es geht also nicht einmal primär um die (derzeit genauso) fehlende Internet-Bandbreite, welche man über einen Internet-Ausbau in den Griff bekommen könnte – sondern eben eher um die Latenz, welche selbst mit der allerbesten Technik nicht unterhalb schon jetzt genau definierter Grenzen zu bekommen ist. In diese technische Schranke können die Verächter von Spielestreaming weiterhin ihre Hoffnungen auf ein Scheitern dieser Idee hineinprojizieren – denn es ist wegen dieser Latenz-Problematik unklar, wie man jemals einen superschnellen Shooter wie Doom mittels Spielestreaming nutzen können soll.

6

Aktualisierte Feature-Liste zu AMDs Sockel AM4 Mainboard-Chipsätzen

Mit der CES 2017 hat AMD auch so etwas wie einen Startschuß für die Sockel-AM4-Plattform gegeben, die Mainboard-Hersteller haben die Chance zur breiten Darstellung ihrer kommenden Produkte natürlich gern genutzt. Zudem hat AMD nun auch endlich offizielle Informationen zu den Chipsatz-Fähigkeiten von Ryzen sowie dem HighEnd-Chipsatz X370 herausgegeben, womit frühere Angaben auf Bristol Ridge bezogen (welches ebenfalls im Sockel AM4 daherkommt) somit vervollständigt werden konnten. Zu beachten wäre hierbei zuerst, das Bristol Ridge und Ryzen beiderseits Prozessoren-intern bereits einen Mini-Chipsatz mitbringen, nicht also nur eine reine Northbridge (wie dies schon seit Jahren üblich ist). Damit können beide Prozessoren notfalls auch auf den sehr abgespeckten Mainboard-Chipsätzen A300 und X300 betrieben werden, welche bis auf RAID-Fähigkeiten (und Overclocking beim X300) keine weiteren Hardware-Fähigkeiten mit sich bringen. Vermutlich dürften A300 & X300 nur aus einem minimalen Steuerchip bestehen – was natürlich die Kosten für die entsprechenden Mainboards minimiert und damit den Einsatzes von Sockel-AM4-Prozessoren im preissensitiven OEM-Bereich begünstigt.

A320, B350 und X370 dürften hingegen eher denn einem regulärem Mainboard-Chipsatz (bzw. einer der heutzutage nur noch üblichen Southbridges) entsprechen, mit diesen Chipsätzen werden auch wieder eigene Fähigkeiten mit gebracht bzw. zu den Fähigkeiten der Mini-Chipsätze in den Sockel-AM4-Prozessoren addiert. Denn hier liegt der Clou der Sockel-AM4-Plattform: Die Fähigkeiten des Mini-Chipsatzes im Prozessor sowie die Fähigkeiten des eigentlichen Mainboard-Chipsatzes sind zusammenzurechnen, da beiderseits nutzbar. Die beiden Chipsätze ersetzen sich also nicht, sondern arbeiten gemeinsam und mit allen Features zusammen. Damit sind sehr Feature-unterschiedliche Systeme möglich – von der schon genannten Variante "OEMs Liebling" bis hin zu HighEnd-Lösungen mit vielen direkt verbauten Anschlüssen für SATA, USB und PCI Express. Natürlich bleibt es den Mainboard-Hersteller überlassen, für Spitzen-Mainboards auch noch etwas oben drauf zu setzen, sprich weitere Chips für zusätzliche Hardware-Fähigkeiten zu verbauen.

Bristol Ridge Ryzen A300 X300 A320 B350 X370
Zielsegment SFF SFF Essential Mainstream HighEnd
Overclocking - -
CrossFire/SLI - - - -
PCI-E Lanes Grafikkarte 8 Lanes 3.0 16 Lanes 3.0 - - - - -
weitere PCI-E Lanes 2 Lanes 3.0 4 Lanes 3.0 * - - 4 Lanes 2.0 6 Lanes 2.0 8 Lanes 2.0
SATA 2 2 - - 2 2 4
SATA Express - - - - 2 2 2
SATA RAID - - 0/1 0/1 0/1/10 0/1/10 0/1/10
USB 2.0 - - - - 6 6 6
USB 3.0 4 4 - - 2 2 6
USB 3.1 - - - - 1 2 2
* Derzeit unbestätigte Angabe. ... Alle Angaben gelten kumulativ – zu den Fähigkeiten der Mini-Chipsätze der jeweiligen Prozessoren sind die Fähigkeiten des Mainboard-Chipsatzes also zu addieren.

Aber auch so sieht das ganze schon recht griffig aus, wird für jeden Anwendungsfall etwas geboten. Natürlich achtet man beim Kauf immer gern darauf, möglichst im Übermaß an Anschlußmöglichkeiten zu schwimmen – in der Praxis nutzen dann aber die wenigsten Anwender jene wirklich aus bzw. gäbe es auch oftmals immer alternativ nutzbare Wege bei eventueller Anschluß-Knappheit. Somit muß auch ein einfacher "Mainstream"-Chipsatz wie der B350 nichts schlechtes selbst bei der Verwendung mit einem Ryzen-Prozessor sein: Schließlich ist auch in dieser Kombination Prozessoren-Overclocking auf Ryzen möglich, werden 4x SATA, 6x USB 2.0, 6x USB 3.0 und 2x USB 3.1 geboten, gibt es zudem 6 PCI Express 2.0 Lanes vom Chipsatz sowie 4 PCI Express 3.0 Lanes (unbestätigt) von der CPU selber zum Anschluß schneller SSDs. Der X370-Chipsatz bietet dann noch etwas mehr, hat seine primäre Aufgabe aber sicherlich im Support von CrossFire & SLI – außerhalb dieser Eigenschaft kann man also sicherlich genauso auch zum B350-Chipsatz greifen.

5

Hardware- und Nachrichten-Links des 5. Januar 2017

Zur Chipfläche von AMDs Vega 10 Grafikchip gibt es noch andere Angaben als jene der ComputerBase von 520-530mm²: Bei Videocardz geht man anhand verschiedener vorliegender Die-Shots von ~530mm² aus, in unserem Forum auf Basis derselben Datenlage gar von bis zu 550mm². Die PC Games Hardware schätzt das ganz dagegen deutlich abweichend auf nur 400-450mm² ein – und am Ende gab es dann auch noch eine offizielle Aussage von AMDs Raja Koduri, nach welcher Vega 10 doch auf unterhalb von 500mm² Chipfläche herauskommt. Der optische Eindruck von (nicht aus dem perfekten Blickwinkel und ohne exakten Maßstab aufgenommenen) Fotos kann eben durchaus täuschen – beispielsweise wurde der am Ende auf 123mm² angegebene Polaris-11-Chip anfänglich (gemäß Die-Shots) auch eher in die Nähe von 150mm² Chipfläche geschätzt. Nichtsdestotrotz wird Vega 10 kein kleiner Chip, sondern rangiert klar im HighEnd/Enthusiasten-Feld, der nächstliegende nVidia-Chip ist der GP102 der Titan X (Pascal) mit seinerseits 471mm² Chipfläche.

Laut Hardwareluxx lief das auf der CES seitens AMD gezeigte Ryzen/Vega-Demosystem mit einem Ryzen-Prozessor in Revision F3 auf immerhin 3.6/3.9 GHz Takt – und damit schon minimal höher als die von AMD versprochenen 3.5 GHz Basetakt. Dies muß aber gar nicht schon das Ende der Fahnenstange sein, denn laut Canard PC soll der Ryzen-Prozessor in Revision F4 bereits Taktungen von 3.6/4.0 GHz erreichen. Dies würde die Sache dann wirklich hochinteressant machen, denn ausgehend von den bekannten unabhängigen Ryzen-Benchmarks und den dort laufenden Taktraten von 3.15/3.5 GHz könnte man unter 3.6/4.0 GHz ca. 12% Mehrperformance auf jene Werte oben drauf legen – damit würde Ryzen unter diesem Takt nur minimal langsamer als ein Core i7-6900K herauskommen. Die Workstation/Server-Welt wird sicherlich aufhorchen, wenn sich AMD gleich im ersten Versuch mit seiner neuen CPU-Architektur mit Intel-Prozessoren auf der gleichen Anzahl an CPU-Kernen anlegen kann.

Auch die bei bei den unabhängigen Ryzen-Benchmarks seitens Canard PC ziemlich durchschnittlich verlaufenden Gaming-Benchmarks sollten über den höheren Takt dieser neuen Ryzen-Revisionen maßgeblich profitieren – im Gaming-Bereich zählen die gleich acht CPU-Kerne wenig und geht es eher um hohen Takt auf zwei bis vier CPU-Kernen (und natürlich eine hohe IPC, aber das bringt die Zen-Architektur nun ja endlich auch mit sich). Damit droht der Hypetrain natürlich schon wieder aus den Schienen zu fliegen – und als Gegenpol sei erwähnt, das wenn AMD wirklich diese hohen Taktraten und damit diese hohe (prognostizierte) Performance liefern kann, das dann natürlich auch entsprechende Preispunkte im Raum stehen werden. Insbesondere das Ryzen-Spitzenmodell dürfte nicht wirklich günstig ausfallen, wenn man nur wenige Prozentpunkte von der 999-Dollar-CPU Core i7-6900K entfernt herauskommt. Von Intel-Seite her sind schließlich auch keine Preissenkungen (schwerer Gesichtsverlust) zu erwarten – und Intels nächste Enthusiasten-Generation in Form von Kaby-Lake-X samt Skylake-X steht dann auch erst im Herbst an.

Inhalt abgleichen