6

Weitere AotS-Benchmarks der Radeon RX480 ausgewertet

Der Nachteil der einzigen von AMD zur Radeon RX480 bislang herausgegebenen Benchmarks-Zahlen liegt sicherlich darin, das jene in einem eher ungewöhnlichen Setting unter "Ashes of the Singularity" aufgenommen wurden – dem Crazy-Preset mit aber abweichend 8x MSAA anstatt dem ansonsten üblichen 4x MSAA. AMD hat dies clever gelöst, denn hierzu gibt es wirklich keine Vergleichs-Benchmarks, auch nicht in den ganzen zur GeForce GTX 1070 & 1080 abgehaltenen Launchtests. Die weiteren in der AotS-Datenbank auffindbaren Benchmark-Resultate eines offiziellen AMD-Accounts zeigen zudem mehrheitlich nur CrossFire-Ergebnisse an, welche nicht gut vergleichbar sind. Dennoch konnten wenigstens zwei Einzelkarten-Ergebnisse gefunden und verglichen werden:

AotS, FullHD, Crazy, 8xMSAA AotS, WQHD, Extreme, 4xMSAA AotS, WQHD, Crazy, 4xMSAA
Radeon RX480 34,2 fps
Quelle: AMD
40,0 fps
Quelle: AotS-Datenbank
-
Radeon R9 290X  (@ 1080 MHz) 38,9 fps
Quelle: 3DC-Forum
- -
Radeon R9 390(X) - 45,4 fps
Quelle: AotS-Datenbank
-
GeForce GTX 970  (@ 1.3 GHz) 30,3 fps
Quelle: 3DC-Forum
- -
GeForce GTX 1080 58,7 fps
Quelle: AMD
- 50,9 fps
Quelle: AotS-Datenbank
Radeon RX480 CrossFire 62,5 fps
Quelle: AMD
66,0 fps
Quelle: AotS-Datenbank
51,0 fps
Quelle: AotS-Datenbank

Die von AMD selber (indirekt) genannten 34,2 fps unter FullHD @ Crazy @ 8x MSAA hat man in unserem Forum mit einer GeForce GTX 970 auf gleich 1.3 GHz Chiptakt versucht nachzustellen, die dabei erzielten 30,3 fps sehen die nVidia-Lösung klar hinten – was aber auch nicht ungewöhnlich ist für Maxwell-basierte Beschleuniger. Gegenüber einer ebenfalls aus unserem Forum stammenden Radeon R9 290X auf 1080 MHz Chiptakt auf 38,9 fps sieht das RX480-Ergebnis dann aber gar nicht mehr so gut aus. Die unter WQHD @ Extreme @ 4x MSAA erzielten 40,0 fps der Radeon RX480 (zwei dieser Karten kommen auf 66,0 fps, die CrossFire-Effizienz liegt nur bei 65%) sehen ebenfalls gegenüber dem Benchmarkwert einer Radeon R9 390 oder 390X (läßt sich nicht genau bestimmen) von 45,4 fps unter sogar derselben CPU nicht wirklich gut aus. Natürlich kann hier CPU- oder/und auch GPU-Übertaktung im Spiel sein, aber der Überblick über alle Resultate von Radeon R9 390 & 390X Karten unter diesem Setting bestätigt, das dieser Benchmarkwert durchaus normal ist für eine solche Karte.

Die Werteverteilung deutet im übrigen eher auf eine Radeon R9 390X als eine Radeon R9 390 hin – aber auch in diesem Fall wäre die Radeon R9 390 (40-43 fps unter diesem Setting) doch noch etwas schneller als die Radeon RX480. Dies könnte natürlich daran liegen, das die Polaris-Generation unter der ziemlich neuen und bereits sehr gut auf AMD-Hardware optimierten AotS-Engine nicht mehr viel zulegen kann, auch könnte das doppelte Speicherinterface der Radeon R9 290/390 Karten hierbei entscheidend eingreifen. So oder so ist das ganze aber ein erneuter Fingerzeig darauf, das von der Radeon RX480 besser keine Performance auf Augenhöhe mit Radeon R9 390X oder GeForce GTX 980 erwarten werden sollte, sondern eher ein Performanceniveau leicht darunter. Die Karte ist nun einmal dafür gedacht, irgendwo zwischen Radeon R9 390 und 390X bzw. GeForce GTX 970 und 980 (zu einem drastisch besseren Preis) herauszukommen – wenn AMD dies schafft, wurde die Zielsetzung schon erreicht.

5

Hardware- und Nachrichten-Links des 4./5. Juni 2016

Das japanische 4Gamer (maschinelle Übersetzung ins Deutsche) zeigt weitere Bilder von nVidia Tesla P100, DGX-1 & Drive PX2 von der Computex – wobei natürlich insbesondere Drive PX2 wegen des darauf verbauten GP106-Chips interessant ist. Jener nutzt auf dem Drive PX2 nunmehr nur noch ein 128 Bit Speicherinterface – was ja auch zur von nVidia angegebenen Speicherbandbreite des finalen Produkts passt, welche mit 80 GB/sec ziemlich niedrig liegt (für den Zweck bei Drive PX2 sicherlich vollständig ausreichend). Die hier immer noch im Raum stehende Frage ist, wie der GP106-Chip als Gamer-Lösung auf die notwendige Speicherbandbreite kommen soll für eine Performance irgendwo zwischen GeForce GTX 970 & 980, so wie von Inno3D angeteastert: Ein 192 oder 256 Bit GDDR5-Speicherinterface wäre hierfür die einfachste Lösung, im Fall von 192 Bit würde dies allerdings zu ungerade Speichermengen á 3 oder 6 GB führen. 3 GB wären ungünstig aus Wettbewerbssicht, 6 GB dürften nVidia hingegen schon wieder zu viel sein – nVidia mag im Mittelklasse-Bereich maßvolle Speicherbestückungen, weil damit langfristig ein automatisch zunehmender Aufrüstdruck aufgebaut wird.

Als Alternative zum Chipfläche fressenden und das Boardlayout verteuernden 256 Bit GDDR5-Speicherinterface stände ein 128 Bit GDDR5X-Interface an – jenes kann grob dieselbe Bandbreite liefern, bietet die ideale Speicherbestückung von 4 GB und spart wie gesagt Chipfläche und Verdrahtungsaufwand beim Grafikboard. Aber GDDR5X dürfte für einen Herbstlaunch wohl noch zu teuer sein, um jenes schon ins 200-Dollar/Euro-Segment zu bringen – ganz abgesehen von der Produktions-Verfügbarkeit, welche vielleicht auch noch nicht auf den Millionenbedarf eines GP106-Chips vorbereitet ist. Bleibt eine Außenseiter-Lösung übrig: Ein gewöhnliches 128 Bit GDDR5-Interface mit auf 4000 MHz taktendem GDDR5-Speicher. Damit kommt man auf eine Speicherbandbreite von 128 GB/sec, was gerade einmal 14% mehr ist als bei der GeForce GTX 960 – nicht einfach, hiermit dann mal eben 55-75% mehr Performance aus dem GP106-Chip herauszuziehen. Gänzlich unmöglich ist diese Auflösung aber auch nicht, bisher hat es nVidia durchaus verstanden, selbst mit kleineren Speicherinterfaces gut auszukommen. Welches Speicherinterfaces es letztlich beim GP106-Chip geben wird, ist derzeit unbestimmt und man wird sich hierzu glatt überraschen lassen müssen.

In unserem Forum diskutiert man logischerweise angeregt über AMDs Radeon RX480 – zu welcher AMD zwar einiges gesagt hat, aber trotzdem noch jene Menge an Fragen offen sind. Ein Thema liegt allein schon beim Chiptakt – wo nominell die genannten ≤1266 MHz ziemlich sicher sind, aber dennoch aufgrund der viel niedrigeren Rechenleistungsangabe von AMD (>5 TFlops ergeben gerade einmal mehr als 1085 Mhz Chiptakt) auch stärker schwankende reale Taktraten im Gespräch sind. Bisher hat AMD – außer bei der Radeon R9 Nano – eigentlich darauf geachtet, das die angegebenen nominellen Taktraten auch in der Praxis eingehalten werden, spätestens bei den Herstellerdesigns konnte man sich dann auf diesen Punkt verlassen. Nun aber könnte AMD den eigenen Boosttakt (einen Basetakt gibt es bei AMD nicht mehr) aus Effizienzgründen ähnlich wie bei nVidia umgestaltet haben – sprich, näher am Power-Target liegend und damit eben auch öfters einmal heruntertaktend.

Dies wäre eine durchaus wahrscheinliche Möglichkeit und würde auch erklären, wieso die Radeon RX480 mit den nominellen 1266 MHz und den daraus resultierenden 5,83 TFlops Rechenleistung angesichts der Verbesserungen der Polaris-Architektur nicht klar schneller herauskommt als die Radeon R9 390X mit deren vergleichbaren 5,91 TFlops. Natürlich spielt hier auch der Punkt des Speicherinterfaces mit hinein, welches zwischen RX480 und 390X glatt doppelt so breit zugunsten der älteren Karte ist – dennoch wäre von Polaris 10 mit ~5,8 TFlops mehr zu erwarten als nur eine Performane zwischen Radeon R9 390 und 390X (~5,1 bzw. ~5,9 TFlops). Setzt man allerdings eine real niedrigere Taktrate von sagen wir ~1150 MHz im Schnitt bei der Radeon RX480 an, sind es ~5,3 TFlops an einem 256-Bit-Interface gegen ~5,9 TFlops an einem 512-Bit-Interface – in diesem Fall wäre eine vergleichbare Performance dann schon ein ganz vernünftiges Ergebnis. Ganz allgemein darf man von der Radeon RX480 keine Performancewunder erwarten – die Karte wird wohl ziemlich sicher ein Preis/Leistungs-Kracher, aber dies eben "nur" auf einem Performanceniveau irgendwo zwischen GeForce GTX 970 und 980.

Phoronix haben den ersten Linux-Test der GeForce GTX 1080 aufgelegt – welcher die Karte natürlich auch unter Linux in Front aller Benchmarks sieht, ganz besonders bei den Performance/Stromverbrauch-Diagrammen. Der Betrieb der Karte unter Linux wird zudem als problemlos beschrieben, es gab keine Systemhänger oder beachtbare Bugs zu berichten. Natürlich trifft diese Einschätzung nur auf den nVidia-eigenen Treiber (ClosedSource) zu, da OpenSource-Treiber erst später erscheinen und dann voraussichtlich einige Monate Zeit benötigen werden, um auf eine vergleichbare Performance zu kommen. Auffällig daneben ist vor allem die etwas ungünstige Skalierung fast aller Grafikkarten in den von Phoronix angesetzten Benchmarks, wo sich die GeForce GTX 1080 nur um 16,6% von der GeForce GTX Titan X absetzen kann (unter Windows: +23%). An der benutzten CPU kann es kaum liegen, dies ist mit dem Xeon E3-1280 v5 ein Skylake-Vierkerner, welcher auf 4.0 GHz Takt läuft. Ganz allgemein fehlen unter Linux einfach mehr echte Game-Benchmarks, der Test besteht nur aus vier wirklich uneingeschränkt nutzbaren Testtiteln: Zwei theoretischen Testern von Unigine sowie zwei OpenSource-Spielen aus den Jahren 2011 & 2012. Wenn Gaming unter Linux wirklich einmal etwas werden will, dann müssen hier auch mal AAA-Titel in solchen (meinungsbildenden sowie neue Möglichkeiten aufzeigenden) Tests mitspielen.

5 5

Wie ist der Ersteindruck zur GeForce GTX 1070?

Alle Entscheidungsgrundlagen zu dieser Frage findet man in der Launch-Analyse zur GeForce GTX 1070 sowie natürlich im Diskussions-Thread zum Launch der zweiten GP104-basierten Grafikkarte. Preislich kann man ausgehend von den Erfahrungen mit der GeForce GTX 1080 von Preispunkte zwischen 430 und 500 Euro für die GeForce GTX 1070 rechnen.

Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
6% (137 Stimmen)
Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung.
18% (384 Stimmen)
Positiver Ersteindruck, aber preislich außerhalb meiner Interessenlage.
20% (442 Stimmen)
Durchschnittlicher Ersteindruck, primär wegen der hohen Preislage.
28% (615 Stimmen)
Durchschnittlicher Ersteindruck, primär aus anderem Grund.
2% (50 Stimmen)
Negativer Ersteindruck, primär wegen der hohen Preislage.
22% (491 Stimmen)
Negativer Ersteindruck, primär aus anderem Grund.
3% (70 Stimmen)
Gesamte Stimmen: 2189
5

nVidia hat zwei GP106- und eine GP102-basierte Grafikkarte in der Vorbereitung

Im Geeks3D-Forum gibt es eine Auflistung von Pascal Device-IDs von real existierenden Grafikkarten-Projekten, die mindestens schon in der Evaluierungsphase sind – also nicht Treiber- oder Log-Einträge zu Zukunftsplanungen, welche dann eventuell gar nicht realisiert werden. Dafür kann diese Liste natürlich keinen Anspruch auf Vollständigkeit erheben, nVidia könnte jederzeit etwas gänzlich neues nachschieben. Alle Device-IDs ab dem 500er Nummernkreis kann man im übrigen ausbuchen, dort liegen nur noch professionelle Varianten – für Gamer-Varianten geht es maximal bis zur Nummer 499. Folgende Gamer-Lösungen konnten damit dann identifiziert werden: Einmal GP102, nur zweimal GP104 sowie zweimal GP106 – und in diesem Fall (im Gegensatz zu einer kürzlichen Meldung) keine für den Gamer-Bereich zutreffende Device-ID zum GP100-Chip:

unterschiedliche Device-IDs Chip-Technik Terminlage
GP102 GP102-400 (mglw. GeForce GTX Titan X2) mglw. 3840-4608 Shader-Einheiten @ 384 Bit GDDR5X-Interface bisher auf Frühling 2017 geschätzt, nunmehr vielleicht vorgezogen (?)
GP104 GP104-400 (GeForce GTX 1080)
GP104-200 (GeForce GTX 1070)
2560 Shader-Einheiten @ 256 Bit GDDR5X-Interface Mai/Juni 2016
GP106 GP106-400 (mglw. GeForce GTX 1060)
GP106-300 (mglw. GeForce GTX 1050)
mglw. ~1280-1408 Shader-Einheiten @ 128 Bit GDDR5/GDDR5X- oder 192/256 Bit GDDR5-Interface angenommen September 2016

Dies bedeutet zuerst einmal, das nVidia erstaunlich weit zu sein scheint bei seinen weiteren Pascal-Chips, wenn vor allem schon zum GP102-Chip bereits ein Grafikkarten-Projekt im Evaluierungsstadium existiert. Ob dies einen früheren Termin als das bisher angenommene Frühjahr 2017 bedeutet, ist ungewiß – aber da dies ja sowieso nur ein angenommener Termin war, ist dies gut möglich. nVidia könnte ergo schon in diesem Herbst mit neuen, echten Enthusiasten-Lösungen auf GP102-Basis kommen, ergo einer neuen Titan-Karte. Daneben dürfte der schon prognostizierte Herbst-Start des GP106-Chips ziemlich sicher wahr werden, auch die anderen Anzeichen sprechen für diesen Termin. Hier wird es dann – im Gegensatz zur kürzlichen Inno3D-Grafik – auch wieder zwei Grafikkarten-Varianten geben, gemäß des bisherigen nVidia-Namensschema die schon allgemein erwartete GeForce GTX 1060 zuzüglich einer GeForce GTX 1050. Die (nicht erwähnten) noch kleineren Pascal-Chips GP107 und GP108 müssen dann wohl auf noch niedrigere Nummern ausweichen.

Erneut nicht erwähnt wurde im übrigen die Device-ID "GP104-150", welche früher einmal als dritte GP104-Variante genannt wurde – eine mögliche GeForce GTX 1065 oder GeForce GTX 1060 Ti. Das es zu dieser Karte keine weiteren Informationsbruchstückchen über die letzten Wochen gegeben hat, macht deren Existenz jedoch zunehmend unwahrscheinlich. Die kürzlich von Inno3D angeteaserte weitere Pascal-Karte ist hingegen mit einiger Sicherheit nicht GP104-, sondern GP106-basiert – die Performance-Einordnung zwischen GeForce GTX 970 & 980 ist für den GP104-Chip einfach zu niedrig. Denkbar wäre allerhöchstens noch, das nVidia aufgrund des späteren Erscheinens des GP106-Chips ganz kurzfristig eine GP106-basierte GeForce GTX 1065 als reine Überbrückungslösung einschiebt – aber wenn, dann müsste es auch hierzu längst entsprechende Leaks und Informationshäppchen geben. Somit muß somit in Frage gestellt werden, ob nVidia aktuell wirklich noch mit einer dritten GP104-Varianten plant – womöglich geht nVidias Augenmerk derzeit eher schon dahin, lieber schnellstmöglich den GP106-Chip als Polaris-10-Kontrahenten an den Start bringen.

3

Hardware- und Nachrichten-Links des 3. Juni 2016

Im Zuge der Diskussion über differierende Bildqualitäten zwischen AMD- und nVidia-Hardware hat AMD auf Reddit auch den Benchmarkwert einer einzelnen Radeon RX480 unter Ashes of the Singularity (FullHD, Crazy-Preset, 8xMSAA) bekanntgegeben: Auf 34,2 fps sollte jene dort kommen, da AMD die CrossFire-Skalierung mit +83% angegeben hat und die zwei Karten bekannterweise bei auf 62,5 fps herauskamen. Leider gibt es faktisch keine Benchmark-Werte anderer aktueller Grafikkarten unter diesem Setting (zwar viele mit Crazy-Preset auf 4xMSAA, nicht aber auf 8xMSAA), so das diese Angabe nicht wirklich weiterhilft bei der genaueren Performancebestimmung der Radeon RX480. Hinzu kommt natürlich immer noch der Punkt, das AMD-Hardware in diesem Bencharks vergleichsweise gut gegenüber nVidia-Hardware wegkommt – auch wenn dieser Effekt gegenüber den Pascal-Grafikkarten kaum noch ausgeprägt ist. Zumindest läßt sich erfahren, das auch die Radeon RX480 noch gut mit CrossFire skaliert – aber es wäre auch verwunderlich, wenn dem nicht so wäre. Zudem sind SLI & CrossFire generell auf einem absteigenden Ast zu sehen, außerhalb von VR-Beschleunigung sinkt die Bereitschaft der Spieleentwickler sehr deutlich, hierfür noch etwas zu tun.

Laut PCGamer arbeitet nVidia an GP104-basierten Mobilelösungen – sprich, GeForce GTX 1070 und 1080 für Gamer-Notebooks. Dabei will man augenscheinlich auf den "M"-Suffix verzichten und ähnlich wie bei der GeForce GTX 980/Notebooks faktische Desktop-Lösungen ins Mobile-Segment bringen – mit gleichen Spezifikationen und Taktraten, wenngleich die Performance unter den thermischen Bedingungen eines Notebooks nicht gänzlich gleich sein kann (niedrigere praktische Boost-Taktraten durch schnelleren Anschlag ans Temperatur-Limit). Die dabei herauskommende Performance wäre für Mobile-Verhältnisse ziemlich brutal, auch wenn sich das ganze natürlich nur für reinrassige DTRs oder Dockingstationen eignet – aber der Anspruch echter Gaming-Notebooks wäre hiermit wirklich zu erfüllen. Terminlich kann man sich auf den Herbst einstellen, denn natürlich werden die Notebook-Hersteller noch ein wenig Zeit brauchen, um dies alles in die Praxis umzusetzen.

Bei der PC Games Hardware hat man sich angesehen, was man aus AMDs Radeon R9 Nano noch herausholen kann, wenn man es richtig anfängt. Die Karte bietet wie bekannt die volle Hardware der Radeon R9 Fury X und sogar deren Taktraten – kann allerdings jene in der Praxis aufgrund eines deutlich niedrigeren Power-Targets nicht halten, sondern kommt nur auf durchschnittlich 876 MHz Chiptakt im Gegensatz zu den tatsächlich 1050 MHz Realtakt der Radeon R9 Fury X. Demgegenüber hat die PC Games Hardware (primär) drei Maßnahmen gestellt: Erstens eine verbesserte Wasserkühlung, zweitens eine leichte Spannungsabsenkung und drittens das maximale Hochsetzen des Power-Targets auf 228 Watt. Damit kam die Radeon R9 Nano trotz gegenüber der Radeon R9 Fury X deutlich niedrigerem Power-Target fast überall auf die Realtaktung der Radeon R9 Fury und damit bis auf eine minimale Differenz auch auf deren Performance. Für den gänzlich anderen Ansatz, welchen AMD mit der Radeon R9 Nano verfolgt hat (Effizienz vor maximale Performance), ist dies ein gutes Ergebnis – was vor allem die Möglichkeiten zeigt, welche die Grafikkarten- und Kühlerhersteller noch haben, aus einem Referenzdesign noch die letzten Prozente herauszukitzeln.

Dummerweise konnte die Radeon R9 Nano aufgrund einer preislich falschen Ansetzung seitens AMD nie wirklich zünden – und nun, mit den ersten Grafikkarten der 14/16nm-Generation im Markt, erledigt sich auch der frühere Effizienzgedanke dieser Karte sehr deutlich. Dies ist allerdings ein Schickal, welches mehr oder weniger alle 28nm-Beschleuniger teilen – sobald in einem bestimmten Preissegment erste 14/16nm-Beschleuniger auftauchen oder jene fest angekündigt sind, lohnen die allermeisten 28nm-Beschleuniger umgehend kaum noch. Speziell die Radeon R9 Nano wird nunmehr in allen Disziplinen (auch der Effizienz) klar von der GeForce GTX 1070 überrundet – und dabei stellt jene nVidia-Karte noch nicht einmal die absolute Spitze aus Sicht des Preis/Leistungs-Verhältnisses dar, dieser Titel dürfte wohl an die Radeon RX480 gehen. AMDs Polaris-10-Karte scheint eine ähnliche Performance wie die Radeon R9 Nano zu einer geringeren Stromaufnahme und grob der Hälte des Preises anbieten zu können – logisch, das da die klare Empfehlung in Richtung des Abwartens auf die Radeon RX480 ergeht.

Der Planet 3DNow! vermeldet die ersten beiden Bristol-Ridge-basierten Notebooks: Beide sind mit dem APU-Modell A12-9700P ausgerüstet, hinter welchem sich ein Vierkerner auf 2.5/3.4 GHz samt einer Radeon R7 Grafiklösung mit 384 Shader-Einheiten auf maximal 758 MHz Chiptakt für eine TDP von 15 Watt verbirgt, ergo eine mittlere Lösung in AMDs Bristol & Stoney Ridge Portfolio. Das hierauf basierende Lenovo Ideapad 310-15ABR macht dann erst einmal einen der typischen OEM-Fehler, indem hierzu noch eine dedizierte Grafiklösung in Form einer Radeon R5 M430 hinzugesteckt wird – welche mit ihren 320 Shader-Einheiten ähnlich leistungsfähig wie die integrierte Grafiklösung ist, damit also nur im CrossFire-Verbund zu einer Leistungssteigerung führt. Das Acer Aspire E5-553G-12AY erscheint da intelligenter gedacht, da man hier augenscheinlich auf eine dedizierte Grafiklösung verzichtete, dafür aber die beliebte Kombination aus SSD und HDD anbietet. Erstaunlicherweise haben beide Bristol-Ridge-Notebooks noch einige Lieferzeit: Das Lenovo-Gerät wird mit "Mitte August" angegeben, zum Acer-Gerät gibt es eine Händlerangabe von "1-3 Monate Lieferfrist". Dies passt wenig dazu, daß das Design beider Notebooks augenscheinlich schon spruchreif ist und das AMD Bristol Ridge auf Basis des Carrizo-Dies nun schließlich schon seit vielen Monaten vorbereiten konnte.

3

Neue Intel-Roadmap zeigen die Broadwell-E-Nachfolger Skylake-X und Kaby-Lake-X im zweiten Quartal 2017

Bei chinesischen BenchLife (maschinelle Übersetzung ins Deutsche) ist eine neue Intel Prozessoren-Roadmap aufgetaucht, welche größtenteils älteres Wissen bestätigt, in einem Punkt auch auch neues bis hin zu einer kleinen Überraschung bietet. Bei den "normalen" Prozessoren wird wie bekannt der Skylake-Refresh "Kaby Lake" vom dritten Quartal 2016 bis zum zweiten Quartal 2017 seinen (mehrfach) abgestuften Marktstart haben, die eigentliche neue Intel-Architektur in Form der in der 10nm-Fertigung antretenden Cannonlake-Generation gibt es erst ab dem dritten Quartal 2017. Wie üblich wird Intel im zweiten Quartal des Jahres 2017 auch wieder eine neue Enthusiasten-Lösung bringen, welche dann den aktuell gerade vorgestellten Broadwell-E ablösen wird. Regulär wäre hier erst einmal Skylake-E dran – aber Intel stößt diesbezüglich frühere Planungen um und will an dieser Stelle nunmehr gleichzeitig Skylake-X und Kaby-Lake-X bringen.

Der Suffix "-X" ist dabei nur eine einfache Umbenennung des bisherigen Suffix "-E" – wahrscheinlich, um den HighPerformance-Ansatz dieser Prozessoren nochmals besser herauszustreichen. Das Intel aber gleich zwei davon gleichzeitig in den Markt bringen will, überrascht dann einigermaßen. Als beste Erklärung bietet sich hier an, das Intel den zeitlichen Rückstand seiner E-Plattform zukünftig wieder etwas zurückfahren will. Dies macht auch Sinn, denn mit Cannonlake dürfte Intel wohl auch im normalen Consumer-Segment mehr als nur Vierkerner bieten – womit die bisherigen E-Plattformen ihres besten Merkmals beraubt wären. Wie Intel dies auflöst, ist noch unklar bzw. bieten sich hier mehrere Möglichkeiten an – darunter auch jene, die zukünftige X-Plattform breiter zu gestalten als bisher, dafür aber die normalen Consumer-Prozessoren eventuell der Overclocking-Modelle zu "berauben". Dies dürfte aber in jedem Fall noch lange nicht beschlußreif bei Intel sein – hierzu wird man sicher erst einmal ansehen, was AMD mit der Zen-Architektur zum Jahresende 2016 vorlegen kann.

Für Skylake-X und Kaby-Lake-X wird ein neuer Prozessoren-Sockel eingeführt und werden damit neue Mainboard-Chipsätze vonnöten – der Sockel 2011v3 samt dem X99-Chipsatz enden nach zwei Generationen (Haswell-E und Broadwell-E). Der neue Sockel wird derzeit von Intel "Socket R" genannt und hat 2061 Pins – was aber eine wohl noch änderbare Größe darstellt. Als Mainboard-Chipsatz soll die Abwandlung eines Kaby-Lake-Chipsatzes mit aktuellen Featureset zum Einsatz kommen. Die CPUs selber sollen wieder über ein QuadChannel DDR4-Speicherinterface mit offiziellem Support bis zu DDR4/2667 verfügen (von anderen Quellen berichtete Sechskanal-Interfaces wird es dagegen wohl nur im Server-Bereich geben), die Anzahl der (von der CPU) zur Verfügung gestellten PCI Express 3.0 Lanes steigt von 40 auf 48. Die entscheidende Information, wieviele CPU-Rechenkerne Skylake-X und Kaby-Lake-X jeweils bieten werden, ist hingegen derzeit leider noch nicht bekannt.

Inhalt abgleichen