3

Kaby Lake Launch: Erste Testberichte gehen online

Noch etwas vor dem CES-Start schickt Intel seine neueste Prozessoren-Generation offiziell ins Rennen: "Kaby Lake" stellt wie bekannt einen klassischen Refresh von Skylake dar, technische Verbesserungen gibt es nur in der Video-Engine der integrierten Grafik, aber nicht in der CPU- und der eigentlichen iGPU-Architektur. Somit kann Kaby Lake primär nur die bekannten 200-300 MHz Mehrtakt sowie eine verbesserte Version von Intels 14nm-Fertigung ins Feld führen. Was damit herauskommt, ist eigentlich aufgrund der Vorab-Berichte schon gut bekannt (5-9% mehr CPU-Leistung) – womit sich viele der zu Kaby Lake erschienenen Launch-Reviews wohlweislich eher darauf konzentriert haben, was die verbesserte 14nm-Fertigung zur Overclocking-Eignung von Kaby Lake beitragen kann. In jedem Fall füllen entsprechende Testberichte derzeit das Internet, gibt es eine (langsam) startende Diskussion zum Launch in unserem Forum – und wird natürlich noch eine Launch-Analyse an dieser Stelle nachfolgen.

2

Hardware- und Nachrichten-Links des 2. Januar 2017

Ein Hardwaretest von Hot Hardware enthält auch (ein paar) Gaming-Benchmarks der Quadro P6000 – einer GP102-Lösung im Vollausbau dieses nVidia-Grafikchips. Dabei zieht die Quadro P6000 der Titan X (Pascal) um immerhin ~12% davon – genauer läßt sich das angesichts von nur zwei Gaming-Benchmarks nicht sagen, aber die grobe Tendenz sollte schon stimmen. Angesichts von nominell nur 7% mehr Rechenleistung und allerdings gleich 10% weniger Speicherbandbreite (durch einen niedrigeren Speichertakt) überrascht dieses Ergebnis dennoch etwas. Als einzigen anderen Hardware-Unterschied hat die Quadro-Lösung nur noch einen auf 24 GB verdoppelten Speicher, was allerdings im Gaming-Bereich keine Rolle spielen sollte. Bezogen auf die kommende GeForce GTX 1080 Ti darf man dieses Ergebnis dann durchaus dahingehend deuten, als das die bei der GeForce GTX 1080 Ti durch den Verzicht auf GDDR5X-Specher niedrigere Speicherbandbreite wohl kaum so große praktische Auswirkungen haben dürfte, wie dies beim Blick auf die nominelle Speicherbandbreite erst einmal aussieht. Gleichzeitig zeigt die gute Gaming-Performance der Quadro P6000 auch an, daß da durchaus noch Spielraum ist beim GP102-Chip – welchen nVidia womöglich mit einer zukünftigen "Titan X Black (Pascal)" im Rahmen der GeForce 2000 Serie ausnutzen könnte.

Eine Innovation, welcher eigentlich für das Jahr 2016 vorgesehen war und dann aber etwas aus dem Blickfeld geraten ist, liegt im Shader Model 6, welches einstmals im Rahmen eines Updates zu DirectX 12 zum Jahresende 2016 erscheinen sollte. Seit der ursprünglichen Meldung im März 2016 hat man davon jedoch nichts mehr gehört – obwohl Updates, welche Vereinfachungen zugunsten von Software-Programmierern mit sich bringen sollen, eigentlich nie wirklich in Gefahr sind, unvermittelt gestrichen zu werden (während man bei neuen Features durchaus das Risiko hat, am Markt vorbeizuentwickeln). Allenfalls wäre es denkbar, das jenes Shader Model 6 dann doch ein paar Hardware-Voraussetzungen in sich hat und daher bewußt zurückgehalten wird, bis entsprechende Hardware seitens AMD und nVidia greifbar wird. In jedem Fall bleibt zu beobachten, wie es in dieser Frage weitergeht – und da DirectX 12 nun allgemein auf einen großen Vormarsch im Jahr 2017 und nachfolgend eingeschätzt wird, sind alle diesbezüglichen Innovationen natürlich besonders betrachtenswert.

Zur Performance-Einordnung der GeForce GTX 1060 3GB gab es die gar nicht einmal so einfach von der Hand zu weisende Kritik, weshalb jener Artikel nicht gleich eine Performance-Neueinordnung der Radeon RX 480 vornimmt – wenn nur wenige Tage vorher sich eine Newsmeldung genau mit diesem Thema beschäftigte hatte und hierzu einen ersten Test präsentieren konnte, bei welchem die Radeon RX 480 8GB schon auf Augenhöhe mit der GeForce GTX 1060 6GB herauskam. Diese Argumentationslinie ist nicht wirklich falsch – allerdings geschah der Hinweis auf jenen Test eben wirklich nur als Hinweis darauf, das ein solcher existiert – während hingegen die Festsetzungen von Index-Werten im Performance-Index immer auf möglichst vielen Tests basieren, schon allein um nicht am Ende den Ergebnissen einzelner Ausreißer aufzusitzen. Auf Basis eines einzelnen Tests ist daher (noch) keine neue Performance-Einordnung der Radeon RX 480 möglich. Vielmehr war gerade diese Newsmeldung auch als Hinweis an andere Hardware-Tester gedacht, das sich hier eine interessante Entwicklung ergibt und man demzufolge dieses Duell von Radeon RX 480 8GB gegen GeForce GTX 1060 6GB ebenfalls nochmals neu auflegen sollte – natürlich mit dem Hintergedanken verbunden, darüber zu einer griffigen Anzahl an neueren Tests zu kommen, welche letztendlich dann doch die Performance-Neueinordnung der Radeon RX 480 ermöglichen werden.

Eine völlig neue Bedeutung für das "Smart" in "SmartTV" eröffnen derzeit die Programmierer von Erpressungs-Trojanern, welche laut Heise damit nun erste TV-Geräte angreifen. Vor dieser Möglichkeit sollen Sicherheitsforscher schon den längerem gewarnt haben – und in der Tat lädt die Kombination von altem Android ohne Sicherheits-Updates und keinerlei Support-Interesse seitens der TV-Hersteller zu diesem Hack geradezu ein. Allerdings müsste die Ransomware-Betreiber zur eigenen Geschäftsoptimierung noch etwas an ihrer Preislage pfeilen: 500 Dollar zahlt nun niemand, um das SmartTV wieder funktionstüchtig zu bekommen, wenn selbst der Service-Techniker günstiger ist und in Deutschland das ganze wohl sogar ein Garantiefall wäre. Zudem lassen sich auf einem SmartTV (üblicherweise) auch keine privaten Dokumente verschlüsseln, der einzige Antrieb zur Lösegeld-Zahlung liegt also in der Bequemlichkeit, jetzt so schnell wie möglich wieder Fernsehen zu können. Nichtsdestotrotz sind Smart- und IoT-Gerätschaften wegen ihrer einfachen bis nicht vorhandenen Sicherheitsarchitektur ein dankbares Angriffsziel für Erpressungs-Trojaner, hier könnte es in Zukunft durchaus noch zu größeren Bedrohungslagen kommen. Wenigstens dürften dann endlich einmal die Gerätehersteller aufwachen und grundsätzliche Sicherheitsanstrengungen für diese Geräteklasse in Angriff nehmen (aka dazu gezwungen werden).

2

Vorzeitiger Vega-Teaser offenbart 16 GB HBM2-Speicher samt "Vega Next Compute Unit"

Unser aufmerksames Forum hat ein paar öffentlich einsichtbare Dateien auf AMDs VE.GA-Webseite entdeckt, welches Marketing-Material für das am 5. Januar (um 15 Uhr deutscher Zeit) stattfindende "Vega Architecture Preview" enthält. Bislang liegt nur eine einzelne gesicherte Folie vor, welche augenscheinlich erst einmal alle auf Vega bezogenen Schlagworte in eine Präsentationsfolie fasst. Allerdings lassen sich schon allein aus dieser Folie auch konkrete Angaben entnehmen: Die "2x Bandwith per Pin" bedeuten einen HBM-Takt von 1000 MHz DDR, nachdem das HBM1 bei AMDs Fiji-basierten Grafikkarten mit einer Taktrate von 500 MHz DDR daherkam. Damit nutzt AMD bei Vega den verbauten HBM2-Speicher im Gegensatz zu nVidia auch wirklich aus, selbige betreiben den HBM2-Speicher der GP100-basierten Profi-Lösungen wie bekannt nur mit einer Taktung von 700 MHz DDR.

Zum anderen ergibt sich aus "8x Capacity/Stack", das AMD bei Vega nunmehr HBM2-Stacks mit 8 GByte HBM2-Grafikkartenspeicher pro Speicherstack benutzt – nachdem es bei den Fiji-basierten Grafikkarten noch 1 GByte HBM1-Grafikkartenspeicher pro Speicherstack waren und damit deren Speicherausbau wegen der maximal 4 Speicherstacks fest auf nur 4 GB beschränkt war. Bei 8 GB HBM2 pro Stack stehen AMD dann alle Wege nach oben offen – mit vier Speicherstacks wären auch bis zu 32 GB Speicher zu bieten. Dies ist mit zukünftigen Vega-Chips (Vega 20) denkbar, Vega 10 wird hingegen allgemein als mit nur zwei Speicherstacks ausgerüstet beschrieben. Dies ergibt 16 GB HBM2-Speicher mit einer Speicherbandbreite von 512 GB/sec. Bei der Speicherbandbreite wäre dies exakt so viel wie bei AMDs Fiji-basierten Grafikkarten Radeon R9 Nano, Fury und Fury X schon geboten – allerdings erreicht auf einem einfachen Weg, welcher die Möglichkeiten der HBM-Technologie viel besser ausnutzt und wie gesagt vor allem endlich die geforderten größeren Speichermengen bietet.

Im übrigen verhindert dies nicht die Möglichkeit zu geringeren Speichermengen für die kleineren Vega-Grafikkarten. Der größere Vega-10-Chips kann unter Verwendung von (bei HBM2 ebenfalls verfügbaren) Speicherstacks mit nur 4 GB HBM2-Speicher am gleichen Speicherinterface auch mit "nur" 8 GB HBM2-Speicher ausgerüstet werden. Sofern der kleinere Vega-11-Chip mit nur einem einzelnen HBM2-Speicherstack ausgerüstet wird, sind über diese Methode bei selbigem Grafikchip dann Speichergrößen von 4 und 8 GB HBM2-Speicher erreichbar. Zudem kann man natürlich über einen niedrigeren Speichertakt (nVidias 700 MHz oder auch etwas höhere Taktraten) die Speicherbandbreite für kleinere Grafikkarten auf Vega-Basis entsprechend nach Gusto anpassen. HBM2 ist in diesen Fragen viel flexibler als das frühere HBM1, welches rückblickend eher denn wie ein öffentlicher Beta-Test für die HBM-Technologie erscheint.

Daneben wirft AMD in seiner Präsentationsfolie noch mit reihenweise neuen Marketing-Schlagworten zur Vega-Architektur um sich – augenscheinlich hat man frühere nVidia-Launches analysiert und dabei entdeckt, das es ohne ein neues Buzzwort für jede auch noch so unbedeutende Chip-interne Technologie nicht wirklich geht. Dabei macht besonders die Nennung von "Vega NCU" auf sich aufmerksam – augenscheinlich will AMD mittels jener "Next Compute Unit" auf intern veränderte Shader-Einheiten bei der Vega-Architektur hinweisen. Sicherlich kann unter der Masse an Marketing-Schlagworten auch viel "alter Wein in neuen Schläuchen" dabei sein – und trotzdem wird es interessant werden zu sehen, wie sich die Vega-Architektur anläßt. In der Summe müsste AMD hiermit nun doch einiges an echten (sprich wirksamen) Architektur-Verbesserungen aufbieten können – was sich dann wie gesagt zu AMDs "Vega Architecture Preview" am 5. Januar um 15 Uhr deutscher Zeit ergeben sollte.

Nachtrag vom 3. Januar 2017

Nachdem uns nunmehr die kompletten, ausversehen öffentlich zu sehenden Daten der VE.GA-Webseite vorliegen (freundlicherweise bereitgestellt durch Foren-Mitglied "Skysnake"), muß leider berichtet werden, das alles bedeutsame mit der schon gezeigten Präsentationsfolie bereits abgehandelt wurde. Ein daneben vielleicht noch interessantes Rendering-Video ist zudem nach wie vor noch öffentlich sichtbar. Allenfalls gibt es einen bislang nicht bekannten Ansatzpunkt in Form der Dateinamen einiger augenscheinlich als Präsentations-Hintergrund gedachter Grafiken: So wurden hierfür zum einen die bekannten Namen "Radeon", "Radeon Instinct", "Radeon Pro" und "Radeon RX" verwendet – daneben aber auch die bisher noch nirgendwo erwähnten Namen "Radeon 185" und "VEGA TYLER". Beides ist derzeit schwer bis gar nicht einzuordnen und bedarf daher weiterer Informationen – und zugleich gilt auch, das beide Dateinammen am Ende nicht wirklich etwas bedeuten müssen, hieraus also noch keinerlei sinnvollen Schlüsse über irgendwelche AMD-Zukunftspläne ziehbar sind.

2

Neue Gerüchte zur GeForce GTX 1080 Ti sehen 3328 Shader-Einheiten mit 12 GB GDDR5-Speicher für diese Karte

Bei Reddit berichtet man aus zwei fernöstlichen Quellen über neue Spezifikationen zur GP102-basierten GeForce GTX 1080 Ti, welche etwas abweichend zu den im November genannten Spezifikationen mit "nur" 10 GB GDDR5X-Speicher ausfallen. Die Quellenlage der neuerlichen Gerüchte ist mit zwei Forenmeldungen nicht gerade dick, wenigstens der eine Forenposter soll sich aber in der Vergangenheit als vergleichsweise belastbare Quelle erwiesen haben (gute, nahezu komplett zutreffende Informationen zur seinerzeitigen GeForce GTX 980 Ti). Übereinstimmend wird dabei mit dem 5. Januar 2017 der Start der kommenden CES als Ankündigungsdatum der GeForce GTX 1080 Ti genannt – was kein Auslieferungsdatum ist, jenes soll voraussichtlich auf Ende Januar liegen. Die Preislage wird einerseits mit 699-799 Dollar, andererseits mit 799 Dollar angegeben – wobei unklar ist, ob hiermit die Herstellerdesigns oder nVidias "Founders Edition" gemeint waren.

Für die Hardware existiert dann nur noch eine Quelle (in diesem Fall die vorgenannt belastbare): Dabei wird die GeForce GTX 1080 Ti als mit 3328 Shader-Einheiten, 96 ROPs sowie 384 Bit Speicherinterface ausgerüstet beschrieben und soll mit 12 GB GDDR5-Speicher (nicht GDDR5X!) daherkommen. In diesem Punkt liegt der größte Unterschied zu den früheren Gerüchten, denn jene sprachen von nur 10 GB Speicher, dafür allerdings der schnelleren GDDR5X-Bauform. Jene früheren Gerüchte konnten allerdings zur Untermauerung auf Test-Lieferungen seitens nVidia in der Zauba Import/Export-Datenbank verweisen, die 10-GB-Karte muß also zu Testzwecken durchaus real gewesen sein (oder es war ein heftiger Schreibfehler). Nichtsdestotrotz erscheint die nun im Raum stehende 12-GB-Lösung für nVidias Zwecke als sinnvoller, denn nVidia muß sich bei der Speichermenge gegenüber den Enthusiasten-Usern möglichst klar von den 8 GB der GeForce GTX 1080 absetzen – wofür 10 GB einfach zu wenig sind, 12 GB viel eher den Kern der Sache einer absoluten Enthusiasten-Grafikkarte treffen. Nicht undenkbar, das nVidia jenes 10-GB-Modell nur deswegen auf die Reise geschickt hat, um die Meinung der Enthusiasten-Gemeinde zu "nur" 10 GB Speicher vorab anzutesten.

Daß es dann nur GDDR5-Speicher anstatt GDDR5X-Speicher werden wird, dürfte nVidias Versuch einer klaren Abgrenzung zur Titan X (Pascal) geschuldet sein – mit 12 GB GDDR5X-Speicher wäre die GeForce GTX 1080 Ti trotz kleinerer Anzahl an (freigeschalteten) Shader-Einheiten über höhere Chiptaktraten jederzeit über das Auslieferungs-Niveau einer Titan X (Pascal) zu bringen gewesen. nVidia hätte hier die Grafikkarten-Hersteller vielleicht sogar limitieren müssen, damit jene nicht schon in Form von Herstellerdesigns schnellere GeForce GTX 1080 Ti Karten als eben die Titan X (Pascal) geschaffen hätten – was jene wohl liebend gern tun würden, nachdem man die Grafikkarten-Hersteller vom Absatz der Titan X (Pascal) (wird rein durch nVidia selbst vertrieben) ausgeschlossen hatte. Durch die Verwendung von GDDR5-Speicher anstatt von GDDR5X kann die GeForce GTX 1080 Ti auch bei hochgezüchteten Herstellerdesigns zwar sogar eine höhere Rechenleistung als die Titan X (Pascal) erreichen, bei der Speicherbandbreite sind jedoch die Werte von nVidias Topmodell glatt unerreichbar.

GeForce GTX 1080 GeForce GTX 1080 Ti Titan X (Pascal)
Chipbasis nVidia GP104 nVidia GP102 nVidia GP102
Architektur Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Technik 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 256 Bit GDDR5X-Interface, 2 MB Level2-Cache (Vollausbau) angbl. 3328 Shader-Einheiten (= 208 TMUs), 96 ROPs, 384 Bit GDDR5-Interface (Salvage) 6 Raster-Engines, 3584 Shader-Einheiten, 224 TMUs, 96 ROPs, 384 Bit GDDR5X-Interface, 3 MB Level2-Cache (Salvage)
Taktraten 1607/1733/2500 MHz
(Ø-Chiptakt: 1694 MHz)
unbekannt 1417/1531/2500 MHz
(Ø-Chiptakt: ~1580 MHz)
Speicherausbau 8 GB GDDR5X angbl. 12 GB GDDR5 12 GB GDDR5X
4K Perf.Index 132% gesch. ~155-165% 173%
Listenpreis 599$/699$ gesch. 799$/899$ 1200$
Release 17. Mai 2016 angbl. Ende Januar 2017 2. August 2016

Abzuwarten bleibt allerdings, ob das ganze für die Spielepraxis wirklich einen entscheidenden Nachteil darstellt. Die Titan X (Pascal) legte auf die GeForce GTX 1080 zu real anliegenden Taktraten 30% mehr Rechenleistung samt 50% mehr Speicherbandbreite oben drauf – und erzielte damit unter UltraHD 31% mehr Real-Performance. Eine GeForce GTX 1080 Ti mit den vorgenannt kolportierten Hardware-Daten könnte (je nach angesetztem Chiptakt) bei 21-27% mehr Rechenleistung zu 20% mehr Speicherbandbreite gegenüber der GeForce GTX 1080 herauskommen, das ist nominell dann doch ein beachtbarer Unterschied zur Titan X (Pascal). Angenommen jedoch, es wird ein eher höherer Chiptakt (welcher mit Herstellerdesigns dann sowieso erreich- und sogar überbietbar ist), sind dies im Idealfall aber auch nur 4% weniger Rechenleistung – unter nicht rein an der Speicherbandbreite hängenden Szenarien wäre damit fast das Leistungspotential der Titan X (Pascal) erreichbar. Nur dort, wo deren große Speicherbandbreite wirklich erforderlich ist, dürfte die Titan X (Pascal) eine GeForce GTX 1080 Ti zu diesen Hardware-Daten entsprechend klarer abhängen.

Die bei der früheren Meldung zur GeForce GTX 1080 Ti genannte Spanne für deren geschätzten UltraHD Performance-Index (mit 160-165%) muß demzufolge gemäß dieser neuen Hardware-Daten auf nunmehr (weiterhin geschätzt) 155-165% erweitert werden – wobei die Marke von 165% (und damit sehr nahe an der Titan X (Pascal) bei 173% liegend) als nur im Idealfall erreichbar erscheint. Irgendwo wird die Verwendung von GDDR5-Speicher anstatt von GDDR5X-Speicher dann doch seine Auswirkungen haben müssen, selbst wenn man mit gleich 4000 MHz DDR Speichertakt rechnet (ein noch höherer GDDR5-Speichertakt könnte die Situation etwas entschärfen, dies bliebe abzuwarten). Jener Hardware-Unterschied zur Titan X (Pascal) dürfte dann effektiv dafür sorgen, das nur besonders hochgezüchtete GeForce GTX 1080 Ti Karten teilweise die Performance einer Titan X (Pascal) ereichen können, spätestens mittels Overclocking wird am Ende jedoch immer noch mehr aus einer Titan X (Pascal) herausholbar sein.

Offen muß derzeit noch bleiben, zu welchem Preis nVidia das ganze ansetzt: Die beiden genannten Preisnotierungen liegen erfreulicherweise unterhalb der 1000-Dollar-Marke, dürften aber am Ende dennoch nur den Preis der Herstellerdesigns wiedergeben (den höheren Preis der "Founders Edition" versteckt nVidia gewöhnlich zu Vor-Relase-Zeiten). Ergo könnte die GeForce GTX 1080 Ti letztlich zu einer Preisnotierung von 799$ für die Herstellerdesigns und 899$ für das Referenzdesign daherkommen – in Euroland ist damit für die "Founders Edition" angesichts derzeitiger Dollar/Euro-Kurse mühelos die 1000-Euro-Marke zu durchbrechen und auch die Herstellerdesigns dürften anfänglich nicht für unter 900 Euro über die Ladentheken gehen. Angesichts dieser (vermutlich) hohen Realpreise bei nur (geschätzt) 17-25% Performanceaufschlag auf die GeForce GTX 1080 wäre nVidia wohl noch nicht einmal gezwungen, die GeForce GTX 1080 entsprechend preiszusenken – dies erscheint erst bei niedrigeren Preislagen zur GeForce GTX 1080 Ti als notwendig.

1

Hardware- und Nachrichten-Links der Neujahrsfeiertage 2017

Der Jahresstart ist die Zeit der Teaser auf kommende Groß-Ereignisse: Den Anfang wird nVidia machen mit einem Live-Event im Vorfeld der CES, welches terminlich auf die Nacht vom 4. auf den 5. Januar um 03:30 morgens deutscher Zeit angesetzt ist. Angekündigt wurde "something big" – dies kann vom Ego des nVidia-CEOs über irgendetwas im Profi-Bereich bis zu einer GeForce GTX 1080 Ti natürlich alles bedeuten. Wahrscheinlich um letzterer Möglichkeit vorzubeugen, hat AMD laut der extra aufgelegten Webseite VE.GA ein "Vega Architecture Preview" für den 5. Januar um 15:00 deutscher Zeit angesetzt. Interessant ist hierbei die Nennung von "Radeon Vega" in prinzipiell einem Wort – dies könnte man fast so deuten, als würde AMD den Begriff "Vega" nicht nur als internen Codenamen nutzen, sondern vielleicht sogar als Verkaufsnamen, möglicherweise als neuen Eigennamen der Vega-basierten Beschleuniger (äquivalent zu "Fury" bei den Fiji-basierten Grafikkarten). Viel mehr als ein Preview darf man sich allerdings wirklich nicht versprechen, nach wie vor ist AMDs Vega-Generation eher denn ein Thema des zweiten Quartals – während nVidias GeForce GTX 1080 Ti praktisch jederzeit erscheinen könnte, dies passiert allein nach nVidias Gusto.

Eine Twitter-Meldung der Hardware-Webseite Bits 'n' Chips wirft derzeit einige Wellen auf, denn mittels jener wird angedeutet, AMDs Ryzen-Prozessoren könnten sowohl bei AMDs Hausfertiger GlobalFoundries als auch (gleichzeitig) bei Samsung hergestellt werden. Hierbei sei hinzugesagt, das GlobalFoundries 14nm-Fertigung auf einer Samsung-Lizenz basiert und von dort auch 1:1 übernommen wurde. Man kann also regelrecht ohne neue Maske zwischen den beiden Fertigern wechseln – was einen großen Unterschied zur ansonsten anzutreffenden Situation darstellt, wo ein alternativer Chipfertiger erst einmal eine neue, kostenspielige (und mehrere Wochen bis Monate dauernde) Produktionsvorbereitung erfordert. Nichtsdestotrotz ist laut den harten diesbezüglichen Wortgefechten in unserem Forum unsicher, ob jene Fremdfertigerung von CPUs zu AMDs aktuellem Waferabkommen mit GlobalFoundries passt. Es gibt da durchaus ernstzunehmende Hinweise, das laut diesem Abkommen AMD-CPUs nur bei GlobalFoundries gefertigt werden dürften – und bei Nichtbeachtung AMD entsprechende Strafzahlungen einkalkulieren muß.

Andererseits könnte hier im Gegensatz zu früher eher die Situation aufgetreten sein, das AMD die vereinbarte Wafer-Mindestabnahme schon längst erfüllt – und das nunmehr GlobalFoundries selber nicht genügend 14nm-Wafer für die gleichzeitige Fertigung der Polaris-Grafikchips und der Ryzen-Prozessoren liefern kann (und potentiell kommen ja auch noch die Vega-Grafikchips hinzu). Gut möglich, daß GlobalFoundries 14nm-Kapazitäten damit schon längst erschöpft sind und AMD somit nahezu zwingend auf Samsung als Zweitfertiger angewiesen ist. Für diesen speziellen Fall könnten im Waferabkommen mit GlobalFoundries durchaus auch entsprechende Passagen existieren, welche AMDs Strafzahlungen minimieren, unter Umständen hat GlobalFoundries mit der Samsung-Zweitfertigung auch überhaupt gar kein Problem, weil dies dem wirtschaftlichen Erfolg von AMD weiterhilft – mit welchem der wirtschaftliche Erfolg von GlobalFoundries eng verknüpft ist, ganz abgesehen vom von der GlobalFoundries-Muttergesellschaft noch gehaltenem AMD-Aktienpaket. Lange Rede, kurzer Sinn: Es ist davon auszugehen, das unabhängig der konkreten Formulierungen des Waferabkommens hier sicherlich ein Weg gefunden wurde, welcher für alle Beteiligten tragbar ist.

Dabei muß am Ende AMD noch nicht einmal zwingend die Fertigung von Ryzen-Prozessoren zu Samsung auslagern – es würde genauso gut möglich sein, das man Ryzen exklusiv bei GlobalFoundries fertigt und dafür die Fertigung von Polaris-Grafikchips zu Samsung verschiebt. Mittelfristig dürfte sicherlich alles wieder bei GlobalFoundries landen, aber AMDs Hausfertiger ist derzeit eher noch beim Aufbau von großen 14nm-Kapazitäten und kann daher kurzfristig die Unterstützung durch Samsung sicherlich gebrauchen. Neben dieser Chipfertiger-Spekulation muß aber auch klar sein, das egal ob Ryzen-Prozessoren oder Polaris-Grafikchips nun von GlobalFoundries oder Samsung gefertigt werden, sich daraus mit hoher anzunehmender Sicherheit keinerlei Unterschiede in der Taktbarkeit der diversen gefertigten Chips ergeben werden. Die 14nm-Fertigungen von GlobalFoundries und Samsung sind wie gesagt derart identisch, das man ohne neue Maske von der einen zu anderen Foundry wechseln kann – was letztlich nahezu identische Ergebnisse ergeben sollte. Ob es in der Praxis dann vielleicht doch kleinere Differenzen gibt, wird sich erst ermitteln lassen, wenn entsprechende Produkte in breitem Umlauf sind (und man auf Basis einer großen Datenmenge vergleichen kann).

Außerhalb von Hardware-Themen ist das Jahr 2017 auch eines jener noch drei Jahre, in welchen Windows 7 noch supportet wird (das offizielle Support-Ende liegt auf dem 14. Januar 2020). Und selbst wenn es nichts direkt miteinander zu tun hat, kann man diese Terminlage auch als jenen Zeitraum ansehen, in welchem endlich etwas entscheidendes in Richtung Linux-Gaming passieren sollte. Wenn nicht, dann wird im Jahr 2020 auch der letzte Windows-10-Verächter letztlich doch zu Windows 10 oder potentiellen Nachfolgern gewechselt sein und Microsoft dürfte nachfolgend anfangen, sein erneut gefestigtes Monopol in klingende Münze umzuwandeln – mit automatisch eingespielten Feature-Update in Windows 10 kann man schließlich ganz schnell aus einem freien ein unfreies Betriebssystem mit zwangsweisem Windows-Store und dem Ausschluß von Win32-Anwendungen machen (im Sinne von Microsoft würde es sogar reichen, wenn DirectX-12-Titel nur noch als Windows-Store-App ausgeführt werden dürfen).

Da es bereits ausreichend Linux-Distributionen für jeden Geschmack gibt und die Grafikchip-Entwickler mit ihren Linux-Treibern inzwischen auch einen zumindest vernünftigen Job machen, muß das Hauptaugenmerk hierbei auf einem breiteren Linux-Spielesupport der Spieleentwickler liegen, welcher derzeit den größten Bremspunkt für Linux-Gaming darstellt. Der Weg hierzu führt wohl über eine stärkere Nutzung der Vulkan-API, welche zwar keinen automatischen Linux-Support mit sich bringt, jenen allerdings sehr viel einfacher erreichbar macht (da die Vulkan-API im Gegensatz zu DirectX 12 Plattform-unabhängig ist). Normalerweise sollten die Spieleentwickler (und vor allem die großen Spieledistributoren) durchaus selbst erkennen können, das die weitere Stärkung von Microsoft bzw. DirectX 12 jene direkt in die (zukünftige) totale Abhängigkeit vom Windows-Store führt – nicht wegen DirectX 12 selber, sondern weil es selbiges eben nur unter Windows 10 gibt und Windows 10 von Microsoft prinzipbedingt nach Gutdünken verändert werden kann.

1

Neuer Artikel: Das Hardware-Jahr 2017 in der Vorschau

Mit dem Ende des Hardware-Jahres 2016 beginnt das Hardware-Jahr 2017 – und damit ein neuer Kampf der Hersteller um Kunden, Marktanteile und Verkaufserfolge. Nachdem die Fortschritte in der langen Periode der 28nm-Fertigung zumeist eher nur scheibchenweise erzielt wurden, konnte das Hardware-Jahr 2016 zumindest teilweise mit großen Fortschritten im Grafikchip-Bereich durch den (dort) erstmaligen Einsatz der 14/16nm-Fertigung glänzen – so wie im übrigen zum Jahresanfang 2016 prognostiziert, auch wenn natürlich nicht alle der damaligen Prognosen letztlich eingetroffen sind. Aber das große Gesamtbild für das Jahr 2016 "GPUs interessant, CPUs eher nicht" hat sich durchaus bestätigt – letzteres sicherlich auch begünstigt durch die jüngere Entwicklung, das sich die CPU-Generationen Intel Kaby Lake und AMD Zen/Ryzen nunmehr ins Jahr 2017 verschoben haben.

Im Jahr 2017 dürfte es damit nochmals interessanter werden: Erstens einmal stehen die beiden genannten CPU-Generationen nun endgültig auf dem Speiseplan, insbesondere AMDs neue CPU-Architektur zieht dabei derzeit schon alle Blicke auf sich und wird inzwischen allgemein als Startschuß für einen neuen Wettbewerb im CPU-Segment gesehen. Und dann werden natürlich vor allem noch weitere 14/16nm-basierte HighEnd-Grafikchips mittels AMDs Vega-Generation erwartet, welche zum einen AMDs 14/16nm-Portfolio komplettieren werden und zum anderen erstmals in der 14/16nm-Generation einen Wettbewerb im Marktsegment der HighEnd-Grafikkarten auslösen sollten. Oder anders formuliert: Das Jahr 2017 steht in allen beiden wichtigen Chip-Feldern für die Wiederentdeckung des Wettbewerbs – dadurch, das alle drei Chipentwickler jeweils aktuelle Angebote in allen Marktsegmenten aufzubieten haben werden. Doch der Reihe nach ... zum Artikel.

Inhalt abgleichen