1

nVidia gibt GeForce GTX 1070 & 1080 entweder "For Honor" oder "Ghost Recon: Wildlands" bei - aber nur über "GeForce Experience"

Grafikkarten-Entwickler nVidia hat für die GeForce GTX 1070 & 1080 in Desktop- und Notebook-Version ein neues Spielebundle aufgelegt, welches mit eines der beiden Titel "For Honor" und "Ghost Recon: Wildlands" doch sehr gehaltvoll aussieht – inhaltlich sicherlich eines der besten Spielebundles der letzten Zeit. Doch man ahnt es fast, daß dies dann natürlich einen Haken haben muß: Erstmals kann man die Gutscheine nicht mehr auf einer speziellen nVidia-Webseite in Download-Codes umwandeln, sondern muß dies zwingend über nVidias "GeForce Experience" Tool erledigen. Damit dürfte sich nVidia keine Freunde machen, denn nVidias eigentliches Anliegen des Zwangs zu "GeForce Experience" ist hierbei klar erkennbar. nVidia hatte früher schon einmal einen halben Versuch zur Puschung von "GeForce Experience" unternommen mittels der Ankündigung, die immer wieder frischen Game-Ready-Treiber nur noch über dieses Tool auszuliefern (und per Download nur noch jedes Quartal einen neuen Treiber) – eine Ankündigung, die wegen des klaren Protests dagegen letztlich nie in die Tat umgesetzt wurde.

Augscheinlich scheint nVidia aus diesem Fall nicht gelernt zu haben, das in solchen Situationen dann oftmals der Nutzwert des jeweiligen Tools in den Hintergrund tritt und die Anwender schlicht nicht dem auferlegten Zwang folgen wollen – oder wenigstens nur widerwillig zur Erlangung der kostenlosen Spiele-Dreingaben. Ob dies langfristig eine gute Strategie zur Kundengewinnung darstellt, darf doch arg bezweifelt werden – und meist kommen solche Aktionen sowieso nur, wenn man sich (viel) zu sicher der eigenen Stellung wähnt oder aber wenn man die eigenen Felle bereits wegschwimmen sieht (auf nVidia trifft derzeit sicherlich eher ersteres zu). nVidia sollte an dieser Stelle besser seine Prioritäten prüfen – das Annerven der eigenen (zahlenden) Kundschaft gehört da sicherlich nicht dazu. Das ganze ist sicherlich noch nicht in der Kategorie von "Treiber nur über GFE", aber dennoch ein ausreichend großes Ärgernis ("GFE-Affäre #2" ?), um alle mühsam wieder aufgebauten Sympathien erneut zu zerstören.

Wie üblich bei Spielebundle-Aktionen gilt auch hier, daß der genannten Hardware – gekauft bei einem an der Aktion teilnehmenden Händler – entsprechende Gutscheine beiliegen. Abweichend von früheren Spielebundle-Aktionen kann der Gutschein dann aber nur in nVidias "GeForce Experience" Tool in einen Download-Coden umgewandelt werden, welcher zum Herunterladen des Spiels bei dessen Publisher berechtigt. Bei der Hardware-Bestellung ist auf das Vorhandensein eines entsprechenden nVidia-Gutscheins in der Angebotsbeschreibung zu kontrollieren, da nicht jeder Händler an dieser Aktion teilnimmt und selbst bei den teilnehmenden Händlern nicht jedes Produktangebot Teil dieser Aktion sein muß.

Aktionszeitraum Inhalt des Spielebundles
GeForce GTX 1070 & 1080
Notebooks mit GeForce GTX 1070 & 1080
31. Januar 2017 bis spätestens 28. März 2017 eines von zwei Spielen: "For Honor" oder "Ghost Recon: Wildlands" (Einlösung per GeForce Experience)
GeForce GTX 1050, 1050 Ti & 1060
Notebooks mit GeForce GTX 1050, 1050 Ti & 1060
6. Dezember 2016 bis spätestens 30. Januar 2017 eines der drei Spiele "Maize", "Redout" & "Raw Data"  (Einlöse-Webseite)
Radeon RX 470 22. November 2016 bis spätestens 22. Februar 2017 Spiel "Hitman (2016)"  (Einlöse-Webseite)
Radeon RX 480 + Core i5-6600K 22. November 2016 bis spätestens 15. Januar 2017 Spiele "Doom (2016)" & "Civilization VI"  (Einlöse-Webseite)
Radeon RX 480 15. November 2016 bis spätestens 15. Januar 2017 Spiel "Civilization VI"  (Einlöse-Webseite)
AM3-Mainboard 27. Oktober 2016 bis spätestens 27. Januar 2017 Spiel "Doom (2016)"  (Einlöse-Webseite)
1

Neuer Ryzen-Launchtermin und erster konkreter Hinweis aufs Ryzen-Portfolio

Vom dem in diesen Fragen bekanntlich gut informierten Canard PC kommen per Twitter wichtige Aussagen zum anstehenden Ryzen-Launch: Jener soll nunmehr am 2. März über die Bühne gehen, nicht mehr dem bisher genannten 28. Februar. Der neue Termin fällt auf einen Donnerstag, bleibt aber im Rahmen der Zeitdauer der GDC 2017 (27. Februar bis 3. März in San Francisco), wo AMD bekannterweise einen Vortrag zur Software-Optimierung auf Ryzen halten will. Jener neuer Termin passt im übrigen auch zu einer neuen AMD-offiziellen Aussage, nach welcher der Ryzen-Marktstart auf "Anfang März" liegen wird. Viel interessanter ist aber natürlich der erste konkrete Hinweis auf das mögliche Ryzen-Portfolio – auch wenn diese Informationen derzeit ganz deutlich als "unbestätigt" markiert werden müssen.

Nichtsdestotrotz erwarten Canard PC von AMD ein initiales Ryzen-Portfolio mit insgesamt fünf Prozessoren-Modellen: Zwei Achtkerner mit SMT, ein Sechskerner mit SMT, ein Vierkerner mit SMT und ein Vierkerner ohne SMT. Dies ergibt eine hohe Bandbreite bei der Performance und demzufolge wahrscheinlich auch beim Preis – sprich, AMD würde damit gleich ein "komplett" zu nennendes Portfolio vorstellen, von der Mainstream-CPU bis zum HighEnd-Boliden. Ob AMD dieselben Spitzenpreise wie Intel verlangt, ist noch nicht ganz klar, aber wenn man tatsächlich initial bereits ein 4C/4T-Modell bringt, dann greift man damit in jedem Fall auch schon Intels Mainstream-Modelle der Core i3-Serie an – und dies geht dann natürlich nur zu dafür passenden Preispunkten. Spekulativ gesehen könnte man basierend auf den Aussagen von Canard PC das initiale Ryzen-Portfolio also folgendermaßen charakterisieren:

Technik Modell-Linie Intel-Kontrahent
Ryzen SKU #1 8 CPU-Kerne + SMT, besonders hohe Taktung SR7 "Broadwell-E" Core i7-6900K (999$)
Ryzen SKU #2 8 CPU-Kerne + SMT, gemächliche Taktung SR7 "Broadwell-E" Core i7-6800K bzw. 6850K (412$ bzw. 587$)
Ryzen SKU #3 6 CPU-Kerne + SMT SR5 "Kaby Lake" Core i7-7700 bzw. 7700K (303$ bzw. 339$)
Ryzen SKU #4 4 CPU-Kerne + SMT SR3 "Kaby Lake" Core i5-7400 bis 7600K (182$ bis 242$)
Ryzen SKU #5 4 CPU-Kerne, SMT deaktiviert SR3 "Kaby Lake" Core i3-7100 bis 7350K (117$ bis 168$)
Alle Aussagen dieser Tabelle sind rein spekulativ.

Hier verbleibt natürlich noch einiger Spielraum, da weder die Taktraten der einzelnen Modelle bekannt ist, noch deren Performance sich jetzt schon mehr als nur arg grob abschätzen lassen würde. Gut möglich also, das sich bezüglich der derzeit angesetzten Intel-Kontrahenten noch einiges verschiebt. Aber AMD hat durchaus die Chance – angenommen eine entsprechend hohe Taktrate – mit dem Ryzen-Spitzenmodell einem Core i7-6900K richtig auf die Pelle zu rücken. Jener Intel-Achtkerner ist mit 3.2/3.7 GHz gemächlich genug getaktet, um den erwarteten geringen IPC-Nachteil bei Ryzen über einen etwas höheren Takt wieder ausgleichen zu können. Sollte AMD selbiges anstreben und dann sogar noch Erfolg dabei haben, dürfte jenes Ryzen-Spitzenmodell dann aber sicherlich auch einen entsprechend demonstrativen Preis bekommen.

Der Core i7-6900K kostet bei Intel immerhin 999 Dollar, sofern AMD dessen Performance erreicht, wären für das Ryzen-Spitzenmodell sicherlich auch 700 Dollar machbar. Aber vermutlich existiert genau aus diesem Grund eben auch ein zweites Achtkern-Modell bei AMD – weil das Spitzenmodell primär wegen des Showeffekts aufgelegt wird und keinen Maßstab für das normale Portfolio darstellt. Mit dem zweiten Achtkerner und den anderen Ryzen-Modellen dürfte AMD dann sicherlich eher humane Preislagen aufrufen – gerade wenn man sich ansieht, das die unteren drei Ryzen-Modelle voraussichtlich gegen Intels normale Consumer-Prozessoren gestellt werden und dort natürlich ganz andere Preise existieren als bei Intels Enthusiasten-Plattform "Broadwell-E". So gesehen ist der Hauptteil des Ryzen-Portfolios wohl eher auf Preislagen von (grob) 200 bis 400 Dollar einzuschätzen.

Kommt AMDs Ryzen-Portfolio tatsächlich in dieser Form, überrascht in jedem Fall die Aufnahme von Vierkern-Modelle gleich vom Start weg – denn damit erzeugt AMD zusätzlichen Lieferbedarf, welcher anfänglich sicherlich kaum zu bewältigen sein wird. Möglicherweise ist es aber für AMD wichtiger, auch der Breite des Marktes zu demonstrieren, das Ryzen keine abgehobene Enthusiasten-CPU für Mondpreise darstellt, sondern eben für alle Bedürfnisse und Geldbeutel verwendbar ist. Angesichts des sich abzeichnenden Ryzen-Erfolgs wäre eine echte Lieferbarkeit sowieso nicht zu erreichen – die Enthusiasten werden am Launchtag voraussichtlich alles wegkaufen, egal welche Mengen AMD liefert. Eine gewisse stockende Ryzen-Lieferbarkeit über die ersten Wochen muß man einfach einkalkulieren – aber dies war zwischen den Zeilen schließlich schon länger erkennbar gewesen.

31

Hardware- und Nachrichten-Links des 30./31. Januar 2017

Die ComputerBase vermeldet einen aktualisierten Produktkatalog von Speicherchip-Hersteller SK Hynix mit teils neu und teils verändert aufgelisteten Speichertypen – darunter auch eine Veränderung bei den HBM2-Speichern für den Grafikchip-Bereich. Dessen einzige Notierung behandelt allerdings "nur" einen 4 GByte großen HBM2-Stack mit einer Speichertaktung von 800 MHz – in früheren Produktkatalogen hatte SK Hynix auch noch ein Modell mit gleich 1000 MHz Speichertakt notiert. Auch die Verfügbarkeit verschob sich mit den verschiedenen Produktkatalogen: Früher wurde hierzu mal Q3/2016 notiert, heuer nun Q1/2017 – was wohl bedeutet, das man sich auf diese Angaben nicht wirklich verlassen kann, jene deutlich im Fluß begriffen sind. nVidia hat seine HBM2-Speicher für die GP100-basierten Profilösungen sowieso von Samsung bezogen, als einziger Abnehmer der HBM2-Speicher von SK Hynix kommt derzeit AMD in Frage. Jene werden in jedem Fall HBM2-Speicher mit den vollen 1000 MHz für den Vega-10-Chip benötigen, ansonsten ist dessen bereits bestätigte Speicherbandbreite von 512 GB/sec nicht zu halten.

Die HBM2-Speicherchips mit nur 800 MHz könnten dann aber beim kleineren Vega-11-Chip zum Einsatz kommen – denn gerade, das SK Hynix jene Speichersorte trotz arg begrenzter Abnehmerzahl explizit listet, deutet auf diese Verwendungsmöglichkeit hin. Zwei dieser Speicherstacks ergeben eine markgerechte Speicherbestückung von 8 GB, die resultierende Speicherbandbreite von 409 GB/sec passt gut zur gestellten Aufgabe einer Grafikkarte an der Grenze zwischen Midrange- und HighEnd-Segment – für welche AMD mehr Speicherbandbreite braucht als man bei Polaris 10 (maximal 256 GB/sec) derzeit hat. Sicherlich könnte AMD mit Architekturverbesserungen den Bedarf an Speicherbandbreite senken, aber dies ist eine eher unsichere Wette – und AMD will ja sowieso vermehrt in Richtung HBM-Speicher gehen, ergo sollte man bei einer knappen Entscheidung auch eher zugunsten von HBM tendieren. Sicher ist davon natürlich noch gar nichts, zur Technik der Vega-Generation gibt es leider bis dato immer noch nichts neues zu berichten, was außerhalb des Gerüchte-Status steht. Allenfalls hat AMD laut der ComputerBase den Vega-Releasetermin zuletzt noch einmal präzisiert: Von bisher "erstes Halbjahr 2017" nunmehr auf "zweites Quartal 2017" – was allerdings vorher schon genau so angenommen wurde.

Microsoft notiert in seinem Store die Systemanforderungen der von 20. bis 30. Januar gelaufenen offenen Beta zu Halo Wars 2 – welche mit der Grafikkarten-Anforderung "DirectX 12 API, Hardware Feature Level 12" eine gewisse Überraschung bereithält, wäre dies doch das erste Spiel mit der Ausnutzung des Hardware-Teils von DirectX 12. Daß dies gleich zwingend sein soll, wäre die nächste Überraschung – üblicherweise kommen zuerst Spieletitel mit Fallbacks für ältere API-Versionen in den Markt und nicht gleich Spieletitel, welche rein nur auf der neuen API-Version aufsetzen. Andererseits ist unsicher, ob diese Angabe überhaupt stimmt, denn Microsoft notiert bei den minimal abgeforderten Grafikkarten auch eine Radeon HD 7750 – welche allerdings gar kein DirectX 12 Feature-Level 12_0 unterstützt. Da zudem die Grafikkarten-Zusammenstellung für das Minimal-Level überhaupt nicht zusammenpasst (GeForce GTX 660 viel stärker als Radeon HD 7750, beide viel stärker als Intel HD Graphics 520), darf Microsoft die Zeit bis zum Spielrelease am 21. Februar 2017 gern nutzen, für die finale Spielversion dann doch bitte stimmige Systemanforderungen abzuliefern.

Ex-Bundesdatenschützer Peter Schaar mahnt bei Heise an, das EU-Kommission und nationale Datenschutzbehörden der EU-Mitgliedsstaaten die rechtlichen Grundlagen für das Fortbestehen des US/EU-Datenschutzabkommens "Privacy Shield" unverzüglich prüfen sollen, da mit einigen Entscheidungen der neuen US-Regierung Zweifel darüber beständen, das die Zielsetzung des Abkommens (eines gewissen Datenschutzes für EU-Bürger bei Datenübermittlungen in die USA) überhaupt noch erfüllt werden kann. Ob dies wirklich der Fall ist, kann in der Tat als "unsicher" betrachtet werden, denn rein offiziell hat Neu-Präsident Trump nur den "U.S. Privacy Act" für nicht-US-Bürger ausgesetzt – welcher allerdings mit dem US/EU-Abkommen "Privacy Shield" nichts zu tun hat, auch keine Untermenge o.ä. darstellt. Das eigentliche Problem ist allerdings, das jener "Privacy Shield" in den USA auch nur über eine gesetzgeberische Hängepartie durchgebracht werden konnte – mit einigen Bruchstellen, welche faktisch nur vom Wohlwollen der US-Regierung abhängen. Aus dieser Sicht heraus ist es durchaus sinnvoll, jetzt Zweifel oder aber wenigstens einen gewissen Klärungsbedarf anzumelden.

Zudem wird natürlich angesichts dieser Umstände auch offensichtlicher, das es hierbei eben nicht um ein bindendes Abkommen handelt, sondern daß diese Datenschutzvereinbarung von US-Seite her ziemlich unkompliziert ausgesetzt werden kann. Dies bringt dann wieder die alten Befürchtungen hoch, das deutsche Regulierer (im schlimmsten Fall) Datentransfers in die USA großflächig untersagt könnten, was dann auch die Idee des Cloud-Computing hart treffen würde (wie umgehend in unserem Forum diskutiert). Inzwischen gibt es allerdings noch viele andere Cloud-Anwendungszwecke als den Datenaustausch und empfiehlt es sich aus strategischer Sicht für Unternehmen & Organisationen sowieso, eher einen lokalen Cloud-Anbieter zu benutzen. Speziell für den Endanwender könnte ein generell fehlender Datenschutz für EU-Bürger in den USA aber durchaus Probleme mit sich bringen, denn die großen Diensteanbieter wie Microsoft, Google und Apple sind nun einmal US-Unternehmen. Gleichzeitig sind diese US-Unternehmen aber auch mit größeren Niederlasssungen in Europa vertreten, können daher auch mit (heftigen) Bußgeldern für Datenschutzverstöße belegt werden und würden im Fall des Falles zwischen allen Stühlen sitzen. Aus dieser Warte heraus bleibt zu hoffen, das der mit dem "Privacy Shield" erreichte Minimal-Kompromiß dann doch noch irgendwie zu retten ist.

31

Intel Geschäftsergebnisse Q4/2016: Neue Umsatzrekorde für Quartal und Gesamtjahr

Prozessorenbauer Intel hat entgegen aller schlechter Meldungen über das PC-Business mit seinen Geschäftsergebnissen für das vierte Quartal 2016 sowie das Gesamtjahr 2016 mal wieder eindrucksvolle Zahlen vorlegt, welche auch ein paar neue Rekordmarken mit sich bringen. Wie es natürlich ist, lief das vierte Jahresquartal 2016 nochmals besser als das Vorquartal, womit Intel den zuletzt aufgestellten Rekord beim Quartalsumsatz nochmals auf nunmehr 16,374 Mrd. Dollar verbessern konnte – dies sind +3,7% mehr als im Vorquartal und immerhin +9,8% mehr als im Vorjahreszeitraum. Die Gewinnentwicklung verlief dagegen eher durchschnittlich: Beim nominellen Gewinn ging es um +5,4% gegenüber dem Vorquartal hinauf, der Vergleich gegenüber dem Vorjahreszeitraum ergibt allerdings einen Rückschritt von -1,4%. Der operative Gewinn nahm um +1,4% zum Vorquartal sowie um +5,3% zum Vorjahreszeitraum zu.

Begünstigt wurde der erneute Rekordumsatz durch weiterhin glänzende Geschäfte Intels auf dem Prozessoren-Markt – sowohl jenem für Consumer als auch für professionelle Bedürfnisse. Beide dieser (zulegenden) Sparten stehen derzeit für ca. 85% des Gesamtumsatzes bei Intel – die anderen Sparten (Speicher, IoT, Security & FPGA) sind bei Intel einzeln betrachtet nach wie vor unter ferner liefen und kommen zusammengezählt nur auf 15% vom Gesamtumsatz. Das weiterhin gutgehende Prozessoren-Geschäft entspricht regulär wenig dem Bild vom allgemein darbenden PC-Markt – aber natürlich ist Intel als nahezu-Monopolist auch bestmöglich in der Lage, sich unter diesen allgemein ungünstigen Bedingungen immer noch die größten Stücken zum Kuchen zu sichern.

Q4/2015 Q1/2016 Q2/2016 Q3/2016 Q4/2016
Umsatz 14914 Mio. $ 13702 Mio. $ 13533 Mio. $ 15788 Mio. $ 16374 Mio. $
Gewinn 3613 Mio. $ 2046 Mio. $ 1330 Mio. $ 3378 Mio. $ 3562 Mio. $
operativer Gewinn 4299 Mio. $ 2568 Mio. $ 1318 Mio. $ 4462 Mio. $ 4526 Mio. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Zudem steht zu vermuten, das in diese Quartalsergebnisse teilweise schon die Kaby-Lake-Auslieferung mit hineinspielt, selbst wenn der offizielle Launch erst in diesem Januar stattfand. Aber zum einen wurden die Distributoren ganz augenscheinlich schon im Dezember breit mit entsprechenden Produkten bestückt, zum anderen konnten einige Notebook-Hersteller bereits kaufbare Produkte auf Basis von Kaby Lake noch im alten Jahr anbieten – was letztendlich einen eher fliegenden Wechsel ergibt und daher die Vermutung bestärkt, das Kaby Lake eben noch im vierten Quartal 2016 für Intel geschäftswirksam geworden ist (Intel selber erwähnte "Kaby Lake" allerdings mit keiner Silbe).

Aufgrund der durchgehend hohen Umsatzzahlen des Jahres 2016 konnte Intel dann auch einen neuen Jahresrekord aufstellen, welcher sich mit 59,4 Mrd. Dollar auch klar vom bisherigen Rekord von 55,9 Mrd. Dollar aus dem Jahr 2014 abhebt. Die Gewinnzahlen zeigen jedoch (aus rein geschäftlicher Sicht) auf ein gewisses Problem hin: Intel bewegt sich mit den 2016er Gewinnzahlen am eher unteren Ende eines Korridors, welcher bereits im Jahr 2010 definiert wurde – oder anders formuliert: Seit Jahren bewegt sich Intel beim Gewinn nicht von der Stelle, sondern geht eher leicht in die falsche Richtung. Leider sind die Intel-Ausführungen nicht spezifisch genug, um besseres als Spekulationen über die Ursache dieser Entwicklung abgegeben zu können: In jedem Fall sind Intels Nebensparten nicht daran Schuld, deren Verlustzahlen hierfür nicht ausreichend. Als mögliche Schuldige der satten 5,6 Mrd. Verlust durch "andere Aktivitäten", welche Intel für das Gesamtjahr 2016 notiert, kommen eher Nachwirkungen von Intels Übernahme von Altera im Jahr 2015 sowie die Anlaufkosten der 10nm-Fertigung in Frage.

Wie Intels Geschäftslage im Jahr 2017 aussieht, dürfte seit Jahren mal wieder eine etwas offenere Frage sein. Regulär erwartet Intel wiederum leicht steigende Umsätze, was aufgrund der einmal erarbeiteten Stellung im Prozessoren-Markt auch nicht besonders verwundern würde. Trotzdem sollten AMDs Ryzen-Prozessoren (samt der nachfolgenden Raven-Ridge-APUs) Intel durchaus Marktanteile kosten (und damit auch Umsatz), ganz folgenlos dürfte der kommende Zen-Launch sicherlich nicht sein. Da Intel zudem für dieses Jahr ein eher schwächeres CPU-Lineup anzubieten hat und die einzig interessante Coffee-Lake-Generation erst klar im Jahr 2018 steht, fehlen Intel über das Jahr gesehen auch die echten Impulse, um dieser größeren AMD-Offensive etwa eigenes entgegenzusetzen. Normalerweise bewegt sich der Gesamtmarkt üblicherweise arg träge und dürfte AMD den echten geschäftlichen Erfolg der Zen-Architektur wohl erst einige Zeit später ernten können – aber es ist nicht auszuschließen, das Intel jene Attacke auch schon dieses Jahr in seinen eigenen Geschäftszahlen sieht.

Umsatz Gewinn operativer Gewinn
2007 38,4 Mrd. $ 7,0 Mrd. $ 8,3 Mrd. $
2008 37,5 Mrd. $ 5,2 Mrd. $ 8,9 Mrd. $
2009 35,1 Mrd. $ 4,3 Mrd. $ 5,7 Mrd. $
2010 43,6 Mrd. $ 11,6 Mrd. $ 15,9 Mrd. $
2011 53,9 Mrd. $ 12,9 Mrd. $ 17,4 Mrd. $
2012 53,3 Mrd. $ 11,0 Mrd. $ 14,6 Mrd. $
2013 52,7 Mrd. $ 9,6 Mrd. $ 12,3 Mrd. $
2014 55,9 Mrd. $ 11,7 Mrd. $ 15,3 Mrd. $
2015 55,4 Mrd. $ 11,4 Mrd. $ 14,0 Mrd. $
2016 59,4 Mrd. $ 10,3 Mrd. $ 12,9 Mrd. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.
31

Performance von PCI Express 1.1, 2.0 & 3.0 sowie x4, x8 & x16 untersucht

Von TechPowerUp kommt mal wieder ein bemerkenswerter Artikel, welcher die PCI-Express-Skalierung mittels umfangreicher Benchmarks (21 Testtitel unter jeweils 3 Auflösungen) ausgemessen hat. Hierbei wurde alles von PCI Express 1.1, 2.0 und 3.0 sowie x4, x8 und x16 getestet, erreicht mittels Umschalten der PCI-Express-Modi im Mainboard-BIOS bzw. Abkleben der jeweiligen Pins am PCI-Express-Steckplatz selber. Die Benchmark-Auswertung definiert dann das höchstmögliche PCI Express 3.0 x16 mit 100%, wir geben in der nachfolgenden Tabelle dann jeweils den Verlust zu diesem Spitzenwert an (pro Auflösung). Die höhere Verluste ergeben sich dabei regelmäßig unter FullHD (oder kleineren Auflösungen), da dort die Frameraten logischerweise höher sind und damit für mehr fps auch mehr Geometrie und andere Daten über den Bus geschleust werden müssen.

Dies führt in der Praxis dazu, das sich im Extremfall einer besonders schwachen Anbindung mittels PCI Express 1.1 x4 unter FullHD schon sehr hohe Frameratenverluste von -29% (gegenüber PCI Express 3.0 x16) ergeben, während unter UltraHD dieselbe Technik-Konstellation bei einem klar geringeren Frameratenverlust von -17% herauskommt. Allerdings ist es kaum zu erwarten, das Grafikkarten, welche die UltraHD-Auflösung unter heutigen Spielen spielbar schaffen, auf so alten Mainboard eingesetzt werden. Selbst der Vergleich PCI Express 2.0 zu 3.0 dürfte heutzutage eher selten in der Praxis anzutreffen sein, da PCI Express 3.0 nun schon einigen Jahren im Markt steht (bei Intel seit Ivy Bridge in die CPU integriert). Eine vorstellbare Kombination von GeForce GTX 1080 und alter, dafür aber noch ausreichend schneller CPU wäre also ein hoch taktender Sandy-Bridge-Prozessor – wo üblicherweise ein PCI Express 2.0 x16 Steckplatz zur Verfügung steht, welcher bei nur -1% bis -2% Performanceverlust rangiert.

Wenn man hingegen wirkliche Altsysteme mit schwacher PCI-Express-Anbindung bemüht, funktioniert diese Rechnung und auch diese aufgestellten Benchmarks nicht mehr: Einen Core 2 Quad wird man sicherlich nicht mit einer GeForce GTX 1080 paaren – sondern natürlich mit einer passenderen Grafikkarte maximal aus dem Midrange-Bereich (eher kleiner). Dies ergibt logischerweise niedriger fps-Zahlen – und jene bedeuten wiederum weniger Last auf dem Bus und damit einen geringeren Performanceverlust durch die schwache PCI-Express-Anbindung. Gerade mit solcherart Alt-CPUs dürfte man viel eher an der Leistungsfähigkeit der CPU hängen als denn an der PCI-Express-Bandbreite. Heutzutage dürfte die PCI-Express-Bandbreite also kaum irgendwo als in der Praxis anzutreffendes Limit auftreten, trotz der teilweise hohen mit einer Spitzen-Grafikkarte wie der GeForce GTX 1080 demonstrierbaren Unterschiede.

PCI Express 1.1 PCI Express 2.0 PCI Express 3.0 PCIe 3.0 x4 via Chipsatz
FullHD x4 -29% -13% -4% -8%
x8 -13% -4% -0%
x16 -6% -1% 100%
WQHD x4 -24% -11% -4% -7%
x8 -11% -4% -0%
x16 -5% -2% 100%
UltraHD x4 -17% -8% -3% -5%
x8 -7% -2% -0%
x16 -3% -1% 100%

Zuzüglich den normalen Tests haben TechPowerUp noch einen extra Test mittels eines speziellen PCI Express 3.0 Steckplatzes aufgelegt, welcher physikalisch als x16 und elektrisch aber nur als 4x ausgeführt wurde. Dies entspricht nominell der Abklebe-Aktion, der Unterschied lag hier jedoch darin, das jener spezielle PCI-Express-Steckplatz über den Mainboard-Chipsatz angebunden war, demzufolge erst noch über das DMI-Interface zur Intel-CPU weitergeleitet werden musste. Die Bandbreite ist nominell dieselbe, aber hier treten natürlich Reibungsverluste auf, welche sich auch deutlich an den Benchmark-Werten zeigen: Der Performance-Verlust ist nahezu doppelt so hoch wie bei einem direkt an die CPU angebundenen PCI-Expres-Steckplatz.

Dies ist für zwei Dinge interessant: Erstens einmal lag hier immer ein kleiner Nachteil von AMDs Bulldozer-CPUs, welche noch über kein in die CPU selber integriertes PCI-Express-Interface verfügen (im Gegensatz zu den kommenden Ryzen-CPUs). Und zweitens deutet es an, das indirekte Verbindungen generell Performance kosten – was eine Erklärung dafür sein dürfte, wieso per Thunderbolt angebundene externe Grafik derart viel an Performance verliert, obwohl die dafür benutzte Bandbreite PCI Express 3.0 x4 entspricht (und damit gutklassig ist). Im Fall von Thunderbolt geht das ganze schließlich über gleich zwei Zwischenstationen auf die Reise: Vom PCI-Express-Interface der CPU zuerst zum Mainboard-Chipsatz, dort wird jenes PCI-Express-Signal auf Thunderbolt gepackt, nachfolgend im externen Gehäuse dann wieder entpackt und dem PCI-Express-Interface der Grafikkarte weitergegeben. Dies ist dann schon ein deutlicher Unterschied zum direkten Weg zwischen den PCI-Express-Interfaces nur von der CPU und der Grafikkarte.

Derzeit ist das ganze natürlich nur eine These, da schlicht noch zu wenige Benchmarks zum Fall externer Grafik vorliegen – interessant wäre hierbei insbesondere der Vergleich mittels eines MSI GS30 Notebooks, welches einen PCI Express x16 Stecker direkt nach außen führt (und sich damit wenigstens den Umweg über Thunderbolt spart). Aber für den Augenblick sieht es nicht besonders rosig für externe Grafik speziell unter dem Gesichtspunkt von HighEnd-Performance aus: Da die Thunderbolt-Konstruktion derartig viel an Performance kostet, sind Laptops mit integrierter Notebook-Grafiklösung seit nVidias Pascal-Generation tatsächlich sogar schneller. Und einen Preisvorteil haben die vielen angebotenen externen Gehäuse bislang auch nicht herausarbeiten können, dafür sind jene mit Preislagen zwischen 300-1000 Euro generell zu teuer angesetzt.

29

Hardware- und Nachrichten-Links des 28./29. Januar 2017

Zur Untermauerung der kürzlichen Meldung über das Ende der Ära der 28nm-Grafikkarten sei nachfolgendes Diagramm dargereicht, welches den ganzen Sachverhalt plastischer darstellt. Eingezeichnet wurden alle 14/16nm-Grafikkarten als blaue Markierungen, alle 28nm-Grafikkarten als goldene Markierungen – mit dem aktuellen Straßenpreis als der horizontalen X-Achse und dem 3DCenter FullHD Performance-Index als der vertikalen X-Achse. Je höher eine Grafikkarte innerhalb derselben Positionierung auf der X-Achse steht, um so besser ist also deren Performance/Preis-Verhältnis. Die Werte-Verteilung zwischen beiden Grafikkarten-Gruppen sowie die beiden jeweiligen Mittelwertskurven zeigen es dann sehr deutlich an: Die 14/16nm-Grafikkarten haben ein grundsätzlich besseres Preis/Leistungs-Verhältnis erreicht. Zwar liegen die 28nm-Grafikkarten nicht weit weg vom Schuß, in manchen Fällen kommen einzelne 28nm-Exemplare auch vergleichsweise nahe an die Kurve der 14/16nm-Modelle heran (Radeon R9 Fury), aber die generelle Differenz wäre damit klar belegt.

Und dies ist vor allem auch ein gravierende Unterschied zur Situation im Sommer 2016, als die 14/16nm-Grafikkarten anfänglich mit (gegenüber heute) höheren Preisen in den Markt gingen, auch teilweise gute Abverkaufsangebote zu den 28nm-Grafikkarten existierten – und somit die Performance/Preis-Verhältnisse im August 2016 keinerlei besonderen Unterschiede zwischen beiden Grafikkarten-Gruppen aufzeigten. Seinerzeit wurden die 14/16nm-Grafikkarten eher wegen neuer Performance-Höhen, besserer Energieeffizienz oder auch des Mehrspeichers empfohlen, nicht aber wegen eines verbesserten Preis/Leistungs-Verhältnisses – diesen Vorteil haben die 14/16nm-Grafikkarten eben erst jetzt erreicht. Im Gegenzug verwundert es etwas, das AMD und nVidia ihre letzten 28nm-Grafikkarten nicht aggressiver aus dem Markt herausgedrückt haben, sprich Abverkaufsaktionen mit echtem Preisvorteil aufgelegt haben (die bisherigen Abverkaufspreise zu 28nm-Modellen ergaben nur ähnliche, aber nicht bessere Preis/Leistungs-Verhältnisse). Dies sah bei früheren Grafikkarten-Generationen noch ganz anders aus, hier konnte man sich bei deren Auslaufen regelmäßig auf Abverkaufsaktionen mit echten Knallerpreisen freuen.

Beim Auslaufen der 28nm-Generation scheint dies nun nicht mehr zu passieren, denn die dokumentierten Verfügbarkeiten sind inzwischen schon schlecht genug, sprich es dürfte kaum noch größere Mengen an abzuverkaufenden 28nm-Grafikchips und 28nm-Grafikkarten geben. Möglicherweise haben AMD und nVidia hierbei im Vorfeld der 14/16nm-Generation auch einfach sorgsamer kalkuliert und es somit zu keinen zu großen Lagerbeständen an "Altware" kommen lassen. Abgesehen von der Radeon R9 Fury gibt es in jedem Fall derzeit keine 28nm-Grafikkarte, welche noch eine nähere Betrachtung wert wäre – und selbst bei dieser Fiji-basierten AMD-Karte gilt letztendlich, das jene für die 7% Mehrperformance zur GeForce GTX 1060 6GB auch gleich wieder ~18% mehr kostet, ergo nicht wirklich preiseffizient ist (von der massiv zurückhängenden Energieeffizienz und den nur 4 GB Speicher ganz abgesehen). Schade ist allerhöchstens, das es keine explizite Abverkaufsaktion zur Radeon R9 Nano gab – für jene Karte gab es immer ein gutes Interesse, aber meistens war der Preispunkt der Karte zu hoch angesetzt, um aus jener einen richtigen Verkaufserfolg zu machen.

Im Vergleich der Mainboard-Chipsätze zwischen Intels Kaby Lake und AMDs Ryzen kommt es öfters einmal zur Fehleinschätzung, Intel wäre hierbei überlegen – primär wegen der viel höheren Anzahl der von Intel gebotenen PCI Express Lanes seitens des Chipsatzes selber (bis zu 24). Hierbei wird allerdings vergessen, das jene sicherlich vielen PCI Express Lanes allesamt nur durch ein DMI 3.0 Interface in Richtung CPU angebunden sind, sich um die (begrenzte) Bandbreite dieses Interfaces also streiten müssen. Jene ist mit 7,9 GB/sec (Hin- und Rückrichtung zusammengezählt) gar nicht einmal so großartig, dies ist vergleichsweise ein PCI Express 3.0 Interface mit nur 4 Lanes. AMDs Mainboard-Chipsätze sind zwar auch nicht anders angebunden, aber da AMD schon einen Mini-Chipsatz in der Sockel-AM4-CPU selber hat, geht man in dieser Frage klar in Führung: Neben der Grafikkarte stehen bei Ryzen noch 8 weitere PCI Express 3.0 Lanes für die CPU-eigene Anbindung von SATA, NVMe und USB 3.0 zur Verfügung – während sich bei Intels Consumer-CPUs wirklich alles durch deren DMI-Interface drängeln muß.

Gut läßt sich dies anhand einiger Schaubilder zu den einzelnen Mainboard-Chipsätzen von AMD und Intel nachvollziehen, welche (u.a.) in unserem Forum bereitstehen. Die Peripherie-Anbindung bei AMD ist somit im eigentlichen sogar breitvolumiger gelöst, die direkte Anbindung einiger Komponenten direkt an die CPU sollte zudem auch noch für etwas bessere Latenzen sorgen. Im normalen Consumer-PCs macht dies sicherlich keinerlei Unterschied, aber bei mit Peripherie vollgepackten Rechnern echter Power-User könnte AMDs Anbindungs-Konzept sogar für regelrechte Performance-Vorteile sorgen (hat zumindest in jedem Fall deutlich höhere Limits). Daß Intel hier und da vielleicht einen NVMe- oder SATA-Port mehr als AMD in den Mainboard-Chipsätzen bietet, können die Mainboard-Hersteller sowieso durch Zugabe von extra Kontroller-Chips bei ihren HighEnd-Boards ausgleichen – während an der grundsätzlichen Anbindung an die CPU selber natürlich nichts mehr zu drehen ist, hierbei liegt AMDs Ryzen glasklar vorn.

Inhalt abgleichen