31

Hardware- und Nachrichten-Links des 30./31. Januar 2017

Die ComputerBase vermeldet einen aktualisierten Produktkatalog von Speicherchip-Hersteller SK Hynix mit teils neu und teils verändert aufgelisteten Speichertypen – darunter auch eine Veränderung bei den HBM2-Speichern für den Grafikchip-Bereich. Dessen einzige Notierung behandelt allerdings "nur" einen 4 GByte großen HBM2-Stack mit einer Speichertaktung von 800 MHz – in früheren Produktkatalogen hatte SK Hynix auch noch ein Modell mit gleich 1000 MHz Speichertakt notiert. Auch die Verfügbarkeit verschob sich mit den verschiedenen Produktkatalogen: Früher wurde hierzu mal Q3/2016 notiert, heuer nun Q1/2017 – was wohl bedeutet, das man sich auf diese Angaben nicht wirklich verlassen kann, jene deutlich im Fluß begriffen sind. nVidia hat seine HBM2-Speicher für die GP100-basierten Profilösungen sowieso von Samsung bezogen, als einziger Abnehmer der HBM2-Speicher von SK Hynix kommt derzeit AMD in Frage. Jene werden in jedem Fall HBM2-Speicher mit den vollen 1000 MHz für den Vega-10-Chip benötigen, ansonsten ist dessen bereits bestätigte Speicherbandbreite von 512 GB/sec nicht zu halten.

Die HBM2-Speicherchips mit nur 800 MHz könnten dann aber beim kleineren Vega-11-Chip zum Einsatz kommen – denn gerade, das SK Hynix jene Speichersorte trotz arg begrenzter Abnehmerzahl explizit listet, deutet auf diese Verwendungsmöglichkeit hin. Zwei dieser Speicherstacks ergeben eine markgerechte Speicherbestückung von 8 GB, die resultierende Speicherbandbreite von 409 GB/sec passt gut zur gestellten Aufgabe einer Grafikkarte an der Grenze zwischen Midrange- und HighEnd-Segment – für welche AMD mehr Speicherbandbreite braucht als man bei Polaris 10 (maximal 256 GB/sec) derzeit hat. Sicherlich könnte AMD mit Architekturverbesserungen den Bedarf an Speicherbandbreite senken, aber dies ist eine eher unsichere Wette – und AMD will ja sowieso vermehrt in Richtung HBM-Speicher gehen, ergo sollte man bei einer knappen Entscheidung auch eher zugunsten von HBM tendieren. Sicher ist davon natürlich noch gar nichts, zur Technik der Vega-Generation gibt es leider bis dato immer noch nichts neues zu berichten, was außerhalb des Gerüchte-Status steht. Allenfalls hat AMD laut der ComputerBase den Vega-Releasetermin zuletzt noch einmal präzisiert: Von bisher "erstes Halbjahr 2017" nunmehr auf "zweites Quartal 2017" – was allerdings vorher schon genau so angenommen wurde.

Microsoft notiert in seinem Store die Systemanforderungen der von 20. bis 30. Januar gelaufenen offenen Beta zu Halo Wars 2 – welche mit der Grafikkarten-Anforderung "DirectX 12 API, Hardware Feature Level 12" eine gewisse Überraschung bereithält, wäre dies doch das erste Spiel mit der Ausnutzung des Hardware-Teils von DirectX 12. Daß dies gleich zwingend sein soll, wäre die nächste Überraschung – üblicherweise kommen zuerst Spieletitel mit Fallbacks für ältere API-Versionen in den Markt und nicht gleich Spieletitel, welche rein nur auf der neuen API-Version aufsetzen. Andererseits ist unsicher, ob diese Angabe überhaupt stimmt, denn Microsoft notiert bei den minimal abgeforderten Grafikkarten auch eine Radeon HD 7750 – welche allerdings gar kein DirectX 12 Feature-Level 12_0 unterstützt. Da zudem die Grafikkarten-Zusammenstellung für das Minimal-Level überhaupt nicht zusammenpasst (GeForce GTX 660 viel stärker als Radeon HD 7750, beide viel stärker als Intel HD Graphics 520), darf Microsoft die Zeit bis zum Spielrelease am 21. Februar 2017 gern nutzen, für die finale Spielversion dann doch bitte stimmige Systemanforderungen abzuliefern.

Ex-Bundesdatenschützer Peter Schaar mahnt bei Heise an, das EU-Kommission und nationale Datenschutzbehörden der EU-Mitgliedsstaaten die rechtlichen Grundlagen für das Fortbestehen des US/EU-Datenschutzabkommens "Privacy Shield" unverzüglich prüfen sollen, da mit einigen Entscheidungen der neuen US-Regierung Zweifel darüber beständen, das die Zielsetzung des Abkommens (eines gewissen Datenschutzes für EU-Bürger bei Datenübermittlungen in die USA) überhaupt noch erfüllt werden kann. Ob dies wirklich der Fall ist, kann in der Tat als "unsicher" betrachtet werden, denn rein offiziell hat Neu-Präsident Trump nur den "U.S. Privacy Act" für nicht-US-Bürger ausgesetzt – welcher allerdings mit dem US/EU-Abkommen "Privacy Shield" nichts zu tun hat, auch keine Untermenge o.ä. darstellt. Das eigentliche Problem ist allerdings, das jener "Privacy Shield" in den USA auch nur über eine gesetzgeberische Hängepartie durchgebracht werden konnte – mit einigen Bruchstellen, welche faktisch nur vom Wohlwollen der US-Regierung abhängen. Aus dieser Sicht heraus ist es durchaus sinnvoll, jetzt Zweifel oder aber wenigstens einen gewissen Klärungsbedarf anzumelden.

Zudem wird natürlich angesichts dieser Umstände auch offensichtlicher, das es hierbei eben nicht um ein bindendes Abkommen handelt, sondern daß diese Datenschutzvereinbarung von US-Seite her ziemlich unkompliziert ausgesetzt werden kann. Dies bringt dann wieder die alten Befürchtungen hoch, das deutsche Regulierer (im schlimmsten Fall) Datentransfers in die USA großflächig untersagt könnten, was dann auch die Idee des Cloud-Computing hart treffen würde (wie umgehend in unserem Forum diskutiert). Inzwischen gibt es allerdings noch viele andere Cloud-Anwendungszwecke als den Datenaustausch und empfiehlt es sich aus strategischer Sicht für Unternehmen & Organisationen sowieso, eher einen lokalen Cloud-Anbieter zu benutzen. Speziell für den Endanwender könnte ein generell fehlender Datenschutz für EU-Bürger in den USA aber durchaus Probleme mit sich bringen, denn die großen Diensteanbieter wie Microsoft, Google und Apple sind nun einmal US-Unternehmen. Gleichzeitig sind diese US-Unternehmen aber auch mit größeren Niederlasssungen in Europa vertreten, können daher auch mit (heftigen) Bußgeldern für Datenschutzverstöße belegt werden und würden im Fall des Falles zwischen allen Stühlen sitzen. Aus dieser Warte heraus bleibt zu hoffen, das der mit dem "Privacy Shield" erreichte Minimal-Kompromiß dann doch noch irgendwie zu retten ist.

31

Intel Geschäftsergebnisse Q4/2016: Neue Umsatzrekorde für Quartal und Gesamtjahr

Prozessorenbauer Intel hat entgegen aller schlechter Meldungen über das PC-Business mit seinen Geschäftsergebnissen für das vierte Quartal 2016 sowie das Gesamtjahr 2016 mal wieder eindrucksvolle Zahlen vorlegt, welche auch ein paar neue Rekordmarken mit sich bringen. Wie es natürlich ist, lief das vierte Jahresquartal 2016 nochmals besser als das Vorquartal, womit Intel den zuletzt aufgestellten Rekord beim Quartalsumsatz nochmals auf nunmehr 16,374 Mrd. Dollar verbessern konnte – dies sind +3,7% mehr als im Vorquartal und immerhin +9,8% mehr als im Vorjahreszeitraum. Die Gewinnentwicklung verlief dagegen eher durchschnittlich: Beim nominellen Gewinn ging es um +5,4% gegenüber dem Vorquartal hinauf, der Vergleich gegenüber dem Vorjahreszeitraum ergibt allerdings einen Rückschritt von -1,4%. Der operative Gewinn nahm um +1,4% zum Vorquartal sowie um +5,3% zum Vorjahreszeitraum zu.

Begünstigt wurde der erneute Rekordumsatz durch weiterhin glänzende Geschäfte Intels auf dem Prozessoren-Markt – sowohl jenem für Consumer als auch für professionelle Bedürfnisse. Beide dieser (zulegenden) Sparten stehen derzeit für ca. 85% des Gesamtumsatzes bei Intel – die anderen Sparten (Speicher, IoT, Security & FPGA) sind bei Intel einzeln betrachtet nach wie vor unter ferner liefen und kommen zusammengezählt nur auf 15% vom Gesamtumsatz. Das weiterhin gutgehende Prozessoren-Geschäft entspricht regulär wenig dem Bild vom allgemein darbenden PC-Markt – aber natürlich ist Intel als nahezu-Monopolist auch bestmöglich in der Lage, sich unter diesen allgemein ungünstigen Bedingungen immer noch die größten Stücken zum Kuchen zu sichern.

Q4/2015 Q1/2016 Q2/2016 Q3/2016 Q4/2016
Umsatz 14914 Mio. $ 13702 Mio. $ 13533 Mio. $ 15788 Mio. $ 16374 Mio. $
Gewinn 3613 Mio. $ 2046 Mio. $ 1330 Mio. $ 3378 Mio. $ 3562 Mio. $
operativer Gewinn 4299 Mio. $ 2568 Mio. $ 1318 Mio. $ 4462 Mio. $ 4526 Mio. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Zudem steht zu vermuten, das in diese Quartalsergebnisse teilweise schon die Kaby-Lake-Auslieferung mit hineinspielt, selbst wenn der offizielle Launch erst in diesem Januar stattfand. Aber zum einen wurden die Distributoren ganz augenscheinlich schon im Dezember breit mit entsprechenden Produkten bestückt, zum anderen konnten einige Notebook-Hersteller bereits kaufbare Produkte auf Basis von Kaby Lake noch im alten Jahr anbieten – was letztendlich einen eher fliegenden Wechsel ergibt und daher die Vermutung bestärkt, das Kaby Lake eben noch im vierten Quartal 2016 für Intel geschäftswirksam geworden ist (Intel selber erwähnte "Kaby Lake" allerdings mit keiner Silbe).

Aufgrund der durchgehend hohen Umsatzzahlen des Jahres 2016 konnte Intel dann auch einen neuen Jahresrekord aufstellen, welcher sich mit 59,4 Mrd. Dollar auch klar vom bisherigen Rekord von 55,9 Mrd. Dollar aus dem Jahr 2014 abhebt. Die Gewinnzahlen zeigen jedoch (aus rein geschäftlicher Sicht) auf ein gewisses Problem hin: Intel bewegt sich mit den 2016er Gewinnzahlen am eher unteren Ende eines Korridors, welcher bereits im Jahr 2010 definiert wurde – oder anders formuliert: Seit Jahren bewegt sich Intel beim Gewinn nicht von der Stelle, sondern geht eher leicht in die falsche Richtung. Leider sind die Intel-Ausführungen nicht spezifisch genug, um besseres als Spekulationen über die Ursache dieser Entwicklung abgegeben zu können: In jedem Fall sind Intels Nebensparten nicht daran Schuld, deren Verlustzahlen hierfür nicht ausreichend. Als mögliche Schuldige der satten 5,6 Mrd. Verlust durch "andere Aktivitäten", welche Intel für das Gesamtjahr 2016 notiert, kommen eher Nachwirkungen von Intels Übernahme von Altera im Jahr 2015 sowie die Anlaufkosten der 10nm-Fertigung in Frage.

Wie Intels Geschäftslage im Jahr 2017 aussieht, dürfte seit Jahren mal wieder eine etwas offenere Frage sein. Regulär erwartet Intel wiederum leicht steigende Umsätze, was aufgrund der einmal erarbeiteten Stellung im Prozessoren-Markt auch nicht besonders verwundern würde. Trotzdem sollten AMDs Ryzen-Prozessoren (samt der nachfolgenden Raven-Ridge-APUs) Intel durchaus Marktanteile kosten (und damit auch Umsatz), ganz folgenlos dürfte der kommende Zen-Launch sicherlich nicht sein. Da Intel zudem für dieses Jahr ein eher schwächeres CPU-Lineup anzubieten hat und die einzig interessante Coffee-Lake-Generation erst klar im Jahr 2018 steht, fehlen Intel über das Jahr gesehen auch die echten Impulse, um dieser größeren AMD-Offensive etwa eigenes entgegenzusetzen. Normalerweise bewegt sich der Gesamtmarkt üblicherweise arg träge und dürfte AMD den echten geschäftlichen Erfolg der Zen-Architektur wohl erst einige Zeit später ernten können – aber es ist nicht auszuschließen, das Intel jene Attacke auch schon dieses Jahr in seinen eigenen Geschäftszahlen sieht.

Umsatz Gewinn operativer Gewinn
2007 38,4 Mrd. $ 7,0 Mrd. $ 8,3 Mrd. $
2008 37,5 Mrd. $ 5,2 Mrd. $ 8,9 Mrd. $
2009 35,1 Mrd. $ 4,3 Mrd. $ 5,7 Mrd. $
2010 43,6 Mrd. $ 11,6 Mrd. $ 15,9 Mrd. $
2011 53,9 Mrd. $ 12,9 Mrd. $ 17,4 Mrd. $
2012 53,3 Mrd. $ 11,0 Mrd. $ 14,6 Mrd. $
2013 52,7 Mrd. $ 9,6 Mrd. $ 12,3 Mrd. $
2014 55,9 Mrd. $ 11,7 Mrd. $ 15,3 Mrd. $
2015 55,4 Mrd. $ 11,4 Mrd. $ 14,0 Mrd. $
2016 59,4 Mrd. $ 10,3 Mrd. $ 12,9 Mrd. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.
31

Performance von PCI Express 1.1, 2.0 & 3.0 sowie x4, x8 & x16 untersucht

Von TechPowerUp kommt mal wieder ein bemerkenswerter Artikel, welcher die PCI-Express-Skalierung mittels umfangreicher Benchmarks (21 Testtitel unter jeweils 3 Auflösungen) ausgemessen hat. Hierbei wurde alles von PCI Express 1.1, 2.0 und 3.0 sowie x4, x8 und x16 getestet, erreicht mittels Umschalten der PCI-Express-Modi im Mainboard-BIOS bzw. Abkleben der jeweiligen Pins am PCI-Express-Steckplatz selber. Die Benchmark-Auswertung definiert dann das höchstmögliche PCI Express 3.0 x16 mit 100%, wir geben in der nachfolgenden Tabelle dann jeweils den Verlust zu diesem Spitzenwert an (pro Auflösung). Die höhere Verluste ergeben sich dabei regelmäßig unter FullHD (oder kleineren Auflösungen), da dort die Frameraten logischerweise höher sind und damit für mehr fps auch mehr Geometrie und andere Daten über den Bus geschleust werden müssen.

Dies führt in der Praxis dazu, das sich im Extremfall einer besonders schwachen Anbindung mittels PCI Express 1.1 x4 unter FullHD schon sehr hohe Frameratenverluste von -29% (gegenüber PCI Express 3.0 x16) ergeben, während unter UltraHD dieselbe Technik-Konstellation bei einem klar geringeren Frameratenverlust von -17% herauskommt. Allerdings ist es kaum zu erwarten, das Grafikkarten, welche die UltraHD-Auflösung unter heutigen Spielen spielbar schaffen, auf so alten Mainboard eingesetzt werden. Selbst der Vergleich PCI Express 2.0 zu 3.0 dürfte heutzutage eher selten in der Praxis anzutreffen sein, da PCI Express 3.0 nun schon einigen Jahren im Markt steht (bei Intel seit Ivy Bridge in die CPU integriert). Eine vorstellbare Kombination von GeForce GTX 1080 und alter, dafür aber noch ausreichend schneller CPU wäre also ein hoch taktender Sandy-Bridge-Prozessor – wo üblicherweise ein PCI Express 2.0 x16 Steckplatz zur Verfügung steht, welcher bei nur -1% bis -2% Performanceverlust rangiert.

Wenn man hingegen wirkliche Altsysteme mit schwacher PCI-Express-Anbindung bemüht, funktioniert diese Rechnung und auch diese aufgestellten Benchmarks nicht mehr: Einen Core 2 Quad wird man sicherlich nicht mit einer GeForce GTX 1080 paaren – sondern natürlich mit einer passenderen Grafikkarte maximal aus dem Midrange-Bereich (eher kleiner). Dies ergibt logischerweise niedriger fps-Zahlen – und jene bedeuten wiederum weniger Last auf dem Bus und damit einen geringeren Performanceverlust durch die schwache PCI-Express-Anbindung. Gerade mit solcherart Alt-CPUs dürfte man viel eher an der Leistungsfähigkeit der CPU hängen als denn an der PCI-Express-Bandbreite. Heutzutage dürfte die PCI-Express-Bandbreite also kaum irgendwo als in der Praxis anzutreffendes Limit auftreten, trotz der teilweise hohen mit einer Spitzen-Grafikkarte wie der GeForce GTX 1080 demonstrierbaren Unterschiede.

PCI Express 1.1 PCI Express 2.0 PCI Express 3.0 PCIe 3.0 x4 via Chipsatz
FullHD x4 -29% -13% -4% -8%
x8 -13% -4% -0%
x16 -6% -1% 100%
WQHD x4 -24% -11% -4% -7%
x8 -11% -4% -0%
x16 -5% -2% 100%
UltraHD x4 -17% -8% -3% -5%
x8 -7% -2% -0%
x16 -3% -1% 100%

Zuzüglich den normalen Tests haben TechPowerUp noch einen extra Test mittels eines speziellen PCI Express 3.0 Steckplatzes aufgelegt, welcher physikalisch als x16 und elektrisch aber nur als 4x ausgeführt wurde. Dies entspricht nominell der Abklebe-Aktion, der Unterschied lag hier jedoch darin, das jener spezielle PCI-Express-Steckplatz über den Mainboard-Chipsatz angebunden war, demzufolge erst noch über das DMI-Interface zur Intel-CPU weitergeleitet werden musste. Die Bandbreite ist nominell dieselbe, aber hier treten natürlich Reibungsverluste auf, welche sich auch deutlich an den Benchmark-Werten zeigen: Der Performance-Verlust ist nahezu doppelt so hoch wie bei einem direkt an die CPU angebundenen PCI-Expres-Steckplatz.

Dies ist für zwei Dinge interessant: Erstens einmal lag hier immer ein kleiner Nachteil von AMDs Bulldozer-CPUs, welche noch über kein in die CPU selber integriertes PCI-Express-Interface verfügen (im Gegensatz zu den kommenden Ryzen-CPUs). Und zweitens deutet es an, das indirekte Verbindungen generell Performance kosten – was eine Erklärung dafür sein dürfte, wieso per Thunderbolt angebundene externe Grafik derart viel an Performance verliert, obwohl die dafür benutzte Bandbreite PCI Express 3.0 x4 entspricht (und damit gutklassig ist). Im Fall von Thunderbolt geht das ganze schließlich über gleich zwei Zwischenstationen auf die Reise: Vom PCI-Express-Interface der CPU zuerst zum Mainboard-Chipsatz, dort wird jenes PCI-Express-Signal auf Thunderbolt gepackt, nachfolgend im externen Gehäuse dann wieder entpackt und dem PCI-Express-Interface der Grafikkarte weitergegeben. Dies ist dann schon ein deutlicher Unterschied zum direkten Weg zwischen den PCI-Express-Interfaces nur von der CPU und der Grafikkarte.

Derzeit ist das ganze natürlich nur eine These, da schlicht noch zu wenige Benchmarks zum Fall externer Grafik vorliegen – interessant wäre hierbei insbesondere der Vergleich mittels eines MSI GS30 Notebooks, welches einen PCI Express x16 Stecker direkt nach außen führt (und sich damit wenigstens den Umweg über Thunderbolt spart). Aber für den Augenblick sieht es nicht besonders rosig für externe Grafik speziell unter dem Gesichtspunkt von HighEnd-Performance aus: Da die Thunderbolt-Konstruktion derartig viel an Performance kostet, sind Laptops mit integrierter Notebook-Grafiklösung seit nVidias Pascal-Generation tatsächlich sogar schneller. Und einen Preisvorteil haben die vielen angebotenen externen Gehäuse bislang auch nicht herausarbeiten können, dafür sind jene mit Preislagen zwischen 300-1000 Euro generell zu teuer angesetzt.

29

Hardware- und Nachrichten-Links des 28./29. Januar 2017

Zur Untermauerung der kürzlichen Meldung über das Ende der Ära der 28nm-Grafikkarten sei nachfolgendes Diagramm dargereicht, welches den ganzen Sachverhalt plastischer darstellt. Eingezeichnet wurden alle 14/16nm-Grafikkarten als blaue Markierungen, alle 28nm-Grafikkarten als goldene Markierungen – mit dem aktuellen Straßenpreis als der horizontalen X-Achse und dem 3DCenter FullHD Performance-Index als der vertikalen X-Achse. Je höher eine Grafikkarte innerhalb derselben Positionierung auf der X-Achse steht, um so besser ist also deren Performance/Preis-Verhältnis. Die Werte-Verteilung zwischen beiden Grafikkarten-Gruppen sowie die beiden jeweiligen Mittelwertskurven zeigen es dann sehr deutlich an: Die 14/16nm-Grafikkarten haben ein grundsätzlich besseres Preis/Leistungs-Verhältnis erreicht. Zwar liegen die 28nm-Grafikkarten nicht weit weg vom Schuß, in manchen Fällen kommen einzelne 28nm-Exemplare auch vergleichsweise nahe an die Kurve der 14/16nm-Modelle heran (Radeon R9 Fury), aber die generelle Differenz wäre damit klar belegt.

Und dies ist vor allem auch ein gravierende Unterschied zur Situation im Sommer 2016, als die 14/16nm-Grafikkarten anfänglich mit (gegenüber heute) höheren Preisen in den Markt gingen, auch teilweise gute Abverkaufsangebote zu den 28nm-Grafikkarten existierten – und somit die Performance/Preis-Verhältnisse im August 2016 keinerlei besonderen Unterschiede zwischen beiden Grafikkarten-Gruppen aufzeigten. Seinerzeit wurden die 14/16nm-Grafikkarten eher wegen neuer Performance-Höhen, besserer Energieeffizienz oder auch des Mehrspeichers empfohlen, nicht aber wegen eines verbesserten Preis/Leistungs-Verhältnisses – diesen Vorteil haben die 14/16nm-Grafikkarten eben erst jetzt erreicht. Im Gegenzug verwundert es etwas, das AMD und nVidia ihre letzten 28nm-Grafikkarten nicht aggressiver aus dem Markt herausgedrückt haben, sprich Abverkaufsaktionen mit echtem Preisvorteil aufgelegt haben (die bisherigen Abverkaufspreise zu 28nm-Modellen ergaben nur ähnliche, aber nicht bessere Preis/Leistungs-Verhältnisse). Dies sah bei früheren Grafikkarten-Generationen noch ganz anders aus, hier konnte man sich bei deren Auslaufen regelmäßig auf Abverkaufsaktionen mit echten Knallerpreisen freuen.

Beim Auslaufen der 28nm-Generation scheint dies nun nicht mehr zu passieren, denn die dokumentierten Verfügbarkeiten sind inzwischen schon schlecht genug, sprich es dürfte kaum noch größere Mengen an abzuverkaufenden 28nm-Grafikchips und 28nm-Grafikkarten geben. Möglicherweise haben AMD und nVidia hierbei im Vorfeld der 14/16nm-Generation auch einfach sorgsamer kalkuliert und es somit zu keinen zu großen Lagerbeständen an "Altware" kommen lassen. Abgesehen von der Radeon R9 Fury gibt es in jedem Fall derzeit keine 28nm-Grafikkarte, welche noch eine nähere Betrachtung wert wäre – und selbst bei dieser Fiji-basierten AMD-Karte gilt letztendlich, das jene für die 7% Mehrperformance zur GeForce GTX 1060 6GB auch gleich wieder ~18% mehr kostet, ergo nicht wirklich preiseffizient ist (von der massiv zurückhängenden Energieeffizienz und den nur 4 GB Speicher ganz abgesehen). Schade ist allerhöchstens, das es keine explizite Abverkaufsaktion zur Radeon R9 Nano gab – für jene Karte gab es immer ein gutes Interesse, aber meistens war der Preispunkt der Karte zu hoch angesetzt, um aus jener einen richtigen Verkaufserfolg zu machen.

Im Vergleich der Mainboard-Chipsätze zwischen Intels Kaby Lake und AMDs Ryzen kommt es öfters einmal zur Fehleinschätzung, Intel wäre hierbei überlegen – primär wegen der viel höheren Anzahl der von Intel gebotenen PCI Express Lanes seitens des Chipsatzes selber (bis zu 24). Hierbei wird allerdings vergessen, das jene sicherlich vielen PCI Express Lanes allesamt nur durch ein DMI 3.0 Interface in Richtung CPU angebunden sind, sich um die (begrenzte) Bandbreite dieses Interfaces also streiten müssen. Jene ist mit 7,9 GB/sec (Hin- und Rückrichtung zusammengezählt) gar nicht einmal so großartig, dies ist vergleichsweise ein PCI Express 3.0 Interface mit nur 4 Lanes. AMDs Mainboard-Chipsätze sind zwar auch nicht anders angebunden, aber da AMD schon einen Mini-Chipsatz in der Sockel-AM4-CPU selber hat, geht man in dieser Frage klar in Führung: Neben der Grafikkarte stehen bei Ryzen noch 8 weitere PCI Express 3.0 Lanes für die CPU-eigene Anbindung von SATA, NVMe und USB 3.0 zur Verfügung – während sich bei Intels Consumer-CPUs wirklich alles durch deren DMI-Interface drängeln muß.

Gut läßt sich dies anhand einiger Schaubilder zu den einzelnen Mainboard-Chipsätzen von AMD und Intel nachvollziehen, welche (u.a.) in unserem Forum bereitstehen. Die Peripherie-Anbindung bei AMD ist somit im eigentlichen sogar breitvolumiger gelöst, die direkte Anbindung einiger Komponenten direkt an die CPU sollte zudem auch noch für etwas bessere Latenzen sorgen. Im normalen Consumer-PCs macht dies sicherlich keinerlei Unterschied, aber bei mit Peripherie vollgepackten Rechnern echter Power-User könnte AMDs Anbindungs-Konzept sogar für regelrechte Performance-Vorteile sorgen (hat zumindest in jedem Fall deutlich höhere Limits). Daß Intel hier und da vielleicht einen NVMe- oder SATA-Port mehr als AMD in den Mainboard-Chipsätzen bietet, können die Mainboard-Hersteller sowieso durch Zugabe von extra Kontroller-Chips bei ihren HighEnd-Boards ausgleichen – während an der grundsätzlichen Anbindung an die CPU selber natürlich nichts mehr zu drehen ist, hierbei liegt AMDs Ryzen glasklar vorn.

29 29

Wieviel Rechenkerne hat der eingesetzte Prozessor (2017)?

Diese Umfrage fragt (in Wiederholung einer 2014er Umfrage und um die Anwender-Situation kurz vor dem Markteintritt von Ryzen zu sehen) gleichzeitig nach den vorhandenen Rechenkernen und dann noch, ob diese von Intel oder AMD kommen. HyperThreading wird im Sinne dieser Umfrage nicht als extra Rechenkern gezählt (sondern ebenfalls extra abgefragt), AMDs Rechenkerne in Modul-Bauweise bei Bulldozer & Nachfolgern gehen jedoch im Sinne dieser Umfrage als vollwertige Rechenkerne durch. Durch den Hersteller deaktivierte Rechenkerne zählen natürlich nicht – es sei denn, jene wurden durch den Nutzer erfolgreich aktiviert. Bei HyperThreading zählt ebenfalls nicht das technische Vorhandensein, sondern allein, ob dieses Feature auch aktiv ist.

Bei dieser Umfrage gilt zudem, daß jene Geräte-gebunden ist: Auf einem anderem PC darf entsprechend der Ausstattung dieses PCs oder Notebooks neu gevotet werden, so das Anwender mit mehreren Geräten deren Daten auch entsprechend in diese Umfrage einbringen können.

AMD Einkern-CPU
0% (3 Stimmen)
AMD Zweikern-CPU
1% (25 Stimmen)
AMD Dreikern-CPU
1% (16 Stimmen)
AMD Vierkern-CPU
7% (211 Stimmen)
AMD Sechskern-CPU
5% (147 Stimmen)
AMD Achtkern-CPU
8% (224 Stimmen)
Intel Einkern-CPU
0% (2 Stimmen)
Intel Zweikern-CPU
2% (53 Stimmen)
Intel Vierkern-CPU
27% (812 Stimmen)
Intel Einkern-CPU mit HyperThreading
0% (4 Stimmen)
Intel Zweikern-CPU mit HyperThreading
4% (121 Stimmen)
Intel Vierkern-CPU mit HyperThreading
36% (1078 Stimmen)
Intel Sechskern-CPU mit HyperThreading
7% (219 Stimmen)
Intel Achtkern-CPU mit HyperThreading
1% (43 Stimmen)
Intel Zehnkern-CPU mit HyperThreading
1% (15 Stimmen)
Gesamte Stimmen: 2973
27

Hardware- und Nachrichten-Links des 27. Januar 2017

Die PC Games Hardware bietet ein paar erste Grafikkarten-Benchmarks zu "For Honor", aufgenommen unter der derzeit laufenden Closed Beta des Hack&Slay-Spiels. Dabei zeigt sich das Spiel maßvoll Hardware-fordernd, unter FullHD reichen für die maximale Bildqualität mit 40 fps schon Radeon R9 280X oder GeForce GTX 780 unter FullHD aus, selbst eine (stark ab Werk übertaktete) GeForce GTX 770 2GB kommt noch auf 38 fps. Unter WQHD wird es schon wesentlich knapper, hier sollte es für 40 fps schon eine Radeon R9 Nano oder GeForce GTX 980 Ti sein, während unter UltraHD dann nur noch die Titan X (Pascal) die 40-fps-Marke knackt. Bezüglich der Speichermenge gibt es unter "For Honor" wenig Sorgen, wie auch vorgenanntes Beispiel zeigt – Grafikkarten mit nur 2 GB oder 3 GB Grafikkartenspeicher kommen bis WQHD noch gut mit (und sind unter UltraHD sowieso zu langsam). Unsere eigenerstellten Systemanforderungen zu "For Honor" bestätigen sich mit diesen Benchmarks im übrigen als "gut geraten": Eine GeForce GTX 680 wird (angesichts einer werksübertakteten GeForce GTX 770 auf 38 fps @ "Max") so ziemlich sicher keine 60 fps unter 1920x1080 "High" schaffen (wie von Ubisoft propagiert) – dafür werden die von uns an dieser Stelle angesetzten GeForce GTX 970 (50 fps @ "Max") & GeForce GTX 1060 3GB (6-GB-Version 55 fps @ "Max") viel eher in der Lage sein, dies zu erfüllen.

Im Zuge der kürzlichen Meldung zum Ryzen-Portfolio wird in unserem Forum darüber diskutiert, inwiefern AMD aus dem Ryzen-Die überhaupt Sechskern-Prozessoren erzeugen kann. Schließlich spricht der grundsätliche Aufbau mit zwei Vierkern-Clustern und einem gemeinsamen Level3-Cache einigermaßen gegen eine solche Möglichkeit. Mit früheren AMD-Architekturen ist der Fall zudem auch nicht gerade gut vergleichbar, da mit Zen vieles neu bzw. anders gelöst wurde. Darunter fällt allerdings auch eine physikalische Vierfach-Unterteilung des Level3-Caches, womit theoretisch gesehen der Level3-Cache sehr zielgerichtet deaktiviert werden könnte. Auch haben heutige CPUs natürlich alle Möglichkeiten, einen CPU-Kern per Software oder Firmware derart glatt abzuschalten, das jener wirklich nichts mehr verbraucht – da ist der Weg zu einer generellen Deaktivierung selbst einzelner CPU-Kerne nicht mehr weit. Am Ende dürfte aber vor allem die Überlegung ziehen, das AMD natürlich klar sein dürfte, das die Möglichkeit zur möglichst feinteiligen Portfolio-Aufteilung elementar für einen breiten Markterfolg ist. Sprich: AMD sollte normalerweise schon in der Designphase an möglichst feine Unterteilungsmöglichkeiten gedacht haben – das ein Sechskerner aus dem bekannten Achtkern-Die nicht machbar sein soll, ist daher arg unwahrscheinlich.

Eher wahrscheinlich wäre es, wenn die Möglichkeiten noch viel größer sind als dann in der Praxis genutzt, das AMD also auch bei Bedarf einen Fünf- oder Siebenkerner aus dem Achtkern-Die ziehen könnte. Wie AMDs initiales Ryzen-Portfolio gestaltet wird, ist damit natürlich nicht gesagt – aber die Chance, das wir auch Ryzen-Sechskerner sehen, ist doch ziemlich hoch. Wahrscheinlich dürften die Ryzen-Vierkerner sowieso nicht besonders groß beachtet werden (denn dies bietet auch Intel bereits) und sich daher das Interesse der (potentiellen) Konsumenten sowie auf die Sechs- und Achtkerner von Ryzen richten. Gerade die Sechskerner dürften AMDs eigentliche Umsatz- & Gewinnträger werden: Wahrscheinlich schnell genug, um sich mit Intels Spitzenprozessoren des Consumer-Bereichs anzulegen, beim Preispunkt aber wohl niedriger als die Achtkern-Spitzenmodelle angesetzt, um somit hohe Stückzahlen und hierbei auch beachtbare Gewinnmargen zu kreiieren. Die Ryzen-Achtkerner werden eine höhere Marge, aber viel geringere Stückzahlen erreichen – die Ryzen-Vierkerner hingegen zwar größere Stückzahlen, aber viel kleinere Margen. AMD wäre wirklich mit dem Klammersack gepudert, würde man den Ryzen-Sechskerner als vermutlichen besten Mix aus Performance, Preis, Absatz und Marge nicht bringen bzw. wegen technischer Limitationen nicht bringen können.

Bei PC Gamer beschäftigt man sich mal wieder mit der Frage beschäftigt, wieviel fps das menschliche Auge überhaupt wahrnehmen kann. Einige der Einlassungen von Wissenschaftler-Seite her sind dabei ganz interessant, allerdings wurde dabei ein wenig die Differenz zwischen "Wahrnehmung vollständiger Bilder" und "subjektives Erkennen von Frameraten-Varianzen" außer acht gelassen – sprich, manchmal sprechen die Wissenschaftler auch von eigentlich ganz unterschiedlichen Dingen, der hierbei teilweise konstruierte Widerspruch ist in der Tat keiner. Die These von rund 20 voll wahrnehmbaren fps stimmt also immer noch – trotzdem sehen geübte Gamer durchaus noch reine Differenzen in der Flüssigkeitsdarstellung bis zu 60 fps, einzelne Personen auch noch darüber hinaus. Nicht umsonst bieten moderne VR-Brillen in aller Regel gleich 90 fps, hier bedingt natürlich auch durch die viel näher am Auge befindliche Projektsfläche. Am Ende haben sicherlich beide Wissenschaftler-Standpunkte recht – und aus Sicht des Konsumenten reicht sowieso der subjektive Eindruck, welcher mit 45-60 fps klar demjenigen mit nur 20 fps überlegen ist.

Inhalt abgleichen