28

Hardware- und Nachrichten-Links des 28. November 2016

Die PC Games Hardware bietet ein paar erste Grafikkarten-Benchmarks unter Watch Dogs 2 an. Aufgrund der hohen Hardware-Anforderungen des Spiels wurde dabei noch nicht einmal mit der maximalen Bildqualität getestet – dafür allerdings durchgängig mit dem für PC-Spieler kostenlos verfügbarem UltraHD-Texturenpack. Jenes macht laut den Ausführungen der PCGH aber erst ab 6 GB Grafikkartenspeicher wirklich Sinn, bei 3 GB Speicher reagiert jenes mit Zähflüssigkeit und bei 4 GB Speicher mit bemerkbaren Nachladerucklern. Bei der GeForce GTX 1060 3GB ist dieser Effekt sogar an den reinen Benchmarks abzulesen, diese meistens nur knapp 10% gegenüber der GeForce GTX 1060 6GB zurückliegende Karte ist unter Watch Dogs 2 schon unter FullHD gleich um 22% langsamer als die große 6-GB-Schwester. Im Feld der Grafikkarten mit 6 GB Speicher gibt es dann unter FullHD noch keine Performancesorgen, beispielsweise 47 fps für eine Radeon RX 480 8GB sind eigentlich ausreichend.

Unter höheren Auflösungen geht es dann bemerkbar herunter mit den fps-Werten, unter WQHD erreicht dieselbe AMD-Karte noch 36 fps (und nur GeForce GTX 980 Ti, 1070 & 1080 schaffen 50 fps), unter UltraHD wird es mit nur noch 21 fps auf der Radeon RX 480 8GB regelrecht unspielbar. Hier kommt allein eine werksübertaktete GeForce GTX 1080 noch auf 37 fps – auch nicht großartig, aber wohl doch noch ausreichend. Wahrscheinlich muß man für Watch Dogs 2 tatsächlich für jede Auflösung extra Settings festlegen, um noch auf spielbare Frameraten für eine größere Anzahl an Grafikkarten zu kommen. Daneben würde natürlich auch noch die Performance kleinerer Grafikkarten außerhalb des UltraHD-Texturenpacks interessieren, schließlich werden 6 GB Speicher für flüssige Bildraten nur von einem Bruchteil der heutzutage genutzten Grafikkarten geboten. Solcherart Messungen werden dann die Aufgabe weiterer Hardware-Testberichte zu Watch Dogs 2 sein, welches sich allerdings schon jetzt als das möglicherweise Hardware-fressendste Spiel des Jahres 2017 anläßt.

Obwohl es schon in der letzten Meldung genannt wurde, wäre hiermit nochmals zu thematisieren, das nVidia bislang keine DirectX-12-Treiber für Fermi-basierte Grafikkarten (GeForce 400/500 Serien) herausgegeben hat – obwohl nVidia einstmals die Fermi-Architektur klar als DirectX-12-fähig gekennzeichnet hat. Dies ist momentan sogar der einzige bekannte Fall, wo Hardware-Support und Treiber-Realität auseinandergehen – selbst Intel hat es inzwischen geschafft, DirectX-12-Treiber für Haswell sowie Vulkan-Treiber für Skylake herauszubringen. An dieser Stelle sollte nVidia in jedem Fall noch einmal nachlegen – oder aber sich wenigstens offiziell erklären, da die allermeisten der diesbezüglich im Internet zu findenden Meldungen halt noch auf den ursprünglichen nVidia-Aussagen basieren, demzufolge aus heutiger Sicht nunmehr falsch sind. Davon abgesehen sollte nVidia darüber nachdenken, ob man einmal gegebene Versprechen nicht sowieso grundsätzlich & zwingend erfüllen sollte.

Der Guru3D hat erste Preisnotierungen zu Intels Kaby-Lake-Prozessoren aus einem holländischem Onlineshop aufgeschnappt. Jene sehen noch vergleichsweise hoch bzw. nach typischen Vorlaunch-Aufschlägen aus, wenn beispielsweise der Core i7-7700K bei 434 Euro steht, dessen Skylake-Vorgänger Core i7-6700K jedoch für 339 Dollar in Intels Preisliste notiert wird. Selbst beim aktuell schlechten Dollar/Euro-Umtauschkurs dürfte der Einzelhandelspreis des Core i7-7700K eher in Richtung ~370 Euro gehen – zumindest so lange Intel nicht gerade für das Kaby-Lake-Portfolio höhere Listenpreise als für das Skylake-Portfolio ansetzt. Höhere Preise bei Intel-Prozessoren scheinen allerdings angesichts des kommenden Ansturms der Zen-Prozessoren als arg unwahrscheinlich – man könnte wenn dann eher über niedrigere Preise spekulieren, dem stehen allerdings die (gewohnheitsmäßig hohen) Gewinnerwartungen der Intel-Aktionäre entgegen.

28

Welche Grafikkarten & Prozessoren beherrschen welche Level von DirectX 11, DirectX 12 & Vulkan?

Nach einiger Zeit mal wieder zur aktualisieren sind die Übersichtslisten zum API-Support der Grafikchip-Entwickler, was dann auch integrierte Grafiklösungen umfaßt. Jene enthalten nunmehr auch extra Spalten zum Vulkan- sowie zum DirectX-11-Support – dabei kann in einigen Fällen das unter DirectX 11 erreichte Feature-Level eines Grafikchips sogar höher liegen als unter der DirectX-12-API (dies gilt dann, wenn ein Grafikchip unter DirectX 11 ein Feature-Level 11.2 beherrscht, welches jedoch unter DirectX 12 augenscheinlich nicht umgesetzt wurde). Alle getätigten Angaben beziehen sich auf den tatsächlich verfügbaren Support unter frei verfügbaren Treibern – und nicht reine Hardware-Fähigkeiten, für welche allerdings keine Treiber existieren. Ein Beispiel für eine diesbezügliche Differenz ist nVidias Fermi-Architektur der GeForce 400/500 Serien, welche technisch zu DirectX 12 in der Lage sind, für welche nVidia bislang aber keine DirectX-12-Treiber aufgelegt hat – und dies damit wohl auch nicht mehr tun wird.

Leider etwas unklar ist im Grafikchip-Bereich noch das DirectX 11 Feature-Level der GeForce 900/1000 Serien von nVidias Maxwell- und Pascal-Architekturen: Es gibt Hinweise darauf, das nVidia hier im Gegensatz zu früheren nVidia-Grafikchips dann doch (das bei nVidia früher verpönte) DirectX 11.1 umgesetzt hat. Ganz sicher läßt sich dies derzeit noch nicht sagen, da alle diesbezüglichen Herstellerangaben derzeit nur noch DirectX-12-Fähigkeiten beschreiben, DirectX 11 schon fast gar nicht mehr erwähnt wird. Der Rest der Angaben zu den echten Grafikchips basiert hingegen auf allgemein bekanntem Wissen, ist demzufolge sehr sicher:

Modelle DX11 Level DX12 Level Vulkan Level
AMD Terascale-Architektur Radeon HD 5000 & 6000 Serien 11.0 - -
AMD GCN1 Architektur Grafikchips Oland, Cape Verde, Pitcairn & Tahiti 11.2a 11_1 1.0
AMD GCN2 Architektur Grafikchips Bonaire & Hawaii 11.2b 12_0 1.0
AMD GCN3 Architektur Grafikchips Tonga & Fiji 11.2b 12_0 1.0
AMD GCN4 Architektur Radeon R400 Serie 11.2b 12_0 1.0
nVidia Fermi-Architektur GeForce 400/500 Serien 11.0 - -
nVidia Kepler-Architektur GeForce 600/700 Serien 11.0 11_0 1.0
nVidia Maxwell-1-Architektur Grafikchip GM107 (GeForce 750 Serie) 11.0 11_0 1.0
nVidia Maxwell-2-Architektur GeForce 900 Serie 11.1 (?) 12_1 1.0
nVidia Pascal-Architektur GeForce 1000 Serie 11.1 (?) 12_1 1.0

Bei den in Prozessoren intergrierten Grafiklösungen tauchen hingegen erneut wieder einige Wissenslücken auf, da die Hersteller hier gern mit Marketing-versetzten oder aber gleich gänzlich nebülösen Angaben operieren. Auf AMD-Seite kann man diese Lücken wegen der bekannten Abstammung der integrierten Grafiklösungen von bekannten GCN-Ausbaustufen ziemlich gut auffüllen, bei Intel ist das ganze jedoch manchmal mit gewissen Unsicherheiten behaftet. So wurden zur Broadwell-Grafik wahlweise DirectX 11.1 und DirectX 11.2 gemeldet – und bei den nachfolgenden Intel-Grafiklösungen wurde gar kein DirectX-11-Level mehr notiert, so daß man hier nur raten kann.

Modelle DX11 Level DX12 Level Vulkan Level
AMD Bobcat-Architektur APUs Hondo, Ontario & Zacate 11.0 - -
AMD Jaguar/Puma-Architektur APUs Temash, Beema, Kabini & Mullins 11.2b 12_0 1.0
AMD Llano-Architektur APU Llano 11.0 - -
AMD Trinity-Architektur APUs Trinity & Richland 11.0 - -
AMD Kaveri-Architektur APUs Kaveri & Godavari 11.2b 12_0 1.0
AMD Carrizo-Architektur APUs Carrizo, Stoney Ridge & Bristol Ridge 11.2b 12_0 1.0
Intel Silvermont-Architektur APU BayTrail 11.0 11_0 -
Intel Airmont-Architektur APUs CherryTrail & Braswell 11.2 (?) 11_2 -
Intel Ivy-Bridge-Architektur Core iX-3000 Prozessoren 11.0 11_0 -
Intel Haswell-Architektur Core iX-4000 Prozessoren 11.1 11_1 -
Intel Broadwell-Architektur Core iX-5000 Prozessoren 11.2 (?) 11_1 -
Intel Skylake-Architektur Core iX-6000 Prozessoren 11.2 (?) 12_1 1.0
Intel Kaby-Lake-Architektur Core iX-7000 Prozessoren 11.2 (?) 12_1 1.0

Wie beiden Auflistungen auch zu entnehmen, unterstützen nur ungefähr die Hälfte aller DirectX-12-fähigen Grafikkarten wirklich die neuen Hardware-Features von DirectX 12 in Form der Feature-Level 12_0 und 12_1. Deren reale Nutzung ist bislang allerdings noch nirgendwo aufgetaucht – sprich es gab keine Spieletitel, welche einen extra Renderpfad für diese Features mitgebracht hätten. Dies kann sich allerdings in absehbarer Zukunft durchaus ändern, denn zumindest im Grafikchip-Bereich ist schließlich (fast) alle ab dem Jahr 2014 neu in den Markt gekommene Hardware schon zu DirectX 12 mit Feature-Level 12_0 oder 12_1 fähig. Spätestens wenn neue Spieletitel irgendwann einmal als Mindestanforderung eine Radeon R9 380 oder GeForce GTX 960 vorsehen, lohnt sich für die Spieleentwickler die Nutzung dieser neuen Hardware-Features von DirectX 12.

Zeitlich noch etwas früher auf eine moderne LowLevel-APU könnten die Spieleentwickler allerdings setzen, wenn sie dagegen die Vulkan-API bevorzugen würden. Deren niedrigste Hardware-Anforderung beläuft sich gerade einmal auf Radeon R7 260 oder GeForce GTX 750 – etwas, dem heutige Hardware-Mindestanforderungen teilweise schon nahekommen und was zumindest in der Praxis heutiger AAA-Titel häufig schon erreicht wird. Das die Vulkan-API dann Plattform-unabhängig ist, man sich damit also nicht an Microsoft oder an Windows 10 bindet, ist als weitere Vorteile einzurechnen.

27

Hardware- und Nachrichten-Links des 26./27. November 2016

Eine andere mögliche Auflösung zur kürzlich wieder genannten Radeon RX 490 besteht in einer Polaris-basierten DualChip-Lösung – jene würde sogar in AMDs Polaris-Namensschema passen (welches für eine Radeon RX 490 ein Speicherinterface größer als 256 Bit DDR vorschreibt). Auch technisch wäre eine solche Karte darstellbar: Die Verlustleistung zweier Polaris-10-Chips auf einem Grafikboard dürfte (gesamte Karte) bei geschätzt 270-300 Watt liegen, wäre also grenzwertig, aber noch gangbar. Zudem würde die Schwäche des Polaris-10-Chips – zu wenig Speicherbandbreite für wirklich hohe Auflösungen – von einer DualChip-Lösung gut aufgehoben werden, mit einer angenommen 70%igen Skalierung könnte so eine Karte knapp unterhalb dem 4K-Performanceniveau einer GeForce GTX 1080 herauskommen, unter gut skalierenden Titeln wäre auch exakt das Performanceniveau der GeForce GTX 1080 möglich. Preislich wäre dies sogar passend, denn eine Radeon RX 490 auf Basis zweier Polaris-10-Chips sollte knapp unter 600 Euro kosten, was etwas günstiger als die GeForce GTX 1080 liegen würde.

Gegen eine solche Karte spricht, das AMD dieses Preissegment im Jahr 2017 in jedem Fall mit einer Vega-basierten SingleChip-Lösung füllen wird, eine solche Radeon RX 490 also nur eine sehr kurze Verkaufszeit hätte, ehe jene schon wieder abgelöst würde. Genauso spricht dagegen, das man üblicherweise nicht auf DualChip-Lösungen setzt, wenn eine gleichschnelle SingleChip-Lösung zur Verfügung steht – was hier schließlich eindeutig zutrifft, nVidia hat eine solche (GeForce GTX 1080), von AMD ist eine solche in Vorbereitung. Sehr stark dagegen spricht auch die SLI/CrossFire-Neigung der letzten Spiele-Veröffentlichungen: Selbst wenn die Spielehersteller oder Grafikchip-Entwickler später vielleicht noch entsprechende Profile nachreichen, so kann der Käufer eines HighEnd-Geschosses wie eben einer DualChip-Grafikkarte doch erwarten, das es hierfür auch Support gleich am ersten Tag der Spielveröffentlichung gibt. Dem ist allerdings weniger so, wie eine kurze Recherche anhand der Spiele-Benchmarks von GameGPU ergab (prozentuale Zugewinne in der UltraHD-Auflösung):

Fury X CrossFire GTX 1080 SLI
MultiGPU-Performancegewinn mit Forza Horizon 3
MultiGPU-Performancegewinn mit Quantum Break
MultiGPU-Performancegewinn mit Gears of War
MultiGPU-Performancegewinn mit Mafia III
MultiGPU-Performancegewinn mit Shadow Warrior 2 +75,7% +89,6%
MultiGPU-Performancegewinn mit Battlefield 1 +57,7% +56,1%
MultiGPU-Performancegewinn mit Titanfall
MultiGPU-Performancegewinn mit The Elder Scrolls V: Skyrim "Special Edition"
MultiGPU-Performancegewinn mit Call of Duty: Infinite Warfare
MultiGPU-Performancegewinn mit Call of Duty: Modern Warfare "Remastered"
MultiGPU-Performancegewinn mit Dishonored 2
MultiGPU-Performancegewinn mit Civilization VI +52,9% +11,0%

Eigentlich ist das Thema "Multi-GPU" angesichts dieser Daten stehend K.O. – wenn noch nicht einmal ein Multi-GPU-Support für jahrealte Remastered-Spieletitel aufgelegt wird, für welche nun wirklich kein besonderer Zeitdruck zur Fertigstellung existiert, dann kann man dies auch schwerlich von neuen AAA-Titeln wenigstens "out-of-the-box" erwarten. Unter diesen Voraussetzungen den Release einer DualChip-Lösung für ein wichtiges Marktsegment zu waagen, ist ziemlich riskant – ein solcher Launch könnte eher nur das Augenmerk der Medien und der Öffentlichkeit darauf lenken, was mit MultiChip-Lösungen alles nicht läuft. AMD denkt zwar sowieso über Vega-basierte MultiChip-Lösungen im kommenden Jahr nach – aber diese kommen im Enthusiasten-Segment, sind damit bei weitem nicht so bedeutsam wie HighEnd-Lösungen im Preisfeld der GeForce GTX 1080. Insofern ist auch die Auslegung der Radeon RX 490 als DualChip-Variante deutlich in Frage zu stellen – und daran zu erinnern, das der Ausgangspunkt aller dieser Gerüchte möglicherweise schlicht nur eine falsch benannte "Radeon 490" für das OEM-Segment darstellt.

Auch wenn es noch keine vollständigen Hardware-Daten zur Nintendo Switch gibt, bringen u.a. von TweakPC vermeldete Daten neuen Schwung in die Diskussion zur Switch-Hardware. So wurde ein ARMv8-SoC mit Cortex-A73-Kernen auf 1.785 GHz sowie eine integrierte nVidia-Grafik auf 921 MHz vermeldet, der Hauptspeicher der Konsole liegt wie schon bekannt bei 4 GB. Der Cortex-A73 ist einer der modernste HighEnd-Kerne von ARM, für genügend CPU-Power für die vergleichsweise kleine Grafiklösung dürfte also gesorgt sein. Bei jener fehlt derzeit immer noch die Angabe zur Anzahl der Shader-Einheiten – die Developer-Kits liefen mit 256 Shader-Einheiten, gehofft wird dagegen teilweise immer noch auf 384 Shader-Einheiten. Denn eingerechnet der genannten Taktrate kommen auf 256 Shader-Einheiten nur 0,47 TFlops Rechenleistung heraus – dies ist dann doch sehr erheblich von der Xbox One mit deren 1,31 TFlops entfernt.

Microsoft Nintendo Sony
2013er Konsolen Xbox One
1,3 TFlops @ 68 GB/sec, 8 GB RAM, 499$ -> 399$
- Playstation 4
1,8 TFlops @ 176 GB/sec, 8 GB RAM, 399$ -> 349$
neue Einsteiger-Konsolen Xbox One S
1,4 TFlops @ 68 GB/sec, 8 GB RAM, 299$
Switch
angenommen ~0,5 TFlops, 4 GB RAM, ~200-250$
verfügbar ab März 2017
Playstation 4 Slim
1,8 TFlops @ 176 GB/sec, 8 GB RAM, 299$
neue HighEnd-Konsolen Xbox Scorpio
~6 TFlops @ 320 GB/sec, 12 GB RAM, ~450-500$
verfügbar ab Weihnachten 2017
- Playstation 4 Pro
4,2 TFlops @ 218 GB/sec, 9 GB RAM, 399$
verfügbar ab 10. November 2016

Zwar könnte man diese theoretische Rechenleistung über Verwendung der FP16-Genauigkeit verdoppeln, aber dies erfordert dann doch zusätzliches Mitdenken seitens der Spieleentwickler (wo kann man FP16 einsetzen, wo wird dagegen FP32 benötigt?) und erhöht im Fall von Portierungen deren Aufwand. In jedem Fall wird es auf dieser grenzwertig niedrigeren Rechenleistung nicht einfacher für Nintendo, wirklich mit der Switch durchzustarten, da sich somit der Software-Katalog von Xbox One und PS4 gar nicht so einfach auf der Switch realisieren lassen wird – und Nintendo will sicherlich keine zweite Wii U erleben, welche (aufgrund massiv zurückhängender Hardware) von der restlichen Konsolenentwicklung ziemlich abgehängt war. Denkbar wäre natürlich auch, das Nintendo bzw. nVidia bei der Switch über die Benutzung von eigentlich für die 4K-Auflösung gedachter Rendering-Optimierungstechnologien viel an Rechenleistung versuchen einzusparen. Alternativ würde dann nur noch der Weg von besonders niedrigen internen Renderauflösungen bei der Switch bleiben – wobei diesbezüglich Xbox One und PS4 ja auch schon längst in Richtung eines 720p-Standards bei neuen Spielen unterwegs sind.

27

Angebliche Daten zu Modellen und Preisen von AMDs Zen-basierten Summit-Ridge-Prozessoren aufgetaucht

Von WCCF Tech kommt mal wieder ein Leak mit genaueren Daten zu zukünftiger Hardware – aus allerdings nicht genannter und damit höchst unsicherer Quelle. Konkret verbreiten WCCF Tech den Ausschnitt aus einer Excel-Tabelle, welche Daten zu den einzelnen Summit-Ridge-Modellen enthält – wobei allerdings völlig unklar ist, ob es sich bei dem Verfasser der Tabelle um eine wirklich informierte Person handeln, oder nur einen fernöstlichen Forennutzers, welcher angenommene und spekulierte Werte einfach einmal zusammengefasst hat. Da WCCF Tech (wie leider zumeist) keine Quellen angeben, läßt sich dies nicht nachprüfen – eine ergo höchst unsichere Ausgangslage, um wirklich darüber bereits urteilen zu können. Zudem geben WCCF Tech in ihrem eigenen Text auch noch Taktraten zu den einzelnen Zen-Modellen an, welche die originale Tabelle nicht enthält – zumindest dieser Teil liegt ergo definitiv im Feld der Spekulationen.

Folgt man der originalen Tabelle, soll es angeblich nur vier Summit-Ridge-Modelle geben – was uns doch als sehr wenig erscheint, gerade wenn damit der Preisbereich von 150 bis 500 Dollar abgedeckt werden soll. Im Prinzip soll es einen Vierkerner, einen Sechskerner, einen "normalen" Achtkerner und einen "speziellen" Achtkerner geben – letzterer dürfte wohl auf eine besonders hohe Übertaktungsfähigkeit hin selektiert werden (allerdings sollen alle Zen-Modelle ungelockt daherkommen). Ehrlicherweise würden wir eher von einem breiteren Portfolio ausgehen, sprich mehr Taktraten-Abstufungen ähnlich wie bei Intel. Allerdings könnte es auch sein, daß das initiale Summit-Ridge-Portfolio tatsächlich eher schmal ist, da AMD angeblich im März noch einmal weitere Modelle nachlegen will.

Interessant ist daneben die Spalte mit den Cinebench-Werten – bei den Zen-Prozessoren mit einem vorangestellten "E", was vermutlich für "estimated" aka "geschätzt" (alternativ "expected" aka "erwartet") steht. Spalten mit Benchmark-Werten kommen üblicherweise nicht in Hersteller-eigenen oder Hersteller-nahen Unterlagen vor, zumindest nicht in dieser kompletten Form (und dann aber mit Schätzwerten). Genauso wenig geben Hersteller normalerweise Benchmark-Werte für übliche Übertaktungen an – hier aber werden Cinebench-Werte für Core i5-6600K und Core i7-6700K im Overclocking-Modus zum Vergleich notiert. Dies deutet unserer Meinung nach stark in die Richtung, daß das ganze wirklich eine Eigenkreation eines fernöstlichen Forennutzers ist. Sicher ist diese Auslegung mitnichten, denn auch jener Forennutzer könnte am Ende teilweise auf echten Daten sitzen bzw. diese mit verarbeitet haben – aber eine reine Hersteller-Unterlage ist dies mit einiger Sicherheit nicht.

Nichtsdestotrotz wird über diesen Leak natürlich schon angeregt diskutiert – denn AMD darf durchaus gern ein solches oder ähnliches Summit-Ridge-Portfolio auf die Beine stellen. Sehr günstiger Vierkerner (150$), immer noch günstiger Sechskerner (250$) und überhaupt nicht teurer Achtkerner (350$) dürften in jedem Fall reichlich Anklang finden, sofern AMD für diese Prozessoren vernünftige Taktraten und damit dann auch eine passende Performance aufbieten kann. Selbst wenn das ganze also auf Nutzerspekulationen basiert – AMD dürfte am Ende dieselben Gedankenspiele durchgehen und dabei sicherlich erkennen, das genau eine solche Preisstruktur nicht nur für Interesse zugunsten von Zen sorgen, sondern letztlich auch zu Zen-Verkäufen führen wird. Denn selbst wenn Zen den Intel-Prozessoren bei der Performance Paroli bieten kann – AMD kommt derzeit bei CPUs mehr oder weniger von ganz unten, da muß dann auch der Preispunkt aktiv dazu ermuntern, auf dieses Pferd zu setzen.

27 27

Produziert die Grafikkarte ein hörbares Fiepen (2016)?

Es gab anno 2012 sowie anno 2014 bereits entsprechende Umfrage – womit wir selbige nunmehr zum Jahresende 2016 wiederholen wollen. Wie die frühere Umfrage wird auch die aktuelle Umfrage unterteilt nach den Markt-Segmenten "Mainstream", "Midrange" und "HighEnd", da hierbei erfahrungsgemäß teilweise unterschiedliche Quoten für fiepende Grafikkarten zu erwarten sind. Die Unterteilung der einzelnen Markt-Segmente erfolgte dabei anhand der Performance der Grafikkarten im 3DCenter Performance-Index, zusammengefasst in folgender Tabelle (alle früheren Grafikkarten fallen automatisch dem "Mainstream"-Segment zu):

Mainstream-Segment Midrange-Segment HighEnd-Segment
Radeon HD 5000 Serie bis Radeon HD 5970 - -
Radeon HD 6000 Serie bis Radeon HD 6990 - -
Radeon HD 7000 Serie bis Radeon HD 7970 "GHz" Radeon HD 7990 -
Radeon R200 Serie bis Radeon R9 280X Radeon R9 290 bis 290X Radeon R9 295X2
Radeon R300 Serie bis Radeon R9 380X Radeon R9 390 bis Fury Radeon R9 Fury X bis Pro Duo
Radeon R400 Serie bis Radeon RX 460 Radeon RX 470D bis 480 -
GeForce 1000 Serie bis GeForce GTX 1050 Ti GeForce GTX 1060 GeForce GTX 1070 bis Titan X
GeForce 900 Serie bis GeForce GTX 960 GeForce GTX 970/980 GeForce GTX 980 Ti bis Titan X
GeForce 700 Serie bis GeForce GTX 770 GeForce GTX 780 bis 780 Ti GeForce GTX Titan Z
GeForce 600 Serie bis GeForce GTX 680 GeForce GTX Titan bis 690 -
GeForce 500 Serie bis GeForce GTX 590 - -
GeForce 400 Serie bis GeForce GTX 480 - -
AMD Mainstream-Karte - kein Fiepen
16% (234 Stimmen)
AMD Mainstream-Karte - Fiepen feststellbar
2% (24 Stimmen)
AMD Midrange-Karte - kein Fiepen
18% (263 Stimmen)
AMD Midrange-Karte - Fiepen feststellbar
4% (57 Stimmen)
AMD HighEnd-Karte - kein Fiepen
4% (66 Stimmen)
AMD HighEnd-Karte - Fiepen feststellbar
5% (73 Stimmen)
nVidia Mainstream-Karte - kein Fiepen
10% (142 Stimmen)
nVidia Mainstream-Karte - Fiepen feststellbar
2% (30 Stimmen)
nVidia Midrange-Karte - kein Fiepen
12% (180 Stimmen)
nVidia Midrange-Karte - Fiepen feststellbar
4% (62 Stimmen)
nVidia HighEnd-Karte - kein Fiepen
17% (253 Stimmen)
nVidia HighEnd-Karte - Fiepen feststellbar
7% (110 Stimmen)
Gesamte Stimmen: 1494
25

Hardware- und Nachrichten-Links des 24./25. November 2016

Noch nachzutragen zu den Grafikchip- und Grafikkarten-Marktanteilen des dritten Quartals 2016 sind die Mobile-GPU-Marktanteile im Q3/2016. Hierfür liegen leider nur Daten seitens Mercury Research vor, welche sich allein auf extra Mobile-Grafiklösungen beziehen, in Prozessoren integrierte iGPUs also ausschließen. In diesem Teilmarkt bewegt sich augenscheinlich seit einigen Quartalen nur im Kommabereich etwas, AMD schwankt um 35-36% herum und nVidia um 64-65%. Aber wenigstens kann man konstatieren, das bei den extra Mobile-Grafiklösungen AMD deutlich dasteht ist als bei den Desktop-Grafikkarten (Marktanteil derzeit bei ~27%), AMD hiermit – auch eingerechnet die geringen Schwankungen dieses Teilmarktes – also über ein halbwegs solides Standbein verfügt. Natürlich werden diese mobilen Grafiklösungen bei vielen Notebooks am Ende doch nicht für Gaming-Zwecke genutzt, aber rein geschäftlich zählen diese Verkäufe für AMD selbstverständlich trotzdem.

Q3/2015 Q4/2015 Q1/2016 Q2/2016 Q3/2016
AMD 35,1% 34,9% 35,9% 36,4% 35,9%
nVidia 64,9% 65,1% 64,1% 63,6% 64,1%
Quelle: Mercury Research (blau)

WCCF Tech werfen mit einem durchaus hoffnungsvollen Benchmark-Resultat des Core i3-7350K um sich – des ersten Core i3 oberhalb von 4 GHz Takt und gleichzeitig aktivierter Overclocking-Funktion. Gemäß des vorliegenden Geekbench4-Resultats kommt dieser Core i3-7350K auf dasselbe Performanceniveau wie der früherer Vierkerner Core i5-4670K aus der Haswell-Generation sowie der kleinste Vierkerner als der Skylake-Generation in Form des Core i5-6400. Allerdings ist der Geekbench nicht gerade für zuverlässige Ergebnisse bekannt – die Geekbench-Benchmarkdatenbank gibt für den Core i5-6600K Werte zwischen 2800 und 19000 Punkten aus, wobei die real anliegende Taktrate leider nicht erfasst wird. Ergo ist das Geekbench-Ergebnis zum Core i3-7350K unter gewisse generelle Vorbehalte zu stellen. Das der Core i3-7350K wegen seiner vergleichsweise hohen Taktrate von 4.2 GHz den kleinsten Vierkerner des Kaby-Lake-Portfolios in Form des Core i5-7400 erreichen könnte, ist aber nicht ganz abwegig, taktet letzterer doch nur mit 3.0 GHz (plus unbekanntem Turbo-Takt) – bei diesem hohen Taktratenunterschied kann ein Zweikerner mit HyperThreading doch schon einiges ausrichten. Es steht aber eher die Frage im Raum, ob man heutzutage wichtige Aufgaben überhaupt noch einem Zweikerner übergeben kann bzw. ob dies nicht zukünfig gerade im Spielebereich für Probleme sorgen könnte.

Technik Geekbench Single Geekbench Multi
Core i3-7350K Kaby Lake, 2C+HT, 4.2 GHz 5137 10048
Core i5-6400 Skylake, 4C, 2.7/3.3 GHz 3686 9982
Core i5-4670K Haswell, 4C, 3.4/3.8 GHz 4361 10036

Die kürzliche Tabelle mit den Chipflächen der jeweiligen Top-Chips von AMD, Intel und nVidia wurde noch um einige Korrekturen und Erweiterungen verbessert. Leider waren die Pentium-4-Chips Northwood & Prescott zeitlich falsch eingetragen, selbiges trifft auch auf den GM200-Chip zu (nVidias GeForce 900 Serie startete schon im Jahr 2014, aber der GM200-Chip kam erst im Jahr 2015). Zugleich konnte auch die Chipfläche von AMDs R100-Chip der originalen Radeon DDR mit 97mm² hinzugetragen werden – eine Angabe, die sich nicht einmal in der Wikipedia findet (wie dort auch einige Angaben zu ähnlich alten Chips leider fehlen). Hinzugetragen wurden dann noch einige größere CPUs in Form von AMDs Thuban-Chip der K10-Generation sowie allen E-Modellen von Intel inklusive des Gulftown-Chips der Nehalem-Generation. Trotz deren teilweise größerer Chipflächen bleibt die Grundthese bestehen, das sich die (maximalen) Chipflächen im Grafikchip-Bereich im Laufe der Jahre auf deutlich höhere Werte entwickelt haben als im Prozessoren-Bereich.

Inhalt abgleichen