2

Hardware- und Nachrichten-Links des 1./2. Dezember 2016

Videocardz berichten über eine weitere GeForce GTX 1060 3GB, welche im neuesten nVidia-Treiber aufgetaucht ist – und dort allerdings als GP104-basiert gekennzeichnet wurde. Sofern hier nicht gleich mehrere Fehler gleichzeitig gemacht wurden, scheint nVidia tatsächlich eine solche Karte in Vorbereitung zu haben. Denkbar sind hier zwei grundsätzliche Auslegungen: Zum einen eine stärkere GeForce GTX 1060 3GB (mit also besseren Hardware-Eigenschaften und damit höherer Performance), welche durch die nur 3 GB Speicher aber natürlich ihren Haken hat und womöglich sogar exklusiv nur in einigen Teilmärkten angeboten wird (Videocardz spekulieren diesbezüglich über China). Oder aber eine der bisherigen GeForce GTX 1060 3GB komplett gleiche Karte, nur eben auf Basis des GP104-Chips – in diesem Fall würde der Zweck einer solchen Karten rein in einer besseren Produktionsausbeute des GP104-Chips liegen.

Interessant an jener GP104-basierten GeForce GTX 1060 3GB wäre dann die Frage nach dem Stromverbrauch: Regulär sollte eine kleine Karte auf einem grossen Grafikchip immer ineffizienter sein als dieselbe Karte auf einem passenden kleineren Grafikchip. In diesem Fall könnte die Differenz jedoch sehr klein werden oder gar gegen Null gehen, denn die GP104-basierte GeForce GTX 1070 liegt mit ihren 1920 Shader-Einheiten auf 147 Watt Stromverbrauch nicht gerade übermässig weit von der GP106-basierten GeForce GTX 1060 6GB mit deren 1280 Shader-Einheiten auf 118 Watt Stromverbrauch entfernt. Es käme hier wirklich auf den Test an, ob eine auf 1152 oder 1280 Shader-Einheiten heruntergebrochene GP104-basierte GeForce GTX 1060 3GB nicht wirklich sogar dasselbe verbraucht wie die GP106-basierten GeForce GTX 1060 Karten. All dies sollte sich in den nächsten Wochen ergeben, denn ein Treibereintrag deutet üblicherweise (sofern es sich nicht um einen völlig neuen Grafikchip handelt) auf einen zeitnahen Markteintritt hin.

Auf Reddit gibt es eine Zusammenfassung der Aussagen von AMD-CEO Lisa Su auf einem kürzlichen Investoren-Meeting. Hierbei gab es einige hoffnungsvolle Dinge zu AMDs Zen-Prozessoren zu hören: AMD sieht sich mit seinen neuen Prozessoren sehr wohl dafür gerüstet, mit Intels Core i7 Prozessoren einwandfrei konkurrieren zu können – will aber neben der Performance auch gute Preispunkte bieten, sprich ein für den Käufer in beiden Disziplinen interessantes Produkt anbieten. Als Zen-Auslieferungstermine nannte man das erste Quartal 2017 für das Desktop-Segment, das zweite Quartal 2017 für das Server-Segment und das zweite Halbjahr 2017 für das Notebook-Segment. Mit dem vergleichsweise späten Eintritt ins Mobile-Segment könnten aber letztlich auch nur die Raven-Ridge-APUs gemeint sein, welche natürlich genauso Zen-basiert sind, aber schon immer für einen späteren Termin avisiert wurden.

Ob man dagegen die Summit-Ridge-CPUs auch im Mobile-Einsatz sehen wird, ist noch eine der offenen Fragen – viel Sinn macht dies allerdings nicht, denn die nativen Achtkerner müsste man für die allermeisten Notebooks um 2 oder 4 CPU-Rechenkerne beschneiden, was wahrscheinlich im Sinne der dabei entstehenden Verlustleistung eher ungünstig ist. Für den Mobile-Einsatz bieten sich die Raven-Ridge-APUs mit einem nativen Vierkerner und der integrierten Grafik viel eher an als die klar für performante PCs gedachten Summit-Ridge-Prozessoren. Daneben gab es noch einige andere interessante AMD-Aussagen: So sollen Zen-Designs für die Semi-Custom-Sparte ab 2017 zur Verfügung stehen – was aber wohl zu spät für die Xbox Scorpio ist, deren Design dürfte sicherlich jetzt schon festgezimmert werden. Und zum anderen sieht AMD die 7nm-Fertigung als (gegenüber der 10nm-Fertigung) vergleichsweise schwierig an – und erwartet daher, bei dieser 7nm-Fertigung auch mit anderen Chipfertigern (als GlobalFoundries) zusammenzuarbeiten.

2

Umfrage-Auswertung: Wie häufig werden VSR/DSR Anti-Aliasing genutzt?

Eine Umfrage von Anfang November stellte die Frage nach der aktuellen Nutzung von AMDs VSR bzw. nVidias DSR Anti-Aliasing, sprich der Downsampling-Lösungen beider Grafikchip-Entwickler. In der Hauptfrage stehen erst einmal 37,3% VSR/DSR-Nutzern den 62,7% Nichtnutzern gegenüber – für eine Technologie, die sowieso nur auf sehr schnellen Grafikkarten sinnvoll wirken kann und zudem auch weniger denn im Blickpunkt der Öffentlichkeit steht, ist dies ein starker Wert. Innerhalb der Gruppe der VSR/DSR-Nutzer dominieren im übrigen die nVidia-Nutzer mit 65,1% zu 34,9% gegenüber den AMD-Nutzern, während sich die Nutzungshäufigkeit zwischen häufiger Anwendung mit 48,4% kaum von der eher seltenen Anwendung mit 51,6% unterscheidet.

Interessant ist daneben, wie die Nichtnutzer von VSR/DSR Anti-Aliasing votiert haben: Denn nur 27,0% aller Umfrage-Teilnehmer haben gar kein Interesse an diesen Downsampling-Technologien – dies ist vergleichsweise wenig und natürlich nicht auf den Massenmarkt übertragbar. Weitere 16,6% aller Umfrage-Teilnehmern fehlt konkret die Rohleistung zur Nutzung von VSR/DSR Anti-Aliasing – logisch, denn hierfür werden üblicherweise echte HigHEnd-Beschleuniger benötigt, außerhalb dessen kann man VSR/DSR Anti-Aliasing nur für wirklich alte Spieletitel ansetzen. Bei nur 2,8% machen Treiber oder Monitor praktische Probleme, um VSR/DSR Anti-Aliasing nutzen zu können – diese Gruppe ist vergleichsweise klein, dennoch verbirgt sich hinter jedem Einzelfall ein Problem, welches die Grafikkarten- und Monitor-Hersteller angehen sollten.

Und letztlich gibt es noch 16,3% aller Umfrage-Teilnehmer, welche zwar ein generelles Interesse an VSR/DSR Anti-Aliasing haben, jenes aber bislang noch nicht ausprobiert haben. Damit stehen die Aussichten von VSR/DSR Anti-Aliasing zumindest unter Grafikkarten-Enthusiasten gar nicht einmal so schlecht, die aktuelle Nutzergemeinde von grob 37% könnte in Zukunft noch Zuwächse erhalten – sei es durch Nutzer, die sich VSR/DSR Anti-Aliasing erstmals ansehen, sei es durch Nutzer, die VSR/DSR Anti-Aliasing nach einer Grafikkarten-Aufrüstung endlich performant nutzen können. Dies ist eine interessante Entwicklung, denn VSR/DSR Anti-Aliasing wird ansonsten bei normalen Grafikkarten-Tests kaum beachtet – sollte allerdings angesichts dieser Zahlen mehr allgemeine Beachtung finden.

30

Hardware- und Nachrichten-Links des 29./30. November 2016

PC Perspective bieten einen weiteren Vorgeschmack auf die Kaby-Lake-Performance mittels des Tests eines entsprechenden HP-Notebooks – im Vergleich zum baugleichen HP-Modell mit Skylake-Prozessor. Ähnlich wie bei den Desktop-Modellen liegt zwischen den getesteten Mobile-CPUs Core i7-6500U (Skylake) und Core i7-7500U (Kaby Lake) beim Basetakt eine Differenz von 200 MHz (+8,0%), beim maximalen Turbotakt sind es allerdings gleich 400 MHz mehr (+12,9%) – wohl ein Ausdruck der verbesserten 14nm-Fertigung von Intel bei der Kaby-Lake-Generation. Die angetretenen Benchmarks sehen im CPU-Bereich dann das Kaby-Lake-Notebook allerdings um gleich +17,2% vorn, bei der integrierten Grafik sind es sogar +18,7%. Dies bestätigt frühere Tests, das Kaby Lake im Mobile-Segment stärker als die nominelle Taktratensteigerung an Performance hinzugewinnt – primär wohl durch eine klar bessere Ausnutzung des Turbomodes durch eben Intels verbesserte 14nm-Fertigung. Im Desktop-Bereich schlägt hingegen fast nur der Mehrtakt an, hier sind zwischen 5-10% Performanceaufschlag (Test 1, Test 2 & Test 3) durch Kaby Lake zu erwarten.

Ein Blogeintrag bei Intel vermeldet den Launch der Desktop-Modelle von Kaby Lake im übrigen für den Januar 2017. Genauer wird dies leider nicht ausgeführt und auch die Anfang 2017 stattfindende Elektronik-Messe CES wurde in diesem Blogeintrag nicht erwähnt. Da sich selbiges allerdings anbietet, Kaby Lake ganz augenscheinlich spruchreif ist und Intel letztlich die CES schon des öfteren für einen großen Produktlaunch benutzt hat, kann man durchaus die Vermutung aufstellen, das die Desktop-Modelle von Kaby Lake letztlich zur CES 2017 offiziell vorgestellt und danach umgehend in den Handel entlassen werden. Eine Messe ist zwar eigentlich ein etwas ungünstiger Launchtermin, da zu viele Hardware-Journalisten auf eben dieser weilen und damit zu wenige Testredakteure für intensive Tests zur Verfügung stehen – allerdings gibt Intel den Hardwaretestern in aller Regel einen ausreichenden zeitlichen Vorlauf (im Gegensatz zu AMD & nVidia bei ihren Grafikchips), dies war zumindest bei früheren Intel-Launches zur CES nie ein wirkliches Problem. Lieferprobleme dürften ebenfalls nicht zu erwarten sein, wenn in Fernost die Kaby-Lake-Prozessoren teilweise schon (unter der Hand) verfügbar sind – und letztlich hat Intel hier ja auch keine neue Architektur und keine (grundlegend) neue Fertigung am Start, kann man eher von einem problemlosen Launch samt ausreichenden Liefermengen ausgehen.

Bezüglich AMDs Zen-Prozessoren hat AMD einen am 13. Dezember 2016 stattfindenden offiziellen Teaser bekanntgegeben: Hierzu wird in einem (erst nach Registrierung bei AMD verfügbarem) Livestream um 22 Uhr deutscher Zeit über Zen unter Gaming-Bedingungen gesprochen werden bzw. ein entsprechendes System in Action gezeigt werden. Technische Hntergründe dürften hierbei weniger zur Sprache kommen, wahrscheinlich ist das ganze eher als reine Show-Veranstaltung zur Anheizung des Hypes und natürlich auch, um Intels Kaby Lake ein wenig in die Parade zu fahren, gedacht. In der Teaser-Ankündigung nennt AMD im übrigen weiterhin das erste Quartal 2017 als Einführungstermin für Zen – was AMD noch alle Möglichkeiten offen läßt. Es besteht die gewisse Hoffnung, das AMD auf der CES zum Jahresanfang 2017 Zen mehr oder weniger offiziell vorstellt sowie das der nachfolgende Marktstart dann zur Mitte des Januar ansteht (angeblich 17. Januar 2017). Gut möglich natürlich, das AMDs Auslieferungsmengen zu diesem Zeitpunkt einem größeren Kundenansturm nicht standhalten und Zen-Prozessoren die ersten Wochen über eher schwer erhältlich sind – aber dies kann man ja dann auch eher als "Markterfolg" auslegen, was die Launchplanungen nicht beeinflussen muß. Weit wichtig für AMD wird sein, all die hochgesteckten Erwartungen wenigstens halbwegs erfüllen zu können – und damit vor allem dem Wettbewerb im Prozessoren-Markt endlich wieder einmal ernsthaft anzufachen.

Gemäß der DigiTimes wollen Asus, Gigabyte, Lenovo und MSI auf der kommenden CES 2017 (5. bis 8. Januar 2017 in Las Vegas) ihre neuen Notebook-Designs auf Basis von Intels Kaby Lake und nVidias GP107-Chip vorstellen, die Mainboard-Hersteller sollen hingegen ihre neuen Mainboards auf Basis von Intels 200er Chipsätzen zeigen. Alle diese Produktvorstellungen müssen natürlich nicht zwingend bedeuten, das die entsprechenden Chipentwickler den Launch der zugrundeliegenden Chips ebenfalls zur CES 2017 ansetzen – denkbar ist das aber schon. Das Thema Intels Kaby Lake wurde vorstehend schon behandelt – bleiben nVidias GP107-Chip und die darauf basierenden Mobile-Lösungen GeForce GTX 1050 & 1050 Ti für Notebooks übrig. Jene sollten schon laut einem früheren Gerücht erst im Januar 2017 erscheinen, jenes Gerücht scheint sich nunmehr zu bewahrheiten. Allerdings sagt gerade im Mobile-Bereich ein offizieller Launch nun ziemlich gar nichts aus – am Ende müssen die einzelnen Notebook-Hersteller ihre eigenen Designs fertigstellen, jene ausreichend prüfen lassen und dann auch noch bei jeder einzelnen Komponente lieferbar sein, um wirklich in den Einzelhandel zu gehen. Bei einer CES-Demonstration neuer Notebooks kann es also gut und gerne bis zum Februar oder gar März 2017 dauern, ehe diese neuen Notebooks dann wirklich verfügbar werden.

Nach wie vor nicht gut für AMD sieht es allerdings aus, wenn nVidia nun mit dem eigentlich eher spät herausgekommenden GP107-Chip tatsächlich noch früher in den Mobile-Markt kommt als AMD mit seinem nominell im Sommer veröffentlichten (und schon zum Jahresanfang breit als "Mobile-Hoffnungsträger" angekündigtem) Polaris-11-Chip. Sicherlich sind die entsprechenden Radeon Pro 450, 455 & 460 Mobile-Lösungen in jeder Menge Apple-Notebooks verbaut (die meisten allerdings noch nicht lieferbar), aber im eigentlichen PC-Markt gibt es bislang noch absolut keine Notebooks basierend auf diesen Polaris-abstammenden Mobile-Lösungen zu finden. Jetzt nun kommt nVidia mit dem viel später in den Markt gekommenen GP107-Chip und schickt sich an, AMD gerade in diesem volumenträchtigen Segment der Gaming-Einsteigerlösungen noch die Butter vom Brot zu nehmen. Ob sich unter dieser Voraussetzungen die zuletzt eigentlich vernünftigen Mobile-Marktanteile von AMD halten lassen, darf doch etwas bezweifelt werden. Insbesondere angesichts dessen, wie heftig AMD auf der Mobile-Ausrichtung des Polaris-11-Chips herumgeritten ist, verwundert diese lange Zeitspanne zwischen ersten Ankündigungen und (immer noch nicht) kaufbaren Produkten um so mehr.

30

Erster Test des Core i7-7700K zeigt ~5% Performancegewinn und eine durchschnittliche Overclocking-Eignung

Bei Tom's Hardware gibt es einen ersten Kurztest zum Core i7-7700K, dem Flagschiff von Intels kommender Kaby-Lake-Generation. Hierbei handelt es sich augenscheinlich nicht um ein Engineering Sample oder ein von Intel ausgesuchtes Pressemuster, sondern um eine für den Verkauf bestimmte CPU – welche in Fernost teilweise schon verfügbar sind. Solche CPUs sind natürlich besser geeignet, gerade die normalen Overclocking-Fähigkeiten exakter zu bestimmen – da ansonsten die fernöstlichen Vorab-Leaks immer ein wenig im Verdacht stehen, das dort mit ausgesuchten CPUs und unter eher ungewöhnlichen Overclocking-Bedingungen dementsprechende Spitzenübertaktungen erzielt werden, welche dann aber kaum auf die Overclocking-Praxis der normalen Anwender zu übertragbar ist. Der Core i7-7700K erreichte ausgehend von 4.2/4.5 GHz einen Overclocking-Takt von 4.8 GHz – nicht gerade viel, aber dennoch etwas mehr als sein Skylake-Vorgänger auf 4.6 GHz und sicherlich eher eine real erreichbare Übertaktung gegenüber anderen Meldungen, die gleich wieder von Übertaktungen auf 5 GHz bei Kaby Lake sprechen.

Man sieht allerdings auch, das den Intel-Spitzenmodellen damit ein wenig der Übertaktungsspielraum ausgeht, wenn es von 4.2/4.5 GHz auf "nur" 4.8 GHz hinauf geht. Grundlage für dieses (gemessen an Intel-Maßstäben) eher durchschnittliche Overclocking-Potential dürfte erstens der schon hohe Basistakt dieser Prozessoren sein – faktisch hat sich seit der Sandy-Bridge-Generation bei den absoluten Overclocking-Taktraten von Intel-CPUs nicht mehr viel getan, während allerdings die Basetaktraten innerhalb dieser Zeit doch um einiges angestiegen sind. Und zum anderen stößt Intel immer deutlicher an gewisse Taktschranken – und zwar egal der immer besser werdenden Fertigung, Sandy Bridge kam seinerzeit unter der 32nm-Fertigung schließlich auch schon auf 4.5 GHz unter Übertaktung. Augenscheinlich liegen im Chip- bzw. Transistorendesign der aktuellen Intel-Prozessoren gewisse Limitationen, welche es nicht ermöglichen, die Taktraten wirklich klar in Richtung 5 GHz zu entwickeln. Das von Intel seit einigen Jahren getriebene Spiel der jährlich neuen CPU-Generationen mit zwischen 100-300 MHz mehr Takt ist also absehbar nicht durchzuhalten, Intel braucht perspektisch gesehen neue Ansätze.

Zurückkommend zu Kaby Lake und dem Core i7-7700K interessiert natürlich vor allem dessen Performance-Ergebnis. Frühere Tests zum Core i5-7600K (Test No.1 & Test No.2) ergaben jeweils ein Performanceplus von +9% gegenüber dessen Skylake-Vorgänger in Form des Core i5-6600K. Beim Test von Tom's Hardware zum Core i7-7700K gab es kein ganz so erfreuliches Ergebnis, hier kam auf default-Taktraten nur ein durchschnittlicher Performancegewinn (aus 11 Anwendungs-Benchmarks) von +5,1% heraus. Zur Erklärung dessen wäre aber auch einzurechnen, das zwischen Core i7-6700K und Core i7-7700K ein geringerer Taktratenabstand existiert – so gesehen passt das Benchmark-Ergebnis dann doch wieder zur bisher aufgestellten These, das Kaby Lake (im Desktop) mehr oder weniger allein durch seinen Mehrtakt hinzugewinnt.

Core i7-6700K Core i7-7700K
Technik Skylake, 4C+HT, 4.0/4.2 GHz Kaby Lake, 4C+HT, 4.2/4.5 GHz
erreichter Overclocking-Takt 4586 MHz 4783 MHz
Taktraten-Differenz - default-Takt: +5,0% bzw. 7,1%
Overclocking: +4,3%
CPU-Performance (@ default-Takt) 100% 105,1%  (+5,1%)
CPU-Performance (@ Overclocking) 111,6% 117,7%  (+5,5%)
Performance-Werte laut den Benchmarks von Tom's Hardware

Interessanterweise ist der Performancegewinn unter Übertaktung mit +5,5% leicht höher, obwohl die Taktraten beider Prozessoren unter Übertaktung eher zusammenrücken. Hier kann dann Kaby Lake aber wohl eher zeigen, das es auch unter hoher Belastung seinen Takt länger halten kann bzw. schneller auf höhere Taktraten umschaltet. Wirklich das Kraut fett macht diese Differenz dann aber auch nicht – es bleibt beim Grundbild, das Kaby Lake primär nur durch seine höheren Taktraten punkten kann. Im Fall des Core i7-7700K ist das halt einfach weniger als beim Core i5-7600K, hier liegt der ganze Grund für die (etwas) abweichenden Performancegewinne bei diesen Kaby-Lake-Vorabtests. Ein großer Sprung vorwärts sieht sicherlich anders aus – aber Intel hatte wegen der verschobenen 10nm-Fertigung wohl einfach keine anderen Möglichkeiten, als noch einmal die letzten Reserven aus der 14nm-Fertigung herauszupressen. Theoretisch macht dies die Sache für AMD einfacher, mit Summit Ridge (Zen) zu glänzen – wobei AMD dafür natürlich auch erst einmal die passende Grundperformance, Taktraten, Preispunkte und Lieferbarkeit bieten muß.

28

Hardware- und Nachrichten-Links des 28. November 2016

Die PC Games Hardware bietet ein paar erste Grafikkarten-Benchmarks unter Watch Dogs 2 an. Aufgrund der hohen Hardware-Anforderungen des Spiels wurde dabei noch nicht einmal mit der maximalen Bildqualität getestet – dafür allerdings durchgängig mit dem für PC-Spieler kostenlos verfügbarem UltraHD-Texturenpack. Jenes macht laut den Ausführungen der PCGH aber erst ab 6 GB Grafikkartenspeicher wirklich Sinn, bei 3 GB Speicher reagiert jenes mit Zähflüssigkeit und bei 4 GB Speicher mit bemerkbaren Nachladerucklern. Bei der GeForce GTX 1060 3GB ist dieser Effekt sogar an den reinen Benchmarks abzulesen, diese meistens nur knapp 10% gegenüber der GeForce GTX 1060 6GB zurückliegende Karte ist unter Watch Dogs 2 schon unter FullHD gleich um 22% langsamer als die große 6-GB-Schwester. Im Feld der Grafikkarten mit 6 GB Speicher gibt es dann unter FullHD noch keine Performancesorgen, beispielsweise 47 fps für eine Radeon RX 480 8GB sind eigentlich ausreichend.

Unter höheren Auflösungen geht es dann bemerkbar herunter mit den fps-Werten, unter WQHD erreicht dieselbe AMD-Karte noch 36 fps (und nur GeForce GTX 980 Ti, 1070 & 1080 schaffen 50 fps), unter UltraHD wird es mit nur noch 21 fps auf der Radeon RX 480 8GB regelrecht unspielbar. Hier kommt allein eine werksübertaktete GeForce GTX 1080 noch auf 37 fps – auch nicht großartig, aber wohl doch noch ausreichend. Wahrscheinlich muß man für Watch Dogs 2 tatsächlich für jede Auflösung extra Settings festlegen, um noch auf spielbare Frameraten für eine größere Anzahl an Grafikkarten zu kommen. Daneben würde natürlich auch noch die Performance kleinerer Grafikkarten außerhalb des UltraHD-Texturenpacks interessieren, schließlich werden 6 GB Speicher für flüssige Bildraten nur von einem Bruchteil der heutzutage genutzten Grafikkarten geboten. Solcherart Messungen werden dann die Aufgabe weiterer Hardware-Testberichte zu Watch Dogs 2 sein, welches sich allerdings schon jetzt als das möglicherweise Hardware-fressendste Spiel des Jahres 2017 anläßt.

Obwohl es schon in der letzten Meldung genannt wurde, wäre hiermit nochmals zu thematisieren, das nVidia bislang keine DirectX-12-Treiber für Fermi-basierte Grafikkarten (GeForce 400/500 Serien) herausgegeben hat – obwohl nVidia einstmals die Fermi-Architektur klar als DirectX-12-fähig gekennzeichnet hat. Dies ist momentan sogar der einzige bekannte Fall, wo Hardware-Support und Treiber-Realität auseinandergehen – selbst Intel hat es inzwischen geschafft, DirectX-12-Treiber für Haswell sowie Vulkan-Treiber für Skylake herauszubringen. An dieser Stelle sollte nVidia in jedem Fall noch einmal nachlegen – oder aber sich wenigstens offiziell erklären, da die allermeisten der diesbezüglich im Internet zu findenden Meldungen halt noch auf den ursprünglichen nVidia-Aussagen basieren, demzufolge aus heutiger Sicht nunmehr falsch sind. Davon abgesehen sollte nVidia darüber nachdenken, ob man einmal gegebene Versprechen nicht sowieso grundsätzlich & zwingend erfüllen sollte.

Der Guru3D hat erste Preisnotierungen zu Intels Kaby-Lake-Prozessoren aus einem holländischem Onlineshop aufgeschnappt. Jene sehen noch vergleichsweise hoch bzw. nach typischen Vorlaunch-Aufschlägen aus, wenn beispielsweise der Core i7-7700K bei 434 Euro steht, dessen Skylake-Vorgänger Core i7-6700K jedoch für 339 Dollar in Intels Preisliste notiert wird. Selbst beim aktuell schlechten Dollar/Euro-Umtauschkurs dürfte der Einzelhandelspreis des Core i7-7700K eher in Richtung ~370 Euro gehen – zumindest so lange Intel nicht gerade für das Kaby-Lake-Portfolio höhere Listenpreise als für das Skylake-Portfolio ansetzt. Höhere Preise bei Intel-Prozessoren scheinen allerdings angesichts des kommenden Ansturms der Zen-Prozessoren als arg unwahrscheinlich – man könnte wenn dann eher über niedrigere Preise spekulieren, dem stehen allerdings die (gewohnheitsmäßig hohen) Gewinnerwartungen der Intel-Aktionäre entgegen.

28

Welche Grafikkarten & Prozessoren beherrschen welche Level von DirectX 11, DirectX 12 & Vulkan?

Nach einiger Zeit mal wieder zur aktualisieren sind die Übersichtslisten zum API-Support der Grafikchip-Entwickler, was dann auch integrierte Grafiklösungen umfaßt. Jene enthalten nunmehr auch extra Spalten zum Vulkan- sowie zum DirectX-11-Support – dabei kann in einigen Fällen das unter DirectX 11 erreichte Feature-Level eines Grafikchips sogar höher liegen als unter der DirectX-12-API (dies gilt dann, wenn ein Grafikchip unter DirectX 11 ein Feature-Level 11.2 beherrscht, welches jedoch unter DirectX 12 augenscheinlich nicht umgesetzt wurde). Alle getätigten Angaben beziehen sich auf den tatsächlich verfügbaren Support unter frei verfügbaren Treibern – und nicht reine Hardware-Fähigkeiten, für welche allerdings keine Treiber existieren. Ein Beispiel für eine diesbezügliche Differenz ist nVidias Fermi-Architektur der GeForce 400/500 Serien, welche technisch zu DirectX 12 in der Lage sind, für welche nVidia bislang aber keine DirectX-12-Treiber aufgelegt hat – und dies damit wohl auch nicht mehr tun wird.

Leider etwas unklar ist im Grafikchip-Bereich noch das DirectX 11 Feature-Level der GeForce 900/1000 Serien von nVidias Maxwell- und Pascal-Architekturen: Es gibt Hinweise darauf, das nVidia hier im Gegensatz zu früheren nVidia-Grafikchips dann doch (das bei nVidia früher verpönte) DirectX 11.1 umgesetzt hat. Ganz sicher läßt sich dies derzeit noch nicht sagen, da alle diesbezüglichen Herstellerangaben derzeit nur noch DirectX-12-Fähigkeiten beschreiben, DirectX 11 schon fast gar nicht mehr erwähnt wird. Der Rest der Angaben zu den echten Grafikchips basiert hingegen auf allgemein bekanntem Wissen, ist demzufolge sehr sicher:

Modelle DX11 Level DX12 Level Vulkan Level
AMD Terascale-Architektur Radeon HD 5000 & 6000 Serien 11.0 - -
AMD GCN1 Architektur Grafikchips Oland, Cape Verde, Pitcairn & Tahiti 11.2a 11_1 1.0
AMD GCN2 Architektur Grafikchips Bonaire & Hawaii 11.2b 12_0 1.0
AMD GCN3 Architektur Grafikchips Tonga & Fiji 11.2b 12_0 1.0
AMD GCN4 Architektur Radeon R400 Serie 11.2b 12_0 1.0
nVidia Fermi-Architektur GeForce 400/500 Serien 11.0 - -
nVidia Kepler-Architektur GeForce 600/700 Serien 11.0 11_0 1.0
nVidia Maxwell-1-Architektur Grafikchip GM107 (GeForce 750 Serie) 11.0 11_0 1.0
nVidia Maxwell-2-Architektur GeForce 900 Serie 11.1 (?) 12_1 1.0
nVidia Pascal-Architektur GeForce 1000 Serie 11.1 (?) 12_1 1.0

Bei den in Prozessoren intergrierten Grafiklösungen tauchen hingegen erneut wieder einige Wissenslücken auf, da die Hersteller hier gern mit Marketing-versetzten oder aber gleich gänzlich nebülösen Angaben operieren. Auf AMD-Seite kann man diese Lücken wegen der bekannten Abstammung der integrierten Grafiklösungen von bekannten GCN-Ausbaustufen ziemlich gut auffüllen, bei Intel ist das ganze jedoch manchmal mit gewissen Unsicherheiten behaftet. So wurden zur Broadwell-Grafik wahlweise DirectX 11.1 und DirectX 11.2 gemeldet – und bei den nachfolgenden Intel-Grafiklösungen wurde gar kein DirectX-11-Level mehr notiert, so daß man hier nur raten kann.

Modelle DX11 Level DX12 Level Vulkan Level
AMD Bobcat-Architektur APUs Hondo, Ontario & Zacate 11.0 - -
AMD Jaguar/Puma-Architektur APUs Temash, Beema, Kabini & Mullins 11.2b 12_0 1.0
AMD Llano-Architektur APU Llano 11.0 - -
AMD Trinity-Architektur APUs Trinity & Richland 11.0 - -
AMD Kaveri-Architektur APUs Kaveri & Godavari 11.2b 12_0 1.0
AMD Carrizo-Architektur APUs Carrizo, Stoney Ridge & Bristol Ridge 11.2b 12_0 1.0
Intel Silvermont-Architektur APU BayTrail 11.0 11_0 -
Intel Airmont-Architektur APUs CherryTrail & Braswell 11.2 (?) 11_2 -
Intel Ivy-Bridge-Architektur Core iX-3000 Prozessoren 11.0 11_0 -
Intel Haswell-Architektur Core iX-4000 Prozessoren 11.1 11_1 -
Intel Broadwell-Architektur Core iX-5000 Prozessoren 11.2 (?) 11_1 -
Intel Skylake-Architektur Core iX-6000 Prozessoren 11.2 (?) 12_1 1.0
Intel Kaby-Lake-Architektur Core iX-7000 Prozessoren 11.2 (?) 12_1 1.0

Wie beiden Auflistungen auch zu entnehmen, unterstützen nur ungefähr die Hälfte aller DirectX-12-fähigen Grafikkarten wirklich die neuen Hardware-Features von DirectX 12 in Form der Feature-Level 12_0 und 12_1. Deren reale Nutzung ist bislang allerdings noch nirgendwo aufgetaucht – sprich es gab keine Spieletitel, welche einen extra Renderpfad für diese Features mitgebracht hätten. Dies kann sich allerdings in absehbarer Zukunft durchaus ändern, denn zumindest im Grafikchip-Bereich ist schließlich (fast) alle ab dem Jahr 2014 neu in den Markt gekommene Hardware schon zu DirectX 12 mit Feature-Level 12_0 oder 12_1 fähig. Spätestens wenn neue Spieletitel irgendwann einmal als Mindestanforderung eine Radeon R9 380 oder GeForce GTX 960 vorsehen, lohnt sich für die Spieleentwickler die Nutzung dieser neuen Hardware-Features von DirectX 12.

Zeitlich noch etwas früher auf eine moderne LowLevel-APU könnten die Spieleentwickler allerdings setzen, wenn sie dagegen die Vulkan-API bevorzugen würden. Deren niedrigste Hardware-Anforderung beläuft sich gerade einmal auf Radeon R7 260 oder GeForce GTX 750 – etwas, dem heutige Hardware-Mindestanforderungen teilweise schon nahekommen und was zumindest in der Praxis heutiger AAA-Titel häufig schon erreicht wird. Das die Vulkan-API dann Plattform-unabhängig ist, man sich damit also nicht an Microsoft oder an Windows 10 bindet, ist als weitere Vorteile einzurechnen.

Inhalt abgleichen