1

Aktualisierte AMD & nVidia Grafikkarten-Roadmap für das Jahr 2015

Die letzte AMD & nVidia Grafikkarten-Roadmap stammt noch vom Februar, war somit (weit) vor dem Release von AMDs neuen Grafikkarten angelegt und beeinhaltet demzufolge auch noch nicht die Entwicklungen & Erkenntnisse rund um die inzwischen releasten neuen AMD- und nVidia-Grafikkarten. Jene wurden nun selbstverständlich in die neue Roadmap hinzugetragen – zuzüglich der wenigen noch zu erwartenden weiteren Grafikkarten aus der aktuellen 28nm-Ära. Faktisch kommen nun nur noch diverse Programmergänzungen – und danach der klare Schnitt mit den Beschleunigern der 14/16nm-Ära, was aber ein Thema des Jahres 2016 sein wird und wofür derzeit einfach noch zu wenige Informationen vorliegen. Insofern darf man diese Roadmap als abschließendes Dokument der 28nm-Ära betrachten – nachfolgende Roadmaps werden dann hoffentlich auch schon Informationen über die 14/16nm-Grafikchips enthalten. In der 28nm-Ära sind hingegen noch die folgenden Programmergänzungen zu erwarten:

  • Radeon R9 Fury X2
    DualChip-Ausführung auf Basis des Fiji-Chips – Release: Herbst 2015
  • Radeon R9 Fury
    abgepeckte Fiji-Variante mit Luftkühlung – Release: 14. Juli 2015
  • Radeon R9 Nano
    abgepeckte Fiji-Variante mit besonderen Augenmerk auf eine hohe Energieeffizienz – Release: drittes Quartal 2015
  • Radeon R7 360X, R7 370X & R9 380X
    Vollausbau der Grafikchips Bonaire, Pitcairn und Tonga innerhalb der Radeon R300 Serie – Release: vermutlich Herbst/Winter 2015
  • GeForce GT 940 & GTX 950
    GM107-basierte Grafikkarten für die GeForce 900 Serie in Ersatz der (Chip-gleichen) GeForce GTX 750 & 750 Ti – Release: vermutlich Herbst/Winter 2015
  • GeForce GTX 950 Ti
    abgepeckte GM206-Variante für den Preisbereich um die 150 Dollar/Euro in Ersatz der GeForce GTX 660 – Release: vermutlich in den nächsten Wochen
  • GeForce GTX 960 Ti
    nochmals abgespeckte GM204-Variante, um die sehr große Lücke zwischen GeForce GTX 960 & 970 zu füllen – Release: vermutlich Sommer/Herbst 2015

PS: Eine alternative Grafikkarten-Roadmap findet sich bei der PC Games Hardware.

30

Hardware- und Nachrichten-Links des 30. Juni 2015

Videocardz berichten über eine weitere Auskopplung des GM206-Chips, an welcher nVidia arbeitet: Der "GM206-250" soll in das "budget mid-range Segment" gehen – was ziemlich klar auf den Preisbereich von grob 150 Dollar hindeutet und damit letztlich eine abgespeckten GM206-Variante unterhalb der GeForce GTX 960 andeutet. Jene könnte schlicht mit einem Shader-Cluster weniger als die GeForce GTX 960 antreten, dies würde dann 896 Shader-Einheiten an einem 128 Bit DDR Speicherinterface ergeben (an letzterem dürfte nVidia sicherlich nichts ändern, jenes ist knapp genug). Samt nicht ganz so hohen Taktraten wie bei der GeForce GTX 960 sind somit sicherlich gut 20% Performance-Differenz zur GeForce GTX 960 erreichbar – eine ideale Lösung, um die im Preisbereich von grob 150 Euro erstaunlicherweise immer noch verkaufte GeForce GTX 660 endlich aufs Altenteil schicken zu können. Wenn die neue Karte ähnlich energieeffizient wie die bisherigen Maxwell-Beschleuniger wird, kann das ganze zu ~85 Watt Spiele-Stromverbrauch über die Bühne gehen – für gewisse Anwendungszwecke eine sicherlich nutzvolle Lösung. Leider dürfte die neue Karte sicherlich auf 2 GB Grafikkartenspeicher beschränkt sein, ist also nur für Nutzer kleinerer Auflösungen bzw. ohne jeden Aufrüstanspruch oberhalb von FullHD interessant. Namenstechnisch drängt sich im übrigen "GeForce GTX 950 Ti" auf, im 960er Namensfeld ist schließlich unterhalb der schon existierenden GeForce GTX 960 kein Platz mehr.

Jene "GeForce GTX 950 Ti" und eventuell weitere kommende Grafikkarten der GeForce 900 Serie am unteren Ende des Angebotsportfolios dürften letztlich wohl auch der Grund sein, wieso AMD bei seiner Radeon R300 Refresh-Generation nur Radeon R9 380, Radeon R7 370 & 360 aufgelegt hat – und keine 360X, 370X und 380X: Wie bekannt kommen die derzeit vorliegenden 360, 370 und 380er Karten nicht im Vollausbau der benutzten Grafikchips Bonaire, Pitcairn & Tonga daher – eine in dieser Breite bislang nicht vorgekommene Situation, wo gleich mehrere Grafikchips nicht im Vollausbau angeboten werden. Aber aller Vermutung nach will sich AMD hierbei von nVidia nicht die Butter vom Brot nehmen lassen – und wartet ab, daß sich nVidia mit seinen kleineren GeForce-900-Varianten zuerst offenbart, um dann genüßlich mit 360X, 370X und 380X nachziehen zu können. Während es im HighEnd-Bereich eher darum geht, so schnell wie möglich seine Top-Lösungen herauszuwerfen, damit einem die Konkrrenz nicht zuvorkommen kann, läuft im Mainstream-Segment eher das umgekehrte Spiel ab: Wer zuerst herauskommt, läuft Gefahr, daß der Kontrahent in Kenntnis dieser Daten dann kurz darauf zielgerichtet antwortet – und zwar punktgenau mit gleicher oder besserer Performance. Aus dieser Problematik heraus kann es sogar passieren, daß Hardware-Launches bewußt verschleppt werden – die vorgenannte "GeForce GTX 950 Ti" hätte nVidia beispielsweise sicherlich schon zum Jahreswechsel bringen können, der GM206-Chip hatte sein Tape-Out schließlich zum gleichen Zeitpunkt wie der GM204-Chip von GeForce GTX 970 & 980.

KitGuru bringen einmal mehr ein wildes Gerücht in dieser Form, als daß (angeblich) Microsoft AMD übernehmen willHeise ergänzen jenes Gerücht noch um die Variante, daß (angblich) Qualcomm AMD übernehmen wolle. Welchen Gehalt beide Gerüchte haben, ist nicht nachprüfbar – aber für Außenstehende hört sich das ganze nicht besonders glaubwürdig an. Microsoft und Qualcomm können mit AMD relativ wenig anfangen und würde sich nur neue Klötze ans Bein in Märkten binden, in welchen man bislang gar nicht vertreten ist. Sinn macht eine AMD-Übernahme eher nur für ein Unternehmen, welches entweder ein direkter Marktteilnehmer ist oder sich möglichst breit aufstellen will – dies trifft auf eher wenige Unternehmen zu, die meisten versuchen sich derzeit eher auf ihr Kerngeschäft zu konzentrieren. Es könnte allerhöchstens passieren, daß ab einem gewissen Punkt eine AMD-Übernahme ein Schnäppchen angesichts der von AMD gehaltenen Patente und Technologien darstellen könnte – aber wo dieser Punkt erreicht ist, dürfte erneut für Außenstehende schwer einzusehen sein. "Preisgünstig" ist AMD in jedem Fall geworden – der Börsenwert des Unternehmes beträg aktuell nur noch 2 Milliarden Dollar – weit weg vom Zustand zur ATI-Übernahme anno 2006, wo AMD noch 5,4 Milliarden Dollar für den Zukauf zahlte und seinerzeit auf einen Börsenwert von immerhin 15 Milliarden Dollar kam.

30

AMD Radeon R200/R300: Der Performance-Schub durch den Launch-Treiber

Ein überaus suboptimaler Punkt der Hardware-Tests zum Launch der Radeon R300 Serie war die durchgehende Messung der Radeon R300 Serie auf einem speziellen Launch-Treiber ("Catalyst 15.15"), welcher der vorhergehenden Radeon R200 Serie – trotz gleicher Chipbasis – zumindest offiziell nicht zur Verfügung stand. Auch die teils komischen Performance-Ergebnisse deuteten dann indirekt darauf hin, daß die gute gemessene Performance der Radeon R300 Serie zum Teil durch eben jenen Launch-Treiber bevorteilt wird. HT4U wollten es an dieser Stelle genauer wissen – und haben den Launch-Treiber für die Radeon R300 Serie modifiziert und auf eine Radeon R9 290X losgelassen. Die Gesamtauswertung aller HT4U-Benchmarks bringt leider nur eher uninteressante Performance-Gewinne von 1-2% hervor – sicherlich auch limitiert durch einen krassen Treiberfehler bei "Metro: Last Light Redux", welches mit dem Launchtreiber sehr viel erheblich schlechter läuft (wieder gefixt mittels des nachfolgenden Catalyst 15.6 Beta-Treibers). Die manuelle Auswertung der Benchmark-Ergebnisse zwischen dem Catalyst 15.4 Beta und dem AMD-Launchtreiber zeigt dagegen durchaus interessante Ergebnisse auf:

Durchschnitt
(19 Tests)
Durchschnitt ohne "Metro: Last Light Redux" bemerkbare Zugewinne
1920x1080 4xMSAA/FXAA/SMAA -0,1% +2,1% Assassins Creed: Unity +7,8%
GTA V +18,1%
The Elder Scrolls V: Skyrim +5,5%
2560x1440 4xMSAA/FXAA/SMAA +0,3% +1,8% Assassins Creed: Unity +7,5%
GTA V +11,9%
3840x2160 4xMSAA/FXAA/SMAA +0,6% +1,4% Battlefield 4 +6,7%
GTA V +7,3%

So können einzelne Spiele durchaus gut zugewinnen – je kleiner das Testfeld wird, um so stärker dürfte sich dies dann auch auf die gemittelte Performance durchschlagen. Bei den fast 20 Benchmarktiteln von HT4U verlieren sich die guten Performancegewinne unter Assassins Creed: Unity, Battlefield 4, GTA V und The Elder Scrolls V: Skyrim dann jedoch wieder etwas, es bleibt bei den grob 2% Performancegewinn über alle Spieletitel hinweg. Unter kleineren Testfeldern mit beispielsweise nur 8 oder 12 Testtiteln wird dieser Effekt aber wie gesagt entsprechend höher ausfallen, hochgerechnet in Richtung 3-4% über alle Spieletitel hinweg.

Doch ist diese also zwischen 2-4% Zugewinn liegende bessere Treiber-Performance ausreichend, um die die Benchmark-Ergebnisse der Radeon R300 Serie erklären zu können? Bei der Radeon R9 390X könnte dies klappen: Jene Karte liegt laut den Launch-Tests um ca. 10% vor der Radeon R9 290X. Dafür stehen als Erklärung nunmehr 5% mehr Chiptakt, das verbesserte Power-Managment (mit längerem Halten des Maximal-Takts) und nunmehr jene Treiber-Verbesserungen im Rahmen von 2-4% zur Verfügung – für die Radeon R9 390X reicht dies in jedem Fall zur Erklärung der ansonsten ungewöhnlich hohen Mehrperformance. Dies bedeutet allerdings auch, daß die Radeon R200 Serie durch den neuen Treiber nicht bedeutsam hinzugewinnt – und zumindest so lange hierzu keine erschöpfenden Ausarbeitungen anderer Quellen vorliegen, bleiben deren Performance-Einstufungen damit erst einmal bestehen.

29

Hardware- und Nachrichten-Links des 29. Juni 2015

Die PC Games Hardware empfiehlt als Sofortmaßnahme zum Problem des Pumpenfiepens der Radeon R9 Fury X ein schlichtes Stück Schaumstoff, welches auf die Pumpe gelegt wird, bevor man die Grafikkarten-Abdeckung wieder montiert (der ganze Akt im Bild) – damit sank bei der PCGH die Geräuschbelastung von 1,3 auf 1,1 sone. Das grundsätzliche Fiepgeräusch ließ sich damit leider nicht ausschalten – und je nachdem wie man subjektiv auf solcherart hochfrequente Geräusche reagiert, wird man mit dieser Lösung eventuell weiterhin unglücklich sein. Problematischerweise sind gerade solcherart Geräusche zwar im Sinne von Meßgeräten dämmbar, aber im Sinne des menschlichen Gehörs auch bei sehr niedrigen Pegeln gut wahrnehmbar. Bislang ist die Geräuschbelastung durch die Radeon R9 Fury X bei frühen Käufern gemäß der gesammelten Erfahrungsberichte in unserem Forum nicht gut angekommen: 5 negative Berichte bei nur 2 positiven Berichten sind recht eindeutig – und sagen zudem aus, daß die Problematik glasklar auch bei den jetzt ausgelieferten Retail-Modellen existiert, die von AMD versprochene zweite Pumpen-Charge entweder noch nicht im Handel oder sogar wirkungslos ist.

HT4U sehen in Intels kürzlich eingeschobener dritter 14nm-Architektur "Kaby Lake" einen Bruch von "Moore's Law" aufgrund der augenscheinlich weiteren Verzögerung von Intels 10nm-Fertigung – was stimmt und dann doch wieder nicht stimmt. Sicherlich verzögern sich neue Fertigungsverfahren zusehens – wir sind weit weg von den Zuständen der letzten Dekade, wo es nahezu jedes Jahr ein neues Fertigungsverfahren gab (wenn auch oftmals nur Half- und Fullnodes im Wechsel). Aber "Moore's Law" kann man wiederum schwerlich an den Zuständen im CPU-Markt festmachen, denn dort ist jenes schon jetzt deutlich angeknackst: Die Komplexität der Schaltungen mag steigen, wirklich mehr CPU-Performance kommt seit einigen CPU-Generationen jedoch nicht heraus. Dabei ist es gar nicht einmal Unwille oder technische Limitationen, welche die weitere CPU-Entwicklung verhindern: Intel musste in den letzten Jahren schlicht zusehen, AMD nicht vollens abzuhängen – und hat die frei werdenden Reserven zum einen in den Aufbau inzwischen konkurrenzfähiger integrierter Grafiklösungen gesteckt, zum anderen aber einfach seine Marge über immer kleiner werdende Chips verbessert.

Insofern ist der CPU-Markt mangels funktionierendem Wettbewerbs momentan einfach ein schlechtes Beispiel für "Moore's Law". Das Wirken dieser Gesetzmäßigkeit ist besser im GPU-Markt zu beobachten, wo beide Grafikchip-Entwickler regelmäßig an die Grenzen dessen gehen, was die Fertigungsverfahren hergeben. Im GPU-Markt gibt es zwar derzeit eine gewisse Fortschrittsblockade durch das Auslassen der 20nm-Fertigung, aber mit der kommenden 14/16nm-Fertigung wird diese (wahrscheinlich eindrucksvoll) hinweggefegt werden, bestätigt sich "Moore's Law" dann doch wieder. Ob es zudem mit der 10nm-Fertigung wirklich zu Problemen kommt, ist auch besser im GPU-Markt zu beobachten, da dort die Grafikchip-Entwickler AMD und nVidia nicht wie Intel auf die hauseigene 10nm-Fertigung limitiert sind, sondern im Idealfall die Auswahl zwischen den drei Auftragsfertigern GlobalFoundries, Samsung und TSMC haben. Jene werden sich im Gegensatz zu (nur im eigenem Saft stehenden) Intel extrem puschen, um die lukrativen Aufträge der großen Chipentwickler AMD, Apple, Mediatek, nVidia, Qualcomm und Samsung zu erhalten – dort wo noch Wettbewerb herrscht, greift "Moore's Law" offenbar viel besser.

29

Umfrage-Auswertung: Welche Auflösung und AA-Setting wird üblicherweise verwendet (2015)?

Eine Umfrage von Ende Mai fragte – in Wiederholung einer 2012er Umfrage – nach den derzeit üblicherweise verwendeten Spiel-Auflösung und Anti-Aliasing-Settings. In der Zwischenzeit hat sich einiges getan, sind 4K- und 5K-Auflösungen neu hinzugekommen und hat ganz allgemein ein Trend weg von kleineren Auflösungen eingesetzt. Weiterhin die klar häufigste benutzte Auflösung bleibt aber FullHD aka 1920x1080 oder 1920x1200 – mit heuer 61,2% zum Stand von 2012 (60,9%) nahezu unveränderten Wert im übrigen. Die große Bewegung hat an den Flanken stattgefunden: Gab es 2012 immerhin noch 30,1% Nutzer unterhalb von FullHD und nur 9,0% oberhalb von FullHD, so hat sich dieses Verhältnis nunmehr nahezu komplett umgedreht: 2015 gibt es nur noch 12,5% Nutzer unterhalb von FullHD, dafür aber gleich 26,3% Nutzer oberhalb von FullHD. Gleichfalls ist 2560x1440 mit nunmehr 17,9% Nutzeranteil klar zur zweitwichtigsten Auflösung aufgestiegen und hat in dieser Frage 1680x1050 (weit) zurückgedrängt.

Deutlich weniger Bewegung gab es in der Frage der benutzten Anti-Aliasing-Settings: Der Anteil der Nutzer mit geringfügigem, einfachem oder gar keinem Anti-Aliasing nahm leicht zu (38,6% zu früher 31,8%), der Anteil der Nutzer von 4x Multisampling Anti-Aliasing dagegen leicht ab (37,7% zu früher 42,9%) – sicherlich auch eine Folge der gestiegenen Auflösungen, welche aus Performancegründen teilweise kein 4xMSAA (zu spielbaren Frameraten) mehr zulassen. Die Nutzung höherer MSAA-Modi als 4x Multisampling Anti-Aliasing ist dagegen klar von früher 14,0% auf nunmehr nur 9,7% zurückgegangen – hier dürften ebenfalls Performancegründe eine Rolle spielen, genauso aber auch der Blick hinzu anderen Anti-Aliasing-Arten. Die Nutzung von Supersampling oder Downsampling Anti-Aliasing hat schließlich im gleichen Maße von 11,3% auf 14,0% zugelegt und erreicht damit inzwischen eine beachtbare Anhängerschaft.

Die Auswertung der AA-Settings pro einzelner Auflösung zeigt zum einen die Konzentration von 4x Multisampling Anti-Aliasing auf die FullHD-Nutzer und nachfolgend ein rückläufiges Interesse an diesem AA-Setting mit steigender Auflösung – und zum anderen ein klares Bekenntnis zu niedrigem oder gar keinem Anti-Aliasing unter den 4K- und 5K-Auflösungen. Dies dürfte sicherlich primär der dafür notwendigen (extremen) Rohleistung geschuldet sein, welche heutige Grafikkarten kaum bringen können – gleichfalls kann man natürlich argumentieren, daß unter solchen Ultra-Auflösungen ein zusätzliches Anti-Aliasing nicht mehr als zwingend notwendig erscheint. Ob dies nur ein zwischenzeitlicher Effekt aus Performancegründen ist, wird man sehen können, wenn eines Tages Beschleuniger in den Markt kommen, welche 4K zusammen mit 4xMSAA (problemlos) ableisten können.

1680x1050 1920x1080 2560x1440 4K/5K MultiMonitoring
kein AA oder MLAA, FXAA, max. 2xMSAA 41,0% 32,3% 47,3% 76,6% 38,8%
4xMSAA 36,5% 41,8% 31,9% 12,8% 40,0%
höhere MSAA-Modi als 4x 9,8% 10,4% 8,9% 2,8% 11,2%
SSAA oder Downsampling 12,7% 15,5% 11,9% 7,8% 10,0%
28

Hardware- und Nachrichten-Links des 27./28. Juni 2015

Noch zwei kleine Anmerkungen zur Radeon R9 Fury X: Es gab Gerüchte über eine besseren, von den meisten Hardware-Tests jedoch nicht beachteten Treiber für die neue AMD-Karte. Allerdings scheint das ganze wohl Fake zu sein – und selbst wenn es dafür keine Anzeichen gäbe, gilt die einfache Weisheit, daß AMD bei Vorhandensein eines besseren Treibers doch selbstverständlich auf offizielle Nachtests bestehen würde. Gleichfalls erreicht uns die Kunde, daß es keine Mantle-Optimierungen für GCN 1.2 gibt (und geben wird), Mantle damit auf den AMD-Grafikchips Tonga und Fiji wahrscheinlich sogar schlechter als unter DirectX 11 laufen wird. Einmal abgesehen davon, daß man damit das "Mantle"-Prädikat der Radeon R9 Fury X eigentlich aberkennen müsste, zeigt sich hiermit auch, daß Mantle bei AMD faktisch tot ist – AMD wird hierfür nichts mehr tun, sondern konzentriert alle Arbeit nur noch auf DirectX 12 und Vulkan (für welches Mantle breitflächig Pate stand).

Die Meldung zum Custom DSR Tool für nVidia-Grafikkarten von Mitte des Monats wurde noch einmal korrigiert – dahingehend, daß im Tool sogar 40x DSR (und nicht "nur" 16x DSR) einstellbar sind. Theoretisch wären sogar 64x DSR machbar, dies läßt sich derzeit nur nicht über das Tool selber einstellen – vielleicht ist das dann in einer nachfolgenden Version möglich. Jene wird sowieso dadurch notwendig, daß die aktuelle Version des Tools dummerweise unter dem neuesten nVidia-Treiber 335.30 nicht mehr funktioniert. Mit diesem neuen nVidia-Treiber sind die höheren DSR-Auflösungen nur über eine ältere Version des Custom DSR Tools erreichbar. Sobald nVidia die Arbeiten und kleinen Verbesserungen an DSR abgeschlossen hat, wäre natürlich eine finale Version des Tools zu begrüßen, welche alle maximal möglichen DSR-Einstellungen in möglichst handgerechter Form anbietet.

Der TechSpot hat sich die neuesten Braswell-SoCs auf Basis der Airmont-Architektur im Vergleich zu den vorhergehenden Silvermont-basierten SoCs angesehen. Bei der CPU-Architektur sind erst einmal keine augenscheinlichen Unterschiede hinzugekommen – dafür kommt Airmont mit einer vierfach so breiten Grafiklösung (16 anstatt 4 EU) und dem Sprung auf die 14nm-Fertigung daher. Zudem hat Intel die CPU-Taktraten erstaunlicherweise etwas niedriger angesetzt – nicht so deutlich beim Turbo-Modus (2.4 statt 2.67 GHz), aber dafür sehr deutlich beim nominellen Takt (1.6 anstatt 2.4 GHz, verglichen jeweils die Topmodelle Pentium N3700 vs. Pentium J2900). Dies ergibt wenigstens einen klar niedrigeren Stromverbrauch von gut 25% weniger – aber dafür auch etwas weniger CPU-Leistung (9% weniger) bei wenigstens deutlich mehr iGPU-Leistung (40% mehr). Interessant der Vergleich zu einem selten in diesem Zusammenhang mitgetesteten Core i3-4130: Jener Zweikern-Prozessor der Haswell-Riege hat gegenüber dem Silvermont-basierten Pentium N3700 satte 144% mehr CPU- und immerhin noch 74% mehr iGPU-Leistung aufzubieten.

Inhalt abgleichen