16

Hardware- und Nachrichten-Links des 16. Juni 2015

Die offizielle Vorstellung der Radeon R300 und Radeon Fury Grafikkarten-Serien in der Nacht von Dienstag auf Mittwoch war nun leider etwas mager in Bezug auf detaillierte Informationen – jene tröpfeln derzeit nach und nach inoffiziell herein, was dann Thema späterer News-Beiträge sein wird. Allerdings hat AMD eine ganz vernünftige Show abgeliefert – und vor allem den Punkt erreicht, das man drüber spricht. Dies dürfte insgesamt nur positive Auswirkungen auf AMDs Standing bei den Gamern haben, wo ehrlicher- (aber fälschlicher-)weise vielerorts Grafikkarten einfach nur mit "GeForce" gleichgesetzt werden. Wie schon oft an dieser Stelle betont (und in jedem Betriebswirtschafts-Buch nachzuschlagen), wird ein starkes AMD jedoch als Gegenpol zu nVidia (und Intel im Prozessoren-Markt) benötigt, denn Monopole werden keinem wirklich gefallen, wenn sie einmal etabliert sind.

Trotzdem muß Kritik an der Entscheidung pro nur 4 GB HBM1-Speicher bei der Radeon R9 Fury /X erlaubt sein: AMD ist in den letzten Jahren beim Grafikkartenspeicher-Ausbau immer vorneweg gegangen, brachte Ende 2011 die Radeon HD 7970 mit 3 GB und Ende 2013 die Radeon R9 290X mit 4 GB. Beide diese früheren AMD-Grafikkarten kamen im übrigen zu einem Preispunkt von 549 Dollar daher, ergo preislich und auch von der Einordnung im Performance-Spektrum her niedriger angesetzt als nun die Radeon R9 Fury X zu einem Listenpreis von 649 Dollar und dem Ziel, sich bezüglich der Performance mit GeForce GTX 980 Ti & Titan X anzulegen. Gerade angesichts dessen, was die neue Konsolen-Generation an neuen Hardware-Anforderungen mit sich gebracht hat und dem Sturm des PC-Gamings in Richtung 4K/5K-Auflösungen sind 4 GB Grafikkartenspeicher für eine Enthusiasten-Grafikkarte des Sommers 2015 einfach zu kurz gesprungen – 8 GB müssen nicht zwingend sein, aber 6 GB wäre eigentlich das Minimum für eine solche Karte.

Jetzt ist daran natürlich nichts mehr zu ändern, aber AMD hätte diese Problematik bereits in der Design-Phase realisieren und dann umgehend beachten sollen. Man wird sehen müssen, wo dann die Speicher-Limits der Fury-Grafikkarten liegen, sprich wo deren 4 GB Speicher irgendwann ausgeschöpft wird. Als CrossFire-Lösung beispielsweise sind die Fury-Grafikkarten somit wenig geeignet, weil sich dort viel einfacher Situationen finden lassen, wo mehr als 4 GB Speicher (zugunsten einer wirklichen Ausnutzung der Rechenkraft mehrerer Grafikchips) benötigt werden. Dassselbe Schicksal dürfte dann auch die für den Herbst angesetzte DualChip-Grafikkarte auf Fiji-Basis ereilen, welch WCCF Tech im Platinen-Foto zeigen: Zwar eigentlich sehr interessant wegen des auch hier Fury-typisch kompakten Designs, aber rein praktisch als CrossFire-Lösung zu stark an der Speicherlimitierung der Fury-Serie hängend. AMDs Idee, mittels "Explicit Multiadapter Rendering" unter DirectX 12 den Speicher einer MultiChip-Lösung glatt addieren zu können, ist viel zu sehr Zukunftsmusik, um die Situation zu Lebzeiten des Fiji-Chips noch retten zu können.

Bisher dagegen noch nicht ganz so offensichtlich ist dagegen der klare Rebranding-Status der kleineren AMD-Grafikchips der Radeon R300 Serie: Trotz neuer Codenamen sind Grenada, Antigua, Trinidad & Tobago am Ende 1:1-Wiedergänger von Hawaii, Tonga, Pitcairn und Bonaire, den Pitcairn-Chip hat AMD damit inzwischen sogar zweimal umbenannt ("Curacao" für die Radeon R9 270 Serie). Diese Einschätzung wird durch die AMD-Webseite bestätigt, welche die Pitcairn/Trinidad-basierte Radeon R7 370 weiterhin als ohne Support für FreeSync und TrueAudio beschreibt (VSR ist dagegen dabei, wird also per Treiber gelöst). Damit dürften sich alle Träumereien über eventuell leicht veränderte Grafikchips erledigt haben – und natürlich schleppt damit die Radeon R300 Serie auch Altlösungen mit sich herum, denen diverse Checklisten-Features teilweise fehlen. Insbesondere der Pitcairn/Trinidad-Chip der Radeon R9 370 ist dabei auffällig, fehlt jenem als einziger der neuen AMD-Grafikkarten DirectX 12 in Hardware (nur in Software verfügbar, in Hardware liegt das Feature-Level bei 11.2a) sowie Support für AMDs FreeSync-Lösung.

Nach diesen Kritikpunkten gab es aber auch viel Lob für AMD für die Vorstellung der Radeon R9 Nano, der effizienz-optimierten Kompakt-Lösung auf Fiji-Basis. Hierbei wird AMD den Fiji-Chip auf diesen Taktraten laufen lassen, bei welchen das Performance/Stromverbrauchs-Verhältnis am besten ist – derzeit schätzt man dies auf vielleicht 150 Watt ein. Die Performance wird vielleicht nur wenig höher als bei der Radeon R9 290X oder 390X liegen, aber der Verbrauch der Karte bleibt im absoluten Rahmen selbst für Netzteile der 400-Watt-Klasse. Die Fury R9 Nano ist in jedem Fall der heimliche Star der ganzen AMD-Ankündigungsshow gewesen und es wird interessant sein, wie sich dieses Produkt dann am Markt schlägt. nVidia könnte durchaus versucht sein, ähnliches auf die Beine zu stellen – gerade der GM204-Chip ist schon ein ziemliches Effizienzwunder, welches man mit etwas Feinjustizierung in die gleiche Richtung wie die Radeon R9 Nano tweaken könnte.

16

AMD kündigt die Radeon R300 Serie zuzüglich vier Radeon Fury Grafikkarten an

Im Zuge des derzeit laufenden Webcasts hat AMD nunmehr die Radeon R300 Serie inklusive der Fury-Modelle offiziell angekündigt. Allerdings gibt es noch keine großartigen technischen Daten, genannt wurden erst einmal die Grafikkarten-Namen, deren Listenpreise und Veröffentlichungstermine. Terminlich den Anfang machen wird die Radeon R300 Serie am 18. Juni – jener Termin deutet an, daß es heute wohl keinen echten Launch geben wird, sondern daß dieser dann am kommenden Donnerstag stattfinden wird. Wenigstens gibt es nun die offiziellen Listenpreise zur Radeon R300 Serie zu sehen, welche gerade bei den kleineren Modellen deutlich freundlicher aussehen als es zuletzt zu befürchten war. Leider hat AMD allerdings nicht ausspezifiziert, für welche Speicherbestückung diese Listenpreise gelten – so daß man vermuten muß, daß bei den Modellen 370, 380 und 390 jeweils nur die kleinere Speicherbestückung gemeint ist.

Das höhere Augenmerk liegt natürlich auf der Fury-Serie auf Basis des neuen Fiji-Chips, zu welcher AMD gleich vier Modelle angekündigt hat. Terminlich am nächsten gelegen ist das SingleChip-Spitzenmodell "Radeon R9 Fury X", welches mit einer serienmäßigen Wasserkühlung und nunmehr inoffiziell bestätigt 4 GB HBM1-Speicher am 24. Juni erhältlich werden wird. Eine augenscheinlich abgespeckte Chip-Variante folgt am 14. Juli in Form der "Radeon R9 Fury" nach, jene wird eine serienmäßige Luftkühlung bieten. Im dritten Quartal wird mit der "Radeon R9 Nano" eine Sonderedition mit nur 15cm langer Platine antreten (die anderen Fury-Varianten kommen mit 19cm langen Platinen) – hierbei soll es sich um eine besonders energieeffiziente Lösung handeln, wozu der Fiji-Chip auf seinen energieeffizienten Sweetspot heruntergetaktet werden dürfte. Zu einem noch unbestimmten Termin in diesem Herbst will AMD dann noch eine dato noch nicht genauer benannte DualChip-Ausführung auf Fiji-Basis folgen lassen.

Grafikchip Kühlung Listenpreis umger. € Launch
Radeon R9 Fury "X2" 2x Fiji ? ? ? Herbst
Radeon R9 Fury X Fiji Wasser 649$ ~700€ 24. Juni
Radeon R9 Fury Fiji Luft 549$ ~600€ 14. Juli
Radeon R9 Nano Fiji Luft ? ? Q3
Radeon R9 390X Grenada (Hawaii) Luft 429$ ~460€ 18. Juni
Radeon R9 390 Grenada (Hawaii) Luft 329$ ~360€ 18. Juni
Radeon R9 380 Antigua (Tonga) Luft 199$ ~220€ 18. Juni
Radeon R7 370 Trinidad (Pitcairn) Luft 149$ ~165€ 18. Juni
Radeon R7 360 Tobago (Bonaire) Luft 109$ ~120€ 18. Juni

Die ebenfalls genannten Preise zu den beiden ersten Fury-Grafikkarten von 549 Dollar für die Radeon R9 Fury und 649 Dollar für die Radeon R9 Fury X erscheinen konkurrenzfähig, damit wird sich die normale Fury preislich mit der GeForce GTX 980 anlegen, die Fury X dann mit der GeForce GTX 980 Ti. Im weiteren Verlauf des Webcasts gab es dann doch noch ein paar technische Eckdaten zum Fiji-Chip, welche mit immerhin 8,9 Milliarden Transistoren (GM200: 8 Mrd.) und 8,6 TFlops nomineller Rechenleistung beim Spitzenmodell Radeon R9 Fury X (GeForce GTX Titan X: 6,6 TFlops) überaus stattlich ausfallen. Aus den ebenfalls bestätigten 4096 Shader-Einheiten läßt sich damit dann auch der (maximale) Chiptakt der Radeon R9 Fury X berechnen: Es sind – wie vermutet – 1050 MHz:

Viel mehr ist allerdings heute nicht zu erwarten – im Gegensatz zu dem eigentlich erwartetem Launch von wenigstens der Radeon R300 Serie hatte AMD für heute augenscheinlich nur eine Ankündigungs-Show vorgesehen. Selbst die Radeon R300 wird wie gesagt erst am 18. Juni wirklich ins Rennen gehen, daher dürfte es genauere Ausführungen und Benchmarks zu diesen Karten dann auch erst am Donnerstag geben. Die Radeon Fury X ist dann ein Thema für den 24. Juni, die Radeon Fury wird wie gesagt erst zum 14. Juli spruchreif.

16

Custom DSR Tool bietet bis zu 40x Downsampling Anti-Aliasing

Bislang bieten beide Grafikchip-Entwickler in Sachen Downsampling Anti-Aliasing maximal die 4fache Monitor-Auflösung an (sprich 2fache Breite mal 2fache Höhe) – was für eigentlich jede Hardware schon schlauchend genug ist. Aber es gibt wohl immer den prinzipiellen Wunsch nach "Mehr" – und deswegen kommt vom Schöpfer des nVidia-Tweaktools "NVIDIA Inspector" ein kleines Tool namens "Custom DSR Tool", welches dieses Problem für nVidia-Grafikkarten löst. Mittels des Custom DSR Tools können einfach neue Einträge in die Windows-Registry zugunsten von 9x DSR Anti-Aliasing (jeweils das 3fache der Breiten- und Höhen-Auflösung) und 16x (jeweils das 4fache der Breiten- und Höhen-Auflösung) DSR Anti-Aliasing gesetzt werden, in der Folge sind dann entsprechende Monitor-Auflösungen wählbar. Zusätzlich kann man den "Smoothness"-Grad separat einstellen:

Maximal ist sogar 40x DSR Anti-Aliasing auf einem 5K-Monitor möglich – ausgehend von der originalen 5K-Auflösung von 5120x2880 käme es dann durch 40x DSR zu einer extremen (internen) Auflösung von 32.381 x 18.214 Pixeln (jeweils das 6,32fache der Breiten- und Höhen-Auflösung). All zu viele Spiele sollten darunter nicht mit flüssigen Frameraten funktionieren, eventuell vielleicht einige sehr alte Titel. Aber genau hier liegt schließlich ein bekannter Zweitnutzen von Downsampling Anti-Aliasing – alte Spieletitel bestmöglich zu verschönern, welche auf heutiger Hardware extreme und damit auch extrem sinnlose Frameraten auswerfen. Ganz egal, ob der Optikgewinn zwischen 4x und 40x Downsampling gering sein mag – bei den passenden alten Spieletiteln ergibt dies kostenlos mehr Bildqualität, während die ansonsten erzeugten (extrem) hohen Frameraten sowieso wirkungslos am VSync verpuffen würden.

Nachtrag vom 28. Juni 2015

Diese Meldung zum Custom DSR Tool für nVidia-Grafikkarten von Mitte des Monats wurde noch einmal korrigiert – dahingehend, daß im Tool sogar 40x DSR (und nicht "nur" 16x DSR) einstellbar sind. Theoretisch wären sogar 64x DSR machbar, dies läßt sich derzeit nur nicht über das Tool selber einstellen – vielleicht ist das dann in einer nachfolgenden Version möglich. Jene wird sowieso dadurch notwendig, daß die aktuelle Version des Tools dummerweise unter dem neuesten nVidia-Treiber 335.30 nicht mehr funktioniert. Mit diesem neuen nVidia-Treiber sind die höheren DSR-Auflösungen nur über eine ältere Version des Custom DSR Tools erreichbar. Sobald nVidia die Arbeiten und kleinen Verbesserungen an DSR abgeschlossen hat, wäre natürlich eine finale Version des Tools zu begrüßen, welche alle maximal möglichen DSR-Einstellungen in möglichst handgerechter Form anbietet.

16

Eine Neubewertung der Performance von GeForce GTX 970, 980 und Titan X

Aufmerksamen Lesern wird bei der Lektüre der Launch-Analyse zur GeForce GTX 980 Ti eventuell aufgefallen sein, daß dort plötzlich neue Performance-Index-Werte für die GeForce GTX 980 und Titan X verwendet wurden: Bei der GeForce GTX 980 nicht 570%, wie zum Launch dieser Grafikkarte im letzten September, sondern nunmehr 600% – und bei der GeForce GTX Titan X nicht 720%, wie nach deren Launch in einer extra Betrachtung festgesetzt, sondern nunmehr 760%. Diese kurzfristigen Änderungen wurden notwendig durch die neuen vorliegenden Performance-Messungen, welche für die GeForce GTX 980 & Titan X einfach dieses verbesserte Performance-Bild im Vergleich zu den AMD-Grafikkarten und den früheren nVidia-Grafikkarten aufzeigten. Man kann sich dies letztlich selber anhand der von uns zur Verfügung gestellten kompilierten Performance-Werte errechnen – die alten Index-Werte passten vorn und hinten nicht zu den neuen Performance-Werten, deswegen war eine kurzfristig angestellte Neubewertung der beste Weg.

Jene Neubewerung wollen wir hiermit allerdings noch einmal richtig durchführen, mit mehr Werten und unter Hinzunahme der GeForce GTX 970. Denn im Endeffekt dürfte sich hier nur der typische Effekt einer neuen Grafik-Architektur zeigen, wie sie nVidia mit der Maxwell-Architektur gebracht hat – mit ein wenig Zeit für die Treiber-Arbeit sind da immer noch gewisse Prozentpunkte herauszuholen, speziell in den ersten Monaten nach dem Launch der neuen Architektur. Deswegen muß auch die GeForce GTX 970 mit in die Betrachtung hinein, denn auch bei jener zeigt sich dieser Effekt. Die GeForce GTX 960 kann dagegen eventuell später noch einmal neu betrachtet werden, derzeit liegen zu dieser Karte schlicht noch keine neuen Performance-Werte vor. Jene Karte dürfte jedoch aufgrund ihres sparsamen Speicherinterfaces sowieso immer Schwierigkeiten haben, eine bemerkbar bessere Performance hinzulegen – jede durch die Treiber-Arbeit freigelegte höhere reale Rechenleistung wird immer an der ungenügenden Speicherbandbreite der Karte festhängen. Damit gilt die nachfolgende Betrachtung erst einmal allein der Performance-Neubewertung von GeForce GTX 970, 980 und Titan X unter der für den 3DCenter Performance-Index maßgeblichen Auflösung von 1920x1080 samt 4x Multisampling Anti-Aliasing (wo verfügbar):

1920x1080 4xMSAA/FXAA/SMAA 290X (U) 780Ti 970 980 980Ti Titan X
HT4U  (17 Tests) 65,6% 78,7% - 86,6% 100% 105,4%
TweakPC  (18 Tests) 74,9% 76,9% 72,7% 83,5% 100% 107,9%
ComputerBase  (18 Tests) 70,4% 66,0% 67,7% 79,6% 100% 102,5%
Hardwareluxx  (9 Tests) 67,7% - - 81,6% 100% 102,2%
EuroGamer  (9 Tests) 65,0% - 69,7% 80,1% 100% 101,1%
Guru3D  (8 Tests) - - - 78,7% 100% 105,8%
LanOC  (7 Tests) 76,4% 74,6% - 84,0% 100% 103,4%
Neoseeker  (5 Tests) 71,7% 81,1% - 85,8% 100% 106,3%
Overclockers Club  (7 Tests) 67,0% 73,2% - 84,1% 100% 104,7%
PC Gamer  (5 Tests) 68,6% - 65,7% 84,1% 100% -
TechPowerUp  (21 Tests) 71% 74% 74% 82% 100% 103%
(gew.) Schnitt der Ergebnisse 70,6% 73,4% 71,2% 82,5% 100% 104,4%
3DCenter Performance-Index 520% 530% 490% -> 520% 570% -> 600% 730% 720% -> 760%
3DCenter 4K Performance-Index 70% 65% ~65% 75% 95% 100%

Unter Hinzunahme weiterer Werte ändert sich das Bild allerdings nur arg geringfügig (maximale Abweichung ein halber Prozentpunkt gegenüber dem Stand zum Launch) bzw. bestätigt sich jenes Bild damit eindrucksvoll: Die Maxwell-basierten Grafikkarten haben in der Tat an Performance gegenüber den älteren Modellen hinzugewonnen, egal ob es AMD- oder nVidia-Modelle sind. Zwischen Radeon R9 290X und GeForce GTX 780 Ti tut sich schließlich nichts – aber nunmehr kommt die GeForce GTX 970 nahe an diese GeForce GTX 780 Ti heran, zieht die GeForce GTX 980 deutlicher von jener weg und werden vor allem die Performance-Höhen, welche GeForce GTX 980 Ti und Titan X erklimmen, klarer herausgearbeitet. Dabei sind die erzielten Performance-Zugewinne gar nicht einmal wahnwitzig groß: Es handelt sich um Differenzen im Rahmen von 5-6% Mehrperformance – nur bei der Höhe, welche unsere Index-Zahlen inzwischen erreicht haben, ergibt dies dann eben doch einen bedeutsamen Unterschied für den Performance-Index.

In der Summe bestätigen wir damit den (schon zum Launch der GeForce GTX 980 Ti so genannten) neuen Performance-Index der GeForce GTX 980 von nunmehr 600% (vorher 570%) sowie den (ebenfalls schon zum Launch der GeForce GTX 980 Ti so genannten) neuen Performance-Index der GeForce GTX Titan X von 760% (vorher 720%). Zudem wird der Performance-Index der GeForce GTX 970 neu auf 520% festgesetzt (vorher 490%). Letztere Karte erreicht damit dann im übrigen denselben Performance-Index wie die Radeon R9 290X. Damit ist das Performance-Bild, welches der 3DCenter Performance-Index abgibt, (derzeit) wieder weitgehend passend.

15

Hardware- und Nachrichten-Links des 15. Juni 2015

Die kürzlich gemeldeten, recht hohen Preise zur Radeon R300 Serie seitens Gigabyte, MSI und Saphhire dürften neben den Punkten der allgemein höheren Preislangen von Herstellerdesigns und dem Effekt der Euro-Schwäche wohl auch noch einen anderen, sehr gewichtigen Grund haben: Denn wie wir seitens Sapphire erfahren haben, hat Sapphire gerade erst einmal am 15. Juni die finalen AMD-Preise für die Radeon R300 Serie erhalten. Die bisherigen in der Preisliste notierten Listenpreise waren reine Platzhalter – die natürlich auch vorab zu den Händlern gingen, denn jene mussten sich genauso auch auf die kommende Ware vorbereiten. Daher waren diese Preislistungen zumindest im Fall von Sapphire aber eben noch nicht final – und man darf gut und gern vermuten, daß die finalen Preise zur Radeon R300 Serie dann doch bemerkbar niedriger ausfallen werden.

Semiconductor Engineering berichten in zwei Beiträgen – No.1 & No.2 – über Schwierigkeiten und Zeitpläne zur 10nm-Fertigung der großen Chipfertiger Intel, TSMC, Samsung und GlobalFoundries. Im Normalfall erreichen einen hierzu nur die Jubelmeldungen der Chipfertiger, deren Zeitaussagen sich aber immer auch nur (bestenfalls) auf die interne Produktionsbereitschaft in Erstauflage beziehen – und natürlich nicht auf eine breit verfügbare Massenfertigung oder gar den Launch entsprechend gefertigter Produkte (wobei letzteres natürlich auch von außerhalb der Chipfertiger stehenden Faktoren abhängt). Insofern sind Aussagen von Industrie-Analysten ein erfrischender Gegenpart zu den Jubelmeldungen der Chipfertiger – auch wenn dann natürlich Wahrheiten ausgesprochen werden, wie daß 10nm-Chipdesigns gleich 4x soviel kosten werden wie 28nm-Chipdesigns und daher die allermeisten Chipentwickler in absehbarer Zeit nie auf die 10nm-Fertigung umsteigen werden.

Mag sich die kommende 14/16nm-Fertigung vielleicht in einiger Zeit als neues Standard-Fertigungsverfahren etablieren (derzeit ist das Standardverfahren aber erst einmal 28nm – kostengünstig, hohe Ausbeute & massig verfügbare Kapazitäten), gehört alles ab der 10nm-Fertigung in eine klare HighEnd-Schiene, welche nur noch bei Millionenauflage und entsprechender Wertigkeit der hergestellten Chips bemüht werden wird. Dies wird bei den unterhalb von 10nm befindlichen Fertigungsverfahren dann noch in jeweils verschärfter Form fortgesetzt werden. Hierbei lauern einige Stolpersteine für die weitere Entwicklung im CPU- und GPU-Markt: Selbst wenn noch kleinere Fertigungsverfahren eines Tages rein technologisch möglich sind, könnten die dafür aufzubringenden Kosten einfach zu hoch sein für die Masse der herzustellenden Chips – und wenn man nur mit kleiner Menge an Chips an die neue Fertigungstechnologie heran will, erhöht dies die Kostenlage pro Chip dann nochmals. Hier kann es durchaus zur Situation kommen, daß aus reinen Wirtschaftlichkeits-Gründen der technologische Fortschritt maßgeblich ausgebremst wird, daß es also über viele Jahre keine neue Fertigungstechnologie mehr gibt.

Der Performance-Fortschritt gerade im Grafikchip-Bereich würde in einer solchen Situation natürlich weitgehend zum Erliegen kommen, denn deren Performance-Fortschritte wurden über die letzten Dekaden primär durch jeweils neue Fertigungsverfahren erreicht. Sicherlich kann man auch Architektur-Verbesserungen anbringen (siehe nVidias Fortschritt bei der Maxwell-2-Architektur), aber dies macht man in aller Regel nur einmal und danach ist das Verbesserungspotential weitgehend ausgeschöpft. An der reinen Größe der Grafikchips kann man dagegen kaum noch drehen angesichts solcher Monster wie dem GM200-Chip mit 601mm² Chipfläche – aber vielleicht wird dies in langfristiger Zukunft notwendig werden, wenn der Fortschritt bei den Fertigungstechnologien zum Stillstand kommt. Die Chips noch größer zu machen, geht aber auch nur in einem limitierten Maßstab – und danach ist Schicht im Schacht, wäre ein weitgehender Performance-Stillstand erreicht. Andere Chip-Segmente werden hierauf ihre eigenen Lösungen finden, aber im Grafikchip-Bereich könnte in vielleicht 10 Jahren durchaus der Punkt erreicht sein, daß es aufgrund des fehlenden Fortschritts in der Chipfertigung nichts schnelleres mehr gibt bzw es nur noch extrem langsam vorwärts geht.

Die ComputerBase vermeldet den (teilweisen) Kauf von TransGaming durch nVidia – zumindest die "Graphics and Portability Group" von TransGaming, aber dies stellt im Sinne von nVidia und den Spielern auch den eigentlich interessanen Part dar. TransGaming beschäftigte sich lange Zeit mit verschiedenen Wegen der Portierung von DirectX-Spielen auf Linux und damit OpenGL, in jüngerer Vergangenheit war man auch stärker MacOS und Android zugeneigt. Durch die Übernahme dieser Entwicklung deutet nVidia sein eigenes starkes Interesse an, von DirectX und damit Windows unabhängiger zu werden – was im Sinne einer langfristigen Strategie nur vorteilhaft sein. Kurzfristig dürfte das nVidia-Interesse eher auf einer besseren Software-Auswahl für die nVidia-eigenen Android-Gerätschaften (Shield Konsolen & Tablets) liegen – langfristig gesehen darf man natürlich darauf hoffen, daß hierbei auch für das Linux-Gaming etwas allgemein verwertbares abfällt.

15

AMDs Bristol Ridge kommt im Sommer 2016, Zen nicht vor Ende 2016

Neben den Informationen zum Carrizo-Refresh "Bristol Ridge" bringen BenchLife in derselben Meldung auch noch eine Sample-Roadmap für AMDs 2016er Prozessoren-Angebot. Jene wird im Web vielfach als Launch-Roadmap betrachtet – es handelt sich aber wirklich nur um eine Sample-Roadmap für interne Zwecke, zu Auslieferungsterminen wird hierbei kein Wort verloren. Die am nächsten an einem Launch befindliche Angabe "IP" bezieht sich gerade einmal auf den Produktionsstart ("Initial Production"), dies kann dann noch Monate von einem Launch entfernt liegen. Bei der "Bristol Ridge" APU dürfte dieser Abstand eher kürzer ausfallen, schließlich stehen die hierfür benutzten Carrizo-APUs schon jetzt bereit und geht es eigentlich nur um die passenden Mainboards. Insofern kann man davon ausgehen, daß kurz nach Produktionsstart im Juli 2016 dann auch der offizielle Bristol-Ridge-Launch ansteht.

AMD 2016 Platform Samples Schedule
AMD 2016 Platform Samples Schedule
(ES = Engineering Samples, PC = Production Candidates Samples, PR = Production Ready Samples, IP = Initial Production)

Bei den Zen-basierten "Summit Ridge" Prozessoren ist dies gänzlich anders zu betrachten: Deren Produktionsstart wird gerade einmal für den Oktober 2016 angegeben – da ist dann nicht mehr viel Zeit bis zum Jahresschluß. Sofern sich "Summit Ridge" nicht gänzlich verspätet, wird AMD sicherlich versucht sein, den offiziellen Launch irgendwie noch vor Jahresschluß 2016 unterzubringen, mit großen lieferbaren Kontingenten von "Summit Ridge" sollte man für das Jahr 2016 aber eher nicht rechnen. Sofern es ungünstig läuft – und angesichts von neuer Architektur und neuer Fertigung gibt es reihenweise Ansatzpunkte für so etwas – wäre ein 2016er Termin aber nicht mehr zu halten und kann es schnell auch erst Frühling 2017 werden. So oder so geht die Zen-Architektur damit immer mehr in die Richtung, eher denn in Konkurrenz zu Intels 2017er Cannonlake-Architektur als in Konkurrenz zu Intels 2015er Skylake-Architektur treten zu müssen.

Inhalt abgleichen