13

Hardware- und Nachrichten-Links des 13. November 2014

Von AMDs Cheftechniker Richard Huddy kommt per YouTube eine klare Aussage, daß es kein DirectX 12 für Windows 7 geben wird. Dies kommt allerdings nicht wirklich überraschend, ähnliches wurde von Anfang an so vermutet. Die eigentliche Frage wird eher sein, ob es DirectX 12 auch noch auf Windows 8.1 schafft – wobei dies wohl allein dem Willen Microsofts unterliegt, die Spielepublisher dürften hierzu zwar ihre Stellungnahmen abgeben, aber letztlich nicht von Microsoft gehört werden. Genauso muß gesagt werden, daß das Fehlen von DirectX 12 auf Windows 7 wahrscheinlich nicht bedeutet, daß es die neuen Hardware-Features von DirectX 12 nicht auf Windows 7 geben wird. Genau in diese Lücke dürfte DirectX 11.3 springen, welches vermutlich alle Hardware-Features von DirectX 12 bietet, nicht aber die Mantle-artige CPU-Beschleunigung, mit welcher man DirectX 12 in aller Regel zuerst verbindet. Den vielen Kursivschreibungen ist jedoch schon zu entnehmen, daß dies alles derzeit nur gute Annahmen unsererseits darstellen, feststehende Aussagen zum Thema seitens Microsoft derzeit immer noch Mangelware sind.

Die PC Games Hardware hat sich die Performance einer vier Jahre alten SSD im Vergleich mit einem aktuellen SSD-Modell angesehen – um zu sehen, wieviel die neueren Geräte bei der Performance zulegen konnten. Als Altmodell kam eine "Samsung SSD 470 256GB" zum Einsatz, welche seinerzeit 560 Euro kostete, als neues Modell eine "Plextor M6 Pro 256GB", welche für 150 Euro zu bekommen ist. Das seinerzeitige SSD-Modell war natürlich noch auf SATA2 ausgerichetet und kommt daher mit heutzutage nicht mehr modernen (offiziellen) Lese- und Schreibraten knapp oberhalb von 200 MB/sec daher. In der Praxis der Messungen ergaben sich die größten Unterschiede aber nur bei theoretische Lasten erzeugenden Benchmarks sowie (in abgeschwächter Form) beim Windows-Start, während sich beim Einladen von Spielständen erstaunlicherweise nur minimalste Differenzen zeigten. Technisch ist die 2014er SSD deutlich schneller, in der Praxis kommt dies jedoch nur eher selten zum tragen. Die nicht meßbare typische "Schwuppdizität" einer SSD dürfte sicherlich bei beiden SSDs gegeben sein.

Insofern ergibt sich nach diesen Benchmarks nicht zwingend der Rat, von einer älteren, langsameren SSD unbedingt auf eine neue, schnellere SSD zu wechseln – zumindest nicht aus Performance-Gründen. Dieses Urteil gilt aber nur so lange, wie es sich bei der älteren SSD um Modelle mit 240/256 GB (oder mehr) Speicher handelt, welche also zum Kaufzeitpunkt Spitzen-Modelle darstellten. Kleinere Modelle mit 60/64 oder 120/128 GB boten damals wie heute nur abgespeckte SSD-Interfaces respektive Bandbreiten an, hier kann der Wechsel auf eine moderne SSD mit 250/256 GB Größe durchaus einiges an auch praktisch nachvollziehbarer Mehrperformance einbringen. Daneben dürften die Besitzer von älteren SSDs heutzutage natürlich vor allem die (vergleichsweise) günstigen Preise für SSDs mit großen Speichergrößen reizen – hier dürfte eher der Hauptantrieb dafür liegen, von einer älteren SSD auf ein neueres Modell zu wechseln.

Wie Heise ausführen, wird nVidia seinen Spielestreaming-Service "GRID" noch im November in den USA an den Start bringen, Westeuropa soll im Dezember nachfolgen, Deutschland wegen der Jugendschutzproblematik allerdings erst im ersten Halbjahr 2015. Vorerst wird "GRID" nur mit nVidias Shield sowie dem Shield-Tablet funktionieren, stellt so gesehen also noch keinen großen Angriff auf die anderen Spielestreaming-Anbieter dar, sondern eher eine weitere Werbeaktion für diese nVidia-Gerätschaften. In jedem Fall wird nVidia aber somit eigene, praktische Erfahrungen auf diesem Gebiet sammeln, welche bei der Weiterentwicklung der Spielestreaming-Idee helfen werden. In den Rechenzentren werden natürlich nur nVidia-Grafikkarten laufen, womit nVidia regulär nichts verloren geht – bis allerdings zu dem (theoretischen) Punkt in der Zukunft, wo keiner mehr extra Grafikkarten kauft und alles nur noch effizient über Rechenzentren abläuft, mit deutlich geringerem Hardware-Einsatz natürlich. Zu diesem (theoretischen) Punkt wird es allerdings nicht kommen, so lange das Problem der zusätzlichen Latenz besteht – deren Effekt sich nur in der Praxis von "GRID" wirklich ermessen läßt.

13

Umfrage-Auswertung: Produziert die Grafikkarte ein hörbares Fiepen (2014)?

Die Umfrage der letzten Woche ging – aus aktuellem Anlaß – mal wieder der Frage nach, in wie weit Spulenfiepen bei heutigen Grafikkarten verbreitet ist. Eine solche Umfrage gab es schon einmal im Januar 2012, seinerzeit gab es ein Verhältnis an fiependen zu nicht fiependen Grafikkarten von 16,7% zu 83,3% – mit nur einer größeren Auffälligkeit, als das AMD (12,5% fiepende Grafikkarten) von dem Problem seinerzeit weit weniger betroffen war als nVidia (20,9% fiepende Grafikkarten). Da HighEnd-Grafikkarten durchgehend vermehrt betroffen waren, konnten seinerzeit beide Grafikchip-Entwickler ihre Hausaufgaben aus dieser Umfrage ableiten.

Heuer nun scheint es so, als hätte es nur teilweise eine positive Entwicklung in dieser Frage gegeben (oder die Grafikkarten-Käufer empfindlicher bei diesem Punkt zu sein): Die Quote der fiependen Grafikkarte ist mit 25,0% klar höher als im Januar 2012, wobei für diese negative Entwicklung einzig allein nVidia Schuld ist: Denn während AMD seine Quote leicht von 12,5% auf 11,4% senken konnte, stieg jene bei nVidia von 20,9% auf 36,9% überaus stark an. Während es also 2012 zwischen AMD und nVidia zwar klar sichtbare, aber noch nicht extreme Differenzen gab, deuten die aktuellen Umfrage-Ergebnisse darauf hin, daß nVidia mit fiependen Grafikkarten nunmehr ein sehr deutliches Problem hat, welches bei AMD um Dimensionen kleiner ist.

Dabei ist für diesen heftigen Ausschlag nach oben hin primär eine Teilgruppe verantwortlich: Die nVidia HighEnd-Grafikkarten, welche im Januar 2012 noch zu "nur" 22,7% als "fiepend" klassifiziert wurden, bekommen nunmehr im November 2014 gleich zu 49,4% jene Wertung. Dies reißt sowohl den Schnitt der nVidia-Grafikkarten als auch den aller Grafikkarten entscheidend nach oben, alle anderen Werte haben sich dagegen kaum bewegt. Hier hat nVidia nun also sehr deutlich von den Grafikkarten-Käufern den Auftrag erhalten, dieses Problem endlich einmal anzugehen. Neben diesen reichlich desaströsen Ergebnisse soll dazu auch wenigstens eine positive Entwicklung notiert werden: Bei den AMD Mainstream-Grafikkarten ging der Anteil an fiependen Exemplaren von 9,1% auf nunmehr nur noch 6,7% zurück.

Fiepen: Ja Fiepen: Nein Umfrage von 2012
AMD Mainstream-Grafikkarten 6,7% 92,3% 9,1:90,9%
AMD Performance-Grafikkarten 10,6% 89,4% 11,3:88,7%
AMD HighEnd-Grafikkarten 14,6% 85,4% 17,2:82,8%
AMD-Grafikkarten insgesamt 11,4% 88,6% 12,5:87,5%
nVidia Mainstream-Grafikkarten 15,9% 84,1% 23,1:76,9%
nVidia Performance-Grafikkarten 21,4% 78,6% 19,6:80,4%
nVidia HighEnd-Grafikkarten 49,4% 50,6% 22,7:77,3%
nVidia-Grafikkarten insgesamt 36,9% 63,1% 20,9:79,1%
alle Grafikkarten 25,0% 75,0% 16,7:83,3%

Daneben läßt sich mit dieser Umfrage auch bestimmen, wie die Grafikkartenverteilung im 3DCenter derzeit aussieht. Bezüglich der Grafikchip-Entwickler geht die Tendenz in letzter Zeit etwas in Richtung nVidia, welche bei dieser Umfrage mit 53,3% herauskommen – 46,7% bleiben demzufolge für AMD. Anno 2012 gab es in dieser Frage noch ein nahezu ausgeglichenes Verhältnis von 49,9% zu 50,1% zwischen AMD und nVidia. Die Verhältnis-Verschiebung scheint dabei klar im HighEnd-Segment begründet, wo nVidia einfach mehr und höher hinaufgehende Angebote aufbietet, was sich in dieser Umfrage auch in klar differienden Anteilen an HighEnd-Grafikkarten zeigt: 19,3% zu 31,1% lautet hierbei das Ergebnis zwischen AMD und nVidia. AMD ist dafür etwas stärker im Mainstream- und Performance-Segment, kann dies in der Summe aller Grafikkarten dann aber nicht mehr ausgleichen.

12

Hardware- und Nachrichten-Links des 11./12. November 2014

Die PC Games Hardware vermeldet nun doch noch die anfänglich erwartenden guten Preispunkte zur Radeon R9 290X mit 8 GB Speicher: Eine MSI-Karte wird nunmehr von mehreren Händler bei 360 Euro angeboten, was nur 50 Euro oberhalb der gleichen Karte mit 4 GB Speicher liegt – und damit einen durchaus gangbaren Mehrpreis darstellt. Für diesen Preis kann man durchaus überlegen, allein wegen des besseren Wiederverkaufswerts die 8-GB-Variante zu wählen – denn ein, zwei Jahre später wird man mit diesen 8 GB Grafikkartenspeicher wesentlich mehr anfangen können und dann dürfte eine 8-GB-Variante im Gebrauchthandel wesentlich begehrter als eine 4-GB-Variante sein. Wenn jetzt noch die anderen Hersteller nachziehen, dann könnte die Radeon R9 290X 8GB sogar noch zum Erfolg werden – trotz, daß der Mehrspeicher derzeitig nur unter 4K wirklich etwas zu bringen scheint (und selbst darüber wird noch intensiv diskutiert).

Zu den Meldungen über die kommenden HighEnd-Chips AMD Fiji und nVidia GM200 wäre noch einmal extra zu erwähnen, daß die Quellenlage hierzu derzeit unsicher ist, ganz besonders bezüglich der aus der SiSoft-Datenbank bezogenen Daten. Beim GM200-Chip ist dies nicht ganz so dramatisch, weil jener in dieser oder in einer ähnlicher Form sowieso erwartet wird. Beim Fiji-Chip stützen sich alle getroffenen Aussagen aber eben doch nur auf die Daten aus der SiSoft-Datenbank – welche durchaus vorsätzlich gefälscht sein können. In jedem Fall ist es auffällig, wie häufig jene Datenbank in letzter Zeit bezüglich neuer Hardware ins Gespräch gekommen ist. Zugleich finden sich auch jetzt schon wirklich irritierende Daten in der SiSoft-Datenbank – wie jene zu einer (angeblichen) Hawaii-Grafikkarte mit 44 Shader-Clustern, aber 3520 Shader-Einheiten. Dies passt natürlich vorn und hinten nicht zusammen, wobei ein Auslesefehler in diesem Fall auch nicht auszuschließen wäre.

Genauso irritierend sind die Daten zu einem (angeblichen) zweiten Grafikchip mit HBM-Speicher: Hierbei wird ein Grafikchip mit nur 384 Shader-Einheiten – ergo LowEnd-Niveau – mit einem 2048 Bit HBM-Speicherinterface gekoppelt. Dies wäre – selbst im APU-Bereich – überaus unsinnig, weil ein solches LowEnd-Produkt keine 320 GB/sec Speicherbandbreite benötigt, letzteres ist das Speicherbandbreiten-Niveau der GeForce GTX 780 Ti. Stimmig sind diese Angaben aber sowieso nicht, denn das 2048 Bit HBM-Interface bedingt in der ersten HBM-Generation exakt 2 GB Speicher – notiert wurden aber nur 1 GB. Wir haben damit also zwei klar unstimmige Einträge in der SiSoft-Datenbank – welche den Wert des durchaus stimmigen Eintrags zum Fiji-Chip indirekt schmälern. Auf die Goldwaage ist das zum Fiji-Chip notiert also bitte nicht zu legen – man kann derzeit die Hoffnung wagen, daß AMD so viel Hardware aufbieten wird, sollte aber nicht fest davon ausgehen.

Ganz generell gesprochen sind APUs mit HBM-Speicher – etwas, was man aus vorgenanntem SiSoft-Eintrag derzeit oftmals herausliest – nicht wirklich abwegig, sondern könnten vielmehr den (Performance-)Durchbruch für die integrierten Grafiklösungen von APUs bedeuten. Derzeit hängen jene am vergleichsweise langsamen Hauptspeicher, welcher (abgesehen von höheren Speichertaktraten durch DDR4-Speicher) in absehbarer Zukunft auch nicht elementar beschleunigt werden wird. Mittels HBM könnte man ein zweites, kleineres Speicherinterface an eine APU hängen, welches auf einfache Art und Weise große Speicherbandbreiten zur Verfügung stellt, und damit die gestiegene Grafik-Rohleistung der APUs besser ausnutzen kann. Dabei muß man keinesfalls einen großen Speicher zur Verfügung stellen, es reichen wohl 1 bis 2 GB als reiner Beschleuniger, daneben kann ja immer noch der Hauptspeicher mitbenutzt werden. Alternativ könnte man auch gleich mit 4 oder 8 GB HBM-Speicher ankommen und benötigt danach keinerlei PC-Hauptspeicher mehr, das Mainboard und der gesamte PC können somit deutlich einfacher ausfallen. Langfristig könnten APUs durchaus in diese Richtung gehen, auch wenn der Einsatz von HBM-Speicher auf APUs gleich am Anfang aus Kostengründen eher unwahrscheinlich ist.

Golem berichten über ein Gerichtsurteil, nach welchem ein Domain-Registrar gemäß der Störerhaftungs-Regelungen für einen Bittorrent-Tracker haftbar gemacht wurde. Der Domain-Registrar fiel darüber aus allen Wolken, da sein Geschäftsbereich nur normale Domain-Registrierungen umfasst, also weder Server-Hosting noch sonstwie andere Dienstleistungen. Zudem ist der Wertgegenstand einer Domain-Registrierung auch zu klein, um da irgendetwas großartig manuell machen zu können, eine Inhaltsprüfung – selbst nach konkretem Hinweis – ist bei den derzeit verlangten Preisen nur schwer möglich. Nichtsdestotrotz ist die Gerichtsentscheidung nach aktueller Rechtslage korrekt, die bundesdeutsche Störerhaftung umfasst leider auch solche Fälle. Das Problem liegt in der Störerhaftung selbst, welche dritte Personen zu Geiseln des Fehlverhaltens der eigentlichen Täter macht – und zwar meistens ohne Blick auf die Verhältnismäßigkeiten mit der großen Keule auf alles einschlagend, dessen man habhaft werden kann.

12

Erster sinnvoller Test der Radeon R9 290X 8GB zeigt gute Mehrperformance durch den Mehrspeicher

Ein weiterer Test der Radeon R9 290X 8GB kommt seitens Tom's Hardware – wobei man sich hier mit den entsprechenden Testsettings deutlich mehr Mühe gegeben hat, der Frage nachzugehen, wo man jenen Mehrspeicher nun sinnvoll einsetzen kann. Dies betrifft sowohl die Auswahl der Spieletitel als auch der benutzten Auflösung – weil logischerweise zumeist erst unter 4K der Mehrspeicher wirksam werden kann, wenn die Normalausführung schon gleich mit 4 GB Speicher antritt. Ein minimaler Fehler liegt allerdings noch darin, nicht gegen dieselbe Sapphire-Karte mit nur 4 GB Speicher verglichen zu haben, sondern eine andere Radeon-Karte auf die Taktraten des Sapphire-Modells von ≤1030/2750 MHz gesetzt zu haben. Dies ist von den nominellen Taktraten her absolut korrekt, aber das Boost-Verhalten einer anderen Karte kann wegen unterschiedlicher BIOS-Settings und anderer Kühlkonstruktion trotzdem etwas abweichend sein. Nichtsdestotrotz ergaben sich sehr interessante Messungen:

4 GB vs. 8 GB 1920x1080 3840x2160
Alien: Isolation ±0 +4,8%
ArmA 3 -2,5% +17,7%
Assassin's Creed IV: Black Flag +9,2% +25,9%
Battlefield 4 +3,0% -3,9%
Middle-Earth: Shadow of Mordor +4,8% +17,9%
Thief +4,2% +23,0%
insgesamt +3,1% +14,1%

Und diese Zahlen zeigen nun einen klar klassifizierbaren Vorteil der 8-GB-Ausführung der Radeon R9 290X auf: Unter 4K wird es meßbar schneller. Dabei ist der Performance-Gewinn nur in einigen Titeln vorhanden, dort aber mit Werten zwischen 17% und 26% dafür auch entsprechend klar – nicht mehr nur meßbar, sondern auch spürbar. Mit einem etwaig abweichendem Boost-Verhalten unterschiedlicher Radeon-Grafikkarten sind diese Werte auch keinesfalls mehr erklärbar. Selbst in einem größeren Benchmark-Feld mit mehr Titeln, welche dann unter 4K weniger bis gar nicht reagieren, sollte der insgesamte Performance-Gewinn unter 4K weiter bei knapp 10% liegen.

Unter normalem FullHD bewegt sich dagegen nichts, wofür sich der Mehrpreis der Radeon R9 290X 8GB rechtfertigen würde. Unter 2560x1600 dürfte die Situation wahrscheinlich in der Mitte dessen liegen und daher ebenfalls noch nicht wirklich den Mehrspeicher bzw. den Mehrpreis rechtfertigen. Interessant auch der Performance-Vergleich zur GeForce GTX 970: Unter FullHD liegen beide AMD-Modelle noch grob 10% hinter der GeForce GTX 970 zurück. Unter 4K liegt die Radeon R9 290X 4GB auch weiterhin noch knapp 5% hinter der GeForce GTX 970, während die Radeon R9 290X 8GB dagegen deutlich mit +8,6% an der GeForce GTX 970 vorbeizieht. Ein 8-GB-Modell von nVidia würde natürlich hier natürlich ebenfalls entsprechend hinzugewinnen können.

1920x1080 3840x2160
GeForce GTX 970 4GB 100% 100%
Radeon R9 290X 4GB 90,3% 95,1%
Radeon R9 290X 8GB 93,1% 108,6%

Unter 4K scheinen 8 GB Grafikkartenspeicher mit der aktuellen Spielegeneration damit schon fast als eine gute Investition: Wenn jetzt schon einige Spieletitel darauf so deutlich reagieren, dürfte dies in einem Jahr die Mehrzahl der Neuerscheinungen betreffen – dann lohnen sich 8 GB Speicher wenigstens unter 4K in jedem Fall. Wir sind in jedem Fall erstaunt, daß es schon jetzt so klare Anwendungsmöglichkeiten für 8-GB-Karten außerhalb von SLI & CrossFire gibt, müssen uns aber natürlich der Aussage dieser Benchmark-Werte beugen. So gesehen ergeht eine halbe Empfehlung in Richtung der Radeon R9 290X 8GB: Für 4K-Nutzer und bezüglich des Wiederverkaufswerts ist der Mehrspeicher nutzvoll, unter reinem FullHD dagegen weiterhin unnötig und auch vom Preispunkt her derzeit noch etwas zu teuer.

11

Erste reale Daten zu AMDs Fiji-Chip: 4096 Shader-Einheiten an einem HBM-Speicherinterface

Erneut unser (ausgesprochen aufmerksames) Forum hat von AMD nach Indien geschickte Grafikboards für den Fiji-Grafikchip entdeckt, sowie gleichfalls Testergebnisse für einen neuen AMD-Grafikchip in der SiSoft-Datenbank erspäht. Aufgrund der dort genannten Daten kann es sich eigentlich nur um AMDs Fiji-Chip handeln, denn es wurden hierbei immerhin 4096 Shader-Einheiten an einem 4096 Bit Speicherinterface angegeben. Letzteres würde zudem die Verwendung von "High Bandwith Memory" (HBM) anzeigen, weil man nur mit HBM auf solch riesige Interfacebreiten wie 4096 Bit kommt. All dies passt letztlich nur zu Fiji, ein anderes AMD-Chipprojekt mit möglichem HBM-Einsatz ist nicht bekannt bzw. wäre sowieso erst viel später zu erwarten.

Mit den angegebenen 4096 Shader-Einheiten liegt AMD am oberen Ende der Erwartungen, zuletzt konnte man angesichts der (viel zu großen) Größe des Tonga-Chips bezweifeln, ob AMD eine so große Anzahl an Shader-Einheiten in eine Chipfläche von ~550mm² in der 28nm-Fertigung hineinpressen kann. Die 20nm-Fertigung nur beim Fiji-Chip ist dabei nach wie vor nicht gänzlich auszuschließen, auch wenn die faktischen Hinweise auf weiterhin 28nm TSMC hinzeigen. Bleibt AMD seiner bisherigen GCN-Architektur treu, bedeuten 4096 Shader-Einheiten dann auch satte 256 Textureneinheiten – wobei eine Abspeckung um die Hälfte wohl zu wenig für einen solch mächtigen Chip wäre, ungerade Abspeckungen dann andere Probleme hervorrufen und daher kaum wahrscheinlich sind.

    AMD Fiji

  • wahrscheinlich:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~550mm² Chipfläche
  • vermutlich:  GCN 2.0 Architektur ("Pirate Islands" Generation)
  • vermutlich:  DirectX 11.2b
  • angenommen:  8 Raster-Engines
  • ziemlich sicher:  4096 Shader-Einheiten in 64 Shader-Clustern
  • wahrscheinlich:  256 Textureneinheiten (TMUs)
  • angenommen:  128 Raster Operation Units (ROPs)
  • ziemlich sicher:  4096 Bit DDR HBM-Interface
  • möglicher Speicherausbau:  4 GB HBM
  • möglicher Chiptakt:  ~1000 MHz
  • möglicher Speichertakt:  625 MHz
  • Performance-Prognose:  +40% bis +50% zur Radeon R9 290X
  • möglicher Release:  erstes Quartal 2015
  • möglicher Verkaufsname:  Radeon R9 390X

Gut zu erkennen ist an den "nur" 4 GB Speicher sowie dem Speichertakt von "1250 MHz" (inklusive DDR-Verdopplung, wie bei SiSoft üblich), daß hier die erste HBM-Generation zum Einsatz kommt, wo also die Interfacebreite fest mit einer bestimmten Speichergröße verknüpft ist – für eine Speichergröße von gleich 8 GB müsste AMD bei HBM1 also gleich ein utopisches 8192 Bit DDR HBM-Interface integrieren. Dies kann durchaus angesichts der aktuellen Entwicklung bei den Speichergrößen ein Pferdefuß dieser ersten HBM-ausgerüsteten Grafikkarten werden, zumindest wird die Konkurrenz in Form von nVidia darauf sicherlich genüßlich herumhacken. Aber natürlich sind auch hier auch einfache Auflösungen denkbar, wie daß AMD derzeit mit HBM1 testet, die Serienproduktion dann aber mit HBM2 herauskommt – aber dennoch bleibt an dieser Stelle ein gewisses Fragezeichen übrig.

In jedem Fall spart AMD mit dem HBM-Interface grob 40mm² an Chipfläche und satt an Stromverbrauch, was man demzufolge für anderes verwenden kann – mehr Shader-Einheiten zum Beispiel, wie beim Fiji-Chip augenscheinlich ausgeführt. Dabei sind AMD und nVidia zumindest ab der Maxwell-Architektur keineswegs über die Anzahl an Shader-Einheiten sowie deren nominelle Rohleistungen vergleichbar, weil solche Rechnungen nicht die höhere Effizienz der Maxwell-Architektur wiedergeben können. In anderen Disziplinen kann man jedoch einen Vergleich der Rohleistungen wagen – und sei es nur, um AMD-intern zu vergleichen, wie sich Fiji gegenüber Hawaii zu positionieren scheint:

Sofern AMD in der Praxis die angegebenen Fiji-Taktraten von 1000/625 MHz halten kann, würde eine Fiji-Grafikkarte bei den Rohleistungen um zwischen +45% bis +100% mehr bieten als eine Hawaii-Grafikkarte – mit klarer Gewichtung auf der Speicherbandbreite, welche auf glatt das Doppelte ansteigen würde. Ob sich damit die extrem hohe Rechenkraft eines Fiji-Grafikchips mit 4096 Shader-Einheiten auf 1000 MHz Chiptakt besser ausnutzen läßt, muß die Praxis sagen – zumindest derzeit ist es nicht gerade so, als würde der Hawaii-Chip an seiner Speicherbandbreite hängen. Bei deutlich höherer Rechenkraft (in Form des Fiji-Chips) kann sich eine solche Situation aber natürlich auch umkehren – ganz umsonst wird AMD nicht auf diese extrem hohen Speicherbandbreite gesetzt haben.

Eine Performance-Prognose wird dadurch allerdings deutlich schwer als beim GM200-Chip, welcher aus eher bekannten Einzelteilen zusammengemixt ist als AMDs Fiji-Chip mit augenscheinlich erstmaligem HBM-Einsatz. Bei extrem optimalen Verlauf kann Fiji um etwas mehr als seinen Rechenleistungsgewinn schneller sein, dies wären also vielleicht +60%. Eher realistisch ist eine Schätzung von +40% bis +50%, da eine optimale Umsetzung von mehr Rohleistung in mehr Performance eigentlich nicht vorkommt, es immer irgendwo kleine Performancebremsen gibt. In unserem Performance-Index würde dies einen Wert von ~730% bis ~780% ergeben, was sehr nahe des Potentials des GM200-Chip (~740% bis ~800%) liegt. Im Idealfall legen sich beide Monsterchips also direkt miteinander an – was aber nicht zu beschreien wäre, hier ist noch viel in alle Richtungen hin möglich. AMDs Fiji-Chip anzudichten, sich mit nVidias GM200-Chip anlegen zu können, wäre schlicht unfair, wenn AMD eventuell eine ganz andere Zielsetzung hat und Fiji dann einen anderen Performancepunkt besetzt als an dieser Stelle platt hochgerechnet.

Das Auftauchen der beiden Hinweise zu Fiji darf man aber wenigstens dahingehend werten, als daß Fiji nicht mehr all zu weg sein dürfte, die kürzliche Meldung über eine angebliche Verschiebung also wohl nicht korrekt ist. Bei einem normalen Verlauf sollte Fiji irgendwann im ersten Quartal 2015 zur Verfügung stehen, wahrscheinlich als "Radeon R9 390X", samt einer Salvage-Variante namens "Radeon R9 390". Interessant wird der von AMD hierzu aufgerufene Preispunkt, denn bislang hat AMD eigentlich keine SingleChip-Grafikkarte mit Preisen von 999 Dollar oder ähnlich im Angebot. Je nachdem wie mächtig Fiji am Ende gegenüber dem GM200-Chip herauskommt, dürfte AMD in diesem Fall aber dennoch ein ziemlich hohes Preisniveau anstreben, da man nVidias GM204-Lösungen mit diesen Hardware-Daten wohl problemlos (weit) hinter sich lassen kann.

11

Erste reale Daten zu nVidias GM200-Chip: 3072 Shader-Einheiten an einem 384 Bit DDR Speicherinterface

Aus unserem Forum kommt die Entdeckung eines Eintrags zu einer laufenden GM200-Grafikkarte in der SiSoft-Datenbank, welche auch einige technische Daten zu dieser Karte bereithält. Da hier ein Vorserien-Sample mit unbekannter Zielsetzung (Gamer- oder Profi-Lösung) am Start war, sind die Daten nicht gänzlich auf die Goldwaage zu legen, zeigen aber dennoch die Richtung an, in welche nVidia mit dem GM200-Chip gehen kann und (wahrscheinlich zum Jahreswechsel) auch gehen wird.

So scheinen sich die zuletzt geäußerten Vermutungen zu bestätigen und der GM200-Chip mit 3072 Shader-Einheiten an einem 384 Bit DDR Speicherinterface anzutreten. Gänzlich auf die Goldwaage legbar ist die Anzahl der Shader-Einheiten noch nicht, weil nVidia anfänglich natürlich mit deaktivierten Hardware-Einheiten operieren könnte – was sich bei der vermuteten Chipgröße nahe 600mm² anbietet, andererseits sich aufgrund der Ausgereiftheit der 28nm-Fertigung auch nicht mehr zwingend aufdrängt. Zudem wird es aufgrund der bekannten Größe des GM204-Chips schon schwierig, noch mehr Shader-Einheiten in jene grob 600mm² hineinzupressen – so daß derzeit alle Chancen auf maximal 3072 Shader-Einheiten stehen, das ganze halt nur eben noch nicht vollkommen sicher ist. Gleiches gilt für das 384 Bit DDR Speicherinterface sowie die 3 MB Level2-Cache – beides dürften im Normalfall die Maximal-Angaben zum GM200-Chip darstellen:

    nVidia GM200

  • sicher:  28nm-Fertigung von TSMC
  • geschätzt:  ~8 Milliarden Transistoren auf ~600mm² Chipfläche
  • vermutlich:  Maxwell 2.0 Architektur
  • vermutlich:  DirectX 11.2b
  • angenommen:  6 Raster-Engines
  • ziemlich sicher:  3072 Shader-Einheiten in 24 Shader-Clustern (SMX)
  • wahrscheinlich:  192 Textureneinheiten (TMUs)
  • wahrscheinlich:  96 Raster Operation Units (ROPs)
  • ziemlich sicher:  3 MB Level2-Cache
  • ziemlich sicher:  384 Bit DDR GDDR5-Speicherinterface
  • möglicher Speicherausbau:  6 oder 12 GB GDDR5
  • möglicher Chiptakt:  Grundtakt ~1100 MHz, bis zu ~1400 MHz Boost-Takt
  • möglicher Speichertakt:  3000 MHz
  • Performance-Prognose:  +30% bis +40% zur GeForce GTX 980
  • möglicher Release:  Jahreswechsel 2014/2015
  • mögliche Verkaufsnamen:  GeForce GTX Titan X oder GeForce GTX Titan II

Daß das für SiSoft benutzte Testsample gleich 12 GB Speicher trug, muß im übrigen nicht bedeuten, daß es sich hierbei um die kommenden default-Speicherbestückung handelt – denn gerade Testsamples werden oftmals mit der maximal machbaren Speicherbestückung ausgerüstet, welche dann üblicherweise nur im Profi-Segment benutzt wird. Wahrscheinlicher ist, daß nVidia die Gamer-Ausführungen auf Basis des GM200-Chips (wie die originale GeForce GTX Titan) mit 6 GB Grafikkartenspeicher ins Rennen schicken wird. Ähnliches gilt zu den Taktraten, welche primär zum gründlichen Austesten des Testsamples derart hoch angesetzt worden sein dürften – eine Gewißheit, daß Gamer-Grafikkarten auf GM200-Basis ähnlich takten, kann man daraus nicht ableiten. Beim vorhergehenden GK110-Chip waren jedenfalls deutlich niedrigere Taktraten als beim kleineren GK104-Chip üblich, ähnlich könnte es hier auch laufen.

Da derzeit aber keine anderen Angaben existieren, läßt sich bezüglich der Taktraten derzeit nur mit jenen 1100/?/3000 MHz rechnen, welche in der SiSoft-Datenbank notiert wurden. Die ebenfalls angegebenen 1400 MHz Boost-Takt sind dagegen nicht ernstzunehmen – hierbei handelt es sich nicht um den üblicherweise angegebenen durchschnittlichen Boost-Takt, sondern aller Wahrscheinlichkeit nach die höchste Taktrate, welche dieses Testsample in der Praxis in einem SiSoft-Benchmark erreichte. Daraus kann man natürlich nur eher fehlerbehaftet auf einen durchschnittlichen Boost-Takt spekulieren, der Einfachheit halber rechnen wir für den nachfolgenden Rohleistungs-Vergleich mit dem durchschnittlichen realem Boost-Takt der GeForce GTX 980 (im Referenzdesign) von 1144 MHz:

Daraus ergibt sich die einfache Aussage, daß der GM200-Chip in faktisch jeder Disziplin um 50% mehr Rohpower gegenüber dem GM204-Chip in Form der GeForce GTX 980 hat, bei der Speicherbandbreite allerdings nur um +28%. Dies ist ein klar geringerer Abstand als "früher" zwischen GK110 (GeForce GTX 780 Ti) und GK104 (GeForce GTX 770), wo sich Unterschiede in der Rohpower von +50% bis +67% ergaben. Ergo sollte auch der GM200-Chip der GeForce GTX 980 letztlich nicht so deutlich davonziehen können, wie dies in der Kepler-Generation zwischen GeForce GTX 680 (Perf.Index 360%) und GeForce GTX Titan (Perf.Index 480%) oder zwischen GeForce GTX 770 (Perf.Index 380%) und GeForce GTX 780 Ti (Perf.Index 530%) zu beobachten ist.

Dies dämpft das Performance-Potential des GM200-Chips etwas – was aber angesichts der Hardware-Ansetzungen bereits so erwartet wurde. Ausgehend von der bekannten Effizienz der Maxwell-Architektur dürfte dennoch eine rekordbrechende Performance möglich sein, wahrscheinlich irgendwo in Richtung GeForce GTX 980 +30%. Sofern nVidia die genannten hohen Taktraten tatsächlich auch bei Gamer-Grafikkarten anbietet, wären auch GeForce GTX 980 +40% möglich. Dies ergäbe im 3DCenter Performance-Index utopisch anmutende Werte von ~740% bis ~800%, nahe dem Leistungspotential der aktuellen DualChip-Lösungen Radeon R9 295X2 (Perf.Index 840%) und GeForce GTX Titan Z (Perf.Index ~840%).

Leider immer noch unklar ist die Releasestrategie von nVidia beim GM200-Chip: Angenommen wird, daß jener irgendwo um den Jahreswechsel oder spätestens im Frühjahr 2015 vorgestellt werden wird – aber dies muß überhaupt nicht bedeuten, daß es dann kaufbare Gamer-Grafikkarten auf GM200-Basis geben wird. nVidia könnte immer noch die Variante verfolgen, zuerst den professionellen Markt mit (sehr renditeträchtigen) GM200-Karten zu beliefern und den Gamer-Markt erst dann GM200-basierte Produkte zukommen zu lassen, wenn die Produktion an GM200-Chip so gut läuft, daß ausreichende Stückzahlen für beide Märkte vorhanden sind. An dieser Stelle kann sich schnell eine Verschiebung (der Gaming-Lösungen) um mehrere Monate ergeben, trotz daß der GM200-Chip bereits in anderen Märkten steht.

Günstig wird es zudem keinesfalls werden, nVidia dürfte erneut den Titan-Brand mit dementsprechendem 999-Dollar-Preispunkt melken wollen. Günstigere GM200-Ausführungen sind zu einem späteren Zeitpunkt wahrscheinlich, aber anfänglich dürfte nVidia auf der Exklusivität des Produkts (und dessen Preispunkts) bestehen wollen. Wirklich effektiv dürften GM200-Grafikkarten damit gegenüber der GeForce GTX 980 nicht werden – 30% bis 40% Mehrperformance gegenüber grob 100% Mehrpreis sind eigentlich kein sinnvoller Tausch. Angesichts der aktuellen nVidia-Höhenflüge dürfte der Markt aber auch dies wohl mitmachen, zumindest unter den eingefleischten Grafikkarten-Enthusiasten schart man schon hörbar mit den Hufen zugunsten von GM200-Grafikkarten.

Inhalt abgleichen