Laut dem chinesischen Expreview (maschinelle Übersetzung ins Deutsche) soll nVidia an einer "GeForce GTX 950 SE" arbeiten, welche im März 2016 erscheinen soll. Als Basis hierfür benutzt man den schon von GeForce GTX 950 & 960 bekannten GM206-Chip, dürfted jenen allerdings vermutlich nochmals abspecken, um eine weitere etwas leistungsschwächere Grafikkarte zu erhalten – die gerade einmal vor einem halben Jahr in den Markt gekommene GeForce GTX 950 regelrecht zu ersetzen, macht schließlich kaum einen Sinn. Insofern haben all die von Videocardz ausgehenden Spezifikations-Spekulationen zur GeForce GTX 950 SE sogar ihre Berechtigung – es muß allerdings auch klar gesagt werden, daß die Originalquelle in Form von Expreview keinerlei Kartenspezifikationen nennt und noch nichtmal die weiteren Abspeckungen als "sicher" klassifizieren kann.
Eine in unserem Forum aufgetauchte Grafik aus einer im Juni 2015 abgehaltenen Präsentation eines CUDA-Fellows (PDF) spricht dem kommenden Pascal-Topchip GP100 immerhin 4 TeraFlops DoublePrecision- sowie 12 TeraFlops SinglePrecision-Rechenleistung bei 1024 GB/sec Speicherbandbreite zu. Da das zugrundeliegende Dokument zumindest halboffiziellen Charakter hat sowie der "CUDA-Fellow" in Form von Manuel Ujaldon ein spanischer Universitätsprofessor mit eigenem Profil auf der nVidia-Webseite ist, dürfte es sich hiermit um Daten handeln, welche nVidia intern selber so kommuniziert haben wird – zumindest zum Stand vom Juni 2015. Mit der Zeit kann sich daran noch einiges ändern – gerade bei den finalen Taktraten – aber der grundsätzliche Aufbau des GP100-Chip muß seinerzeit schon festgestanden haben, schließlich war der Tape-Out des GP100-Chips um diesen Zeitpunkt herum.
WCCF Tech machen auf neue, umfangreiche Lieferungen von chinesischen Fertigern zu nVidias indischen Testlaboren aufmerksam – wobei es sich hierbei im Gegensatz zur letzten nVidia zuzuordnenden Meldung bereits um kompletter Grafikkarten handelt. Sicher ist an diesem Fall natürlich noch gar nichts, da nVidia aktiv versucht, selbst die Informations-Möglichkeiten der Zauba Import/Export-Datenbank zu sabotieren, indem kaum noch exakte Informationen zum Lieferinhalt mitgegeben werden. Allerdings kann man derzeit gut und gerne alles, was unter "Computer Graphics Card" läuft, nVidia zuordnen – da AMD klar abweichende Bezeichnungen nutzt und zudem wenigstens ein paar reale Codenamen hinterläßt. Um Boards von irgendwelchen Grafikkarten-Herstellern kann es sich auch kaum handeln, jene benutzen üblicherweise den vollständigen Hersteller- und Modellnamen – bei schon releasten Grafikkarten macht es auch kaum Sinn, dies noch extra zu maskieren.
Unsere bisherige Berichterstattung zum GDDR5X-Speicher in Konkurrenz zum HBM-Speicher hat (leider) noch einen Fehler aufzuweisen. Wie bekannt, steigt bei GDDR5X als hauptsächliche Änderung zum regulären GDDR5 der sogenannte Prefetch von 8 auf 16 – was bedeutet, das pro Takt der reinen Speicherzellen entsprechend viele Datenpakete über das Interface nach außen übertragen werden. Dabei gibt es zwei grundsätzlich Wege, diese leistungsfähigere Datenübertragung nach außen zu realisieren: Höhere Taktraten oder aber Datenprotokolle, welche mehr Daten pro Takt übertragen. Üblich ist an dieser Stelle das Double Data Rate (DDR) Protokoll, welches schon dem Namen nach zwei Datenpakete pro Takt überträgt.
Die Umfrage der letzten Woche bat zu einer persönlichen Empfehlung, ob nun auf die 14/16nm-Grafikkarten gewartet werden soll – oder nicht, sprich ob man ganz normal jetzt noch kaufen sollte. Die Empfehlung der Umfrage-Teilnehmer ist dabei recht eindeutig: 45,3% sind generell für das Warten, 37,8% würden sich je nach konkreter Bedarfssituation entscheiden und nur 16,9% sind generell für den Kauf auch noch zum jetzigen Zeitpunkt. Dies bedeutet wohl, daß es bis zum Erscheinen der ersten 14/16nm-Beschleuniger unter Enthusiasten-Usern keine großartigen Grafikkarten-Umsätze mehr zu machen gibt – im Massenmarkt dagegen sehr wohl, jener weist eine üblicherweise deutlich abweichende Käuferpsychologie auf.
Die Umfrage der letzten Woche ging mal wieder der Frage nach, ob es nVidias G-Sync oder AMDs FreeSync sein soll. Eine ähnliche Umfrage gab es schon einmal im Mai 2014 – und damit noch kurz vor dem Marktstart beider Technologien. Seinerzeit plädierten die Umfrage-Teilnehmer ziemlich eindeutig dafür, auf AMDs FreeSync zu warten, weil dies (im Gegensatz zu nVidias G-Sync) einen allgemeinen Standard darstellt. Heuer nun sind Monitore gemäß beider Technologien breit im Markt vertreten, womit sich auch schon eine gewisse Nutzerschar herausgebildet hat – unter den Umfrage-Teilnehmern sind dies immerhin schon 12,6%. Dabei hat nVidia einen leichten Vorteil von 7,1% zu AMD mit 5,5% – sicherlich auch resultierend im früheren Marktstart von G-Sync und der größeren Verbreitung von nVidia-Grafikkarten selber, aber eben dennoch etwas abweichend vom Ergebnis der 2014er Umfrage.
Der letzte Grafikkarten-Marktüberblick stammt noch vom September 2015 – höchste Zeit also für einen Blick auf das Geschehen im Grafikkarten-Markt Anfang des Jahr 2016. Zwar ist mit der Radeon R9 380X nur eine einzelne neue Grafikkarte hinzugekommen, dafür ist das komplette Radeon R200 Portfolio von AMD inzwischen in den Ruhestand gegangen, womit die Angebots-Portfolios beider Grafikchip-Entwickler nunmehr deutlich aufgeräumter ausschauen. Mit dem neuen Grafikkarten-Marktüberblick werden wir wie üblich versuchen, Ordnung in die bestehenden Angebote hineinzubringen: Spezifikationen, Stromverbrauch, Performance-Bewertung sowie aktueller Preispunkt sollen notiert, ausgewertet und bewertet werden. Hierbei wird auch eine Neufassung des "3DCenter 4K Performance-Index" helfen, welcher nun mit genaueren Zahlen arbeitet und auf einem neuen Basiswert (GeForce GTX 980 Ti = 100%) operiert ... zum Artikel.
Seitens der PC Games Hardware, der ComputerBase und SweClockers kommen Betrachtungen zur Grafikkarten-Performance unter Rise of the Tomb Raider, deren umfangreiche Benchmarks wir hiermit zum Anlaß nehmen wollen, zugunsten eines generellen und vollständigen Performane-Bildes zu diesem Titel miteinander zu verrechnen. Ganz allgemein wird das Spiel auf Basis der hauseigenen Foundation-Engine von Spieleentwickler Crystal Dynamics sowohl spielerisch als auch von der Optik her gelobt. Einziger großer Kritikpunkt sind die unzureichenden Anti-Aliasing-Optionen: Entweder nur die Weichzeichner FXAA oder SMAA – oder gleich das extrem leistungsfressende Supersampling Anti-Aliasing, welches dann aber (unter Rise of the Tomb Raider) noch nicht einmal wirklich gut wirkt. Da SMAA erst per Patch nachgereicht wurde, basieren alle aktuell verfügbaren Benchmarks noch auf FXAA – SMAA hat aber erfahrungsgemäß knapp dieselbe Performance:
Die erste Umfrage des Jahres 2016 beschäftigte sich mit der am meisten erwarteten Hardware des Jahres 2016, gemäß auch des entsprechenden Artikels zu den in diesem Jahr zu erwartenden Hardware-Vorstellungen. Eindeutiger Sieger dieser (natürlich) reinen Beliebtheitsumfrage war dabei AMDs Zen-Architektur, mit großem Abstand bei fast der Hälfte der abgegebenen Stimmen – und dies obwohl den allermeisten Umfrage-Teilnehmern sicherlich klar ist, daß mit Zen-Produkten erst zum Jahresende 2016 zu rechnen ist. AMD kann sich wirklich etwas darauf einbilden, vorab so viel Interesse und Vorschußlorbeeren zu erhalten – was allerdings auch den Druck auf AMD erhöht, nunmehr auch entsprechendes zu liefern.
Das Speicherstandardisierungs-Gremium JEDEC vermeldet nunmehr auch die offizielle Standardisierung von GDDR5X, dem direkten Nachfolger von GDDR5. Wie auch bei der kürzlichen Meldung zu HBM2 handelt es sich hierbei nur um eine offizielle Meldung, die entsprechende Spezifikation befindet sich schon seit November 2015 auf den Webseiten der JEDEC. Aber natürlich ist eine solche offizielle Bekanntmachung auch immer eine gute Gelegenheit, auf diesen neuen Speicherstandard für Grafikkarten einzugehen, welcher teilweise durchaus mit HBM2 konkurrieren kann. Springender Punkt von GDDR5X sind die durch einen verdoppelten Prefetch (der Takt der reinen Speicherzellen bleibt gleich, während der Takt des Interfaces innerhalb des Speicherchips verdoppelt wird) höheren nominellen Interface-Taktraten, was im Idealfall einer verdoppelten Bandbreite entspricht.