21

Hardware- und Nachrichten-Links des 20./21. August 2015

Etwas Irritationen gibt es derzeit um den Launchtermin der Radeon R9 Nano: Gemäß Videocardz soll die Karte in der nächsten Woche antreten – was aber eventuell auch nur gut geraten ist angesichts des Punkts, daß AMD früher schon einen August-Start angekündigt hatte und dafür nun ja nicht mehr viel Zeit bleibt. Die PC Games Hardware vermeldet hingegen zuerst einen Releasetermin vom 27. August, basierend auf einer fernöstlichen Quelle – und gibt dann etwas nebulös von sich, daß man "nicht unbedingt von einem umfassenden Informationsfluss in diesem Monat" ausgehen würde, was auch immer dies genau bedeuten mag. Möglicherweise steht die PCGH an dieser Stelle schon unter NDA (seitens AMD) und darf daher nicht klar sagen, daß der August-Termin nicht mehr real ist. Man kann sich an dieser Stelle nur überraschen lassen – wobei man nicht auf Leaks von Grafikkartenherstellern und Händler warten sollte, jene sind beim Launch der bisherigen Fiji-basierten Grafikkarten auch nicht aufgetreten (weil AMD diese Karten bis kurz vor Launch extrem unter Verschluß gehalten hat).

Gemäß dem Tech Report wird Intel bei seinen zukünftigen integrierten Grafiklösung den "Adaptive Sync" Standard der VESA unterstützen – und damit indirekt AMDs FreeSync, denn "Adaptive Sync" ist letztlich nichts anderes. Damit sollten dann auch Displays, welche für AMDs FreeSync aufgelegt werden, mit Intel-Grafklösungen unter Adaptive Sync funktionieren – ein deutlicher Zugewinn für den AMD-Standard, welcher natürlich auch von Anfang an offen sowie frei von Lizenzkosten konzipiert war. Intels Aussage bezieht sich allerdings allein auf zukünftige Intel-Grafiklösungen, da die aktuellen Intel-Grafiklösung bis einschließlich der Skylake-Grafik die für Adaptive Sync nötigen Hardware-Änderungen augenscheinlich noch nicht tragen. Da die Skylake nachfolgende Intel-Generation "Kaby Lake" wohl das Skylake-Silizium unverändert weiterbenutzen wird, dürfte es in dieser Frage frühestens mit der Cannonlake-Generation im Jahr 2017 so weit sein.

Gegenüber Heise hat Intel bestätigt, daß die Skylake-Prozessoren nicht mehr für die Nutzung mit normalem DDR3-Speicher bestimmt sind – sondern nur noch für DDR4- oder DDR3L-Speicher. Der Unterschied zwischen DDR3 und DDR3L liegt dabei allein in der angesetzten Speicherspannung: 1.5V bzw. 1.35V – regulär unterstützt Skylake nur noch letzteres. Stark Intel-konforme Mainboards dürften sich daran halten, womit der Einsatz von handelsüblichem DDR3 ein Risiko zu Lasten des Anwenders darstellen würde. Die Mainboard-Hersteller können natürlich eigene Lösungen ersinnen und dann mit dem Support von normalem DDR3-Speicher werben. Die Frage ist, ob dies wirklich passiert – denn die Enthusiasten schauen eher auf DDR4-Speicher und für den OEM-Markt muß sich jeder Mehraufwand centgenau rechtfertigen lassen. Andererseits kann man davon ausgehen, daß typische Retail-Mainboards derart solide ausgelegt sind, daß auch ohne expliziten Support vor normalem DDR3 dieses darauf läuft – ein wenig mehr Speicherspannung halten schließlich die allermeisten Retail-Mainboards problemlos aus. Daher käme es erst einmal auf den Versuch an, ehe man hier ein wirkliches Problem sieht. Mit den jüngsten Preissenkungen bei DDR4-Speicher dürfte aber sowieso nur noch eine Minderheit an Nutzern zu DDR3/L-Speicher für Skylake greifen, in absehbarer Zeit sollte sich dieses "Problem" automatisch erledigt haben.

Nochmals Heise berichten über eine Intel-Aussage zu den Kosten von "3D XPoint": Jene neue Speichertechnologie soll "halb so teuer wie DDR4" sein – was wohl eine Angabe pro Gigabyte sein soll. Dies bedeutet allerdings auch, daß richtig große Speichermengen wie bei heutigen SSDs dann ganz schnell ins Geld gehen würden – eine 512 GB große 3D-XPoint-SSD würde dann auf einen Preis von ca. 1800 Euro kommen, echte Massenspeicher mit mehreren Terabyte Größe würden dann fünfstellige Beträge kosten. Als kleinerer Zwischenspeicher im Rahmen von 64 GB wäre es immer noch rund 220 Euro – nicht gerade wenig für einen gewissen zusätzlichen Beschleunigungseffekt. Intel hat diese Preisangabe sicherlich sorgfältig ausgewählt, weil jene bestmöglich verschleiert, was auf alle neu aufkommenden Speichertechnologien am Anfang prinzipgebunden zutrifft – sie sind meist sehr teuer. Nur über Weiterentwicklung und erste Markterfolge kann demzufolge erreicht werden, daß diese Preise auf ein verträgliches Niveau absinken. Deswegen kommt "3D XPoint" auch zuerst ins Serversegment – weil man dort die hohen Anfangspreise eher zahlt, wenn einfach nur der Beschleunigungseffekt vorhanden ist.

Netzpolitik bringen eine Auswertung des eMail-Providers Posteo zu den Behördenanfragen gemäß der Bestandsdatenauskunft, welche die Kritik an der Vorratensdatenspeicherung mit belegbaren Argumenten untermauert: Denn schon jetzt, noch ohne gesetzliche Vorratsdatenspeicherung halten sich die Ermittlungsbehörden nicht an die bestehende Gesetzeslage und fordern Daten ohne ausreichende Begründung, ohne passende Form und Datenschutzvorkehrungen sowie teilweise sogar ohne ausreichende Rechtsgrundlage an. Nach Einschätzung von Posteo sind fast alle eingereichten Ersuchen rechtswidrig – diese Aussage aus dem Mund eines Geschäftsführers ist dann schon etwas gewichtiger als bei anderen Meldungen, die immer wieder gern als "bedauerliche Einzelfälle" abgebügelt werden können. In der Summe der Dinge läuft schon die jetzige Bestandsdatenauskunft "chaotisch" ab – wie es dann werden würde, wenn die Vorratsdatenspeicherung dazukommen sollte, kann sich jeder selber ausmalen.

Zudem wird seitens Netzpolitik noch angemerkt, daß der Richtervorbehalt als gesetzlich so gedachtes Kontrollgremium diese Aufgabe nicht wirklich erfüllt, wenn nur in absolut krassen Fällen es teilweise dazu kommt, daß Richter ihre Unterschrift verweigern. Das zugrundeliegende Problem ist hier durchgehend, daß den Ermittlungsbehörden keinerlei Sanktionen bei rechtswidrigem Verhalten drohen – jene gleichzeitig aber das unterschwellig immer vorhandene Drohpotential einer Amtsmarke aus dem Justizbereich genüßlich ausspielen. So lange den Beamten hier keine klaren Grenzen gesetzt werden und wiederholte Verstöße nicht justizabel werden, wird es immer Mißbrauch geben. Wenn man es dagegen – wie derzeit – einfach unbeachtet weiterlaufen läßt, wird der Mißbrauch gar zum Normalzustand. Daneben begünstigt das Mißachten von Regeln und Gesetzen ausgerechnet durch den Justizapparat auch nicht gerade die Rechtstreue des normalen Bürgers – insbesondere das Argument, doch speziell den Ermittlungsbehörden "etwas Spielraum" zu lassen, ist deshalb niemals valide.

20

Launch der GeForce GTX 950: Erste Testberichte gehen online

Nachdem die letzten Tagen schon reichlich Vorab-Meldungen zu dieser neuen Mainstream-Grafikkarte hereinkamen, stellt nVidia nunmehr die GeForce GTX 950 als kleinere Ausführung des GM206-Chips endlich offiziell vor. Wie bekannt, speckt nVidia dafür den GM206-Chip von 1024 auf 768 Shader-Einheiten ab, auch die offiziellen Taktraten sind mit 1024/1188/3300 MHz eher zaghaft im Vergleich mit anderen Maxwell-Grafikkarten. In diese Lücke springen jedoch gleich vom Start weg zahlreiche ab Werk übertaktete Herstellermodelle hinein, welche die GeForce GTX 950 mit zumeist viel kräftigeren Chip-Taktraten interpretieren. Die ersten Testberichte mit zahlreichen Herstellermodellen füllen bereits das Web, eine Diskussion zum Launch startet in unserem Forum – und unsere gewohnte Launchanalyse wird zu einem etwas späteren Zeitpunkt auch noch hinzukommen.

19

Hardware- und Nachrichten-Links des 18./19. August 2015

Videocardz bringen zur GeForce GTX 950 nochmals neue Taktraten sowie einen ersten 3DMark Benchmark-Wert. Die Referenz-Taktraten der Karten wurden zuletzt mit 1089/1266/3300 MHz angegeben, nun sollen es gar nur 1024/1188/3300 MHz werden – was die Performance der GeForce GTX 950 noch etwas nach unten treibt. Die wahrscheinlichste Auflösung ist nunmehr ein direkter Zweikampf mit AMDs Radeon R7 370. Der erreichte 3DMark-Wert von 2709 Punkten im 3DMark13 FireStrike Extreme bei einer real auf 1430 MHz Chiptakt laufenden OC-Herstellerkarte deutet darauf hin, daß die GeForce GTX 950 ca. 24% langsamer als die GeForce GTX 960 ist – letztere hatte seinerzeit unter denselben Bedingungen (Vorlaunch-Benchmark mit OC-Herstellerkarte) 3573 Punkte in diesem Test erzielt. Fällt der Unterschied unter Referenz-Taktungen ähnlich aus, sollte die GeForce GTX 950 somit einen 3DCenter Performance-Index von ~250% erreichen – dies wäre genau so wie bei der Radeon R7 370 (Perf.Index 250%) und klar langsamer als bei der Radeon R9 270X (Perf.Index 290%) sowie der später antretenden Radeon R9 370X (Perf.Index ~290-310%).

Die PC Games Hardware bringt die Aussage eines Spieleentwicklers, welcher sich schon intensiv mit DirectX 12 unter der Unreal Engine 4 beschäftigt hat und daher von Performancezuwächsen im Rahmen von grob 20% auf verschiedenen PC-Systemen zu berichten weiß. Hierbei geht es natürlich rein um den Software-Part von DirectX 12, nicht um die weiteren Rendering-Features der neuen Grafik-Schnittstelle – welche erst in einiger Zeit real erlebbar sein dürften. Für den Augenblick steht vorerst "nur" die Ausnutzung des geringeren CPU-Overheads durch DirectX 12 an, und daher ist die Aussage zu einem Performance-Gewinn von ~20% schon erst einmal sehr positiv – denn dies bedeutet, daß es hier zu einem generellen Gewinn über alle Arten von Spielen kommen dürfte, nicht nur bei Spielen mit bekannter CPU-Limitierung. Bei Spielen mit hoher CPU-Limitierung wird DirectX 12 für noch viel größere Performancegewinne sorgen bzw. teilweise sogar Szenarien ermöglichen, welche ohne DirectX 12 (oder Mantle) gar nicht realisierbar wären.

Zwar einige Details, aber recht wenig ergiebiges zugunsten eines echten Überblicks hat Intel auf seinem IDF zur Skylake Prozessoren-Architektur von sich gegeben. Die Beobachter der entsprechenden Intel-Briefings äußerten durchgehend Enttäuschung, in Folge dessen gab es auch nur einige News zum Thema, aber keine große, endlich alles aufklärenden Artikel zur Skylake-Architektur. Dabei dürfte dies wahrscheinlich sogar der eigentliche Plan von Intels Marketing gewesen sein: Man ist sich angesichts der mageren Mehrperformance von Skylake bewußt, daß hier kaum Ansatzpunkte für die großen technischen Artikel vorliegen, diese immer eher die Nicht-Änderungen gegenüber den wirklichen Änderungen hervorheben würden – und hat daher die Presse vermutlich bewußt mit zu wenig Material für eine zusammenhängende Berichterstattung gefüttert, um solchen tendentiell negativ wirkenden Artikel keinen Vorschub zu geben. Allerdings kann man wohl auch ohne vollständiges Material angesichts der bekannten Fakten und vor allem der offenliegenden Performance sagen: Skylake ist auch von der Architektur her ein sehr kleiner Sprung, eigentlich das große Wort einer "neuen Architektur" keinesfalls wert.

Hier obendrauf scheint Intel nun noch den Punkt zu legen, daß die integrierte Skylake-Grafik entgegen Intels klarer Vorab-Ankündigung nun doch kein DirectX 12 in Hardware beherrscht – sondern maximal DirectX 11.2, wovon die aktuellen Treiber derzeit aber auch nur DirectX 11.1 zur Verfügung stellen. Eigentlich war dies schon lange vorher zu vermuten, daß Intel nicht gerade so schnell wie AMD und nVidia mit ihren ernsthaften Grafikchips eine DirectX-12-Lösung in Hardware würde anbieten können, gerade da DirectX 12 ja auch erst recht spät aus der Taufe gehoben wurde. Trotzdem wurde lange Zeit aufgrund recht klarer Intel-Aussagen die Skylake-Architektur mit "DirectX 12 in Hardware" beschrieben – und Zweifler an dieser Darstellung eben auf diese klaren Intel-Aussagen verwiesen. Dabei wurde nicht bedacht, daß Herstelleraussagen immer nur so wahr sind, wie jene nicht augenscheinlich falsch sind – und DirectX 12 liefert Intel bei der Skylake-Grafik schließlich, nur eben (wie schon bei Haswell & Broadwell) rein in Form des Supports des Software-Parts von DirectX 12. Siehe hierzu das Update vom 23. August 2015.

Die ComputerBase und Gulli vermelden erste Produkte auf Basis der 3D-XPoint-Speichertechnologie in Form von Intels "Optane"-SSDs schon für das Jahr 2016. Da sich hierzu auch Spieleentwickler Chris Roberts voller Lob geäußert hat ("noch größere OpenWorld-Spiele ohne jede Ladezeiten möglich"), scheinen diese Optane-SSDs auch nicht rein für professionelle Anwendungszwecke gedacht zu sein – was natürlich deren Preispunkt abzuwarten bleibt. Bei einer Bauform als PCI-Express-SSD bleibt zudem die Frage offen, ob diese SSDs wirklich schneller sein können – da deren Bandbreite am Ende durch die Übertragung per PCI Express limitiert wird, welches die besten Flashspeicher-basierten SSDs auch jetzt schon ausnutzen können. Zumindest scheint Intel mit 3D-XPoint wirklich hoch hinaus zu wollen – und im klaren Gegensatz zu vielen anderen Speichertechnologien, die vorgestellt und dann vergessen wurden, wird es hier zumindest kaufbare Produkte und damit einen echten Versuch am Markt geben.

19

Umfrage-Auswertung: Wie ist der Ersteindruck zu Intels Skylake?

Die Umfrage der letzten Woche beschäftigte sich mit dem Launch von Intels Skylake Prozessoren-Architektur und dem Ersteindruck der Anwender zu dieser. Das dabei aufgezeigte Ergebnis steht ein wenig zwischen den Stühlen: Nur 24,9% positiver Ersteindruck sind schwach für eine neue Prozessoren-Architektur – gerade wenn man sich die Historie zu den Launches von früheren Prozessoren-Architekturen ansieht: AMDs verschiedene APUs kamen oftmals hierbei auf 50%-Wertungen, Intels Sandy Bridge brillierte bei 75,9% positivem Ersteindruck, selbst AMDs Vishera Bulldozer-Refresh kam noch auf 28,2%. Dagegen steht, daß es Intel wenigstens geschafft hat, den direkten Skylake-Vorgänger Haswell klar zu überbieten, jener kam seinerzeit sogar nur auf 15,6% positiven Ersteindruck.

Die sich schon hier heraus ergebende Tendenz ist ziemlich klar: Ohne größere Sprünge zwischen den einzelnen Architekturen kann selbst der beste Prozessor keine guten Wertungen erwarten – und Intel ist bei Skylake eben kein großer Sprung gelungen, gerade wenn man die Zwischen-Architektur "Broadwell" mit einrechnet. In diesem Sinne fallen auch die Stimmen derjenigen Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck aus: Von 55,7% wird primär ein fehlendes (höheres) Performance-Plus als Problem gesehen – interessanterweise wird die nicht bessere Overclocking-Neigung in dieser Disziplin bei weitem nicht so häufig genannt (nur 4,4%), wird von den Anwendern also nicht als so großes primäres Problem angesehen. Allerdings stimmten weitere 37,1% dafür, daß Skylake in der Summe der Eigenschaften keinen klaren Fortschritt bietet – worin sich sowohl fehlendes Performance-Plus aus auch nicht bessere Overclocking-Neigung wiederspiegeln.

Die potentielle Kaufneigung ist dann mit 16,6% eher unterdurchschnittlich für eine Mainstream-Architektur – zwar immer noch klar besser als bei Haswell (nur 9,8%), aber auch nicht viel besser als bei der Enthusiasten-Architektur Haswell-E (13,5%). Verkaufen wird sich Skylake dann trotzdem, in diesem Unterpunkt bietet diese Umfrage erfahrungsgemäß kaum seriöse Anhaltspunkte: Rechner & Prozessoren werden halt nach dem gekauft, was am Markt vorhanden ist – und dies wird nach einer gewissen Anpassungsphase dann nur noch Skylake sein. Was Skylake jedoch nicht gelingen wird, ist die Besitzer von gut getakteten Systemen mit Sandy-Bridge-, Ivy-Bridge- und Haswell-Prozessoren zu einem Umstieg nur wegen dem Prozessor zu begeistern. Aber diese Tendenz hat man schon bei Haswell gesehen – die Fortschritte der Intel-Architekturen sind zu klein geworden, als daß sich der Umstieg nur des Prozessors wegen lohnen würde.

positiv durchschnittlich negativ Kaufinteresse
AMD Bobcat 71,3% 18,2% 10,5% ?
AMD Temash & Kabini 68,5% 19,4% 12,1% 51,3%
AMD Llano 57,9% 26,8% 15,3% 41,6%
AMD Trinity (Mobile) 50,9% 28,8% 20,3% 42,1%
AMD Richland 47,7% 34,7% 17,6% 27,4%
AMD Kaveri 53,1% 32,4% 14,5% 35,5%
AMD Bulldozer 6,8% 26,5% 66,7% 5,6%
AMD Vishera 28,2% 44,6% 27,2% 17,8%
Intel Sandy Bridge 75,9% 14,4% 9,7% 51,4%
Intel Ivy Bridge 40,5% 43,5% 16,0% 27,3%
Intel Ivy Bridge E 13,3% 39,6% 47,1% 3,6%
Intel Haswell 15,6% 46,3% 38,1% 9,8%
Intel Haswell-E 42,0% 36,3% 21,7% 13,5%
Intel Skylake 24,9% 47,8% 27,3% 16,6%
17

Hardware- und Nachrichten-Links des 17. August 2015

Im Zuge des allgemein schwachen PC-Markts (vor dem Start von Windows 10) berichten Jon Peddie Research über schwache Grafikchip-Verkäufe im zweiten Quartal 2015. Hierbei sind natürlich auch die in den AMD- und Intel-Prozessoren verbauten integrierten Grafikchips erfaßt, welche aufgrund ihrer übergroßen Anzahl den insgesamten Grafikchip-Markt dominieren und die eigentlichen Grafikchips etwas maginalisieren. Nichtsdestotrotz war der Abwärtstrend durchgehend zu erkennen: AMD -26%, nVidia -16% und Intel -7% gegenüber dem ersten Jahresquartal, der insgesamte Grafikchip-Markt ging somit um 11% in nur einem Quartal zurück. Bei den Marktanteilen der "großen Drei" gab erneut Verschiebungen von AMD & nVidia zugunsten von Intel, welche derzeit bei satten 75% Marktanteil bei allen verkauften Grafiklösungen stehen. Wie die Marktanteile von nur AMD und nVidia bei allein den "echten" Grafikchips ausfallen, dürften Jon Peddie Research dann in einer weiteren Meldung in den nächsten Tagen offenlegen.

Die GameStar vermeldet eine neue Animationstechnik für Gesichter in Computerspielen namens "Skin Microstructure Deformation with Displacement Map Convolution", welche seitens amerikanischer und britischer Universitäten entwickelt und zur Siggraph 2015 vorgestellt wurde. Grob gesagt werden damit wesentlich mehr Gesichtsmuskeln simuliert, basierend auf Scans mit echten Schauspielern. Auf den allerersten Blick hört sich dies weniger danach an, daß man eine Lösung hätte, mit der bestehenden Technik wesentlich mehr herauszuholen – sondern eher danach, daß man primär an eine bessere, zukunftsweisende Grafikqualität gedacht hat. Letzteres wird dann ziemlich sicher nach dementsprechend (viel) leistungsfähigerer Hardware verlangen – die Grafikchip-Entwickler wird es freuen, die Spieleentwickler werden dagegen zuerst schauen, um wieviel teurer ihre Spiele durch diese Technik wieder werden und ob sich das überhaupt noch rechnen kann. Irgendeiner wird jedoch sicherlich irgendwann den Anfang machen und damit die nächste Phase der Grafik-Evolution einläuten.

Heise vermelden das dritte kummulative Update für Windows 10 seit seinem Release – nicht schlecht für ein gerade drei Wochen altes Betriebssystem, welches angeblich doch "fertig" gewesen sein soll. Microsoft hat sich bei seinem Releasefahrplan diesesmal arg von einem vorgefertigten Zeitplan leiten lassen, anstatt lieber eine Verzögerung in Kauf zu nehmen – wie man es teilweise in der Vergangenheit getan hat. Da der Erfolg bei Windows 10 jedoch faktisch garantiert ist, kann man diese und andere Problemfelder rund um Windows 10 auf sich nehmen – ein späterer Release wäre hier in der Tat eher ungünstig für Microsoft. Die Anwender stehen nun aber mit einem neuen Betriebssystem da, welches wohl erst mit dem kommenden Herbst-Update eine gewisse Reife erlangt haben wird – eine schwierige Wahl, wenn dann das aus Sicht der Gamer hochinteressante DirectX 12 eben nur unter Windows 10 verfügbar ist.

In der Frage, ob Windows 10 illegale Hard- und Software blockieren kann, berichten Golem über eine Microsoft-Aussage: Danach würde diese Passage der Nutzungsbedingungen nur für die wirklichen Microsoft-Dienste gedacht sein, sprich primär Xbox Live. Sofern man allerdings Windows 10 über ein Microsoft-Konto nutzt – wie von Microsoft vorgesehen und faktisch forciert – ist man allerdings Teil dieser Microsoft-Dienste und segnet auch Nutzungsbedingungen mit exakt dieser Passage ab. Womöglich kommt dies daher, daß Microsoft für alle seine Dienste dieselben Nutzungsbedingungen verwendet, womit nun Xbox-Nutzer und Windows-10-Nutzer in denselben Topf geworfen werden. An den rechtlichen Möglichkeiten zugunsten von Microsoft ändert dieser Klarstellung gar nichts, diese Möglichkeiten bleiben bei Nutzung eines Microsoft-Kontos für Windows 10 bestehen. Genauso gilt aber auch, daß Microsoft diese Möglichkeiten aller Wahrscheinlichkeit nach auf absehbare Zeit nicht auf dem PC ausnutzen wird – wie beides schon in den letzten News so gesagt.

17

Finale Spezifikationen zur GeForce GTX 950 aufgetaucht?

Videocardz bringen nochmals neue, nunmehr augenscheinlich finale Spezifikationen zur am 20. August zu erwartenden GeForce GTX 950 daher: Zum einen werden damit die Hardware-Daten in Form von 768 Shader-Einheiten an einem 128 Bit DDR Speicherinterface bestätigt, zum anderen die bislang noch fehlenden Referenz-Taktraten mit 1089/1266/3300 MHz genannt. Dies ist etwas weniger als zuerst berichtet (1150/1350/3300 MHz) – aber andererseits gab es seinerzeit schon die Vermutung, daß diese hohen Taktraten nur diejenigen eines Herstellermodells mit ab-Werk-Übertaktungen waren. Zudem wurde die TDP auf 90 Watt festgelegt – was aber in ähnlicher Form zu erwarten war, die GeForce GTX 960 auf Basis des gleichen Grafikchips steht bei einer TDP von 120 Watt und einem realen Spiele-Verbrauch von 98 Watt.

Radeon R7 370 Radeon R9 370X GeForce GTX 950 GeForce GTX 960
Chipbasis AMD Pitcairn, 2,8 Mrd. Transistoren in 28nm auf 212mm² Chip-Fläche nVidia GM206, 2,94 Mrd. Transistoren in 28nm auf 227mm² Chipfläche
Architektur GCN 1.0, DirectX 11.2a (DX12 in Software) Maxwell 2, DirectX 12.1
Technik 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 256 Bit DDR Interface 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface angeblich 2 Raster-Engines, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit DDR Interface 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 128 Bit DDR Interface
Taktraten ≤975/2800 MHz angeblich ≤1050/2800 MHz bis zu maximal ≤1180/2800 MHz angeblich 1089/1266/3300 MHz 1127/1178/3500 MHz
(Ø-Chiptakt: 1316 MHz)
Speicherausbau 2 GB GDDR5
(4 GB gegen Aufpreis)
2 GB GDDR5
(4 GB gegen Aufpreis)
2 GB GDDR5 2 GB GDDR5
(4 GB gegen Aufpreis)
TDP 110W ? angeblich 90W 120W
3DC Perf.Index 250% geschätzt 290-310% geschätzt 260-280% 330%
Straßenpreis 145-165 Euro
(4GB +30€)
vermutlich 170€ vermutlich 150€ 180-200 Euro
(4GB +40€)

Aufgrund der (logischerweise bis zum Launchtag) fehlenden Information über den real anliegenden Boosttakt bei der GeForce GTX 950 muß die Performance-Prognose weiterhin im Spannfeld von 260-280% im 3DCenter Performance-Index bleiben. Die GeForce GTX 960 auf Basis desselben GM206-Chips bezieht wie bekannt sehr viel ihrer Performance aus einem letztlich deutlich höherem Realtakt als es deren default-Taktraten ansonsten vermuten lassen würden. Wie nVidia die GeForce GTX 950 letztlich feintunt, wird man sich überraschen lassen müssen – eher näher zur Radeon R7 370 (Perf.Index 250%) oder eher näher zur später erscheinenden Radeon R9 370X (Perf.Index 290-310%).

Die allerersten Preispunkte deuten eher eine niedrigere Ansetzung an, denn zuletzt wurde die GeForce GTX 950 für umgerechnet 150 Euro genannt – damit wäre der direkte Zweikampf mit AMDs Radeon R7 370 eröffnet. Da die ersten GeForce GTX 960 Modelle inzwischen schon bei knapp 180 Euro gesichtet wurden, ist ein allgemein niedrigerer, eher Mainstream-freundlicherer Ansatz von nVidia bei der GeForce GTX 950 die naheliegendste Auflösung. Dafür spricht am Ende auch der plötzliche Preisverfall der kleineren GeForce GTX 750 Ti (Perf.Index 210%): Jene Karte war monatelang stabil bei nicht unter 130 Euro zu haben, ist kürzlich jedoch auf Preise ab 113 Euro heruntergefallen.

Nachtrag vom 19. August 2015

Videocardz bringen zur GeForce GTX 950 nochmals neue Taktraten sowie einen ersten 3DMark Benchmark-Wert. Die Referenz-Taktraten der Karten wurden zuletzt mit 1089/1266/3300 MHz angegeben, nun sollen es gar nur 1024/1188/3300 MHz werden – was die Performance der GeForce GTX 950 noch etwas nach unten treibt. Die wahrscheinlichste Auflösung ist nunmehr ein direkter Zweikampf mit AMDs Radeon R7 370. Der erreichte 3DMark-Wert von 2709 Punkten im 3DMark13 FireStrike Extreme bei einer real auf 1430 MHz Chiptakt laufenden OC-Herstellerkarte deutet darauf hin, daß die GeForce GTX 950 ca. 24% langsamer als die GeForce GTX 960 ist – letztere hatte seinerzeit unter denselben Bedingungen (Vorlaunch-Benchmark mit OC-Herstellerkarte) 3573 Punkte in diesem Test erzielt. Fällt der Unterschied unter Referenz-Taktungen ähnlich aus, sollte die GeForce GTX 950 somit einen 3DCenter Performance-Index von ~250% erreichen – dies wäre genau so wie bei der Radeon R7 370 (Perf.Index 250%) und klar langsamer als bei der Radeon R9 270X (Perf.Index 290%) sowie der später antretenden Radeon R9 370X (Perf.Index ~290-310%).

Inhalt abgleichen