1

Tests zu Windows 10 zeigen im Schnitt kaum Zugewinne bei der Gaming-Performance

Verschiedene Webseiten haben sich in den letzten Wochen mit der Gaming-Performance von Windows 10 beschäftigt – noch nicht auf DirectX 12 bezogen, sondern erst einmal allein nur auf den Effekt des Betriebssystems selber. Die mit den letzten Microsoft-Betriebssystemen hierzu gemachte Erfahrung lautet, daß es schon ein gutes Ergebnis ist, wenn das neue Betriebssystem nicht langsamer ist – schneller wird dagegen in aller Regel nichts, einzelne Ausreißer bzw. minimale Unterschiede einmal ausgenommen. Bei Windows 10 sieht dies laut den vorliegenden Ergebnissen nicht viel anders aus: In den für das neue Microsoft-Betriebssystem günstigsten Tests gibt es 2-3% Mehrperformance, im schlechtesten Fall (den Ausreißer mit der Radeon R9 295X2 einmal ausgenommen) geht es dagegen um 1,6% nach unten.

Ein Durchschnitts-Ergebnis aus allen vorliegenden Testergebnissen würde natürlich zugunsten von Windows 10 sprechen, da es deutlich mehr Tests mit (minimalen) Performancegewinnen gibt als umgedreht. Mehr als durchschnittlich knapp 1% Performancegewinn für Windows 10 kommen dabei aber auch nicht heraus – zu wenig, um daraus größere Schlüsse ziehen zu können. Allenfalls kann man sagen, daß die Performancezugewinne eher bei schnelleren Grafikkarten überhaupt erst zu sehen sind, während langsame und mittelschnelle Karten meistens bei klar unter einem Prozent Performancegewinn (bis hin zum Gleichstand) herauskommen.

Windows 7 Windows 8.1 Windows 10
ComputerBase  (18 Tests, FullHD) Radeon R9 Fury X -0,3% 100% +1,8%
Radeon R9 390 -0,5% 100% +0,4%
GeForce GTX 980 Ti +0,5% 100% +3,0%
GeForce GTX 970 +0,2% 100% +0,7%
Ars Technica  (4 Tests, 4K) Radeon R9 295X2 - 100% -5,7%
Radeon R9 290X - 100% -1,6%
GeForce GTX 980 Ti - 100% +1,9%
Fudzilla  (6 Tests, WQHD & 4K) GeForce GTX Titan X - 100% -0,7%
Hot Hardware  (7 Tests, WQHD) GeForce GTX Titan X - 100% +1,9%
Maximum PC  (4 Tests, WQHD & 4K) GeForce GTX 980 Ti -0,8% 100% +1,2%
TechSpot  ( Tests, FullHD) GeForce GTX 980 -0,6% 100% +0,6%

Die Frage, ob sich Windows 10 aus Gamer-Sicht lohnt, kann natürlich mit solcherart Tests nicht beantwortet werden – allerdings wird indirekt die Frage beantwortet, ob es aus Performance-Gründen irgendeinen Hintergrund gäbe, nicht auf Windows 10 zu wechseln. Einen solchen Grund gibt es nicht, bei der Gaming-Performance ist Windows 10 wenigstens gleichwertig, tendentiell sogar minimal schneller. Der echte Grund für Gamer, um auf Windows 10 zu wechseln, liegt dann natürlich bei DirectX 12 – welches exklusiv nur auf Microsofts neuem Betriebssystem angeboten wird und in Zukunft sicherlich für einige Performancezuwächse und teilweise sogar Spiele, die ohne DirectX 12 gar nicht möglich wären, sorgen dürfte.

31

Hardware- und Nachrichten-Links des 31. August 2015

Der Test der Radeon R9 Fury bei HT4U liefert unter anderem einen Vorgriff auf eine neue Meßmethodik und Herangehensweise zu Stromverbrauchsmessungen bei Grafikkarten – hiermit werden dann vernünftig mit Werten unterlegte Messungen zu durchschnittlichem und maximalem Spiele-Verbrauch möglich. Für den Augenblick bestätigen die aufgenommenen Werte erst einmal, daß die Radeon R9 Fury beim Spiele-Stromverbrauch etwas unterhalb der Radeon R9 Fury X herauskommt – aber nicht oberhalb dieser, wie teilweise schon vermessen wurde. Desweiteren werden die bekannte Tendenzen bei den anderen HighEnd- und Enthusiasten-Karten grob bestätigt – nur daß eben die durchschnittlichen Verbrauchswerte dann 25-40 Watt unter den maximalen Verbrauchswerten liegen. Wertvoll sind wohl beide Werte: Der maximale Verbrauch ist relevant zur Dimensionierung von Kühlsystem und Netzteil, der durchschnittliche Verbrauch ist als Vergleichsgröße für Grafikkartentests wichtig. Dabei sollte man allerdings versuchen, entweder eher eine Reihe an Spieletiteln durchzutesten – oder aber daß wenigstens jede Webseite einen anderen Spieletitel hierfür benutzt. Der zu diesem Thema angekündigte extra HT4U-Artikel dürfte sicherlich noch weitere Erkenntnisse und Gedankenanstöße liefern.

Vom chinesischen MyDrivers (maschinelle Übersetzung ins Deutsche) kommt das abenteuerliche Gerücht, AMD hätte an dem "2.5D-Verfahren", wie man HBM-Speicherchips neben dem Grafikchip auf einen Interposer setzt, ein Patent und könnte daher die Einführung von HBM-Speicher bei nVidia auf das Jahr 2017 verzögern. Dies widerspricht jedoch allem gesunden Menschenverstand, nachdem nVidia niemals eine (mehrjährige) Grafikchip-Entwicklung angehen würde, wenn die Rechtssituation hierfür nicht geklärt ist. Gleichfalls hat nVidia ziemlich klar zu erkennen gegeben, daß in der kommenden Pascal-Generation HBM-Speicher verwendet werden wird – und zwar gleich für den größten Pascal-Chip GP100, welcher in diesem Sommer seinen Tape-Out hatte. Sofern nVidia nicht alles umstoßen wollte, was man bisher zur Pascal-Generation gesagt hat oder aber jene Pascal-Generation unnötigerweise aufs Jahr 2017 verschiebt, kann dieses Gerücht daher eigentlich nicht stimmen.

Einen Punkt, welchen man aus der laufenden Diskussion über die Überlebensfähigkeit AMDs mitnehmen kann, ist die Einsicht, daß AMD mit seinem Grafikchip-Geschäft, egal wie schlecht es derzeit läuft, sowieso nichts gewinnen kann – wenn man nicht mit seinem Prozessoren-Geschäft auf einen grünen Zweig kommt. Nur aus diesem Geschäft, welches früher einmal für Quartalsumsätze von 800 bis 1200 Millionen Dollar bei AMD stand (derzeit ist man davon allerdings um einiges entfernt), kann AMD die solide Basis für das Gesamtunternehmen ziehen – für diesen Zweck sind das Grafikchip-Geschäft zu klein und das Konsolenchips-Geschäft je nach Auftragslage zu schwankend. Demzufolge ist AMDs aktuelle Zurückhaltung bezüglich Neuentwicklungen im Grafikchip-Bereich – wo nVidia eine ganze neue Chip-Generation brachte, AMD hingegen nur einen neuen Spitzen-Chip – wahrscheinlich eher darauf zurückzuführen, daß AMD die allermeisten Entwicklungsgelder in Richtung der Zen-Architektur verschoben hat. Denn an jener entscheidet sich in jedem Fall das Schicksal AMDs – nicht aber am Verlauf des Grafikchip-Geschäfts.

Die PC Games Hardware und HT4U schreiben zur Preisentwicklung bei DDR3- und DDR4-Speicher: Danach konnte DDR4-Speicher im Vergleich mit DDR3-Speicher weiter aufholen, da der Preisverfall bei DDR3 stoppte, während der Preisverfall bei DDR4 weiterging. Auf der für beide Speichersorten erhältlichen Einstufung "DDRx/2133" gibt es daher derzeit nur noch einen geringen DDR4-Mehrpreis zu beobachten. Vergleicht man die jeweils "normalen" Einstufungen, sprich DDR3/1600 gegen DDR4/2133, liegt der Preisunterschied zwar noch bei ca. 30%, was angesichts des Taktunterschieds und vor allem Punkt, daß dies auf 16 GB gerechnet nur ~25 Euro sind, jedoch irgendwie doch in Ordnung geht. Durch den Frühstart bei Haswell-E hatte DDR4-Speicher ausreichend Gelegenheit, sich zu etablieren und ist nun beim eigentlichen Start im Consumer-Segment durch Skylake nicht mehr der große Bremser durch zu hohe Preise, wie es vorab teilweise vermutet wurde.

31

Umfrage-Auswertung: Wie ist der Ersteindruck zur GeForce GTX 950?

Die Umfrage der letzten Woche beschäftigte sich natürlich mit dem Launch von nVidias neuer Mainstream-Lösung GeForce GTX 950. Mainstream-Lösungen kommen bei 3DCenter-Umfragen nie besonders gut weg, insofern sind die 23,1% positiver Ersteindruck sogar ein gewisser Erfolg für die GeForce GTX 950 – besonders, da die größere GeForce GTX 960 in dieser Frage nochmals deutlich schlechter weggekommen ist (nur 14,6% positiver Ersteindruck). Der Vergleich zu früheren, in einem ähnlichen Preisbereich angetretenen Mainstream-Lösungen – namentlich Radeon HD 7790 und Radeon R7 265 – zeigt allerdings, daß es auch anders geht, daß das von der GeForce GTX 950 erzielte Ergebnis insgesamt wohl eher als arg mittelmäßig einzuschätzen ist.

Als Hauptgrund hierfür sehen die Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck den noch nicht ganz passenden Preispunkt: Wenn man eine Grafikkarte für einen besonders preissensitiven Preisbereich bringt, dann sollte natürlich zu allererst deren Preispunkt passen – und hier liegt nVidia bei der GeForce GTX 950 daneben, die Karte liegt preislich einfach zu nahe an der GeForce GTX 960 dran. Eine Auswirkung dieses etwas zu hoch angesetzten Preispunkts der GeForce GTX 950 ist auch, daß hierbei durch eine neue Grafikkarte keine Marktbewegung ausgelöst wird – eine neue Grafikkarte sollte aber sehr wohl diesen Effekt haben, ganz besonders wenn jene einer neuen Chip-Generation entstammt.

Und somit ist es auch kein Wunder, wenn nur 4,9% der Umfrage-Teilnehmer die GeForce GTX 950 als potentielles Kaufobjekt betrachten: Diejenigen Anwender, welche eine Mainstream-Karte mit dem Performanceprofil der GeForce GTX 950 ins Auge fassen würden, sind zu allermeist schon entsprechend eingedeckt, in diesem Marktsegment gab es in den letzten Jahren viele gute Lösungen zu kaufen, die noch nicht wirklich viel schlechter gegenüber der GeForce GTX 950 wegkommen. Im Massenmarkt dürfte dies allerdings ganz anders aussehen und nVidia – vorangetrieben durch den sowieso schon guten Ruf der GeForce-900-Serie bei gleichzeitiger Ignoranz der GTX970-Affäre – wird dort wahrscheinlich sogar richtig große Stückzahlen der GeForce GTX 950 absetzen (sowie aufgrund des günstigen Chips & Kartenlayouts viel Geld verdienen) können.

  positiv durchschn. negativ Kaufint.
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R7 360 24,5% 32,1% 43,4% 7,6%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 950 23,1% 33,1% 43,8% 4,9%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
30

Hardware- und Nachrichten-Links des 29./30. August 2015

Auch weil AMD die Radeon R9 Nano am Donnertags mehr oder weniger nur groß angekündigt hat, man aber kaum von einem echten Launch sprechen kann, gibt es vorerst andere Streitthemen in unserem Forum – wie jenes zur Frage, was für HDMI 2.0 und HDCP 2.2 heutzutage für eine neue Grafikkarte benötigt wird. Eine schöne Faktenzusammenstellung hierzu gibt Auskunft darüber, wie die Grafikchip-Entwickler in dieser Frage derzeit aufgestellt sind – und danach sieht es eher traurig aus, denn auch der Support von HDMI 2.0 & HDCP 2.2 beim GM206-Chip von GeForce GTX 950 & 960 ist nur halb so viel wert, wenn bei diesen HDCP 2.2 letztlich nicht über HDMI, sondern nur über DisplayPort unterstützt wird. Ganz generell betrachtet ist aktuell Grafikkarten-Generation durchgehend noch nicht wirklich auf echten Support für 4K-Fernseher sowie auf echten Support von HDCP 2.2 ausgelegt, trotz daß es teilweise Ansätze und teilweise Lösungen hierfür gibt. Das ganze dürfte vermutlich erst mit den kommenden 14/16nm-Grafikchips des Jahres 2016 durchgehend und problemlos geboten werden.

Die PC Games Hardware hat sich die Grafikkarten-Performance unter der Multiplayer-Beta von Call of Duty: Black Ops 3 angesehen. Eine große Performance-Aussage zum Singleplayer-Part von Black Ops 3 läßt sich damit natürlich nicht machen, da die Optik des Multiplayer-Parts wie üblich deutlich abgespeckt ist – zudem läßt der Beta-Status des Spiels noch genügend Raum für Optimierungen und angepasste Treiber seitens der Grafkchip-Entwickler. Die unter FullHD erreichten Frameraten sind ab Grafikkarten des Performance-Segments jedoch schon erstklassig, es werden auch keine Grafikkarten nur des einen oder anderen Grafikchip-Entwicklers bevorzugt. Allerdings mag das Spiel keine Grafikkarten mit unter 4 GB Grafikkartenspeicher – zwischen einer GeForce GTX 960 mit 2 oder 4 GB Speicher liegt schon eine Differenz von 14%, eine GeForce GTX 770 mit 2 GB fällt dagegen komplett ab auf die Hälfte der Frameraten einer GeForce GTX 960.

Selbst eine Radeon R9 280X mit 3 GB bringt zwar eine gute nominelle Performance mit, zeigt aber durch deutliches Mikroruckeln an, daß diese Speichermenge eigentlich zu klein ist für einen wirklich flüssigen Spieleindruck. Unter WQHD geht es dann sogar den 4-GB-Grafikkarten an den Kragen: Die Frameraten sind bei den potenten Beschleunigern weiterhin ordentlich, aber selbst 4-GB-Modelle neigen dann zu Mikrorucklern. Es bleibt abzuwarten, was sich hieran bis zum Release des Spiels und darauf angepasster Treiber noch verbessern läßt. Angesichts dessen, daß der Leistungshunger des Singleplayer-Parts aber noch höher liegen wird, scheint Call of Duty: Black Ops 3 wie das letzte CoD-Spiel ein ziemlicher Speicherfresser zu werden – bzw. eine Spielwiese für Grafikkarten mit wirklich dick Grafikkartenspeicher. Zu erwähnen sei, daß man diesem speziellen Problem natürlich recht einfach durch die Wahl einfach nur der zweithöchsten Texturenstufe abhelfen kann, den ganz großen Optikverlust erleidet man dadurch sicher nicht.

Intel bietet seit kurzem für die Nutzer seiner Grafiklösungen ein Portal an, welches Informationen zu den empfohlenen Grafikeinstellungen für diverse Spiele unter Intel-Grafikchips anbietet. Man kann seinen Prozessor (und damit die integrierte Grafiklösung) automatisch finden lassen (Java benötigt) oder aber jenen manuell eingeben – danach bietet das Portal für diverse Spiele Screenshots mit den für diese Hardware empfohlenen Bildqualitäts-Einstellungen an. Derzeit gibt es jene für ca. 60 aktuelle und ältere Spieletitel – meistens Spiele, welche man durchaus mal nur mit einem Intel-Grafikchip spielt, also eher so etwas wie World of WarCraft und weniger etwas wie Witcher 3. Die Liste der Spieletitel ist sicherlich noch ausbaufähig – und zudem sollte Intel darüber nachdenken, daß ganze optional vielleicht in Form eines automatisch wirkenden Tools anzubieten, ganz wie es nVidias "GeForce Experience" kann. Ironischerweise dürfte jener Automatismus, welcher seitens der Enthusiasten daran teilweise kritisiert wird, für den typischen Intel-Nutzer genau das richtige sein.

30 30

Welcher Monitor-Eingang wird benutzt?

Mit dieser Umfrage soll festgestellt werden, welcher Monitor-Eingang – DVI, DisplayPort, HDMI oder VGA – für das Desktop-System (oder etwaige extra Monitore für Notebooks) in Benutzung ist – nicht aber, welcher Grafikkarten-Ausgang dafür benutzt wird, denn dies läßt sich schließlich mit Adaptern verändern. Wichtig ist dieser Umfrage, herauszustellen, welche Monitor-Eingänge in Benutzung sind und daher von den Grafikkarten-Hersteller bei ihren Produkten beachtet werden sollten.

PS: Wie üblich gilt bei dieserart gerätebezogenen Umfragen, daß man von verschiedenen Geräten (erstes PC-System, zweites PC-System, etc.) aus auch entsprechend mehrfach abstimmen kann.

30

Umfrage-Auswertung: Wie hoch läßt sich der Haswell-Refresh "Devils Canyon" in der Praxis übertakten?

Die Umfrage der vorletzten Woche beschäftigte sich mit den praktischen Übertaktungserfolgen beim Haswell-Refresh "Devils Canyon", sprich den Prozessoren Core i5-4690K und Core i7-4790K. Ausgeschlossen wurden hierbei (eigentlich) Wasserkühlung und andere exotische Kühlmaßnahmen, um eher einen Schnitt der üblichen Haus-Übertaktung zu erhalten als denn das, was Spitzen-Overclocker in der Lage sind, maximal herauszuholen. Als Richtschnur stand dabei der Punkt fest, daß "Devils Canyon" von den seinerzeitigen Launchartikel auf durchschnittlich 4.7 GHz gebracht werden konnte – diese Overclocking-Leistung galt es zu bestätigen oder zu wiederlegen.

In der Praxis gab es jedoch ein etwas niedrigeres Ergebnis – grob 4.6 GHz sind in der Praxis erreichbar, nicht die 4.7 GHz der Launchreviews. Der Unterschied mag gering klingen, weist aber dennoch auf das grundsätzliche Problem hin, daß im Rahmen von Launchreviews die Übertaktungseignung nur eher unzureichend untersucht werden kann, weil keinerlei Zeit für (gründliche) Stabilitäts- und Langzeittests vorhanden ist. Auch der Effekt, daß viele Übertakter zwar die maximal mögliche Taktrate ermitteln, für den Praxiseinsatz dann aber gern bewußt einen oder zwei Taktschritte nach unten gehen, läßt sich über schnelle Übertaktungstests im Rahmen eines Produkttests kaum wiedergeben.

Andere Rechnungen als die der platten Durchschnittsbildung ergeben hierzu im übrigen ziemlich exakt dieselben Zahlen, mit einer Abweichung: Beim einfachen Median kommen für "Devils Canyon" sogar nur 4.5 GHz heraus – was allerdings aufgrund der Ungenauigkeit dieser (natürlicherweise) nur mit einer Kommastelle ermittelbaren Medianwerte keine ganz große Abweichung ist. Nimmt man zudem den Medianwert ohne alle Randwerte (herausgelassen wurden hierbei immer die jeweils am äußersten Rand liegende Wertegruppe), kommen wieder 4.6 GHz heraus. Diese letzte Rechnung – Median ohne Randwerte – erscheint uns insgesamt betrachtet als sogar die bestmögliche Aussage zur Übertaktungseignung dieser Intel-Prozessoren.

einfacher ds ds ohne Randwerte einfacher Median Median ohne Randwerte
Sandy Bridge 4.46 GHz 4.51 GHz 4.5 GHz 4.5 GHz
Ivy Bridge 4.44 GHz 4.48 GHz 4.4 GHz 4.5 GHz
Haswell 4.34 GHz 4.36 GHz 4.3 GHz 4.4 GHz
Haswell DC 4.60 GHz 4.60 GHz 4.5 GHz 4.6 GHz
Inhalt abgleichen