8

Umfrage-Auswertung: Wieso mehr als 4 GB Grafikkartenspeicher?

Die Umfrage der letzten Woche schloß sich an die vorhergehende Umfrage an und ging erneut einer Frage in Richtung der derzeit sinnvollen Menge an Grafikkartenspeicher nach. Nachdem die vorhergehende Umfrage ergeben hatte, daß immerhin 36,2% der Umfrage-Teilnehmer schon mehr als 4 GB Grafikkartenspeicher für einen Neukauf ins Auge fassen, ergab sich natürlich automatisch die Frage, wofür man diesen riesigen Speicher nun einsetzen will. Gemäß der neuen Umfrage ist dabei die Nutzung für aktuell out-of-the-box speicherfressende Spiele mit nur 6,0% der Stimmen klar in der Minderheit – was auch passend ist, denn kaum eines der heutigen Spiele benötigt so einfach mehr als 4 GB Grafikkartenspeicher.

Viel eher kommen spezielle Situationen wie die Nutzung von UltraHD, Downsampling und Grafik-Mods ins Spiel, hierfür stimmten immerhin 28,0% der Umfrage-Teilnehmer. Ein sehr gewichtiger Punkt ist natürlich die Zukunftssicherheit der Grafikkarte, welche mit dem Mehrspeicher garantiert werden soll, hierfür stimmten 33,4%. Und letztlich konnten sich in allen drei Gründen dann auch noch einmal 32,6% der Umfrage-Teilnehmer wiedererkennen – und in der Tat kann man durchaus sagen, daß jeder der genannten Gründe etwas für sich hat und vor allem in der Summe der Gründe der Mehrspeicher als überlegenswerte Option erscheint.

Wenn man sich die Entwicklung der Spiele-Systemanforderungen zwischen Herbst 2013 und Herbst 2014 ansieht, dann waren die früheren Vorhersagen doch um einiges zu handzahm und wurden folgerichtig schnell durch die Realität überholt. Zieht man hiervon eine gedachte Linie zu den Spiele-Systemanforderungen des Herbstes 2015, dann scheinen sich mehr als 4 GB Grafikkartenspeicher trotz der Unwägbarkeit aller Vorhersagen zumindestens für absolute HighEnd-Grafikkarten tatsächlich anzubieten. Eine sichere Prognose hierzu wollen wir allerdings nicht abgeben, denn dies wird zu spekulativ: Denn wann genau der Hunger neu erscheinender Spiele nach mehr Grafikkartenspeicher langsam abflauen wird, ist derzeit schlicht nicht vorherzusehen.

7

Hardware- und Nachrichten-Links des 6./7. Dezember 2014

Xbox Dynasty berichten über die Aussage eines EA-Vizepräsidenten, welcher sich für die aktuelle Konsolen-Generation ein Zeitfenster von 5-6 Jahren wünscht, sprich eine Ablösung durch Xbox Two & PlayStation 5 im Jahre 2018/19 für anstrebenswert hält. Ob die Konsolen-Hersteller dies ähnlich sehen, steht natürlich auf einem ganz anderen Blatt – und auch im Vorfeld der aktuellen Konsolen-Generation wurde ähnlich argumentiert, am Ende kamen Xbox One und PlayStation 4 dann aber trotzdem 7-8 Jahre nach Xbox 360 und PlayStation 3. Ob sich die Spielepublisher in dieser Frage gegenüber den Konsolenherstellern durchsetzen können, bliebe also streng abzuwarten. Die Konsolenhersteller werden generell versuchen, ihr Produkt maximal zu melken und erst dann etwas neues liefern, wenn es absolut nicht mehr geht – oder aber wenn man Angst haben muß, daß die Konkurrenz früher dran ist.

An letztgenanntem Punkt ergibt sich vielleicht die größte Chance auf eine eher zeitige nächste Konsolen-Generation: Denn durch die PC-nahe Hardware und die Verfügbarkeit von vollintegrierten APU-Lösungen seitens AMD ist der Entwicklungsaufwand für eine neue Spielekonsolen dramatisch geringer als bei allen vorherigen Konsolen. Damit müssen Microsoft und Sony beiderseits fürchten, der jeweils andere würde plötzlich überraschend ein neues Produkt heraushauen – was recht automatisch eine eigene Entwicklung forciert, nur um immer rechtzeitig handlungsfähig zu sein. Da zudem die aktuelle Konsolengeneration nicht mehr so extrem bei der Hardware subventioniert wird wie dies früher oftmals der Fall war, entfällt auch der wirtschaftliche Druck, das bestehende Produkt möglichst lange auszubeuten. Ergo kann es gut und gerne passieren, daß die Konsolenhersteller schon 2018 mit etwas neuem kommen, das die Zeiträume zwischen neuen Spielekonsolen vielleicht sogar generell kleiner werden.

Golem und Heise berichten über eine Expertenanhörung im Bundestag, bei welchem das Presse-Leistungsschutzrecht im speziellen sowie das Urheberrecht im allgemeinen zerpflückt und als "aus den Fugen geraten" bezeichnet wurde. Nachdem sich die Sachverständigen in diesem Punkt weitgehend einig sind und die Internetnutzer laut der ComputerBase das Leistungsschutzrecht sowieso fast einhellig ablehnen, will die CDU/CSU-Bundestagsfraktion gemäß Heise selbiges vielmehr schnellstmöglich (in klingende Münze für die Presseverlage) umsetzen. Dafür soll das laufende Schlichtungsverfahren zwischen Google und den Rechteinhabern beschleunigt werden, nächstes Jahr eine Entscheidung herbeigeführt werden. Augenscheinlich haben nach den letzten Niederlagen die Lobbyisten nun ihre Arbeit wieder aufgenommen und die Union wieder auf Kurs gebracht. Wie an dieser Stelle schon erwartet, ist das Drama um das Leistungsschutzrecht noch lange nicht ausgestanden – es wäre ja auch Quatsch, ein entsprechendes Gesetz nur zugunsten der Presseverlage aufzulegen, wenn sich selbiges letztlich nicht (im wahrsten Sinne des Wortes) auszahlt.

Ähnlich lobbygetränkt scheint die neue "Verhandlungsposition" der Bundesregierung zur Netzneutralität zu sein, mit welcher sich Netzpolitik und die Digitale Gesellschaft beschäftigt haben. Neben reichlich Süßholzraspelei liegt der Kern letztlich darin, nicht nur abgrenzbaren und im Sinne des Wortes tatsächlichen Spezialdiensten eine Überholspur auf der Datenautobahn geben zu können, sondern dies vielmehr für jeden auch nur irgendwie abgrenzbaren Dienst zu ermöglichen. Die Entwurfsdefinition für "Spezialdienste" sieht keine besonderen Merkmale vor, sondern einfach nur, daß der Dienst irgendwie abtrennbar gemacht werden kann vom normalen Surfen. Diese Definition trifft faktisch auf alle mittels Webzugang angebotenen Dienste zu, man könnte unter Umständen sogar einzelne Webseiten als "spezielle Inhalte" definieren und damit auf Überhol- oder Kriechspuren einordnen. Sämtlich denkbarem Mißbrauch wird hiermit Tor und Tür geöffnet – sicherlich nicht am Anfang, aber mit der Zeit können die Zügel immer enger gezogen werden. Ein sorgsamer Umgang mit der durchaus diskutablen Idee von Überholspuren für tatsächliche Sonderdienste sieht sicherlich anders aus.

7 7

Werden die Systemanforderungen für die neuen Spiele erfüllt?

Die Systemanforderungen für die Spielegeneration 2014/15 sind bekannterweise durch die Decke gegangen, wir hatten jene vor einiger Zeit schon versucht zu skizzieren. Hieraus wollen wir die Frage ableiten, wie häufig die dort genannten Anforderungen derzeit bereits erfüllt oder aber sogar schon übererfüllt werden. Nachfolgend ist die bewusste Anforderungs-Tabelle nochmals abgebildet:

Mindestanforderungen Anforderungen für flüssige Frameraten
Betriebssystem Windows Vista/7/8 64-Bit Windows Vista/7/8 64-Bit
Hauptspeicher 6 GB 8 GB
Prozessor Vierkern-Prozessor von AMD (ab K10) oder Intel (ab Core 2) Achtkern-Prozessor von AMD (ab Bulldozer) oder Vierkern-Prozessor von Intel (ab Sandy Bridge)
Grafikkarte für 1920x1080 DirectX-11-Modell mit 1 GB Speicher
(ab Radeon HD 7770 oder GeForce GTX 560)
DirectX-11-Modell mit 2 GB Speicher (besser 3 GB)
Radeon HD 7000 Serie: ab Radeon HD 7970
Radeon R200 Serie: ab Radeon R9 280X
GeForce 600 Serie: ab GeForce GTX 680
GeForce 700 Serie: ab GeForce GTX 770
GeForce 900 Serie: ab GeForce GTX 970
Grafikkarte für 2560x1600 DirectX-11-Modell mit 2 GB Speicher DirectX-11-Modell mit 3 GB Speicher (besser 4 GB)
Radeon R200 Serie: ab Radeon R9 290X
GeForce 700 Serie: ab GeForce GTX Titan Black
GeForce 900 Serie: ab GeForce GTX 980
liege unterhalb der Mindestanforderungen
15% (346 Stimmen)
erfülle die Mindestanforderungen
14% (317 Stimmen)
liege knapp unterhalb der empfohlenen Anforderungen
22% (508 Stimmen)
erfülle die empfohlenen Anforderungen
36% (810 Stimmen)
liege deutlich oberhalb der empfohlenen Anforderungen
12% (281 Stimmen)
Gesamte Stimmen: 2262
5

Hardware- und Nachrichten-Links des 5. Dezember 2014

Die ComputerBase hat mit der "Manli GeForce GTX 970" ein sehr exotisches Stück Hardware getestet: Eine GeForce GTX 970 im Referenzdesign der GeForce GTX 980. Die Karte wird gern als "Referenzmodell der GeForce GTX 970" mißverstanden – welches es aber nicht gibt, daher handelt es sich auch hier um ein Sondermodell, welches zudem mittels Platine und Kühllösung der größeren Schwester auch ziemlich teuer in der Fertigung ausfällt. Die Zielsetzung der eigentlich vom britischen Overclockers.co.uk stammenden und in Deutschland exklusiv bei Caseking erhältlichen Karte liegt in zwei Dingen: Niedrigeres Betriebsgeräusch und größere Unempfindlichkeit gegenüber dem unbeliebten Spulenfiepen. In ersterer Disziplin liegen allerdings viele andere GeForce GTX 970 gleichauf oder besser – nur beim Spulenfiepen liegt das Sondermodell vorn, nur auf zwei Zotac-Modelle laufen ähnlich gut. Beachtenswert hierzu im übrigen die Tabelle des subjektiven Spulenfiepen-Eindrucks einiger GeForce GTX 970 Karten auf der dritten Seite des ComputerBase-Artikels. Die Manli GeForce GTX 970 hingegen ist für 400 Euro wohl zu teuer für die Masse und ihren geringen Effekt, nur bei absolut Spulenfiepen-Geschädigten dürfte jene den Mehrpreis wert sein.

Ein weiteres Spiel mit dicken Hardware-Anforderungen scheint Dying Light zu werden, welches am 30. Januar 2015 erscheinen soll: Die offiziellen Systemvoraussetzungen gehen von 4 GB Hauptspeicher und einem 64-Bit-Windows aus, die Grafikkarten-Anforderungen sind mit einer 1-GB-Karte vom Schlage Radeon HD 6870 oder GeForce GTX 560 sogar eher gemächlich. Dafür wird auf der Prozessoren-Seite ein Intel-Vierkerner ab der Sandy-Bridge-Architektur gefordert – und daß man es damit ernst meint, deutet der alternativ nutzbare AMD-Achtkerner an. Es gibt ja einige Spiele, die schocken erst mit der Anforderung eines Intel-Vierkerner, aber wenn dann alternativ eine Vierkern-APU von AMD notiert wird, relativiert sich das ganze wieder recht stark. Die vorgenannten Anforderungen deuten jedoch darauf hin, daß Dying Light ernsthaft CPU-Power benötigt – was natürlich auch noch durch entsprechende Tests zu bestätigen sein wird. Das empfohlene System sieht dann nochmals etwas höhere CPU-Spezifikationen und vor allem einen riesigen Sprung bei den Grafikkarten-Anforderungen: Augenscheinlich benötigt Dying Light für eine erstklassige Performance gleich eine Radeon R9 290 oder eine GeForce GTX 780 – was sehr interessante Grafikkarten-Benchmarks ergeben dürfte.

Beim SSD-Langzeittest des TechReports ist man nunmehr bei der Grenze von geschriebenen 2 PetaBytes angekommen – angesichts dessen, daß Spitzen-Modelle für ein Schreibvolumen von 150 TeraByte ausgelegt sind, sicherlich auch eine Grenzerfahrung für die am Test beteiligten SSDs. Dabei sind alle bis auf zwei Modelle bereits ausgestiegen, während die noch mitlaufenden Modelle – Samsung 840 Pro und Kingston HyperX – inzwischen schon deutlichen Gebrauch von ihren Reserve-Sektoren machen. Alle sechs ursprünglich im Test vertretenen SSDs haben in jedem Fall ihr spezifiziertes Schreibvolumen sehr deutlich übertroffen, zeigen also an, daß heutige SSDs deutlich mehr leisten und deutlich langlebiger sind, als von den Herstellern offiziell angegeben. Daß die SSD-Technik, gegenüber welcher am Anfang durchaus nicht unberechtigt Bedenken wegen der Langlebigkeit geäußert wurden, inzwischen weitestgehend solide ist, zeigt auch der verstärkte Einsatz im Server-Bereich – wo Ausfallquoten nicht nur ärgerlich sind, sondern eben auch ins Geld gehen oder sogar die Datensicherheit betreffen können.

Die neueste Betriebssystem-Verbreitungsstatistik seitens NetMarketShare sieht erneut große Veränderungen, nachdem es über das gesamte Jahr nur eher gemächliche Werteveränderungen gab: So soll Windows 8/8.1 zwischen Oktober und November um 1,8% zugelegt haben, Windows 7 um 3,4% zugelegt haben und Windows XP um 3,6% gefallen sein. Angesichts der eher geringen Wertebewegungen über den Frühling und Sommer 2014 erstaunen die von NetMarketShare ausgewiesenen starken Wertebewegungen in den letzten zwei Monaten und lassen durchaus den Verdacht aufkommen, daß hier schlicht eine andere Zählmethode zum Einsatz kommt (was demzufolge alte und neue Werte nicht mehr vergleichbar machen würde). Ein gewisser Hinweis darauf ergibt sich auch mittels der steigenden Werte für Windows 8 (ohne 8.1), was regulär gar nicht möglich sein kann – es sei denn, jemand würde in Masse Altmaschinen auf Windows 8 umstellen, was dann doch sehr unglaubwürdig klingt. Andererseits kommt die ingesamt aufgezeigte Entwicklung nicht gänzlich überraschend: Die letzten Windows-XP-Maschinen werden derzeit außer Dienst gestellt, was oftmals im Kauf von neuen PCs mit Windows 8.1 resultiert.

Große Teile dieser Umstellungen resultieren aber auch in reinen Betriebssystem-Wechseln, welche dann oftmals in Richtung Windows 7 vorgenommen werden – zudem werden auch viele Neukäufe nachträglich noch von Windows 8/8.1 befreit und auf Windows 7 neu eingerichtet. Demzufolge verwundert es nicht, daß Windows 8/8.1 über das gesamte bisherige Jahr 2014 betrachtet nur von 10,5% auf 18,7% (+8,2%) zulegen konnte, Windows 7 hingegen – trotz schon hohem Stand am Jahresanfang – von 47,5% auf 56,4% (+8,9%) anstieg und damit genauso stark zulegte wie das aktuelle Microsoft-Betriebssystem. Grob betrachtet teilen sich Windows 7 und Windows 8/8.1 also die Neuinstallationen, welche sich aus neu gekauften Computern oder aber nur neu aufgesetzten Maschinen zusammensetzen. Bei den rein neu gekauften Computern dürfte Windows 8/8.1 wahrscheinlich vorn liegen (der Vorteil des Heimspiels, wenn Windows 8.1 einmal schon installiert ist), aber auch bei diesen dürfte Windows 7 für erhebliche Anteile stehen (wilde Schätzung: vielleicht ein Drittel). Windows 7 dürfte dagegen bei reinen Betriebssystem-Wechseln vorn liegen. In der Summe ist Windows 7 also absolut nicht totzukriegen und trotz der argen Behinderung durch Microsoft nach wie vor viel mehr geschätzt als Windows 8/8.1.

5

AMDs Omega-Treiber kommt mit Downsampling Anti-Aliasing

Kurzzeitig auf einigen Webseiten zu sehen waren am Freitag Meldungen zu einem Omega-Treiber seitens AMD, mittels welchem AMD größere Performance- und Featurezuwächse verspricht. Die entsprechenden Informationen und Präsentations-Folien sind auch weiterhin noch in unserem Forum sichtbar, während hingegen die meisten der genannten Newsmeldungen umgehend auf Bitten von AMD entfernt worden sind – augenscheinlich wollte AMD diese Informationen noch eine gewisse Zeit zurückhalten. Der eigentliche Launch-Termin des Treibers ist augenscheinlich schon der Montag der kommenden Woche, für diesen Zeitpunkt ist mit vielen entsprechenden Testberichte zu rechnen, da AMD die Testredaktionen vorab mit dem Treiber beliefert hat. Der Treiber-Download soll abweichend davon allerdings erst am Dienstag zur Verfügung stehen.

Derzeit ist allerdings schon zu erkennen, daß es sich um einen größeren Wurf seitens AMD handelt, denn allein die Liste der neuen Features ist überaus lang. Nicht jedes der neuen Features dürfte alle Anwender interessieren, aber in der Summe sollten sich für jeden AMD-Nutzer Verbesserungen ergeben. Zudem ist natürlich auch der psychologische Effekt wichtig: AMD geht mit diesem Treiber offensiv voran, löst alte Probleme und bringt neue Features – genauso, wie man es sich von einem beim Marktanteil zurückliegendem Anbieter erwarten kann. Einen Hauptanteil an dieser Einschätzung hat natürlich das neue Feature "Virtual Super Resolution" (VSR), hinter welchem sich schlicht ein Downsampling Anti-Aliasing per Treiber verbirgt, ähnlich also nVidias "Dynamic Super Resolution" (DSR).

AMD Omega-Treiber – Virtual Super Resolution
AMD Omega-Treiber – Virtual Super Resolution
AMD Omega-Treiber – Featureliste
AMD Omega-Treiber – Featureliste

Leider sind die genauen Möglichkeiten und Bedingungen von VSR derzeit noch nicht bekannt: Offen ist unter anderem, welche Downsampling-Multiplikatoren geboten werden bzw. ob AMD in dieser Frage mehr und sinnvollere Multiplikatoren als nVidia aufbieten kann. Unsicher ist hingegen noch, für welche AMD-Grafikkarten VSR letztlich geboten wird: Es besteht derzeit der Verdacht, daß mindestens GCN 1.1 vonnöten ist, das Feature also auf Grafikkarten basierend auf den AMD-Grafikchips Bonaire (Radeon R7 260 & 260X), Tonga (Radeon R9 285), Hawaii (Radeon R9 290, 290X & 295X2) und neueren beschränkt bleibt. Sicher läßt sich dies allersdings alles erst beantworten, wenn AMD den Omega-Treiber am Montag offiziell vorstellt.

Nichtsdestotrotz muß an dieser Stelle AMD schon einmal ausdrücklich dafür gelobt werden, sich der Kritik der Nutzer angenommen zu haben und intensiv in die Treiber-Weiterentwicklung eingestiegen zu sein bzw. das spätestens nach dem Maxwell-Launch fehlende Downsampling-Feature nunmehr nachzurüsten. Genau so sieht konzentrierte Arbeit aus, wenn man zurückliegt und es den Nutzern beweisen will, daß man es dennoch kann: Nicht reden (über die Fehler der Konkurrenz sowie die eigenen Vorzüge), sondern tun. AMD scheint sich dieses Leitspruchs angenommen zu haben und wird jenes, daß Probleme machte oder fehlend war an den bisherigen AMD-Treiber, mit dem Omega-Treiber nunmehr angehen. Insbesondere Enthusiasten wird dabei mit "Virtual Super Resolution" ein neues Downsampling-Feature geboten werden, womit sich die bekannte Eignung der Hawaii-basierten Grafikkarten für hohe Auflösungen noch besser ausnutzen läßt.

5

Neuer 3DTester-Artikel: Toshiba Canvio Desk 5 TByte externe Festplatte

Im Jahr 2012 erschienen drei Modelle unter dem Namen Stor.E Canvio Desktop, sie waren wahlweise in schwarz oder in schwarz/weiß erhältlich und wurden in den Kapazitäten 1, 2 und 3 TByte angeboten. 2014 hat man nun die 1 TByte Ausführung in Rente geschickt und stattdessen zwei kapazitätsstarke Modelle nachgereicht. Unter dem Namen Toshiba Canvio Desk bringen sie frischen Wind in diese Sparte.

Toshiba Canvio Desk 5 TByte externe Festplatte

Bereits seit ein paar Monaten werden die beiden neuen Modelle in den Kapazitäten 4 und 5 TByte angeboten und sind gegenwärtig zu einem Ladenpreis von 125 und 165 Euro gelistet. Wir wollen uns die größere 5 TByte Ausführung ansehen, um festzustellen, wo aktuelle 3,5? Festplatten sich gegenwärtig positionieren. Und vor allem wo sich Toshibas Ausführung positioniert ... zum Artikel.

Inhalt abgleichen