1

Hardware- und Nachrichten-Links des 1. Dezember 2014

Die PC Games Hardware hat mal herausgekramt, wie sich die Systemanforderungen verschiedener Spieleserien über die Zeit entwickelt haben – bis hin zurück zu Far Cry 2 von 2008 oder Dragon Age: Origins von 2009. Über die Zeit zeigt sich dabei eine doch fast durchgehend steil steigende Anforderung bei der Grafikkarte, während bei Prozessor und Hauptspeicher es fast ausschließlich erst bei den aktuellen Spieletiteln einen jeweilig großen Anforderungssprung gab. Hier kommt deutlich der Effekt der aktuellen Konsolen-Generation zu Tage, welche zwar bei der CPU-Leistung nur eher mäßig gewachsen sind, dafür aber die Nutzung von Vierkern-Prozessoren nahezu obligatorisch gemacht haben, genauso auch wie die Anforderungen an den Haupt- und Grafikkartenspeicher mittels der aktuellen Konsolen-Generation durch die Decke gegangen sind.

Ein kleiner Nachtrag noch zu den (angeblichen) Fiji-Benchmarks von letzter Woche: Seitens der Tester wurde hierbei eine mathematisch unsaubere Durchschnittsbildung der reinen Frameraten vorgenommen, anstatt die relativen Abstände der Karten miteinander zu verrechnen – eigentlich gut zu erkennen daran, daß keine Karte bei exakt "100%" steht und somit die Referenz bildet, anfänglich aber auch von uns übersehen. Die platte Zusammenrechnung der einzelnen Frameraten verzerrt das Ergebnis in jedem Fall zugunsten der schnell laufenden Benchmarks (mit hohen Frameraten), welche somit automatisch stärker gewichtet werden – anstatt jeden Benchmark regulärerweise gleich stark zu gewichten. Dies bedeutet unter anderen auch, daß all die Benchmarks mit Supersampling Anti-Aliasing aufgrund der dort üblicherweise viel niedrigeren Frameraten untergewichtet in die Gesamtrechnung eingegangen sind. Aufgrund der insgesamt 23 angesetzten Spieletitel dürfte sich der durch diese falsche Berechnungsmethode herauskommende insgesamte Fehler jedoch im Rahmen halten, wahrscheinlich sind in der Realität die relativen Abstände nur etwas größer als in diesem Diagramm zu sehen – was ja nur zugunsten der Fiji-Grafikkarte wäre.

Bei Video Game Tourism rechnet man lesenswert mit der neuen Klasse an OpenWorld-Titeln ab, welche zwar viel Spielfläche und viele Aufgaben bieten, damit aber nur die Leere des eigentlichen Spiels füllen. Dies mag in Spitzenexemplaren wie GTA nicht ganz der Fall sein, bei vielen anderen Titel trifft dies aber mehr oder weniger zu. Dabei kann das Spiel am Ende dennoch fesselnd sein – nichtsdestotrotz, hier scheint die Spielentwicklung mittlerweile nach dem Punkt des künstlerischen Höhepunkts auf dem Punkt der Übertreibung angekommen zu sein, welchem regelmäßig der tiefe Fall folgt. Möglicherweise sollten sich die nächste Stufe dieser Spiele generell anderen Konzepten widmen: Beispielsweise weg von den ganzen für die Storyline völlig bedeutungslosen Minigames hin zu einem Spiel, wo jegliche eigene Aktion eine Bedeutung erlangt und die Welt auch wirklich nachhaltig – und nicht gefesselt an die Story – veränderbar ist.

Ironischerweise sollte dies eigentlich Grundbedingung eines OpenWorld-Spiels zu sein – nicht die Spielwelt sollte offen darliegen, denn dies bedeutet ja schließlich nur die Abkehr des Schlauchlevel-Prinzips. Vielmehr sollte die Spielmechanik offen darliegen – mit der Möglichkeit, die Grundgegebenheiten des Spiels durch den Spieler zu ändern oder auch gänzlich umzuformen. OpenWorld sollte also eigentlich nicht bedeuten, nur schlicht die ganze Spielwelt bereisen zu können, sondern jene Spielwelt komplett verändert zu können. Dies bedingt unter Umständen auch die Abkehr vom Story-Prinzip, oder aber wenigstens eine Story, welche die Veränderung der Spielwelt durch den Spieler nicht behindert. Dies ist sicherlich eine schwere Aufgabe, allerdings erscheint es als logische Weiterentwicklung des OpenWorld-Prinzips hin zu einer als wirklich realistisch empfundenen offenen Spielwelt.

Die PC Games Hardware bemängelt dagegen den Zustand der aktuellen Triple-A-Spiele, welche unfertig und bugverseucht den Markt erreichen, obwohl das selbstverliehene Siegel "Triple-A" eigentlich Spitzenunterhaltung und nicht Spitzenfrust garantieren soll. Wie dieser unhaltbare Zustand aber wieder auf einen rechten Weg gebracht werden soll, ist dagegen fraglich: Letztlich sind die gerade Spielekäufer des Massenmarkts bisher diese ganzen Auswüchse immer noch mitgegangen – genauso wie man sich von Steam, Uplay & Co. hat tracktieren lassen und die Spiele trotzdem gekauft hat. Augenscheinlich ist die Raubkopierer-Quote gegenüber diesen Raubritter-Methoden immer noch nicht hoch genug – oder aber kann dieser Spieleherbst mit einer wirklichen Vielzahl an Triple-A-Titeln mit großen technischen Problemen endlich eine Wendung bringen?

1

Die Grafikkarten-Performance unter Dragon Age: Inquisition

Seitens verschiedener Webseiten hat man sich die Grafikkarten- und Prozessoren-Performance unter Dragon Age: Inquisition angesehen. Das Spiel auf Basis der Frostbite-Engine ergibt sich erstaunlich genügsam bei den Systemanforderungen gegenüber anderen aktuellen Spielen, haut dann aber bei den realen Anforderungen um so deutlicher ins Kontor. Offiziell gefordert werden ein Vierkern-Prozessor – wobei auch Core 2 Quads und Athlon IIs dafür noch durchgehen – sowie 4 GB Hauptspeicher, ein 64-Bit-Windows und eine DirectX-10-Grafikkarte mit nur 512 MB Grafikkartenspeicher vom Schlage Radeon HD 4870 oder GeForce 8800 GT. Rein praktisch kommt man damit auf Grafikkarten-Seite nicht weit, während die inzwischen ins Spiel eingeflossene Mantle-Unterstützung die Spielbarkeit auf älteren bzw. leistungsschwächeren CPUs überaus deutlich verbessert.

Viele der ursprünglich angetretenen Benchmarks sind inzwischen durch Spiel-Patch und neue Performance-Treiber seitens AMD und nVidia nicht mehr aktuell, so daß die beste Möglichkeit zur Performance-Bestimmung derzeit der Artikel des TechSpots bietet. Hier wird der allgemein als wenig passend angesehene integrierte Benchmark des Spiels vermieden und auf eine eigene Benchmark-Sequenz gesetzt – allerhöchstens der Einsatz von nur 2x Multisampling Anti-Aliasing erscheint auf den ersten Blick fragwürdig. Allerdings gibt Dragon Age: Inquisition keine anderen Anti-Aliasing-Methoden her, das einzig gebotene MSAA funktioniert jedoch auf vielen Grafikteilen überhaupt nicht und ist daher eine sehr ineffektive Lösung. Dafür viel Performance zu verschwenden ist nicht wirklich klug, insofern geht die Wahl von "nur" 2x MSAA seitens des TechSpots dann wohl doch in Ordnung:

Dragon Age: Inquisition – 1920x1200 "Ultra"-Quality & 2x MSAA (Quelle: TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870 270
30-39 fps 7870-Boost
7950
7950-Boost
270X
285
280
660Ti
670
680
760
770
40-49 fps 7970
7970-GHz
280X Titan 780
Titan Black
970
50-59 fps 290
290X
780Ti 980

Richtig hohe Frameraten gibt es aber auch so nicht, große Reserven für 4x Multisampling Anti-Aliasing oder gar Downsampling Anti-Aliasing sind nicht zu sehen. Für eine gutklassige Performance in allen Lagen wird auch unter Dragon Age: Inquisition eine HighEnd-Grafikkarte ab Radeon R9 280X oder GeForce GTX 780 erforderlich. Wie zu sehen, kommt AMD deutlich besser mit Dragon Age: Inquisition zurecht: An der Leistungsspitze kommt die Radeon R9 290X der GeForce GTX 980 sehr nahe (und läßt die GeForce GTX 970 klar hinter sich), in niedrigeren Gefilden kommen bei nVidia nur noch GK104-basierte Grafikkarten auf halbwegs passable Frameraten, während bei AMD wenigstens noch die größeren Pitcairn-basierten Modelle in diesem Feld mitspielen können.

Dies dürfte teilweise auch an der Menge an verbautem Grafikkartenspeicher hängen, denn im Mittelfeld hat AMD hier durchgehend mehr zu bieten und kann dies hier und da auch für gewisse Frameraten-Vorteile nutzen. Dies ist gut zu sehen an dem schwachen Resultat der Radeon R9 285 2GB (Perf.Index 330%), welche nur minimal schneller ist als die nominell langsamere Radeon HD 7950 3GB (Perf.Index 300%). Zudem kommt es bei Dragon Age: Inquisition auch nicht gerade selten zu Nachladerucklern bei zu kleinem Grafikkartenspeicher, welche weniger die erzielten Frameraten reduzieren als vielmehr den allgemeinen Flüssigkeitseindruck schmälern. Mehr Grafikkartenspeicher ist also in jedem Fall ein klarer Vorteil unter Dragon Age: Inquisition, unter 1920x1200 sind 3 GB regelrecht zu empfehlen.

Dragon Age: Inquisition – 2560x1600 "Ultra"-Quality & 2x MSAA (Quelle: TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7970-GHz 280X 780
30-34 fps 290 Titan Titan Black
780Ti
970
35-39 fps 290X 980

Unter 2560x1600 geht es dann in absolute Grenzbereiche – keine einzige Grafikkarte erreichte hier die Marke von 40 fps, dies gilt im übrigen genauso auch für die Messungen der PC Games Hardware und der ComputerBase. Es ist fraglich, ob man das Spiel unterhalb einer Radeon R9 290X oder GeForce GTX 980 (beide zwischen 35 und 39 fps) überhaupt unter dieser Auflösung im "Ultra"-Setting mit 2x MSAA starten sollte, oder nicht besser eine der vielen Optionen zur Reduktion der Grafikpracht bemühen sollte. In diesem Fall würden sich sicherlich weitere Benchmarks mit einer abgespeckten Grafikqualität anbieten, welche für mehr als nur zwei Grafikkarten flüssige Frameraten ausweisen könn(t)en.

Die PC Games Hardware bietet zudem in einem extra Artikel noch ganz interessante Ausführungen zum Einfluß der Mantle-API auf die CPU-Performance des Spiels. Mittels Mantle lassen sich bei den in Dragon Age: Inquisition problemlos zu findenden CPU-limitierten Szenen deutliche Vorteile insbesondere bei schwächeren CPUs erzielen – aber selbst ein Haswell-Vierkerner auf nur 3.0 GHz legt noch um 26% zu. Ein Einfluß auf die Grafikkarten-Performance wurde leider nicht vermessen, aber der Einfluß auf die CPU-Performance ist in jedem Fall beachtenswert und unter diesem Spiel nützlich. Zudem sorgt Mantle bei einer CrossFire-Lösung wie der Radeon R9 295X2 auch mal wieder dafür, daß das typische Mikrorucklern von MultiChip-Kombinationen weitgehend unterbunden wird.

1

Umfrage-Auswertung: Wieviel Grafikkartenspeicher sind derzeit für einen Neukauf ideal?

Die Umfrage der letzten Woche fragte nach der derzeit bei einem Neukauf als ideal angesehenen Grafikkartenspeicher-Größe. Hierbei ergab sich eine große Dominanz von 4 GB Grafikkartenspeicher, für welches immerhin 54,1% der Umfrage-Teilnehmer stimmten. Geringere Speichergrößen (von 2 und 3 GB) sind zusammen nur für 9,7% der Umfrage-Teilnehmer ideal, während höhere Speichergrößen als 4 GB für zusammen immerhin schon 36,2% der Umfrage-Teilnehmer als ideal erscheinen. Hierbei treffen natürlich auch völlig verschiedene Nutzergruppen zusammen: Von Nutzer mit 1680er Monitoren bis zu Nutzern von 4K-Monitoren oder Downsampling Anti-Aliasing.

Trotzdem ist der klare Trend zu erkennen, daß 4 GB die neue Standardgröße für Grafikkartenspeicher sein sollte, unterhalb welcher die Grafikkarten-Hersteller eigentlich kaum noch etwas potentes anzubieten brauchen. Spätestens im HighEnd- und Enthusiasten-Feld wird dagegen schon der klare Bedarf nach mehr gesehen. Mit einer kommenden neuen Enthusiasten-Generation erscheinen daher 8 GB Grafikkartenspeicher als anzustrebende Größe, zumindest wenn man nach den Anforderungen der Grafikkarten-Enthuasisten gemäß dieser Umfrage geht. Wofür mehr als 4 GB Grafikkartenspeicher direkt nutzvoll sein sollen, ist im übrigen das Thema der anschließenden (derzeit noch laufenden) Umfrage.

30

Hardware- und Nachrichten-Links des 29./30. November 2014

Zur Meldung über das Marktgeschehen bei PCs und Tablets im Jahr 2014 wäre noch der wichtige Punkt anzumerken, daß die neuesten Prognosen nun endgültig keine "Marktübernahme" durch die Tablets mehr vorsehen, welche vor einiger Zeit mal auf 400 Millionen Stück pro Jahr (und damit weit vor dem PC) geschätzt wurden, nun aber augenscheinlich in den Jahren 2019 oder 2020 bei ca. 300 Millionen Stück einen Stückzahlen-Gleichstand mit dem PC erreichen werden. Dies erscheint auf den ersten Blick nun auch nicht gerade so schlecht, rechnet aber nicht ein, daß die Tablets schon in den letzten Jahren deutlich bei den Stückpreisen verloren haben und aller Voraussicht nach noch weiter verlieren werden, währenddessen der PC bei den Stückpreisen eher denn stagniert. So gab es schon Anfang 2013 die Situation im rein deutschen PC- und Tabletmarkt, daß einem durchschnittlichen PC-Verkaufspreis von 620 Euro ein durchschnittlicher Tablet-Verkaufspreis von nur 356 Euro gegenüberstand.

Dabei gewann der durchschnittliche PC-Verkaufspreis im Vergleich zum Jahr 2010 leicht, während der durchschnittliche Tablet-Verkaufspreis in diesem Zeitraum von 479 auf eben 356 Euro mehr als deutlich nachgab. Heuer nun spricht unsere letzte diesbezügliche Umfrage von einem durchschnittlichen Tablet-Verkaufspreis von 233 Euro, was zwar nicht marktrepräsentativ ist, aber den weiter anhaltenden Trend der fallenden Durchschnittspreise bei Tablets untermauert. In der Summe der Dinge kann es durchaus passieren, daß der Tablet-Markt in absehbarer Zeit trotz eines irgendwann kommenden Stückzahlen-Gleichstands mit dem PC niemals mehr als ein Drittel von dessem Umsatz macht – eben wegen der klar niedrigeren Durchschnittspreise. Dabei bezieht sich diese Rechnung sogar nur auf die verkauften Komplett-Geräte, weder auf einzelne Komponenten noch auf Zubehör – was im PC-Markt noch einmal einen sehr erheblichen Mehrumsatz bedeutet, im Tablet-Markt dagegen gar nicht bzw. nur sehr geringfügig überhaupt vorhanden ist. Die These, daß die Tablets den PC irgendwie nahekommen könnten, ist angesichts der Umsatzzahlen völlig überzogen.

Für einigen Wirbel und Stellungnahmen sorgen derzeit die neuen Facebook-Nutzungsbedingungen zum 1. Januar 2015: Bei WBS-Law geht es um deren platte Ignorierung von deutschem Recht, bei Computerbetrug um die einzelnen Änderungen und bei der Telepolis darum, den konkreten Auswirkungen zu entgehen. Dabei kommt der entscheidende Punkt eigentlich noch gar nicht einmal klar herüber: Die mit den neuen Facebook-Nutzungsbedingungen kommende Nutzerverfolgung über das ganze Netz erfordert rein technisch das Auslesen der Cookies fremder Webseiten – und damit von Daten, welche weder von Facebook angelegt wurden, für die Funktionsweise von Facebook unabdingbar sind, noch welche auch der Nutzer mit seiner Zustimmung Facebook überantworten darf.

Cookies sind schließlich Nutzungsdaten der jeweiligen Webseiten, gehören rein rechtlich derjenigen Webseite. Facebook "hackt" sich also in die Informationsdaten anderer Webseiten hinein – und dies nicht im Einzelfall, sondern als Standardmaßnahme, ergo in Masse. Wenn unsere sonst so nach Recht und Ordnung schreienden Politiker Cojones hätten, könnte man Facebook an dieser Stelle mit der vollen Härte des Gesetzes angehen, welche das Ausspähen von nicht für einen selbst bestimmten Daten unter schwere Strafandrohungen stellt (und sich regelmäßig bei kleinen Fällen sein Mütchen kühlt). Genauso könnten auch die betroffenen Webseiten gegen Facebook ins Feld ziehen und auf Unterlassung klagen. Interessant, daß bislang noch niemand auf diese eigentlich naheliegende Idee gekommen ist: Wenn Facebook die Daten anderer Webseiten benutzt, dann wäre dazu vorher zwingend die Einwilligung dieser Webseiten einzuholen.

30 30

Wieso mehr als 4 GB Grafikkartenspeicher?

Die Umfrage der letzten Woche nach der idealen Grafikkartenspeicher-Größe brachte das Ergebnis, daß zwar die Mehrheit 4 GB Speicher derzeit für ideal hält, eine beachtbare Minderheit allerdings auf 6 GB (13,3%) bzw. 8 GB (22,9%) schwört. Hauptsächlich an diese Nutzer ergeht die Frage, warum dies so ist: Was ist der primäre Grund, um auf 6 oder 8 GB Grafikkartenspeicher zu setzen?

Zur aktuellen Nutzung für einige out-of-the-box speicherfressende Spiele.
6% (77 Stimmen)
Zur aktuellen Nutzung für Extras wie UltraHD, Downsampling und Grafik-Mods.
28% (360 Stimmen)
Eher aus Sicherheitsgründen für die Zukunft.
33% (430 Stimmen)
Von allen drei Gründen ein wenig.
33% (420 Stimmen)
Gesamte Stimmen: 1287
30

Neuer 3DTester-Artikel: Sony Micro Vault X-Series 8GB

Was von den Sony USB-Sticks zu halten ist, wollen wir Anhand der neuen Sony Micro Vault X-Serie untersuchen. Erhältlich ist die Micro Vault X-Serie in Schwarz, Weiß, Blau und Rot. Und zwar in den Kapazitäten 8, 16, 32 und 64 GByte. Sie ist erst seit einem halben Jahr auf dem Markt und verspricht mit günstigen Preisen, abwechslungsreichen Farben und USB3.0-Schnittstelle, durchaus konkurrenzfähig zu sein. Doch um gegen die Größten im Markt zu bestehen, muss Sony auch unter Beweis stellen, dass man sich von der breite Masse abheben kann. Mal sehen, ob dies mit der Micro Vault X-Serie gelingt ... zum Artikel.

Sony Micro Vault X-Series 8GB
Inhalt abgleichen