2

Hardware- und Nachrichten-Links des 2. Dezember 2014

Die PC Games Hardware hat sich mit der Serienstreuung von PC-Hardware beschäftigt und hierzu vier MSI GeForce GTX 970 sowie vier Intel Core i7-4790K (aus der gleichen Batch sogar) beschafft und durchgetestet. Das kurze Fazit lautet dabei, daß trotz der baugleichen und im Fall der CPUs sogar aus der gleichen Batch stammenden Hardware deutliche Unterschiede zutage treten. Der normal (ohne Übertaktung) anliegende Boost-Takt schwankte bei den Grafikkarten um immerhin 5% – was letztlich bedeutet, daß einzelne Werte zum Boost-Takt diese Fehlermarge enthalten und man sich bei Angaben zum durchschnittlichen Boost-Takt einer Grafikkarte eher auf einen Werte-Durchschnitt von mehreren Messungen verschiedener baugleicher Karten verlassen sollte. Noch deutlich waren die Differenzen im CPU-Bereich, wo dieselbe Übertaktung in einem Fall mit nur 1.24V CPU-Spannung gelang, mit einer anderen CPU dann gleich über 1.45V nötig wurden. Allerdings stehen im CPU-Bereich meistens viele Übertaktungsresultate bereit, so daß Abweichungen durch die Serienstreuung (nach einer soliden Durchschnittsbildung) weniger ins Gewicht fallen.

Die ComputerBase notiert die bislang schwache reale Produktverfügbarkeit beim Core M, dem ersten Broadwell-basierten Prozessor, welchen Intel unbedingt noch vor Jahresende bringen wollte. Technisch gesehen ist dies gelungen, rein praktisch gibt es derzeit nur zwei kaufbare Geräte und auch nur recht wenige Ankündigungen zu mehr Geräten – ein erfolgreicher Produktlaunch sieht sicherlich anders aus. Daß Intel eventuell nicht liefern konnte, ist dabei wahrscheinlich nicht einmal das Problem – wahrscheinlich war die Produktvorstellung im September einfach zu kurzfristig bemessen, damit die Notebook-Hersteller regelrecht neue Notebook-Designs noch vor Jahreswechsel aus der Taufe heben konnten. Immerhin handelt es sich beim Core M um eine neue Klasse an Prozessoren, mit einer zwar auf Atom-Niveau liegenden TDP, dafür aber dramatisch höherer Leistung. Vermutlich dauert daher die Produktentwicklung so lange – bleibt zu hoffen, daß dies bei den kommenden Notebook-Modellen von Broadwell nicht so zäh läuft, diese sollten eigentlich aufgrund der engen Verwandschaft zur vorhergehenden Haswell-Generation schneller zu adaptieren sein.

Wie die DigiTimes berichtet, werden die Notebook-Hersteller für das nächste Jahr kaum noch neue Notebooks mit Touchscreen-Display auflegen. Derzeit werden die letzten Bestände verkauft, neue Modelle für das nächste Jahr werden nicht mehr erwartet, da sich diese Idee letztlich nicht bei regulären Notebooks durchgesetzt hat – die Touchscreen-Bedienung wurde von den Anwendern am Ende nicht genutzt, machte die Notebooks aber deutlich teuer und damit schwieriger abzusetzen. Interessant ist, daß man für diese Erkenntnis nun inzwischen zwei Jahre seit dem Launch von Windows 8 benötigte – eine einfache Marktanalyse vor dem Launch von Windows 8 und selbst nur das simple Befragen einer Handvoll an Experten hätte diese Erkenntnis auch schon vor zwei Jahren erbringen können. Die PC-Industrie ist hier Microsoft leider blindlings gefolgt (oder musste folgen?) – und hat hoffentlich aus diesem ökonomischen Desaster den Erkenntnisgewinn gezogen, daß man nicht in allen Dingen den Präsentationen und Versprechungen aus Redmond vertrauen darf.

TweakPC und die ComputerBase berichten über schlechte PC-Verkaufszahlen bei den Triple-A-Spielen "Call of Duty: Advanced Warfare" und "Far Cry 4" – trotz aber weiterhin insgesamt guter Verkaufszahlen über alle Systeme betrachtet. Während dies bei CoD durchaus mit den Kritiken an den direkten Vorgängern zusammenhängen kann, welche nun an "Advanced Warfare" ausgelassen werden, überrascht dies bei FC4 etwas – da hier sowohl Vorgänger als auch aktuelles Spiel eigentlich hoch gelobt wurden. Sicherlich wird hier die Raubkopierer-Quote mit hineinspielen, welche auf den aktuellen Konsolen derzeit noch bei zero liegt – aber womöglich sind klassische Shooter inzwischen auch nur noch ein Randthema auf dem PC, verbringt das PC-Publikum gemäß seines höheren Altersschnitts lieber seine Zeit mit komplexeren Spielen wie beispielsweise Skyrim.

Ganz allgemein betrachtet ist die Genre- und Titelvielfalt auf dem PC einfach höher und verteilen sich daher die Umsätze stärker auf viele Genres und Titel, während sich auf den Konsolen die großen Umsätze naturgemäß auf eine überschaubare Anzahl an Titeln konzentrieren. Für die Spielepublisher ergibt dies natürlich keine großen Anreize, viel zugunsten des PCs zu tun – der große PC-Umsatzberg über alle Spieletitel hinweg nutzt nichts, wenn das einzelne Spiel keinen großen PC-Umsatz generieren kann. Die bekannten und gefürchteten lieblosen PC-Umsetzungen lassen sich über diese Zahlen in jedem Fall besser klären. Sinn macht für die Spieleentwickler eine aufwendige Arbeit zugunsten des PCs nur dort, wo auch auf dem PC regelmäßig (richtig) viele Spieler warten – so bei den alljährlichen Sport-Titeln wie auch bei Genres, die sowieso nur auf dem PC funktionieren.

2

Die Grafikkarten-Performance unter World of WarCraft: Warlords of Draenor

Die PC Games Hardware hat sich mit der Grafikkarten-Performance unter "Warlords of Draenor" beschäftigt, dem fünften AddOn zu "World of WarCraft". Das immerhin zehn Jahre alte Spiel gilt zwar allgemein als genügsam, durch die ständige Grafik-Aufrüstung mit allen bisherigen Addons ist es jedoch dennoch mit der Zeit mitgewachsen, sowohl bei der Optik als auch der benötigten Performance. Zudem hat sich die PCGH eine wirklich stark fordernde Szene für ihre Benchmark-Durchläufe herausgesucht, welche man als "WorstCase" im eigentlichen Sinne des Wortes bezeichnen kann – die normalerweise unter WoW anzutreffende Performance ist also weit höher als gemäß dieser Benchmarks.

Interessanterweise hat Blizzard bei "Warlords of Draenor" das bislang unter WoW verfügbare Multisampling Anti-Aliasing gestrichen und setzt nur noch auf die Postsampling-Filter FXAA und CMAA, wobei letztere Variante von der herauskommenden Bildqualität vorzuziehen ist. Richtig toll wird es allerdings erst beim Einsatz von Super- bzw. Downsampling Anti-Aliasing, welches aufgrund der hohen Frameraten von HighEnd-Grafikkarten durchaus zu schultern wäre, derzeit aber nur nVidia-Usern mittels DSR Anti-Aliasing zur Verfügung steht. Schade, daß der Spieleentwickler an dieser Stelle nicht mehr bietet, selbst Multisampling Anti-Aliasing dürfte aufgrund der alten Engine (ohne extremen Shader-Einsatz) noch gute Kantenglättungsergebnisse bieten.

Die neuen Grafikverbesserungen unter WoW tun dann ihr übrigens, daß Grafikkarten, welche es zum WoW-Start anno 2003 noch (lange) nicht gab, heuer nun nicht einmal mit schwachen Frameraten mitkommen – zu nennen hier beispielsweise eine Radeon HD 5750 mit nur 15 fps, welche zum Launchzeitpunkt anno 2009 mal eine respektable Performance-Lösung darstellte. Andererseits ist heutzutage kaum jemand noch mit solchen Karten unterwegs, spielt es kaum eine Rolle, ob jene nun unter "Warlords of Draenor" nicht mehr so toll laufen. Alles, was halbwegs neu und auch nur halbwegs leistungsstark ist, hat mit dem neuesten WoW-Addon keinerlei Performance-Probleme.

World of WarCraft: Warlords of Draenor – 1920x1080 MaxQuality & CMAA (Quelle: PCGH)
AMD HD5+6000 AMD HD7000 AMD R200 nVidia GF400 nVidia GF500 nVidia GF600 nVidia GF7+900
25-29 fps 5870
6950
6970
7790 260 460SE 550Ti 650 740-GDDR5
30-39 fps 7850 260X
265
460
465
560SE 650Ti
40-49 fps 7870
7870-Boost
270
270X
470 560
560Ti
560Ti-448
650Ti-Boost
660
750
750Ti
50-59 fps 7950
7950-Boost
7970
7970-GHz
280
285
280X
480 570
580
660Ti 760
ab 60 fps 290
290X
670
680
Titan
770
780
Titan Black
780Ti
970
980

Dies trifft natürlich insbesondere auf nVidia-Hardware zu, welche unter WoW gewohnt viel besser als AMD-Hardware läuft – so daß erstmals auch so eine wahre LowEnd-Lösung (aus Gamer-Sicht) wie die GeForce GT 740 GDDR5 an dieser Stelle mit genannt werden kann. Allgemein betrachtet kommt aber alles mit, was man derzeit als Grafikkarte überhaupt noch im Rechner haben darf, selbst einige Altsünden wie eine GeForce GTX 460 SE oder GeForce GTX 550 Ti konnten noch mit notiert werden. Durchgehend werfen natürlich die nVidia-Grafikkarten die besseren Frameraten ab, was aber im HighEnd-Bereich kaum eine Rolle spielt, da ab Radeon R9 280 bei AMD und ab GeForce GTX 660 Ti bei nVidia das 50-fps-Land erreicht ist. Viel schnellere Frameraten (und damit größere Unterschiede an der Leistungsspitze) werden dann durch die unterschwellige CPU-Limitierung verhindert, welche ab ca. 95 fps einsetzt.

World of WarCraft: Warlords of Draenor – 2560x1440 MaxQuality & CMAA (Quelle: PCGH)
AMD HD5+6000 AMD HD7000 AMD R200 nVidia GF400 nVidia GF500 nVidia GF600 nVidia GF7+900
25-29 fps 7850 260X 560 650Ti
30-39 fps 7870
7870-Boost
265
270
270X
470
480
560Ti
560Ti-448
570
650Ti-Boost 750
750Ti
40-49 fps 7950
7950-Boost
7970
7970-GHz
280
285
280X
580 660
660Ti
760
50-59 fps 290
290X
670
ab 60 fps 680
Titan
770
780
Titan Black
780Ti
970
980

Unter 2560x1440 fallen dann die ganzen schwachen Mainstream-Lösungen heraus, auch können weniger ältere Modelle notiert werden. Trotzdem reicht es bei den allermeisten der modernen Grafikkarten für eine ansprechende Performance, ab Radeon R9 280 auf AMD-Seite sowie ab GeForce GTX 660 auf nVidia-Seite liegt man hier bei 40 fps oder mehr. An der Leistungsspitze wird nunmehr nVidias klarer Vorteil unter WoW offensichtlicher, wo eine ganze Reihe an nVidia-Grafikkarten die 60-fps-Marke knackt, von den AMD-Grafikkarten jedoch hier keine einzige. Limitierungen bezüglich der verbauten Speichermenge sind nirgendwo zu sehen, dies wäre unter einem solch alten Titel jedoch auch nicht zu erwarten.

In der Summe der Dinge reicht unter World of WarCraft: Warlords of Draenor damit auch weiterhin Mainstream-Hardware aus, selbige muß bei AMD einfach nur etwas stärker als bei nVidia ausfallen. Für die teilweise sehr CPU-lastigen Kampfszenen ist laut der PC Games Hardware eher denn ein moderner Vierkern-Prozessor als Unterbau zu empfehlen – bis zu drei CPU-Kernen skaliert das Spiel perfekt und bis zu sechs CPU-Kerne werden mit Performancegewinn genutzt. HighEnd-Grafikkarten sind unter WoW dagegen etwas verschwendet – es sei denn natürlich, man nutzt die überschüssige Performance für Downsampling Anti-Aliasing. WoW sollte eines der wenigen Spiele sein, wo man trotz (2x2) Downsampling-Einsatz noch auf Frameraten oberhalb von 50 fps kommen kann.

1

Hardware- und Nachrichten-Links des 1. Dezember 2014

Die PC Games Hardware hat mal herausgekramt, wie sich die Systemanforderungen verschiedener Spieleserien über die Zeit entwickelt haben – bis hin zurück zu Far Cry 2 von 2008 oder Dragon Age: Origins von 2009. Über die Zeit zeigt sich dabei eine doch fast durchgehend steil steigende Anforderung bei der Grafikkarte, während bei Prozessor und Hauptspeicher es fast ausschließlich erst bei den aktuellen Spieletiteln einen jeweilig großen Anforderungssprung gab. Hier kommt deutlich der Effekt der aktuellen Konsolen-Generation zu Tage, welche zwar bei der CPU-Leistung nur eher mäßig gewachsen sind, dafür aber die Nutzung von Vierkern-Prozessoren nahezu obligatorisch gemacht haben, genauso auch wie die Anforderungen an den Haupt- und Grafikkartenspeicher mittels der aktuellen Konsolen-Generation durch die Decke gegangen sind.

Ein kleiner Nachtrag noch zu den (angeblichen) Fiji-Benchmarks von letzter Woche: Seitens der Tester wurde hierbei eine mathematisch unsaubere Durchschnittsbildung der reinen Frameraten vorgenommen, anstatt die relativen Abstände der Karten miteinander zu verrechnen – eigentlich gut zu erkennen daran, daß keine Karte bei exakt "100%" steht und somit die Referenz bildet, anfänglich aber auch von uns übersehen. Die platte Zusammenrechnung der einzelnen Frameraten verzerrt das Ergebnis in jedem Fall zugunsten der schnell laufenden Benchmarks (mit hohen Frameraten), welche somit automatisch stärker gewichtet werden – anstatt jeden Benchmark regulärerweise gleich stark zu gewichten. Dies bedeutet unter anderen auch, daß all die Benchmarks mit Supersampling Anti-Aliasing aufgrund der dort üblicherweise viel niedrigeren Frameraten untergewichtet in die Gesamtrechnung eingegangen sind. Aufgrund der insgesamt 23 angesetzten Spieletitel dürfte sich der durch diese falsche Berechnungsmethode herauskommende insgesamte Fehler jedoch im Rahmen halten, wahrscheinlich sind in der Realität die relativen Abstände nur etwas größer als in diesem Diagramm zu sehen – was ja nur zugunsten der Fiji-Grafikkarte wäre.

Bei Video Game Tourism rechnet man lesenswert mit der neuen Klasse an OpenWorld-Titeln ab, welche zwar viel Spielfläche und viele Aufgaben bieten, damit aber nur die Leere des eigentlichen Spiels füllen. Dies mag in Spitzenexemplaren wie GTA nicht ganz der Fall sein, bei vielen anderen Titel trifft dies aber mehr oder weniger zu. Dabei kann das Spiel am Ende dennoch fesselnd sein – nichtsdestotrotz, hier scheint die Spielentwicklung mittlerweile nach dem Punkt des künstlerischen Höhepunkts auf dem Punkt der Übertreibung angekommen zu sein, welchem regelmäßig der tiefe Fall folgt. Möglicherweise sollten sich die nächste Stufe dieser Spiele generell anderen Konzepten widmen: Beispielsweise weg von den ganzen für die Storyline völlig bedeutungslosen Minigames hin zu einem Spiel, wo jegliche eigene Aktion eine Bedeutung erlangt und die Welt auch wirklich nachhaltig – und nicht gefesselt an die Story – veränderbar ist.

Ironischerweise sollte dies eigentlich Grundbedingung eines OpenWorld-Spiels zu sein – nicht die Spielwelt sollte offen darliegen, denn dies bedeutet ja schließlich nur die Abkehr des Schlauchlevel-Prinzips. Vielmehr sollte die Spielmechanik offen darliegen – mit der Möglichkeit, die Grundgegebenheiten des Spiels durch den Spieler zu ändern oder auch gänzlich umzuformen. OpenWorld sollte also eigentlich nicht bedeuten, nur schlicht die ganze Spielwelt bereisen zu können, sondern jene Spielwelt komplett verändert zu können. Dies bedingt unter Umständen auch die Abkehr vom Story-Prinzip, oder aber wenigstens eine Story, welche die Veränderung der Spielwelt durch den Spieler nicht behindert. Dies ist sicherlich eine schwere Aufgabe, allerdings erscheint es als logische Weiterentwicklung des OpenWorld-Prinzips hin zu einer als wirklich realistisch empfundenen offenen Spielwelt.

Die PC Games Hardware bemängelt dagegen den Zustand der aktuellen Triple-A-Spiele, welche unfertig und bugverseucht den Markt erreichen, obwohl das selbstverliehene Siegel "Triple-A" eigentlich Spitzenunterhaltung und nicht Spitzenfrust garantieren soll. Wie dieser unhaltbare Zustand aber wieder auf einen rechten Weg gebracht werden soll, ist dagegen fraglich: Letztlich sind die gerade Spielekäufer des Massenmarkts bisher diese ganzen Auswüchse immer noch mitgegangen – genauso wie man sich von Steam, Uplay & Co. hat tracktieren lassen und die Spiele trotzdem gekauft hat. Augenscheinlich ist die Raubkopierer-Quote gegenüber diesen Raubritter-Methoden immer noch nicht hoch genug – oder aber kann dieser Spieleherbst mit einer wirklichen Vielzahl an Triple-A-Titeln mit großen technischen Problemen endlich eine Wendung bringen?

1

Die Grafikkarten-Performance unter Dragon Age: Inquisition

Seitens verschiedener Webseiten hat man sich die Grafikkarten- und Prozessoren-Performance unter Dragon Age: Inquisition angesehen. Das Spiel auf Basis der Frostbite-Engine ergibt sich erstaunlich genügsam bei den Systemanforderungen gegenüber anderen aktuellen Spielen, haut dann aber bei den realen Anforderungen um so deutlicher ins Kontor. Offiziell gefordert werden ein Vierkern-Prozessor – wobei auch Core 2 Quads und Athlon IIs dafür noch durchgehen – sowie 4 GB Hauptspeicher, ein 64-Bit-Windows und eine DirectX-10-Grafikkarte mit nur 512 MB Grafikkartenspeicher vom Schlage Radeon HD 4870 oder GeForce 8800 GT. Rein praktisch kommt man damit auf Grafikkarten-Seite nicht weit, während die inzwischen ins Spiel eingeflossene Mantle-Unterstützung die Spielbarkeit auf älteren bzw. leistungsschwächeren CPUs überaus deutlich verbessert.

Viele der ursprünglich angetretenen Benchmarks sind inzwischen durch Spiel-Patch und neue Performance-Treiber seitens AMD und nVidia nicht mehr aktuell, so daß die beste Möglichkeit zur Performance-Bestimmung derzeit der Artikel des TechSpots bietet. Hier wird der allgemein als wenig passend angesehene integrierte Benchmark des Spiels vermieden und auf eine eigene Benchmark-Sequenz gesetzt – allerhöchstens der Einsatz von nur 2x Multisampling Anti-Aliasing erscheint auf den ersten Blick fragwürdig. Allerdings gibt Dragon Age: Inquisition keine anderen Anti-Aliasing-Methoden her, das einzig gebotene MSAA funktioniert jedoch auf vielen Grafikteilen überhaupt nicht und ist daher eine sehr ineffektive Lösung. Dafür viel Performance zu verschwenden ist nicht wirklich klug, insofern geht die Wahl von "nur" 2x MSAA seitens des TechSpots dann wohl doch in Ordnung:

Dragon Age: Inquisition – 1920x1200 "Ultra"-Quality & 2x MSAA (Quelle: TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870 270
30-39 fps 7870-Boost
7950
7950-Boost
270X
285
280
660Ti
670
680
760
770
40-49 fps 7970
7970-GHz
280X Titan 780
Titan Black
970
50-59 fps 290
290X
780Ti 980

Richtig hohe Frameraten gibt es aber auch so nicht, große Reserven für 4x Multisampling Anti-Aliasing oder gar Downsampling Anti-Aliasing sind nicht zu sehen. Für eine gutklassige Performance in allen Lagen wird auch unter Dragon Age: Inquisition eine HighEnd-Grafikkarte ab Radeon R9 280X oder GeForce GTX 780 erforderlich. Wie zu sehen, kommt AMD deutlich besser mit Dragon Age: Inquisition zurecht: An der Leistungsspitze kommt die Radeon R9 290X der GeForce GTX 980 sehr nahe (und läßt die GeForce GTX 970 klar hinter sich), in niedrigeren Gefilden kommen bei nVidia nur noch GK104-basierte Grafikkarten auf halbwegs passable Frameraten, während bei AMD wenigstens noch die größeren Pitcairn-basierten Modelle in diesem Feld mitspielen können.

Dies dürfte teilweise auch an der Menge an verbautem Grafikkartenspeicher hängen, denn im Mittelfeld hat AMD hier durchgehend mehr zu bieten und kann dies hier und da auch für gewisse Frameraten-Vorteile nutzen. Dies ist gut zu sehen an dem schwachen Resultat der Radeon R9 285 2GB (Perf.Index 330%), welche nur minimal schneller ist als die nominell langsamere Radeon HD 7950 3GB (Perf.Index 300%). Zudem kommt es bei Dragon Age: Inquisition auch nicht gerade selten zu Nachladerucklern bei zu kleinem Grafikkartenspeicher, welche weniger die erzielten Frameraten reduzieren als vielmehr den allgemeinen Flüssigkeitseindruck schmälern. Mehr Grafikkartenspeicher ist also in jedem Fall ein klarer Vorteil unter Dragon Age: Inquisition, unter 1920x1200 sind 3 GB regelrecht zu empfehlen.

Dragon Age: Inquisition – 2560x1600 "Ultra"-Quality & 2x MSAA (Quelle: TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7970-GHz 280X 780
30-34 fps 290 Titan Titan Black
780Ti
970
35-39 fps 290X 980

Unter 2560x1600 geht es dann in absolute Grenzbereiche – keine einzige Grafikkarte erreichte hier die Marke von 40 fps, dies gilt im übrigen genauso auch für die Messungen der PC Games Hardware und der ComputerBase. Es ist fraglich, ob man das Spiel unterhalb einer Radeon R9 290X oder GeForce GTX 980 (beide zwischen 35 und 39 fps) überhaupt unter dieser Auflösung im "Ultra"-Setting mit 2x MSAA starten sollte, oder nicht besser eine der vielen Optionen zur Reduktion der Grafikpracht bemühen sollte. In diesem Fall würden sich sicherlich weitere Benchmarks mit einer abgespeckten Grafikqualität anbieten, welche für mehr als nur zwei Grafikkarten flüssige Frameraten ausweisen könn(t)en.

Die PC Games Hardware bietet zudem in einem extra Artikel noch ganz interessante Ausführungen zum Einfluß der Mantle-API auf die CPU-Performance des Spiels. Mittels Mantle lassen sich bei den in Dragon Age: Inquisition problemlos zu findenden CPU-limitierten Szenen deutliche Vorteile insbesondere bei schwächeren CPUs erzielen – aber selbst ein Haswell-Vierkerner auf nur 3.0 GHz legt noch um 26% zu. Ein Einfluß auf die Grafikkarten-Performance wurde leider nicht vermessen, aber der Einfluß auf die CPU-Performance ist in jedem Fall beachtenswert und unter diesem Spiel nützlich. Zudem sorgt Mantle bei einer CrossFire-Lösung wie der Radeon R9 295X2 auch mal wieder dafür, daß das typische Mikrorucklern von MultiChip-Kombinationen weitgehend unterbunden wird.

1

Umfrage-Auswertung: Wieviel Grafikkartenspeicher sind derzeit für einen Neukauf ideal?

Die Umfrage der letzten Woche fragte nach der derzeit bei einem Neukauf als ideal angesehenen Grafikkartenspeicher-Größe. Hierbei ergab sich eine große Dominanz von 4 GB Grafikkartenspeicher, für welches immerhin 54,1% der Umfrage-Teilnehmer stimmten. Geringere Speichergrößen (von 2 und 3 GB) sind zusammen nur für 9,7% der Umfrage-Teilnehmer ideal, während höhere Speichergrößen als 4 GB für zusammen immerhin schon 36,2% der Umfrage-Teilnehmer als ideal erscheinen. Hierbei treffen natürlich auch völlig verschiedene Nutzergruppen zusammen: Von Nutzer mit 1680er Monitoren bis zu Nutzern von 4K-Monitoren oder Downsampling Anti-Aliasing.

Trotzdem ist der klare Trend zu erkennen, daß 4 GB die neue Standardgröße für Grafikkartenspeicher sein sollte, unterhalb welcher die Grafikkarten-Hersteller eigentlich kaum noch etwas potentes anzubieten brauchen. Spätestens im HighEnd- und Enthusiasten-Feld wird dagegen schon der klare Bedarf nach mehr gesehen. Mit einer kommenden neuen Enthusiasten-Generation erscheinen daher 8 GB Grafikkartenspeicher als anzustrebende Größe, zumindest wenn man nach den Anforderungen der Grafikkarten-Enthuasisten gemäß dieser Umfrage geht. Wofür mehr als 4 GB Grafikkartenspeicher direkt nutzvoll sein sollen, ist im übrigen das Thema der anschließenden (derzeit noch laufenden) Umfrage.

30

Hardware- und Nachrichten-Links des 29./30. November 2014

Zur Meldung über das Marktgeschehen bei PCs und Tablets im Jahr 2014 wäre noch der wichtige Punkt anzumerken, daß die neuesten Prognosen nun endgültig keine "Marktübernahme" durch die Tablets mehr vorsehen, welche vor einiger Zeit mal auf 400 Millionen Stück pro Jahr (und damit weit vor dem PC) geschätzt wurden, nun aber augenscheinlich in den Jahren 2019 oder 2020 bei ca. 300 Millionen Stück einen Stückzahlen-Gleichstand mit dem PC erreichen werden. Dies erscheint auf den ersten Blick nun auch nicht gerade so schlecht, rechnet aber nicht ein, daß die Tablets schon in den letzten Jahren deutlich bei den Stückpreisen verloren haben und aller Voraussicht nach noch weiter verlieren werden, währenddessen der PC bei den Stückpreisen eher denn stagniert. So gab es schon Anfang 2013 die Situation im rein deutschen PC- und Tabletmarkt, daß einem durchschnittlichen PC-Verkaufspreis von 620 Euro ein durchschnittlicher Tablet-Verkaufspreis von nur 356 Euro gegenüberstand.

Dabei gewann der durchschnittliche PC-Verkaufspreis im Vergleich zum Jahr 2010 leicht, während der durchschnittliche Tablet-Verkaufspreis in diesem Zeitraum von 479 auf eben 356 Euro mehr als deutlich nachgab. Heuer nun spricht unsere letzte diesbezügliche Umfrage von einem durchschnittlichen Tablet-Verkaufspreis von 233 Euro, was zwar nicht marktrepräsentativ ist, aber den weiter anhaltenden Trend der fallenden Durchschnittspreise bei Tablets untermauert. In der Summe der Dinge kann es durchaus passieren, daß der Tablet-Markt in absehbarer Zeit trotz eines irgendwann kommenden Stückzahlen-Gleichstands mit dem PC niemals mehr als ein Drittel von dessem Umsatz macht – eben wegen der klar niedrigeren Durchschnittspreise. Dabei bezieht sich diese Rechnung sogar nur auf die verkauften Komplett-Geräte, weder auf einzelne Komponenten noch auf Zubehör – was im PC-Markt noch einmal einen sehr erheblichen Mehrumsatz bedeutet, im Tablet-Markt dagegen gar nicht bzw. nur sehr geringfügig überhaupt vorhanden ist. Die These, daß die Tablets den PC irgendwie nahekommen könnten, ist angesichts der Umsatzzahlen völlig überzogen.

Für einigen Wirbel und Stellungnahmen sorgen derzeit die neuen Facebook-Nutzungsbedingungen zum 1. Januar 2015: Bei WBS-Law geht es um deren platte Ignorierung von deutschem Recht, bei Computerbetrug um die einzelnen Änderungen und bei der Telepolis darum, den konkreten Auswirkungen zu entgehen. Dabei kommt der entscheidende Punkt eigentlich noch gar nicht einmal klar herüber: Die mit den neuen Facebook-Nutzungsbedingungen kommende Nutzerverfolgung über das ganze Netz erfordert rein technisch das Auslesen der Cookies fremder Webseiten – und damit von Daten, welche weder von Facebook angelegt wurden, für die Funktionsweise von Facebook unabdingbar sind, noch welche auch der Nutzer mit seiner Zustimmung Facebook überantworten darf.

Cookies sind schließlich Nutzungsdaten der jeweiligen Webseiten, gehören rein rechtlich derjenigen Webseite. Facebook "hackt" sich also in die Informationsdaten anderer Webseiten hinein – und dies nicht im Einzelfall, sondern als Standardmaßnahme, ergo in Masse. Wenn unsere sonst so nach Recht und Ordnung schreienden Politiker Cojones hätten, könnte man Facebook an dieser Stelle mit der vollen Härte des Gesetzes angehen, welche das Ausspähen von nicht für einen selbst bestimmten Daten unter schwere Strafandrohungen stellt (und sich regelmäßig bei kleinen Fällen sein Mütchen kühlt). Genauso könnten auch die betroffenen Webseiten gegen Facebook ins Feld ziehen und auf Unterlassung klagen. Interessant, daß bislang noch niemand auf diese eigentlich naheliegende Idee gekommen ist: Wenn Facebook die Daten anderer Webseiten benutzt, dann wäre dazu vorher zwingend die Einwilligung dieser Webseiten einzuholen.

Inhalt abgleichen