14

Umfrage-Auswertung: Welches Seitenverhältnis hat der Monitor?

Die Umfrage der letzten Woche stellte das Seitenverhältnis des benutzten Monitors zur Frage. Erstaunlicherweise kam hierbei nicht die totale Dominanz der derzeit bei neuen Produkten zumeist angebotenen 16:9-Auflösung heraus, wenngleich jenes Seitenverhältnis mit 49,0% trotzdem natürlich den Spitzenplatz belegte. Aber es sind dennoch noch massenweise 16:10-Monitore im Einsatz oder werden sogar beim Neukauf bewusst so gewählt, womit dieses Seitenverhältnis mit 40,8% kaum weniger Zuspruch erhält. Glücklicherweise ist es bei neueren Spieletiteln so, daß sich die Spieleentwickler inzwischen damit arangiert haben und weniger Fälle auftreten, wo die zwischen 16:9 und 16:10 leicht unterschiedlichen Seitenverhältnisse vom Spiel nicht beachtet werden.

Sehr viel weniger Zuspruch haben dagegen andere Seitenverhältnisse: Aus der Vergangenheit kommen die 4:3-Monitore noch auf 4,0% und die 5:4-Monitore noch auf 1,9% Nutzerzuspruch, während das neuere superbreite 21:9-Seitenverhältnis doch schon auf beachtbare 3,5% kommt. Andere Seitenverhältnisse sind mit 0,8% der Stimmen kaum von größerer Bedeutung. Die Umfrage konnte natürlich auch nicht auf Sonderformen wie Multimonitoring abfragen, die Frage bezog sich allein auf das Seitenverhältnis eines Monitors. Hierzu läßt sich abschließend sagen, daß 16:9 und 16:10 derzeit als nahezu gleichwertig und vor allem marktdominierend anzusehen sind, andere Monitor-Seitenverhältnisse demgegenüber sehr viel weniger Relevanz haben. Einzig allein 21:9 könnte in der Zukunft vielleicht noch bedeutsamer werden, da jenes Seitenverhältnis jetzt schon bei 3,5% Nutzerzuspruch steht.

13

Hardware- und Nachrichten-Links des 13. Oktober 2014

HT4U bieten eine Auflistung von GeForce GTX 970 Modellen samt deren Besonderheiten an, welche auch Angaben zum jeweils angesetztem Power Target sowie zur maximalen Erhöhbarkeit desselben umfasst. Leider sind letztere Angaben wegen der mangelhaften Informationspolitik der Hersteller unvollständig, gerade von den stark ab Werk übertakteten Karten fehlen oftmals die entsprechenden Angaben. Erkennen läßt sich jedoch, daß entgegen der nVidia-Vorgabe eines Power Targets von 150 Watt auch die gar nicht oder niedrig ab Werk übertakteten Modelle generell mindestens ein Power Target von 160 Watt tragen – und hieraus natürlich auch eine gewisse Mehrperformance beziehen, wie kürzlich erst dargelegt. Faktisch kann man die Performance dieser Modelle mit Power Target von 160 Watt jedoch als die Referenz zur GeForce GTX 970 betrachten, in Ermanglung dessen, daß es wirkliche Referenzmodelle zu dieser Karte am Markt zu kaufen gibt. Wenn man also mit einem Herstellerdesign die Performance der regulären GeForce GTX 970 zu simulieren versucht, sollte man nicht nur die Referenz-Taktraten einstellen, sondern eben auch das Power Target der Karte auf 160 Watt herabsetzen.

Mit der neuen Version 1.4.775 bekommt der 3DMark13 einen weiteren Benchmark hinzu – "FireStrike Ultra". Hierbei handelt es sich um die bekannte FireStrike-Benchmarksequenz, allerdings in der UltraHD-Auflösung von 3840x2160 gerendert. Passenderweise wird jene nur auf entsprechenden Monitoren nativ dargestellt, auf kleineren Monitoren per Downsampling jedoch entsprechend heruntergedreht – womit man diesen Test auch dazu benutzen kann, die 4K-Fähigkeit der eigenen Hardware zu testen, ohne bereits einen 4K-Monitor zu besitzen. Aufgrund der extrem nach oben gezogenen Anforderungen an die Grafikkarte dürften jedoch nur absolute HighEnd-Grafikkarten sowie MultiChip-Lösungen gute Werte unter diesem "FireStrike Ultra" Test abliefern – Futuremark gibt als Anforderung gleich einmal 3 GB Grafikkartenspeicher für diesen Einzeltest an, was bei Grafikkarten mit weniger Speicher wohl für sehr deutlich spürbare Limitationen sorgen dürfte. Im Sinne der klaren Bedeutungszunahme der 4K-Auflösung in der letzten Zeit ist jener Test dennoch nützlich und dürfte uns daher wohl lange begleiten.

Die PC Games Hardware berichtet über eine Theorie, wie es zu der zuletzt feststellbaren deutlichen Steigerung der Anforderungen an Grafikkartenspeicher in PC-Spielen gekommen sein könnte: Danach könnten unoptimierte Konsolen-Portierungen hieran Schuld haben, bei welchen die Spieleentwickler nicht mehr zwischen Hauptspeicher und Grafikkartenspeicher getrennt haben, da es diese Trennung bei den aktuellen Konsolen bekannterweise nicht mehr gibt. Ergo würden in der PC-Version des Spiels der Grafikkartenspeicher auch für Sachen verwendet werden, welche dort gar nicht liegen müssen, demzufolge früher volllaufen und dann für Performance-Probleme sorgen. Dies ist eine mögliche Variante, eventuell machen es sich die Spieleentwickler auf dem PC auch ganz einfach und trennen die vorliegenden Berechnungsdaten gar nicht auf, sondern schieben einfach jeweils eine komplette Kopie in Hauptspeicher und Grafikkartenspeicher.

Andererseits ist ein gewisser Anstieg der Anforderungen auch schlicht dadurch zu erklären, daß die Spieleentwickler nun mit der aktuellen Konsolen-Generation dramatisch mehr Speicher zur Verfügung haben als bisher – und sich daher keine größeren Begrenzungen bei Texturenqualität und anderen speicherbelastenden Effekten mehr auferlegen müssen. Diese Entwicklung ist dabei noch lange nicht zu Ende, denn weder wird auf den aktuellen Spielekonsolen deren Speicher bislang voll ausgenutzt, noch wurden bisher großartige Speicherspar-Technologien angesetzt, wie sie auf der letzten Konsolen-Generation zwangläufig genutzt werden mussten. Zudem besteht nach wie vor ein bemerkbarer Auflösungs-Unterschied zwischen Konsolen und PC, welcher mit steigender Bildqualität wohl sogar noch größer werden wird – die Konsolen werden im Laufe der Zeit bei der Auflösung wohl noch häufiger abspecken müssen, während der PC hingegen Richtung UltraHD marschiert. Dies kann in einigen Jahren schnell in Richtung des doppelten bis dreifachen Speicherbedarfs auf dem PC resultieren – der aktuelle zu beobachtende Effekt ist daher möglicherweise nur der Anfang.

Heise und der Spiegel berichten über Aussagen seitens des Cyberabwehrzentrums von Europol, daß es weltweit wohl nur 100 maßgebliche Malware-Programmierer geben dürfte. Hiermit sind dann sicherlich nicht die (viel größere) Gruppe der Nutzer von Malware-Baukastensystemen gemeint, sondern nur noch deren Programmierer – und natürlich dann noch jene Hacker, welche aufgaben-spezifische Malware entwickeln können. Natürlich besteht seitens Europol ein hohes Interesse daran, diese Malware-Programmierer ausfindig zu machen – die dazu geäußerte Idee, es ausgerechnet mit Hintertüren in Programmen und Diensten zu versuchen, ist absurd und (angeblichen) IT-Fachleuten vollkommen unwürdig. Schließlich dürften jene Spitzen-Hacker noch mit zu denjenigen gehören, welche sich am am besten vor einer solchen Maßnahme schützen können – im völligen Gegensatz zum Normalbürger. Zudem zwingt die heutige Zeit, sich immer auch mit den Mißbrauchsmöglichkeiten einer neuen Methode zu beschäftigen – denn was einmal vorhanden ist, wird zwingend mißbraucht werden. In diesem Sinne handelt Europol hiermit komplett entgegen seines Auftrages: Um ein IT-Problem zu lösen, soll ein noch viel größeres geschaffen werden.

Nochmals Heise berichten darüber, daß das NSA-Programm "Tarex" neben den USA auch in Südkorea, China und Deutschland läuft. Unter Tarex sind verschiedene Maßnahmen zusammengefasst, eine davon ist die Infiltration des Postverkehrs zum Zweck der Manipulation von Hardware für überwachte Personen und Einrichtungen – besonders beliebt sind hierbei wohl Internet-Router, wo die NSA dann ihre eigene Überwachungsschnittstelle mit anbringt. Einen direkten Beweis dafür, daß selbiges auch in Deutschland geschehen ist, gibt es zwar nicht – aber man darf es als Hinweis darauf betrachten, daß dies durchaus passiert kann. Damit müssen Personen und Einrichtungen mit erhöhtem Sicherheitsbedarf (hierzu kann wegen der Wirtschaftsspionage-Aktivitäten der NSA auch jedes Unternehmen mit eigener Forschungsabteilung zählen) leider davon ausgehen, daß neu gekaufte IT-Gerätschaften nicht manipulationssicher sind, sondern vor Einsatz entsprechend kontrolliert werden und im Idealfall auch gleich mit vom Hersteller unabhängigen Betriebssystemen betrieben werden sollten. Für Unternehmen wird zudem die Mitarbeiter-Prüfung umfangreicher, denn das Tarex-Programm beinhaltet auch das Einschleussen von NSA-Mitarbeitern in Unternehmen zum Zweck der Installation von Überwachungstechnik direkt vor Ort.

Shortcuts: Die PC Games Hardware berichtet über Meldungen, die jüngsten AMD-Preissenkungen wären nur ein temporärer Alleingang der Boardhersteller – und würden zudem nach einer gewissen Zeit wieder eingestellt, was dann wieder in höheren Preisen für AMD-Grafikkarten resultieren würde. Letzteres ist aufgrund der aktuellen Marktsituation jedoch kaum vorstellbar, womit das ganze wohl nur eine gute PR-Masche zum weiteren Ankurbeln der Verkäufe sein dürfte. Fudzilla berichten hingegen über ein angeblich neues "Never Settle" Bundle – was wir allerdings in dieser Form für unwahrscheinlich halten, da AMD gerade erst ein neues Bundle vorgestellt hat, wovon noch nicht einmal alle Spieletitel veröffentlicht wurden. Da AMD seine Spiele-Bundles bisher niemals komplett umgeworfen hat, so lange die Laufzeit des aktuellen Bundles noch nicht überschritten war (das aktuelle Bundle läuft bis zum 31. Januar 2015), dürfte es dieses Jahr wenn dann nur Ergänzungen des aktuellen Bundles durch neue Spieletitel geben – aber weniger denn ein komplett neues Bundle.

13

nVidia Maxwell: Auswirkungen verschiedener Power Targets auf Performance und Stromverbrauch

Tom's Hardware haben sich mit der Auswirkung verschiedener, weit voneinander entfernter Power Targets auf Performance und Stromverbrauch der neuen Maxwell-Grafikkarten am Beispiel einer GeForce GTX 970 beschäftigt. Jene Karten bieten wie bekannt weitreichende Möglichkeiten zur Beeinflußung der Performance und damit des Stromverbrauchs über das gesetzte Power Target. Selbiges liegt bei einem Referenzdesign bei nur 150 Watt mit eigentlich nur +6% Spielraum, verschiedene Herstellerdesigns haben jedoch völlig andere Power Targets bis hin zu 250 Watt bei der benutzten Gigabyte-Grafikkarte. Damit könnten folgende Performance-Werte und damit Stromverbräuche erzielt werden:

Power Target eingestellter Chip-Takt höchster Boost-Takt durchschnittlicher Boost-Takt Performance (Thief) Stromverbrauch
145W 1300 MHz 1291 MHz 1266 MHz 43,5 fps 131,4W
175W 1300 MHz 1481 MHz 1461 MHz 48,0 fps 160,5W
200W 1300 MHz 1531 MHz 1519 MHz 49,5 fps 183,3W
225W 1350 MHz 1544 MHz 1531 MHz 50,1 fps 205,3W
250W 1375 MHz 1564 MHz 1552 MHz 51,0 fps 229,1W

Leider liegen nur die Performance-Messungen eines einzelnen Spiels (Thief) vor, was etwas mager für eine abschließende Aussage ist. Dennoch läßt sich die Beobachtung einer klaren Tendenz mitnehmen: Zwar lassen sich die neuen Maxwell-Grafikkarten auf extreme Power-Target-Werte setzen und verbrauchen dann auch entsprechend viel Strom, der Performance-Gewinn sinkt jedoch ab einem gewissem Maß in völlig uninteressante Bereiche ab. Im Fall der benutzten GeForce GTX 970 lohnt kaum mehr als ein Power Target von 175 Watt – für ein Power Target von 200 Watt bekommt man nur 3,1% mehr Performance für einen gleich um 14,2% höheren Stromverbrauch. Für den Sprung von 200W auf 225W Power Target sieht es noch drastischer aus: Für 12,0% mehr Stromverbrauch bekommt man nur 1,2% mehr Performance.

Im Fall der GeForce GTX 970 & 980 bringt das Setzen extremer Power Target also relativ wenig bis gar nichts – dies sind Reserven für Extrem-Übertakter mit entsprechenden Kühlmaßnahmen, aber im Hausgebrauch nicht sinnvoll nutzbar. Viel mehr als 20% bis maximal 35% über das jeweilige TDP-Limit muß man GeForce GTX 970 & 980 nicht setzen. Danach fängt der Bereich an, wo die Grafikkarte mehr Watt nicht in mehr Pixel, sondern nur noch in mehr Abwärme umwandelt, wo die die Grenzen der Maxwell-Effizienz dann deutlich erreicht sind.

12

Hardware- und Nachrichten-Links des 11./12. Oktober 2014

Während Golem und Hardwareluxx sich die Windows 10 "Technical Preview" aus Betriebssystem-Sicht angesehen haben, haben sich OCaholic mit der Gaming-Performance unter Windows 10 beschäftigt. Dank vorhandener Index-Bildung erfährt man umgehend, daß Windows 10 derzeit bei der Gaming-Performance minimal zurückhängt – allerdings in einem für Betriebssysteme üblichen Rahmen von -1,7% bis -2,0% gegenüber Windows 7, also im vernachlässigbaren Rahmen. Der Grund hierfür könnte schon allein an den vielfältigen Protokollierungs-Funktionen der "Technical Preview" liegen, welche dann im finalen Betriebssystem natürlich fehlen werden. Ergo darf man jetzt schon davon ausgehen, daß Windows 10 im Gaming-Einsatz nicht wirklich langsamer als bisherige Microsoft-Betriebssysteme sein wird – schneller natürlich auch nicht, aber dies ist gar nicht zu erwarten. Windows 8.1 liegt im übrigen im selben Test um +0,4% bis +2,1% vor Windows 7 – sicher auch nicht unbedingt die Aussage "schneller" wert, aber doch ein Hinweis darauf, wohin die Treiber-Entwicklung der Grafikchip-Entwickler sowie die Arbeit der Spielentwickler zuletzt zielte.

TweakPC bringen eine offizielle Intel-Aussage zur Garantie für Asus' Mainboards mit OC-Sondersockel für Haswell-E, welche wenig Hoffnung läßt, daß sich hier eine Einigung zwischen Asus und Intel erreichen lassen würde. Intel lehnt seine (freiwillige) Garantie schlichtweg ab, wenn die Intel-Prozessoren nicht auf validierten Plattformen laufen – was im Fall des OC-Sondersockels von Asus und Gigabyte eben nicht mehr zutrifft. Daß Asus und Gigabyte hier nur sowieso vorhandene Kontaktstellen nutzen, die Intel sogar selber zur internen Produktvalidierung benutzt, spielt rechtlich keine Rolle. Validiert ist seitens Intel halt nur der Sockel 2011-v3 – und kein anderes Produkt oder andere Nutzungsform. Die Hersteller-Garantie ist damit zumindest für die Intel-CPU weg – und die Mainboard-Hersteller dürften sich schwer tun, jene auch noch zu übernehmen. Andererseits dürften die praktischen Auswirkungen des Falls eher gering sein, denn hierbei handelt es sich schließlich um eine Maßnahme zum extremen Übertakten – bei welchem die Garantie der Intel-CPUs sowieso weg wäre.

Internet-Law berichten über eine Empfehlung seitens der bundesdeutschen Datenschützer, daß Google die Anbieter von Inhalten, die wegen des "Rechts auf Vergessen" aus dem Google-Suchindex entfernt wurden, nicht darüber benachrichtigen darf. Wo hier ein Datenschutz-Verstoß liegen soll, bleibt unklar, denn eigentlich müsste es in die völlig andere Richtung gehen: Zur Wahrung der eigenen Interessen und weil man nicht ständig jeglichen eigenen Inhalt darauf kontrollieren kann, ob Google jenen ausgelistet hat, müsste Google die betroffenen Inhalteanbieter zwingend über die Delistung informieren – wie auch seitens Internet-Law rechtlich begründet wurde. Das eigentlich zugrundeliegende Problem ist jedoch, daß mittels des "Rechts auf Vergessen" Google zu einem faktischem Richter erhoben wurde, ohne aber das Google hierfür Aufwandsentschädigung o.ä. erhält. Google muß sich also mit dem zivilrechtlichen Streit dritter Personen herumschlagen, muß Richter und Henker in einem spielen, und wenn dann mal etwas falsch läuft – was es bei über 100.000 Fällen sicher passiert – führt der Weg wieder nur über Google.

Vollkommen logisch, daß es sich Google demzufolge so einfach wie möglich macht und natürlich niemanden über Delistungen informiert, damit man etwaigen Rechtsstreitigkeiten möglichst aus dem Weg gehen kann. Allerdings verletzt man damit auch automatisch die Rechte der Inhalteanbieter, welche – wie schön von Internet-Law dargelegt – aufgrund der marktbeherrschenden Stellung von Google einen faktischen Listungsanspruch gegenüber Google haben. Auch wenn das "Recht auf Vergessen" von der Idee her durchaus etwas für sich hat, zeigen sich hiermit die praktischen Schwierigkeiten dieses Rechts. Normalerweise dürfte Google als Suchmaschinen-Anbieter nicht selber darüber entscheiden, müsste jeder Fall einzeln vor Gericht mit Rede und Widerrede behandelt werden. Angesichts der damit auflaufenden hohen Kosten dürfte man wohl schnell zur Einsicht kommen, daß nicht jede Rechtsidee sinnvoll in die Praxis übertragen werden kann.

12 12

Wie sind derzeit die Aussichten für Windows 10?

Warte bereits auf Windows 10 und werde sicher umgehend wechseln.
14% (343 Stimmen)
Werde erst anhand des finalen Produkts entscheiden - derzeitiger Eindruck positiv.
20% (483 Stimmen)
Werde erst anhand des finalen Produkts entscheiden - derzeitiger Eindruck unentschieden.
23% (573 Stimmen)
Werde erst anhand des finalen Produkts entscheiden - derzeitiger Eindruck negativ.
6% (142 Stimmen)
Werde wenn dann nur wegen DirectX 12 wechseln, ansonsten kein Bedarf.
17% (429 Stimmen)
Werde Windows 7 sicher bis zum Ende des Support-Zeitraums benutzen.
20% (506 Stimmen)
Gesamte Stimmen: 2476
10

Hardware- und Nachrichten-Links des 10. Oktober 2014

nVidias neues DSR Anti-Aliasing auch schon für Kepler- und Fermi-basierte Grafikkarten scheint ganz gut zu funktionieren, wie sich an der Anzahl der Postings im entsprechenden Forums-Thread belegen läßt. Derzeit benötigt das ganze natürlich eine kleine Modifikation eines Notebook-Treibers (vollständige Anleitung hierzu), ein offizieller Desktop-Treiber seitens nVidia wird noch für diesen Monat erwartet. Inzwischen diskutiert man im Forum dagegen schon DSR-Feinheiten – wie, welcher Smoothnessfaktor ideal ist (die Meinungen schwanken zwischen 20% und 33%), welches zu DSR zusätzliche Anti-Aliasing gut aussieht (FXAA oder SMAA?) und wo sich generelle Schwierigkeiten mit einigen Spielen ergeben, wie nicht mehr sichtbare Mauszeiger und ähnliche kleinere Bugs.

Letzteres dürfte sich allerdings bei noch gepflegten Spielen mittels Patches der Spieleentwickler abstellen lassen, dies sind halt kleinere Inkompatibilitäten aufgrund dessen, daß die Spieleentwickler nicht mit den mittels DSR erreichbaren hohen (internen) Auflösungen gerechnet haben. Neuere Spiele werden dies wohl ganz automatisch mit berücksichtigen – wobei DSR nur eher selten für neue Spiele nutzbar sein wird, da die Performanceanforderungen einfach sehr hoch sind. Ältere Spiele – und gerade solche, welche kein gutes Spiel-eigenes Anti-Aliasing bieten – sind der erste Anwendungszweck für DSR, und mittels heutiger neuer Hardware entsteht da dann auch kein Performance-Problem. Ansonsten läßt sich DSR gut dafür verwenden, um bezüglich der Performance grundsätzlich anspruchslose Spiele zu veredeln, davon gibt es schließlich auch eine ganze Reihe.

Die PC Games Hardware berichten von einem gewissen Preisrutsch bei der GeForce GTX 770, welche derzeit in einigen Ausführungen und bei mehreren Händlern für 230-260 Euro erhältlich ist. Gegenüber dem Stand von Ende Juli (bei seinerzeit 260-280 Euro) ist die Preisreduktion zwar nicht berauschend großartig, aber dennoch bemerkbar – und setzt damit natürlich auch die umliegenden nVidia-Karten sowie die AMD-Konkurrenz unter neuen preislichen Druck. So haben die neuen Maxwell-Grafikkarten GeForce GTX 970 & 980 letztlich nicht nur Vorteile für deren Käufer, sondern zwingen größeren Teilen des Grafikkarten-Markts eine neue Preisrunde auf, wovon dann letztlich viel mehr Grafikkarten-Käufer profitieren.

TweakPC berichten über ein erstes Mainboard mit Broadwell-Kompatibilität seitens ECS Elitegroup. Dabei wurde noch nicht einmal konkret festgelegt, welche Broadwell-Prozessoren unterstützt werden, dies soll alles erst nach Broadwell-Launch mittels BIOS-Updates erfolgen – sprich, es handelt sich schlicht eine kleine Marketing-Aktion seitens ECS Elitegroup. Denn natürlich sind die Broadwell-Prozessoren für den Sockel 1150 auch für alle derzeit verkauften Sockel-1150-Platinen gedacht, entsprechend wird es BIOS-Updates von allen Mainboard-Herstellern für mehr oder weniger alle entsprechenden Mainboards und Prozessoren geben – Sondermodelle, unbekannte Hersteller und reine OEM-Produkte einmal ausgenommen. Gleichfalls ist zu erwarten, das etwaige Broadwell-E-Prozessoren wieder im Sockel 2011-v3 von Haswell-E daherkommen und daher (nach BIOS-Update) auch auf allen jetzt verkauften Sockel-2011-v3-Platinen laufen werden.

Die Analysten von Gartner sowie IDC haben für das dritte Quartal jeweils ein kleines Minus bei der Anzahl an verkauften PC ermittelt, welches mit -0,5% bzw. -1,7% zum Vorjahresquartal jedoch sogar etwas niedriger ausgefallen ist als zu den (schlechten) Prognosen zum Jahresanfang vermutet. Dabei verstärkten sich die zuletzt zu beobachtenden Tendenzen: Das Geschäft in den Schwellen- und Entwicklungsländern lief erneut schlechter – hierbei scheint sich gerade Süd- und Ostasien mit den beiden Schwergewichten China und Indien zu einem totalem Smartphone/Tablet-Markt zu entwickeln und wirklich weg vom PC zu gehen. Dagegen gewann das PC-Geschäft in den Industriestaaten des Westens sogar leicht hinzu, entgegen des insgesamten Trends. Primär wird dies erklärt über immer noch anhaltende größere PC-Käufe im Unternehmensbereich nach dem Supportende von Windows XP.

Allerdings dürfte wohl auch der Punkt mit hineinspielen, daß viele Nutzer ihre PCs wegen der Langlebigkeit der Geräte (aus Performance-Sicht) und wegen des Tablet-Booms in den letzten Jahren nicht aktualisiert haben, diese aufgeschobenen Investitionen nunmehr nachgeholt werden. Und selbst wenn dies das derzeitige Marktgeschehen vielleicht noch nicht so stark bestimmt, darf man annehmen, das ein solcher Trend auf jeden Fall kommen wird. Das nächstes Jahr erscheinende Windows 10 dürfte – wenn Microsoft es schafft, auf die Nutzerrückmeldungen zu hören – sicherlich auch einen gewissen PC-Boom auslösen, allerdings wiederum primär nur in der westlichen und weniger in der östlichen Welt. Anzumerken wäre allerdings noch, daß es sich bei diesen Statistiken immer nur um die Anzahl an verkauften PCs & Notebooks handelt – weder werden Umsätze berechnet, womit auch ansteigende Durchschnittspreise nicht einfließen können, noch wird das im PC-Segment sehr breite Nachrüst- und Zubehörgeschäft irgendwie berücksichtigt. Die Aussagekraft dieser Zahlen ist daher – gerade wenn man daran die Gesundheit des gesamten PC-Markts ermessen will – arg beschränkt.

Spielepublisher Ubisoft hat sich mit seinen Aussagen pro 30 fps bei Konsolenspielen ziemlich hereingeritten – selbst wenn man jetzt im konkreten Fall von "Assassin's Creed: Unity" wieder zurückrudert. Dabei steht in der ursprünglichen Aussage sicherlich viel wahres: Dauerhaft 60 fps anzustreben, ist auf beschränkter Hardware mehr als doppelt so schwierig, wie 30 fps anzustreben – und im Sinne der Optik sind dauerhaft 30 fps vorzuziehen, wenn keine anderen Möglichkeiten als 30 fps oder 60 fps zur Auswahl stehen. Im eigentlichen sagt man damit durch die Blume schließlich nur, daß die Hardware der nunmehr aktuellen Konsolen-Generation einfach zu limitiert ist, um keinerlei Performance-Sorgen zu haben. Die Hardware der aktuellen Konsolen-Generation wurde konsequent auf Mainstream-Ansprüche ausgelegt – und da sind 60 fps einfach überflüssiger Luxus, gemessen an dem Bildqualitätsgewinn, welcher unter 30 fps möglich ist. Dies war schon angesichts den ersten Meldungen zur Hardware der seinerzeitigen NextGen-Konsolen erkennbar und manifestiert sich nun halt nur in der Praxis.

Inhalt abgleichen