28

Hardware- und Nachrichten-Links der Osterfeiertage 2016

DualShockers zeigen eine Microsoft-Präsentation von der GDC zum Thema "Optimierungen für DirectX 12" – dessen Hauptbotschaft durchaus die Empfehlung Microsofts an die Spieleentwickler ist, für DirectX 12 besser unterschiedliche Optimierungspfade für beide Grafikchip-Entwickler zu implementieren. Dies kommt nicht von ungefähr, eine LowLevel-API läßt sich nun einmal nur richtig ausnutzen, wenn man Hardware-näher optimiert – und jede Hardware-nahe Optimierung ist dann eben stärker gebunden an die jeweilige Hardware und wird auf anderer Hardware nicht mehr gut funktionieren. Dies bedeutet aber auch, das die Spieleentwickler zukünftig durchaus auch einmal jeweils zwei Optimierungspfade für beide Grafikchip-Entwickler auflegen müssen – einen für die jeweils neueste Grafikchip-Architektur, der andere für die zuvorgehende und bei den Nutzern dementsprechend noch stark vertretene Grafikchip-Architektur. Zumindest wenn es irgendwo mal einen großen Architektursprung gibt – wie bei nVidia zwischen Kepler und Maxwell – dürfte sich dies in jedem Fall lohnen.

Ob alle Spieleentwickler dies aber mitgehen wollen (bis zu vier Optimierungspfade), bliebe abzuwarten und dürfte auch eine Sache der Finanzkraft des jeweiligen Spielepublishers sein. Man diskutiert teilweise schon den Punkt, ob DirectX 12 aus diesem Grund eher für die großen Studios zum Vorteil ist, weil nur diese sich den durch DirectX 12 entstehenden Mehraufwand leisten können, kleinere Entwickler hingegen bei DirectX 11 bleiben würden. Andererseits spielt die Zeit so oder so für DirectX 12, in ein paar Jahren dürften auch die kleineren Entwickler entweder DirectX 12 (oder hoffentlich Vulkan) nutzen, DirectX 11 mit der Zeit in Vergessenheit geraten. Zudem geht ganz allgemein gesprochen sowieso die Entwicklung neuer Spiele-Engines zurück – man benutzt meistens entweder Haus-eigene Engines für eine Vielzahl an Titeln oder lizenziert komplette Spiele-Engines, welche dann beiderseits in aller Regel bereits gut ausoptimiert sein sollten.

Ein anderes Diskussionsthema ist weiterhin "Asynchronous Compute" unter nVidia-Hardware: Aus unserem Forum kommt hierbei der Hinweis auf eine ernstzunehmende Aussage eines Spieleentwicklers, wonach die Pascal-Architektur von nVidia zwar in der Tat gegenüber Maxwell eher weniger Architektur-Änderungen mit sich bringt, gerade im Punkt von "Asynchronous Compute" nVidia bei Pascal jedoch eingegriffen haben soll. Die Klasse dieser Verbesserung soll Pascal aber noch nicht auf das Niveau von AMDs aktuellen Beschleunigern in dieser Frage führen – aber wenigens so weit bringen, das es nahe des Niveaus von GCN 1.0 geht. Da die GCN 1.0 basierten AMD-Grafikkarten nur zwei ACE-Einheiten haben, gelten jene in Bezug auf dieses Feature jedoch als nicht besonders leistungsfähig – da dürfte also im Vergleich zu Pascal für AMDs aktuelle Beschleuniger (acht ACEs) weiterhin noch einiges an Vorteil übrigbleiben.

Doch während man den kommenden AMD- und nVidia-Grafikkarten durchaus den Punkt lassen sollte, erst einmal zu erscheinen und dann ihre Performance unter "Asynchronous Compute" bzw. DirectX 12 zu präsentieren, kann man zumindest sagen, das dieses Duell in Bezug auf die aktuell vorhandenen Beschleuniger klar an AMD geht. AMDs Grafikkarten haben hier (nicht zum ersten Mal) den Vorteil, das die Hardware einfach besser für die mittelfristige Zukunft ausgelegt ist – und nicht nur auf die bestmögliche Performance zum Releasezeitpunkt, wie das bei nVidia zuletzt einige Male der Fall war. Auch wenn GCN nicht die effizienteste und am besten skalierende Architektur ist, hat AMD doch zuletzt gut mit der fortschreitenden Spieleentwicklung mitgehende Beschleuniger aufgelegt – gut zu sehen am Fall der Radeon R9 290X (Perf.Index 520%, 4K: 71%), welche sich vom zweiten Sieger (Perf.Index zum Launch: 480%) als mittlerweile gleichwertige Lösung gegenüber der einstmals überlegenen GeForce GTX 780 Ti (Perf.Index 530%, 4K: 68%) entwickelt hat. Andere bekannte Punkte aus der mittelfristigen Vergangenheit sind die höheren Speichermengen von (einigen) Radeon HD 6000 & 7000 Grafikkarten, welche jenen ein längeres Leben als seinerzeitigen nVidia-Lösungen beschert haben.

Netzpolitik berichten über eine wichtige Studie, welche untersucht, wie Überwachung die Bereitschaft zur Meinungsäußerung einschränkt. Zum einen wurde dabei dieser Punkt generell belegt – zum anderen auch der hochinteressante Unterpunkt herausgearbeitet, das hierbei vor allem Vertreter von Minderheitenmeinungen mit ihrer Meinungsäußerung hinter dem Berg hielten. Letzteres passiert sogar dann, wenn jene Vertreter von Minderheitenmeinungen ansonsten der Überwachung positiv gegenüberstehen – ein guter Beleg für diese unterschwellig wirkende Effekte. Für die USA ist das ganze eventuell nur eine nette Studie, für die Bundesrepublik Deutschland jedoch regelrecht wichtiges Material: Denn hierzulande geht die Rechtsauffassung davon aus, das bereits das Klima der Überwachung zu verhindern sei, weil ansonsten eben genau das passiert, was die Studie beschreibt – die Bürger verhalten sich nicht mehr "normal", Meinungen gehen verloren (weil sie nicht ausgesprochen werden), die Demokratie wird somit gestört. Als Argumentationshilfe ist diese US-Studie Gold wert, denn jene belegt Praxiseffekte, welche Überwachungsfans immer wieder entweder als "unwichtig" oder "unbelegte Spekulation" abtun.