20

Hardware- und Nachrichten-Links des 19./20. Dezember 2015

Unsere derzeit laufende Umfrage hat ihren gedanklichen Ursprung in einer Foren-Diskussion über die Schlagkraft der kommenden Radeon R9 Fury X2 bzw. inwiefern die kommenden 14/16nm-Grafikkarten dies dann überbieten könnten. Sicherlich wird es im Laufe der kompletten 14/16nm-Generation gelingen, eine Radeon R9 Fury X2 (mittels SingleChip-Lösungen) zu schlagen – die Frage ist allerdings, ob die im Sommer zu erwartenden 14/16nm-Lösungen jene Zielsetzung schon erreichen können. Derzeit sieht es immer mehr danach aus, als würden AMD und nVidia im Sommer/Herbst 2016 nur ihre Performance- und HighEnd-Lösungen der 14/16nm-Generation bringen, während die Enthusiasten-Lösungen bestenfalls kurz vor Jahresende 2016 zu sehen sind, womöglich aber erst im Jahr 2017. Bei AMD gehen die letzten Annahmen sehr deutlich in diese Richtung, bei nVidias GP102-Chip wird man dessen konkretes Releasedatum abwarten müssen. Daß es sowohl teuer als auch vom technologischen Aufwand her nicht einfach sein wird, 550-600mm² große Chips schon im Jahr 2016 in der 14/16nm-Fertigung zu backen, spricht nachdrücklich für diese These des späten Erscheinens der 14/16nm-basierenden Enthusiasten-Lösungen.

Die im Sommer/Herbst zu erwartende 14/16nm-basierte HighEnd-Generation um AMDs Greenland und nVidias GP104 dürfte jedoch nicht das Potential dazu haben, eine Radeon R9 Fury X2 zu schlagen. Dafür sind diese Grafikchips bei um die 400mm² Chipfläche zu klein angesetzt, selbst mit einer glatten Performanceverdoppelung zwischen den 28nm- und 14/16nm-Generationen wäre dies nicht erreichbar: Im Fall einer Performanceverdopplung würde die 14/16nm-basierten HighEnd-Grafikkarten im nächsten Jahr einen 4K Performance-Index von 140-150% erreichen können, während die Radeon R9 Fury X2 derzeit auf einen 4K Performance-Index von 155-170% geschätzt wird. Sofern der Performancesprung der 14/16nm-Generation kleiner als +100% ausfällt, könnte die Radeon R9 Fury X2 sogar mit deutlichem Abstand weiterhin in Führung bleiben. Hier liegt womöglich auch noch ein weiterer Grund vor, wieso AMD keine große Eile mit dieser DualChip-Karte hat – sie wird wohl erst im Jahr 2017 bezüglich der reinen Performance (von SingleChip-Lösungen) eingeholt werden.

Ein weiterer Thread unseres Forums beschäftigt sich mit AMDs "GPUOpen" Programm: Hierunter stellt sich AMD eine unter OpenSource stehende Tool- und Codesammlung für Programmierer und Spieleentwickler vor, mittels welcher jene besser und effektiver auf die AMD-Hardware zugreifen können. Beispielsweise will AMD diverse Tools zur LowLevel-Programmierung von GCN-basierten Grafiklösungen zur Verfügung stellen, welche deutlich tiefer gehen als die nominell "LowLevel" genannten Grafik-APIs DirectX 12 und Vulkan. Zusätzlich wird AMD Samples zu diversen Grafikeffekten beilegen – alles wieder unter OpenSource, damit es frei genutzt und verändert werden kann. Durch die Verbreitung auf GitHub will man langfristig erreichen, daß sich dort eine rege Entwicklergemeinde aufbaut und auch eigenerstellten Programmcode untereinander austauscht. Letztlich ist das ganze ein weiteres Puzzlesteinchen bei AMDs aktuell zu sehender neuen Grafik-Strategie, welcher hin zu einem besseren Kontakt mit den Entwicklern gehen soll. Insbesondere der erste Forenbeitrag listet dann allerdings noch weitere denkbare Vorteile zu AMDs "GPUOpen" Programm auf.

Auf der Steam-Seite zu Dark Souls III müssen kurzzeitig die Systemanforderungen zum dritten Teil dieser Spieleserie gestanden haben – sind nun aber wieder entschwunden. Möglicherweise hängt dies damit zusammen, daß es sich bei den dort genannten Systemanforderungen bis auf kleinere Änderungen zum Arbeits- und Festplattenspeicher um eine Kopie der Systemanforderungen von Dark Souls 2: Scholar of the First Sin handelte, wie die PC Games Hardware gut veranschaulicht. Nicht auszuschließen also, daß diese nun per diversen Newsmeldungen im Internet verbreiteten Systemanforderungen zu Dark Souls III glatt falsch sind, womöglich durch einen schlichten Copy&Paste-Fehler seitens des Spielepublishers hervorgerufen. Bis zum Launchtermin des Spiels zum 13. April 2016 ist aber noch ausreichend Zeit, um zu neuen und diesesmal dann hoffentlich endgültigen Systemanforderungen zu gelangen.

Golem berichten zu den nach wie vor bestehenden Problemen der Spieleentwickler von VR-Games, um die typische VR-Übelkeit zu minimieren. Mittels geschickter Szenengestaltung ist es durchaus möglich, dieser Problematik weitgehend aus dem Weg zu gehen. Allerdings ergibt sich hierbei unserer Meinung nach auch ein zusätzliches Risiko: Da die VR-Übelkeit bei jedem Menschen anders ausgeprägt ist, bleibt den VR-Entwicklern fast nur die Option, möglichst alle der kritischen Szenen gleich gänzlich zu vermeiden. Damit wird man allerdings auch Sachen opfern, die bei anderen Teilen der Nutzern (mit geringerer Anfälligkeit für die VR-Übelkeit) noch problemlos darstellbar wären. Eventuell sollte man über ein Rating-System nachdenken, welches Nutzer und Spieletitel bezüglich der Anfälligkeit für VR-Übelkeit in definierte Gruppen unterteilt. Darauf basierend könnte man dann in VR-Spielen verschiedene Spielmodi kreieren – für Nutzer mit besonders hoher oder besonders niedriger Anfälligkeit für die VR-Übelkeit.