6

Hardware- und Nachrichten-Links des 6. Januar 2017

In unserem Forum hat man den Vega 10 Die-Shot nochmals besser analysiert: Nach Drehung und Entzerrung wurde jener (anhand bekannter Angaben zur Größe der ebenfalls zu sehenden HBM2-Speicherstacks) neu vermessen, wobei eine Chipfläche von 485-515mm² herauskam. Angesichts der klaren AMD-Aussage von "unter 500mm²" läuft dies im Endeffekt auf 485-500mm² hinaus – sprich, nicht irgendetwas unterhalb von 500mm², sondern nur knapp unterhalb von 500mm². Damit ist weiterhin der GP102-Chip mit 471mm² Chipfläche der nächstgelegene nVidia-Chip, AMDs Vega 10 wird aber in jedem Fall etwas größer als jener herauskommen. Damit sollte AMD natürlich dennoch eine Performance in der Nähe des GP102-Chips der Titan (Pascal) anstreben – und es muß in jedem Fall klar mehr werden als beim GP104-Chip (314mm²) von GeForce GTX 1070 & 1080, selbst wenn sich nVidia bei seinen vorgenannten Chips natürlich alle Profi-Funktionalitäten (zugunsten des GP100-Chips) weitgehend gespart hat.

Nach AMD mit seinem FreeSync 2 hat nun auch nVidia eine neue G-Sync-Norm in Form von "G-Sync HDR" vorgestellt. Wie schon bei AMDs neuer Norm geht es auch hier primär um HDR-Bedürfnisse – bei nVidia fehlen sogar alle Verbesserungen an G-Sync selber und geht es allein um die zusätzliche HDR-Funktionalität. Hier schlägt man wie AMD in die Kerbe, das "High Dynamic Range" nicht wirklich spezifiziert ist und nVidia mit seinem "G-Sync HDR" dann eben selbst für gewisse HDR-Mindeststandards sorgt. Im Gegensatz zu AMD hat nVidia selbige Spezifikationen allerdings schon festgelegt, so daß die Monitor-Hersteller mit ihrer Arbeit beginnen können – erste Monitore mit "G-Sync HDR" sind dann im dritten Quartal zu erwarten. Wie bei AMD wird nVidia einen zusätzlichen Inputlag durch ein weiteres Tonemappping im Monitor vermeiden – was dann (ebenfalls wie bei AMD) darauf hinausläuft, das die Spiele explizit für "G-Sync HDR" angepasst werden müssen.

Ganz generell betrachtet sollte gerade die Aufstellung von "G-Sync HDR" bei nVidia langsam aber sicher mal zum Anlaß genommen werden, über den Support des allgemeinen "Adaptive Sync" Standards nachzudenken – und damit die ziemlich blödsinnige Unterteilung in FreeSync- und G-Sync-Monitore zumindest im Einsteigerbereich zu beenden. Schließlich kann man die Enthusiasten dann immer noch mit "G-Sync HDR" versorgen und bei diesen entsprechend (über höhere Monitorpreise) abkassieren. Im Einsteigerbereich wird die Luft dagegen dünner für nVidia, denn Techniken zur variablen Refreshrate gehen immer mehr in Richtung einer allgemeinüblichen Anforderung – ab einem gewissen Zeitpunkt dürfte es dann schwer werden zu erklären, wieso G-Sync-Monitore teurer sein müssen als gleichwertige FreeSync-Modelle. Wenn nVidia hier nicht den richtigen Zeitpunkt für einen Absprung von dieser Strategie findet, kann man sich irgendwann einmal in der Situation wiederfinden, das jede Grafikkarten-Empfehlung zugunsten von FreeSync ausfällt – weil dort die günstigeren Monitore (samt inzwischen sogar größerer Auswahl) zu finden sind.

Eine inzwischen breite Diskussion in unserem Forum dreht sich um das Thema, ob Spielestreaming die Zukunft darstellt. Schon das Eröffungsposting zählt auf, wieso dies keine unrealistische Zukunftsversion ist – nicht, weil es jetzt größere Vorteile für den Konsumenten hätte, sondern weil es vor allem größere Vorteile auf Herstellerseite mit sich bringt, besonders zu erwähnen hierbei die neu entstehende Abhängigkeit des Konsumenten von seinen Streaming-Abos und damit deren Anbietern. Sollte sich dieses Modell eines Tages vollumfänglich durchsetzen, würde dies auch erhebliche Auswirkungen auf den Hardware-Markt haben – da in einer solchen Zukunft nur noch Basis-PCs bzw. Eingabekonsolen vonnöten wären und somit der Retail-Markt und seine Produkte komplett überzählig werden würden. Der PC würde in dieser Zukunftsvision zurückgeschraubt auf das Niveau von einfachstmöglichen Büro-Maschinen, die eigentliche Entwicklung würde dann nur noch im Server-Bereich stattfinden.

Als weiterhin nicht ausgeräumte Gegenthese zu einem breiten Einsatz von Spielestreaming darf jedoch das Problem des Inputlags nicht unerwähnt bleiben. Hier spielen dann sogar physikalische Gesetzmäßigkeiten (Signallaufzeiten über größere Entfernungen) eine Rolle, welche selbst im Falle einer idealen Technik den Inputlag beim Spielestreaming nicht unterhalb eines gewissen Niveaus drücken können. Es geht also nicht einmal primär um die (derzeit genauso) fehlende Internet-Bandbreite, welche man über einen Internet-Ausbau in den Griff bekommen könnte – sondern eben eher um die Latenz, welche selbst mit der allerbesten Technik nicht unterhalb schon jetzt genau definierter Grenzen zu bekommen ist. In diese technische Schranke können die Verächter von Spielestreaming weiterhin ihre Hoffnungen auf ein Scheitern dieser Idee hineinprojizieren – denn es ist wegen dieser Latenz-Problematik unklar, wie man jemals einen superschnellen Shooter wie Doom mittels Spielestreaming nutzen können soll.