10

Hardware- und Nachrichten-Links des 10. Oktober 2016

Zur GeForce 2000 Serie gibt es natürlich auch andere Darstellungsformen als die zuletzt gezeigte – eine beliebte hierzu geht von einem schlichten Herunterrutschen der einzelnen SKUs um jeweils eine Stufe aus: Aus der GeForce GTX 1070 würde die GeForce GTX 2060 Ti, aus der GeForce GTX 1080 die GeForce GTX 2070 – und für die drei Topmodelle würde dann der GP102-Chip eingesetzt werden. Dies hat sogar ein "historisches" Vorbild in nVidias Kepler-Generation, wo der GK110-Chip in der GeForce 700 Refresh-Serie in gleich drei Modellen eingesetzt wurde (GeForce GTX 780, GeForce GTX 780 Ti & GeForce GTX Titan Black). Allerdings muß man auch sagen, das heuer die Situation etwas anders ist, da zwischen GP102- und GP104-Chip (+50% Shader-Einheiten) ein deutlich kleinerer Hardware-Unterschied existiert als seinerzeit zwischen GK110- und GK104-Chip (+88% Shader-Einheiten). In diese geringere Differenz gleich drei Grafikkarten-Lösungen hineinzuquetschen, ist in der Praxis nicht ganz trivial – und selbst in der GeForce 700 Serie hat dies nVidia nur darüber gelöst, das GeForce GTX 780 Ti und GeForce GTX Titan Black letztlich eine sehr ähnliche Performance hatten.

Gerade, wenn man das ganze einmal regelrecht durchspielt, zeigen sich da einige Problempunkte: Das Heruntersetzen von GeForce GTX 1070 & 1080 zu GeForce GTX 2060 Ti & 2070 definiert schon einmal deren Performancerahmen. Für die GP102-basierte GeForce GTX 2080 würde in dieser Variante dann eine klar oberhalb der GeForce GTX 1080/2070 liegende Performance erforderlich sein – und gleichzeitig soll es auch wieder nicht so weit hinausgehen, um die darüberliegenden GeForce GTX 2080 Ti und Titan Black (Pascal) zu stören. Das ganze ist zwar machbar, würde nVidia allerdings dazu zwingen, den GP102-Chip bei GeForce GTX 2080 Ti und Titan Black (Pascal) sehr weit auszufahren – mit voller Anzahl an Shader-Einheiten sowie deutlich höheren Taktraten bei Chip und Speicher (Richtung 1700 MHz bzw. 3000 MHz QDR). Der GP102-Chip gilt zwar als durchaus für hohe Chiptaktraten geeignet, aber derzeit existieren von diesem schließlich auch nur in der Hardware beschnittene Versionen (nur 3384 von maximal 3840 Shader-Einheiten) – und in dieser Zukunftsvariante müsste man von 1700 MHz durchschnittlich anliegendem Chiptakt auf den vollen 3840 Shader-Einheiten des GP102-Chips ausgehen. Dies ist sicherlich nicht unmöglich, aber in jedem Fall der ambitioniertere Plan – mit zudem dem größeren Wagnis, das die Chipfertigung dies eventuell nicht mitmacht oder aber der Stromverbrauch solcher Lösungen zu hoch für ein Referenzmodell wird, welches sich üblicherweise an ein Power-Limit von 250 Watt halten sollte.

GeForce 1000 GeForce 2000 (Variante I) GeForce 2000 (Variante II)
Titan Titan X
GP102 – 4K-Perf: 173%
Titan Black
GP102 – 4K-Perf: ~195%
Titan Black
GP102 – 4K-Perf: ~205%
Enthusiast - GeForce GTX 2080 Ti
GP102 – 4K-Perf: ~190%
GeForce GTX 2080 Ti
GP102 – 4K-Perf: ~200%
HighEnd 1 GeForce GTX 1080
GP104 – 4K-Perf: 132%
GeForce GTX 2080
GP104 – 4K-Perf: ~150%
GeForce GTX 2080
GP102 – 4K-Perf: ~160%
HighEnd 2 GeForce GTX 1070
GP104 – 4K-Perf: 107%
GeForce GTX 2070
GP104 – 4K-Perf: ~125%
GeForce GTX 2070
GP104 – 4K-Perf: ~135%
Midrange 1 GeForce GTX 1060 6GB
GP106 – 4K-Perf: 76%
GeForce GTX 2060 Ti
GP106 – 4K-Perf: ~85%
GeForce GTX 2060 Ti
GP104 – 4K-Perf: ~110%
Alle Angaben zur "GeForce 2000 Serie" sind rein spekulativ.

Undenkbar ist das ganze jedoch mitnichten – gerade wenn man sich ansieht, was nVidia früher teilweise bei Refresh-Generationen an Mehrtakt herausgeholt hat, ohne das deswegen die Stromverbrauchswerte deutlich nach oben gingen. Aller Vermutung nach dürften die Planungen für nVidias GeForce 2000 Serie derzeit bei nVidia schon anlaufen, aber eher nur im Konzept-Stadium sein – sprich, ohne bereits einer festen Ansicht, wie diese Grafikkarten-Serie aussehen wird. nVidia muß dies auch nicht übers Knie brechen, sondern kann einfach abwarten, wie sich AMDs Vega-Generation anläßt bzw. welche Produktionsfortschritte bei den eigenen Pascal-Chips bis zum Frühjahr 2017 erreicht werden. Dann dürfte wohl der Zeitpunkt sein, zu welchem nVidia die Strategie für die GeForce 2000 Serie festlegen wird – ob es geringere Performance-Zuwächse geben wird wie in Variante 1, oder eben stärkere wie in Variante II. Dies dürfte dann natürlich auch Auswirkungen auf die Grafikkarten-Preise haben: Variante 1 mit den geringeren Performance-Zuwächse hat gute Chancen, über (etwas) geringe Preise abgefedert zu werden – während Variante II mit den stärkeren Performancezuwächsen sicherlich die gleichen Preislagen mitbringen wird, wie sie schon von der GeForce 1000 Serie her bekannt sind.

Heise berichten über den Vortrag von Oculus-Chefforscher Michael Abrash auf der Haus-eigenen Messe "Oculus Connect 2016" zur VR-Zukunft in 5 Jahren. In dieser Zeit soll sich die VR-Technik von der Hardware her gewaltig wandeln, insbesondere beim Display: Von derzeit zwei FullHD-Displays mit Blickwinkel 90° soll es hinaufgehen auf zwei UltraHD-Displays mit Blickwinkel 140° – die höhere Displayauflösung wird dann sogar für eine doppelt so hohe Pixeldichte bei gleichzeitig größerem Blickwinkel sorgen. Von der Displaytechnik her erscheint dies ambitioniert, aber vielleicht sogar machbar – in einigen Jahren dürften 4K-Displays möglicherweise derartige Standardware werden, das die Produktionskosten hierfür keine große Rolle mehr spielen. Interessant sind allerdings die sich hieraus ergebenden Grafikanforderungen, denn doppeltes UltraHD (bei den üblicherweise für VR sehr hohen fps-Raten) ist nichts, was man auf absehbare Zeit mit Mainstream-Hardware bewegen könnte. Hier müssen dann effizienzsteigendere Technologien zum Einsatz kommen – wie das kürzlich genannte "Asychronous Spacewarp" (50% Rohleistungsbedarf) oder auch das von Heise genannte "Foveated Imaging" (10% Rohleistungsbedarf) – letzteres erfordert jedoch ein Redesign der kompletten Grafik-Pipeline und damit eine erhebliche Vorarbeit seitens der Software-Entwickler.

Nicht verschwiegen werden soll an dieser Stelle, das allerdings auch die VR-Kritik immer weiter gedeiht – gerade jetzt im Jahr 2016, wo mit Oculus Rift und HTC Vive die ersten ernstzunehmenden VR-Brillen in den Handel gegangen sind. Ein echter Hype hierzu ist nämlich augenscheinlich ausgeblieben, selbst wenn sich die Geräte ganz vernünftig verkauft haben. Bezeichnend ist vor allem, das es nach dem Verkaufsstart nicht mehr viel über Rift & Vive zu berichten gab – im Endeffekt gaben diese VR-Brillen bzw. deren Technik gewisse Schlagzeilen ab, aber eben nicht deren eigentlicher Anwendungszweck. Dies ist Wasser auf die Mühlen der Kritiker, welche zum einen das naheliegende Problem einer fehlenden Killeranwenderung bemängeln, zum anderen aber auch ganz grundsätzlich an die Sache herangehen: Ein System mit "Aufbauten" an den menschlichen Körper, welche dann auch noch in Bewegungseinschränkungen resultieren (Kabel), ist vielleicht niemals etwas, was im Massenmarkt ankommen könnte – allein der Grund der Bequemlichkeit spricht dagegen. Gut möglich also, daß das Thema VR-Brillen vielleicht niemals wirklich groß zündet – gut möglich genauso, das selbiges auch nur die notwendige Brückentechnologie darstellt, welche dann irgendwann in etwas wie einem Holodeck mündet.