5

Hardware- und Nachrichten-Links des 4./5. Juni 2016

Das japanische 4Gamer (maschinelle Übersetzung ins Deutsche) zeigt weitere Bilder von nVidia Tesla P100, DGX-1 & Drive PX2 von der Computex – wobei natürlich insbesondere Drive PX2 wegen des darauf verbauten GP106-Chips interessant ist. Jener nutzt auf dem Drive PX2 nunmehr nur noch ein 128 Bit Speicherinterface – was ja auch zur von nVidia angegebenen Speicherbandbreite des finalen Produkts passt, welche mit 80 GB/sec ziemlich niedrig liegt (für den Zweck bei Drive PX2 sicherlich vollständig ausreichend). Die hier immer noch im Raum stehende Frage ist, wie der GP106-Chip als Gamer-Lösung auf die notwendige Speicherbandbreite kommen soll für eine Performance irgendwo zwischen GeForce GTX 970 & 980, so wie von Inno3D angeteastert: Ein 192 oder 256 Bit GDDR5-Speicherinterface wäre hierfür die einfachste Lösung, im Fall von 192 Bit würde dies allerdings zu ungerade Speichermengen á 3 oder 6 GB führen. 3 GB wären ungünstig aus Wettbewerbssicht, 6 GB dürften nVidia hingegen schon wieder zu viel sein – nVidia mag im Mittelklasse-Bereich maßvolle Speicherbestückungen, weil damit langfristig ein automatisch zunehmender Aufrüstdruck aufgebaut wird.

Als Alternative zum Chipfläche fressenden und das Boardlayout verteuernden 256 Bit GDDR5-Speicherinterface stände ein 128 Bit GDDR5X-Interface an – jenes kann grob dieselbe Bandbreite liefern, bietet die ideale Speicherbestückung von 4 GB und spart wie gesagt Chipfläche und Verdrahtungsaufwand beim Grafikboard. Aber GDDR5X dürfte für einen Herbstlaunch wohl noch zu teuer sein, um jenes schon ins 200-Dollar/Euro-Segment zu bringen – ganz abgesehen von der Produktions-Verfügbarkeit, welche vielleicht auch noch nicht auf den Millionenbedarf eines GP106-Chips vorbereitet ist. Bleibt eine Außenseiter-Lösung übrig: Ein gewöhnliches 128 Bit GDDR5-Interface mit auf 4000 MHz taktendem GDDR5-Speicher. Damit kommt man auf eine Speicherbandbreite von 128 GB/sec, was gerade einmal 14% mehr ist als bei der GeForce GTX 960 – nicht einfach, hiermit dann mal eben 55-75% mehr Performance aus dem GP106-Chip herauszuziehen. Gänzlich unmöglich ist diese Auflösung aber auch nicht, bisher hat es nVidia durchaus verstanden, selbst mit kleineren Speicherinterfaces gut auszukommen. Welches Speicherinterfaces es letztlich beim GP106-Chip geben wird, ist derzeit unbestimmt und man wird sich hierzu glatt überraschen lassen müssen.

In unserem Forum diskutiert man logischerweise angeregt über AMDs Radeon RX480 – zu welcher AMD zwar einiges gesagt hat, aber trotzdem noch jene Menge an Fragen offen sind. Ein Thema liegt allein schon beim Chiptakt – wo nominell die genannten ≤1266 MHz ziemlich sicher sind, aber dennoch aufgrund der viel niedrigeren Rechenleistungsangabe von AMD (>5 TFlops ergeben gerade einmal mehr als 1085 Mhz Chiptakt) auch stärker schwankende reale Taktraten im Gespräch sind. Bisher hat AMD – außer bei der Radeon R9 Nano – eigentlich darauf geachtet, das die angegebenen nominellen Taktraten auch in der Praxis eingehalten werden, spätestens bei den Herstellerdesigns konnte man sich dann auf diesen Punkt verlassen. Nun aber könnte AMD den eigenen Boosttakt (einen Basetakt gibt es bei AMD nicht mehr) aus Effizienzgründen ähnlich wie bei nVidia umgestaltet haben – sprich, näher am Power-Target liegend und damit eben auch öfters einmal heruntertaktend.

Dies wäre eine durchaus wahrscheinliche Möglichkeit und würde auch erklären, wieso die Radeon RX480 mit den nominellen 1266 MHz und den daraus resultierenden 5,83 TFlops Rechenleistung angesichts der Verbesserungen der Polaris-Architektur nicht klar schneller herauskommt als die Radeon R9 390X mit deren vergleichbaren 5,91 TFlops. Natürlich spielt hier auch der Punkt des Speicherinterfaces mit hinein, welches zwischen RX480 und 390X glatt doppelt so breit zugunsten der älteren Karte ist – dennoch wäre von Polaris 10 mit ~5,8 TFlops mehr zu erwarten als nur eine Performane zwischen Radeon R9 390 und 390X (~5,1 bzw. ~5,9 TFlops). Setzt man allerdings eine real niedrigere Taktrate von sagen wir ~1150 MHz im Schnitt bei der Radeon RX480 an, sind es ~5,3 TFlops an einem 256-Bit-Interface gegen ~5,9 TFlops an einem 512-Bit-Interface – in diesem Fall wäre eine vergleichbare Performance dann schon ein ganz vernünftiges Ergebnis. Ganz allgemein darf man von der Radeon RX480 keine Performancewunder erwarten – die Karte wird wohl ziemlich sicher ein Preis/Leistungs-Kracher, aber dies eben "nur" auf einem Performanceniveau irgendwo zwischen GeForce GTX 970 und 980.

Phoronix haben den ersten Linux-Test der GeForce GTX 1080 aufgelegt – welcher die Karte natürlich auch unter Linux in Front aller Benchmarks sieht, ganz besonders bei den Performance/Stromverbrauch-Diagrammen. Der Betrieb der Karte unter Linux wird zudem als problemlos beschrieben, es gab keine Systemhänger oder beachtbare Bugs zu berichten. Natürlich trifft diese Einschätzung nur auf den nVidia-eigenen Treiber (ClosedSource) zu, da OpenSource-Treiber erst später erscheinen und dann voraussichtlich einige Monate Zeit benötigen werden, um auf eine vergleichbare Performance zu kommen. Auffällig daneben ist vor allem die etwas ungünstige Skalierung fast aller Grafikkarten in den von Phoronix angesetzten Benchmarks, wo sich die GeForce GTX 1080 nur um 16,6% von der GeForce GTX Titan X absetzen kann (unter Windows: +23%). An der benutzten CPU kann es kaum liegen, dies ist mit dem Xeon E3-1280 v5 ein Skylake-Vierkerner, welcher auf 4.0 GHz Takt läuft. Ganz allgemein fehlen unter Linux einfach mehr echte Game-Benchmarks, der Test besteht nur aus vier wirklich uneingeschränkt nutzbaren Testtiteln: Zwei theoretischen Testern von Unigine sowie zwei OpenSource-Spielen aus den Jahren 2011 & 2012. Wenn Gaming unter Linux wirklich einmal etwas werden will, dann müssen hier auch mal AAA-Titel in solchen (meinungsbildenden sowie neue Möglichkeiten aufzeigenden) Tests mitspielen.