22

Hardware- und Nachrichten-Links des 21./22. März 2018

Die ComputerBase bringt zum Fall von DirectX 12 RayTracing (DXR) einige Klarstellungen zu den bislang bekannten Rahmendaten. So sollen – trotz das der GV100-Chip derzeit der einige native Beschleuniger von DXR ist – dessen Tensor-Cores nur für eine gewisse Nebenfunktion genutzt werden können, sprich nicht das entscheidende Element für DXR-Hardware darstellen. Entweder hat der GV100-Chip also noch andere Spezial-Hardware für DXR parat – oder aber es besteht eine kleine Chance darauf, das die Darstellung von GV100 als derzeitig einzigem nativen DXR-Beschleuniger nicht ganz korrekt ist, nVidia hier einfach nur seine neueste Volta-Architektur ins beste Licht rücken will. Interessanterweise gibt es zudem einen Fallback-Modus, mittels welchem DXR komplett mit den Shader-Einheiten gewöhnlicher Grafikchips berechnet werden kann. Jener Modus soll zwar langsam sein und ist daher eher nur für Entwickler interessant, welche die Funktionalität einfach nur austesten wollen – aber "langsam" ist natürlich relativ und hängt von der Leistungsfähigkeit des benutzten Beschleunigers sowie der Anzahl der angezeigten DXR-Elemente ab.


DirectX 12 RayTracing-Demo von Futuremark

DirectX 12 RayTracing-Demo "Project Spotlight" von Epic

Heise vermelden zudem zwei weitere RayTracing-Technikdemos: Im ersten Fall wurde die für TimeSpy verwendete DirectX-12-Engine bei Futuremark um einige RayTracing-Effekte erweitert (Reflexionen & Spiegelungen). Dies soll als Einstimmung auf eine noch in diesem Jahr erscheinende neue 3DMark-Version dienen, welcher dann auch einen expliziten RayTracing-Test mit sich bringen wird. Vermutet wird an dieser Stelle, das die Anforderungen dieses Tests nicht all zu hoch ausfallen – sprich, das auch der vorgenannte Fallback-Modus hierfür ausreichend zu sein könnte. Im zweiten Fall geht es um eine Technikdemo seitens Epic unter deren Unreal-4-Engine, mittels welcher eine nahezu videorealistische Star-Wars-Szene gerendert wurde. Jene läuft im Gegensatz zu Renderings für Kinofilme sogar schon in Echtzeit, benötigt dafür aber immerhin vier Stück Tesla V100. Verwendet wurde hierbei allerdings auch ein umfassenderes RayTracing-Beleuchtungmodell – was damit vor allem anzeigt, wohin es mit der Computergrafik gehen kann, sofern man es schafft, RayTracing zu einem bezahlbaren Aufwand an Soft- und Hardware zu integrieren.

Einen interessanten Punkt hat AMD gemäß der Berichterstattung von Golem dann noch hinzuzutragen: Für die Spieleentwickler kann RayTracing sogar erhebliche Arbeitsvereinfachungen mit sich bringen. Bislang verbrät die Spielbeleuchtung massiv an Arbeitszeit, viele Sachen werden hier nach wie vor von Hand optimiert, bis es dann wirklich passend aussieht. Mittels RayTracing in einer fortgeschrittenen Version (mit jetziger und demnächst kommender Hardware sicherlich noch nicht in Echtzeit erreichbar) würde man das ganze einfach per "BruteForce" respektive einem mathematischen Modell lösen – welches man dann einfach die Beleuchtung rechnen läßt, ohne vorher viel Detailarbeit hineinzustecken. Prinzipiell braucht dies dann keine Entwickler-Eingriffe mehr, würde die Beleuchtungs-Entwicklung also radikal einfacher ausfallen können. In der Praxis wird dies vielleicht nicht ganz so einfach wie derzeit dargestellt, dennoch ist hier ein erhebliches Einsparungspotential zugunsten der Spieleentwickler zu sehen – welche die frei werdenden Ressourcen dann an anderer Stelle zugunsten anderer Grafik-Teile verbraten können.

Die Macher der "Oculus Rift" haben einen Hardware-Bericht zur Verfügung gestellt, welcher ausleuchtet, mit welcher PC-Hardware diese VR-Brille innerhalb der letzten 28 Tagen betrieben wurde. Aufgrund der Hardware-Anforderungen sowie der typischen Käuferschaft einer VR-Brille wird hierbei ganz klar nur das Enthusiasten-Segment des PC-Markts abgebildet – welches sonst allerdings immer im Allgemeinmarkt untergeht. Dabei ergaben sich starke Polarisierungen bei der für die Oculus Rift benutzten PC-Hardware: Die CPU-Hersteller dominiert Intel mit 89,0%, die GPU-Hersteller nVidia mit 92,2% und die Windows-Betriebssysteme dann Windows 10 64-Bit mit 94,2%. Für die dominierenden Hersteller ist dies ein feines Bild, für einen an Wettbewerb interessierten Markt eher weniger – es zeigt aber letztlich die Realität heutiger Spitzen-Hardware an, das (zumindest vor Ryzen & Threadripper) die Enthusiasten in eben gleich 90%iger Konzentration ein Intel/nVidia-System unter dem Schreibtisch stehen haben. Mittels Ryzen & Threadripper kann AMD hier sicherlich auf CPU-Seite derzeit und fortlaufend wieder zugewinnen – ein Zugewinn auf Grafikkarten-Seite steht aber (leider) in den Sternen, dafür fehlen einfach die schlagkräftigen (wie auch lieferbaren) HighEnd- und Enthusiasten-Grafikkarten von AMD.

Nochmals Heise berichten über die neue Festplatten-Technologie "Mach.2" von Seagate, mittels welcher der Datendurchsatz herkömmlicher Magnetspeicher-Festplatten verdoppelt werden kann. Faktisch arbeitet man dabei mit zwei voneinander unabhängigen Kopfstapeln, welche Daten parallel schreiben und lesen können ("Multi-Aktuator-Technik"). Damit verdoppeln sich also nicht nur Burst-Datenraten, sondern auch die eher vorkommenden zufälligen Festplatten-Zugriffe. Im Test erreichte man hierbei mit bis zu 480 MB/sec Burst-Datenrate eine Geschwindigkeit, welche bislang typisch für per SATA3 angebundene SSDs ist – selbst wenn jene natürlich weitere Vorteile bei anderen Transferraten sowie ganz generell bei der Zugriffszeit haben. SATA3-SSDs werden somit technologisch noch nicht ersetzt – aber natürlich werden somit per PCI Express angebundene SSDs attraktiver, weil nur jene dann noch wirklich gravierende Performance-Vorteile bieten können. Andererseits dürfte es einige Jahre dauern, eher die Mach.2-Technologie im Masseneinsatz ankommt, selbst wenn Seagate jene schon für das Jahr 2019 avisiert – doch zu diesem Zeitpunkt sicherlich erst einmal nur schnelle & teure Server-Festplatten etc. damit liefern wird.