5

Hardware- und Nachrichten-Links des 5. April 2019

Die ComputerBase hat sich erneut dem Thema Multi-GPU mittels SLI gewidmet. Der letzte diesbezügliche ComputerBase-Artikel stand noch unter der Kritik, das man dort auf ein einfaches Consumer-System gesetzt hatte, wo die Grafikkarten also jeweils nur mit 8 PCI Express 3.0 Lanes angebunden waren. Dies hat man im neuen Artikel verbessert und bietet nun auch ein HEDT-System mit jeweils 16 PCI Express 3.0 Lanes für die Grafikkarten auf, welche zudem untereinander hochbandbreitig mittels NVLink verbunden waren. Die Ergebnisse zeigen allerdings kaum eine wirkliche Veränderung durch diese viel bessere Anbindung, eher muß man (wegen der schlechter für Spiele geeigneten HEDT-CPU) mit diversen Rückschritten rechnen. Auch im generellen Maßstab enttäuscht SLI erneut: Selbst unter den herausgesuchten auf SLI überhaupt reagierenden Spielen gibt es nur maßvolle fps-Gewinne, welche allerdings nur höchst selten auch mit höheren Minimum-Frameraten einhergehen – sprich, das ganze führt allein zu einer formellen Mehrperformance, nicht aber zu einer besseren Spielbarkeit.

4K-Perf. 4K-Framet. 5K-Perf. 5K-Framet.
einzelne Titan RTX 100% 100% 100% 100%
2x Titan RTX @ Z370-System 135,6% 99,1% 147,3% 100,0%
2x Titan RTX @ X299-System 132,0% 95,1% 147,3% 112,4%
Z370-System: Core i7-8700K, 2x 8 PCI Express 3.0 Lanes ..... X299-System: Core i9-9900X, 2x 16 PCI Express 3.0 Lanes + NVLink
gemäß den Benchmarks der ComputerBase

Dafür, das hier wie gesagt nur ausgesuchte Titel im Einsatz waren, welche auch auf SLI reagieren, ist das Ergebnis eher grauslig – weit von früheren SLI-Skalierungen von um die +80% entfernt, welche dann zumeist auch wenigstens beachtbare bessere Frametimes mit sich brachten. Das Thema "Multi-GPU" ist einfach (derzeit) erledigt, viel anderes war nach dem faktischen Einstellen des entsprechenden Supports seitens AMD und nVidia auch nicht zu erwarten. Die These, das sich dies mittels DirectX 12 wieder verbessern könnte, ist bislang leider nur eine These geblieben – sicherlich auch resultierend aus der bisher geringen DirectX-12-Adaptionsrate. Nunmehr sind allerdings auch die Spieleentwickler in der komfortablen Position, kaum noch SLI/CrossFire-User vor sich zu wissen – ergo muß man keinen entsprechenden Support liefern, egal ob die technische Möglichkeit dazu vorhanden wäre. Die hiermit stattgefundene Rückwärtsentwicklung hat letztlich sogar negative Auswirkungen gegenüber HEDT-Systemen, denn selbige waren früher noch eben wegen ihrer stärkeren Ausstattung mit PCI-Express-Lanes bei SLI/CrossFire-Nutzern recht beliebt – ein Argument, welches dem HEDT-Segment nunmehr im Laufe der Zeit abhanden gekommen ist.

Tom's Hardware haben einen Effizienzskalierungs-Test zur GeForce RTX 2080 Ti aufgelegt – welcher also betrachtet, wieviel Performance die Karte bei verschiedenen Power-Limits erreicht und welche Performance/Stromverbrauch-Skalierung sich hieraus ergibt. Im Ergebnis wird die GeForce RTX 2080 Ti seitens nVidia wenigstens in gewisser Nähe zum Sweetspot betrieben: Die Performance/Stromverbrauch-Skalierung wird oberhalb von 220 Watt beachtbar geringer, skaliert allerdings bis zu 340 Watt immer noch durchgehend – dort liegt dann die Übertaktungsreserve. Interessant ist zudem die Beobachtung, das die GeForce GTX 1080 Ti auf Pascal-Basis einen Stromverbrauch von 280 Watt benötigt, wo die Turing-basierte GeForce RTX 2080 Ti mit 160 Watt auskommt – ein Effizienzvorteil von immerhin 42% zugunsten der Turing-Lösung, wenngleich erzielt mit einem in der Fläche wesentlich größeren (und damit teureren) Grafikchip (GP102 mit 471mm² vs. TU102 mit 754mm²).

Bei Networkworld berichtet man über die grundsätzliche Anfälligkeit von Grafikkarten gegenüber Side-Channel-Attacken, ähnlich also wie von Meltdown & Spectre bereits bekannt. Das ganze scheint derzeit im Status einer Laboraufbaus zu sein, hat also nichts mit einer real schon existierenden Bedrohung zu tun – beschrieben wird eine reine Möglichkeit. Der Angriffsvektor liegt dabei nicht im Gaming-Einsatz der Grafikkarten, sondern beim Rendern von Windows- und Brower-Inhalten – beispielsweise Login-Boxen auf Webseiten. Genauer beschrieben wird das ganze in einem PDF der University of California am Beispiel von nVidia-Grafikkarten, wobei AMD und Intel generell genauso betroffen sein sollen. Alle drei GPU-Hersteller sollten sich nachfolgend Gedanken darüber machen, diese theoretische Möglichkeit besser vor einem praktischen Einsatz auszuknipsen – selbst wenn die Chance auf praktische Angriffe gemäß dieses Musters eher gering liegt.