4

Hardware- und Nachrichten-Links des 4. Oktober 2018

Von ComputerBase, PC Games Hardware und WCCF Tech kommen erste Benchmark-Artikel zu "Forza Horizon 4" – welcher (wiederum) daran kranken, bereits vor dem Release des Spiels und darauf angepasster Treiber geschrieben worden zu sein (Hinweis: damit kann man vielleicht Google austricksen, an dieser Stelle wird jedoch erst nach Spielrelease verlinkt). Zwar soll der Effekt der angepassten Treiber von AMD und nVidia gering sein, aber ein ernstzunehmender Test umfasst immer mindestens den DayOne-Patch – so und nicht anders erhält es schließlich auch der Spieler. Angesichts der von Forza Horizon 4 üblicherweise ausgeworfenen hohen Frameraten spielt diese Mäkelei jedoch kaum eine Rolle für die Gesamtbetrachtung, denn unter FullHD im "Ultra"-Bildqualitätspreset werden durchschnittlich 50 fps schon mit GeForce GTX 970, GeForce GTX 1060 3GB, Radeon R9 290 oder Radeon RX 470 erreicht – was dann nahezu diesem Performance-Niveau entspricht, welches durch die offiziellen PC-Systemanforderungen vorgeben wird. Bemerkenswert ist allerdings der hohe Performance-Verlust zwischen den beiden Varianten der GeForce GTX 1060: Nominell steht zwischen beiden Karten eine Performance-Differenz von -10%, unter Forza Horizon 4 werden schon unter FullHD dagegen bereits -27% erreicht.

Dies zeigt an, das man sich vielleicht doch besser an die offizielle Speichermengen-Vorgabe von 4 GB Grafikkartenspeicher (für FullHD) halten sollte, trotz der hohen Rohleistung der GeForce GTX 1060 3GB. Bei nicht ausreichender Speicherbestückung kann es hingegen zu groben Aussetzern kommen – die PCGH empfiehlt daher für WQHD somit 6 GB sowie für UltraHD dann gleich 8 GB Grafikkartenspeicher. Unter der WQHD-Auflösung im "Ultra"-Bildqualitätspreset reichen dann für durchschnittlich 50 fps (rein von der Rohpower her) GeForce GTX 980, GeForce GTX 1060 6GB, Radeon R9 390 oder Radeon RX 570 aus, liegt somit kein großer Anforderungssprung vor. Jener kommt dann unter der UltraHD-Auflösung, wo für 50 fps unter dem "Ultra"-Bildqualitätspreset dann schon GeForce GTX 1070 Ti oder Radeon RX Vega 56 vorhanden sein sollten. Falls mit einer anderen Grafikkarte die Framerate nicht ausreichend ist, empfiehlt sich das Zurückschalten auf das "Hoch"-Bildqualitätspreset, welches laut der ComputerBase ca. 25% Performancegewinn einbringt. Über die anderen noch vorhandenen Bildqualitätspresets dürfte das Spiel letztlich mit fast jeder Hardware ab aktuellem LowCost-Niveau noch spielbau zu bekommen sein. Im Verhältnis AMD vs. nVidia zieht Forza Horizon 4 erstaunlich stark AMD-Grafikkarten vor: So liegt die Radeon RX 580 meist deutlich vor der GeForce GTX 1060 6GB und die Radeon RX Vega 64 knapp an der Performance einer GeForce GTX 1080 Ti dran, deutlich oberhalb der GeForce GTX 1080.

Der Workstation-Anbieter Puget Systems ist – im Gegensatz zu vielen anderen Hardwaretests – nicht wirklich von der Kühlung der Founders Edition bei Turing begeistert, sondern weist auf erhebliche Schwächen selbiger im MultiChip-Betrieb hin. So schickt die FE-Kühllösung die warme Luft nicht aus dem Gehäuse heraus, was speziell bei mehreren verbauten Grafikkarten dann schnell zu höheren Gehäuse-Temperaturen und damit einem geringeren Kühlungseffekt samt steigender Chip-Temperaturen führt. Nachgewiesen wurde dies mit zwei Rendering-Benchmarks, deren Performance mit zunehmender Testdauer bemerkbar geringer wurden – in einem Fall auf 70% und in einem auf Fall auf 73% der erwartbaren Performance. Die Empfehlung von Puget Systems für MultiChip-Systeme lautet daher auf Herstellerkarten mit nur einzelnem Lüfter, wo die warme Abluft über das Slotblech aus dem Gehäuse heraus befördert wird. Einschränkenderweise muß man sagen, das Puget Systems die alles aus der Sicht von Rendering-Software und auch nur bei 4fach SLI ermittelt haben – im Gaming-Einsatz könnte da potentiell ein geringerer Effekt herauskommen, schon allein weil SLI bei der Turing-Generation inzwischen auf maximal zwei Grafikchips (2fach SLI) limitiert ist. Für den Betrieb einer einzelnen Grafikkarte dürften diese Ausführungen dagegen kaum eine größere Bewandnis haben – allerdings wäre wohl durchaus interessant, ob nicht bei den FE-Turings eine erhöhte Performance-Differenz zwischen Benchmarks im offenen Teststand gegenüber dem geschlossenen Gehäuse existieren.

Die EETimes (via ComputerBase) vermeldet den ersten Tape-Out eines 7nm-Chips mit EUV-Lithographie bei Auftragsfertiger TSMC. Hierbei handelt es sich nicht um einen Test-Chip, sondern um einen Kunden-Chip – sprich ein reales Projekt, was später einmal in die Serienfertigung überführt und nachfolgend in kaufbaren Produkten verbaut werden soll. Die Nutzung der EUV-Lithographie ist unter der 7nm-Fertigung (im genauen TSMCs 7FF+) allerdings noch auf bis zu 4 Layer limitiert, mit der nachfolgenden 5nm-Fertigung sollen dann bis zu 14 Layer mit EUV belichtet werden können. Dieser praktische Erfolg der EUV-Lithographie (nach jahre- bis jahrezehntelanger Anlaufzeit) wird allerdings noch etwas im Markt auf sich warten lassen: Vor Ende 2019 wird sich dieser erste Chip in der 7FF+ Fertigung kaum in kaufbaren Produkten zeigen, es existiert hierbei eine übliche Zeitspanne zur Chip-Evaluierung und Vorbereitung der Massenfertigung von grob einem ganzen Jahr, gerade bei einem neuen Fertigungsverfahren. Weitere Chips aus der 7FF+ Fertigung sind dann eher ein Thema des Jahres 2020, hierzu müssen dann schließlich auch erst einmal entsprechende Kapazitäten aufgebaut und die Fertigungsausbeute zugunsten der Massenfertigung hochgebracht werden. Ein denkbarer Kandidat für diesen ersten 7FF+ Chip bei TSMC wäre im übrigen nVidias erster Ampere-Chip – sprich ein neuer HPC-Chip in Nachfolge von GP100 und GV100 (eventuell "GA100" oder "AM100" genannt). Gamer-Grafikchips auf Basis jener 7FF+ Fertigung dürften bei nVidia zwar auch auf dem Programm stehen, dies jedoch sicherlich erst nach dem entsprechenden HPC-Chip.

Heise berichten über eine sicherlich aufsehenerregende Meldung seitens des US-Wirtschaftsmagazins Bloomberg, wonach bereits im Jahr 2015 kleine (angebliche) Spionage-Chips auf Mainboards des Server-Zulieferers Supermicro entdeckt wurden. Supermicro ist zwar eine US-Firma, produziert aber in China – und dort soll auf teils abenteuerlichen Wegen der "Zusatz-Chip" während der regulären Fertigung mit auf die Platinen gebracht worden sein. Die Funktionsweise des Chips wird allerdings nur blumig beschrieben, der Hauptansatzpunkt ist jener (angeblich) nicht vom Mainboard-Entwickler vorgesehene Chip. Allerdings behauptet man bei Bloomberg auch, das Apple und Amazon das ganze ebenfalls entdeckt und nachfolgend die Zusammenarbeit mit Supermicro eingestellt hätten. Inoffiziell sei das ganze auch von Mitgliedern der US-Regierung bestätigt wurden, generell sieht man hierbei eine Spionagetätigkeit zugunsten von China, welche auf Server- und Cloud-Umgebungen hin abzielt. Allerdings gibt es gute Chancen darauf, das Bloomberg sich hierbei maßgeblich vergaloppiert haben – denn es liegen inzwischen sehr starke Dementi seitens Apple sowie seitens Amazon vor.

So weisen Apple und Amazon die Bloomberg-Behauptung, man hätte diese Spionage-Chips schon selber entdeckt, überaus deutlich zurück. Damit fällt allerdings ein Großteil des Bloomberg-Artikels in sich zusammen – und es steht die Frage im Raum, an welcher Stelle Bloomberg sich ebenfalls noch "geirrt" haben. Natürlich ist ein bewußt falsches Dementi seitens der genannten Firmen nicht gänzlich außerhalb des Denkbaren, aber zumindest im Fall einer Spionage seitens China (und nicht der USA) nicht wirklich wahrscheinlich. Vermutlich wäre es das sinnvollste, sich vorerst nur auf den bewußten "Zusatz-Chip" zu konzentrieren – sprich, erst einmal unabhängig zu bestätigen, das selbiger wirklich nicht auf die Supermicro-Mainboards gehört, dort aber tatsächlich (in Serie) verbaut ist. Das der Chip angeblich nur mit 6 Pins ans System angebunden ist, muß im übrigen nichts sagen: Sicherlich reicht dies nicht für eine eigene Überwachungsfunktionalität – aber der Chip könnte letztlich nur als "Systembrecher" dienen, um nachfolgend die Installation einer Überwachungs-Software an allen technischen Schutzmaßnahmen vorbei zu ermöglichen. Denkbar wäre daneben auch eine Funktionalität als reiner Notaus-Schalter, was im Zuge eines Cyberwars "nützlich" wäre – wie gesagt, sofern sich das ganze rein technisch überhaupt erst einmal bestätigen läßt.  (Foren-Diskussion zum Thema)