30

Hardware- und Nachrichten-Links des 28./29./30. Oktober 2017

Langsam gibt es ein wenig mehr Informationen zur Frage, wie genau nVidia seine "Übertaktungssperre" bei der GeForce GTX 1070 Ti realisiert. Denn laut Videocardz können die Grafikkarten-Hersteller zwar mit höheren Taktraten werben und diese auch anbringen, jene dürfen jedoch nicht im default-BIOS hinterlegt sein, sprich die Karte darf nicht damit starten. Sofern in einer Zusatz-Software, wie sie einige Grafikkarten-Hersteller anbieten, dann höhere Taktraten hinterlegt sind, welche der Nutzer auch noch manuell aktivieren muß, ist dies jedoch kein Problem für nVidia. Teilweise werben einige Hersteller bereits damit, andere verweisen auf eigene, Haus-interne Übertaktungen – nur um zu demonstrieren, das die GeForce GTX 1070 Ti tatsächlich übertaktbar ist. Insofern reduziert sich diese "Übertaktungssperre" immer weiter – für den Augenblick sieht es eher danach aus, als wäre nVidia nur daran interessiert, das die Karten out-of-the-box allesamt dieselben Taktraten und Power-Limits aufweisen.

Selbigen Power-Limits kommt im Zeitalter dynamischer Taktraten, welche sich allein nach den hinterlegten Temperatur- und Power-Limits ausrichten, eine höhere Bedeutung zu – Karten mit höheren Power-Limits können trotz nominell gleicher Taktraten in der Praxis höher boosten. Wie die PC Games Hardware allerdings darlegt, haben derzeit alle bereits vorgestellten GeForce GTX 1070 Ti Karten dieselben Taktraten und Power-Limits. Kleinere Abweichungen bei der Performance sind wegen der unterschiedlichen Kühllösungen noch möglich, aber ansonsten bedeutet dies grob gesehen dieselbe Performance, zumindest out-of-the-box. Die Modell-eigenen Taktraten wird es dann nur per Hersteller-eigenem Tweaktool geben, während eine weitere Übertaktung augenscheinlich doch möglich ist. Allerdings vermuten wir gemäß früherer Informationen aus unserem Forum, das die GeForce GTX 1070 Ti nach wie vor bei der Chipspannung limitiert ist – und damit keine wirklich großartigen Übertaktungen mit der Karte erzielt werden können, jedenfalls nicht ohne BIOS- oder Spannungs-Mod.

Bei der ComputerBase und der PC Games Hardware hat man sich die Grafikkarten-Performance von Wolfenstein II angesehen. Leider sind die Ergebnisse beider Testberichte nicht vergleichbar, da man sehr unterschiedliche Testansätze wählte: Die PCGH hat durchgehend unter der Ultra-Bildqualität gemessen (die drittbeste vom Spiel gebotene Bildqualität), dabei wurde ein vergleichsweise gutes Ergebnis für AMD ausgemessen – mit einer Radeon RX Vega 64 auf Augenhöhe zu einer gut werksübertakteten GeForce GTX 1080 und auch ansonsten tendentiell eher für AMD sprechenden Meßresultaten. Die ComputerBase trat hingegen unter der bestmöglichen Bildqualität "Mein Leben" in sogar zwei Testsequenzen an: In der ersten kam man grob auf die Ergebnisse der PCGH, die Tendenz zugunsten von AMD war sogar noch etwas stärker ausgeprägt.

Mit der zweiten, fordernderen Testsequenz der ComputerBase gab es dagegen dann ein komplett umgekehrtes Resultat: nVidia lag klar vorn, teilweise sogar besser als vom allgemeinen Performancebild her bekannt (GeForce GTX 1070 vor Radeon RX Vega 56). Die relative Differenz zwischen beiden Testsequenzen ist sehr drastisch: Während nVidia-Karten zwischen Testsequenz 1 & 2 nur um die 1-5% verlieren, geht es bei den AMD-Grafikkarten um 29-38% nach unten. Hier muß wohl noch weitergehend eruiert werden, woran dieses Performance-Verhalten liegt bzw. ob hier ein Fehler oder halt eine generelle Differenz vorliegt. Für den Augenblick kann nur gesagt werden, das Grafikkarten-Messungen unter Wolfenstein II sehr heftig von der gewählten Testsequenz abhängen – und man damit eigentlich keine solide Performance-Aussage treffen kann, bevor man nicht (wenigstens intern) mit eher 3-4 Testsequenzen hantiert. Ein weiterer mit zukünftigen Testberichten zu klärender Punkt betrifft die CPU-Performance des Spiels – nachdem der Spielepublisher anfänglich gleich 8 CPU-Threads in die offiziellen Systemanforderungen schrieb, sollte man hier sicherlich nachhaken.