20

Hardware- und Nachrichten-Links des 19./20. Juli 2016

Ein wenig erstaunlich ist bei den Launchtests zur GeForce GTX 1060, das immer noch das Thema des Power-Limits nicht ausreichend gewürdigt wird – dabei handelt es sich inzwischen um diese Angabe, welche mehr über die zu erwartende Performance (auf Basis der vorhandenen Hardware) aussagt als selbst die nominellen Taktraten. Alle modernen Grafikkarten hängen inzwischen am Power-Limit, so das eine Veränderung dessen auch ziemlich automatisch eine Performance-Veränderung hervorruft – während hingegen reine Änderungen der Taktraten teilweise vollkommen folgenlos sind, passt man nicht ebenfalls das Power-Limit an. Gerade, wenn man sich Herstellerkarten mit Werksübertaktung ansieht, ist das Power-Limit mit die wichtigste zu liefernde Information – einfach, weil es (im Vergleich zum Power-Limit der Referenzausführung) ausdrückt, ob der Mehrtakt der Karte auch wirklich zu Mehrperformance führen bzw. ob der Overclocking-Spielraum nicht durch ein zu niedriges Power-Limit künstlich limitiert wird.

An dieser Stelle wird dann auch das Power-Limit der jeweiligen Referenzkarte wichtig – dumm nur, wenn man sich damit nur höchst nachlässig beschäftigt. Denn mit der Karten-TDP hat jenes Power-Limit erst einmal gar nichts zu tun – das es bei der GeForce GTX 1060 auf den gleichen Wert herauskommt, ist eine eher neue Entwicklung, denn frühere nVidia-Grafikkarten hatten (wie auch bei der Radeon RX 480) durchgehend differierende Werte bei Karten-TDP und Power-Limit aufzuweisen. Das eine (TDP) ist halt eine PR-Angabe, die frei gewählt wird und faktisch nur in Dokumenten existiert – und das andere (Power-Limit) ist jener konkret im Grafikkarten-BIOS festgesetzte Wert, unterhalb welchen die Karte ihren Stromverbrauch (automatisch) herunterregeln soll. Genauso gehört zu einer expliziten Betrachtung des Power-Limits dann natürlich auch die Angabe, um wieviel Prozent jenes nach oben schraubbar ist – ganz besonders bei Tests von Herstellerdesigns, welche potentiell zum Übertakten verwendet werden können. In dieser Frage versorgen viele Artikel die Grafikkarten-Käufer leider noch eher unzureichend mit Informationen.

Eine andere über die Launchtests zur GeForce GTX 1060 aufgeworfene Frage betrifft die Testmethodik einiger Hardware-Tester, welche ihre Grafikkarten auf feste Taktraten bringen und nur noch damit testen. Dies geschieht, um den Effekt schwankender Boost-Taktraten auszugleichen – oder auch, um mit einer Taktrate zu testen, welche vorab als real anliegender Takt in einem aufgewärmten Gehäuse identifiziert wurde. Diese Testmethodik hat ihre Vorteile gegenüber Grafikkarten, welche unter Last ihre Taktraten nicht halten konnten, ganz besonders aus thermischen Gründen. Auf die neuen Grafikkarten von AMD & nVidia trifft dies jedoch nicht mehr zu, jene werden regelmäßig nur noch durch ihre Power-Limits begrenzt, selbst in ihren Referenzdesigns. In diesem Fall könnte man die Festlegung einer festen Taktrate als kontraproduktiv betrachten, wird hiermit nur eine unnötige Fehlerquelle aufgetan.

Denn letztlich wird die Grafikkarte trotzdem ihren realen Chiptakt anhand des Power-Limits herausbilden, kommt normalerweise am Ende dasselbe Ergebnis heraus, als wenn man gar nichts umgetaktet hätte. Dem Punkt, das man lieber mit vorgeheizten Karten und im vorgeheizten Gehäuse testet, kann man derart nicht begegnen – dies ist zumindest bei den aktuellen Grafikkarten wenn dann wirklich nur mittels manuellen Vorheizens der Karten vor einem Benchmark zu erledigen. Dies soll allerdings keine Kritik sein, denn üblicherweise sind jene Testberichte, welche die Karten für ihre Tests auf feste Taktraten einzuregeln versuchen, auch jene Testberichte, welche sich die meisten Gedanken über akkurate Tests und Meßergebnisse machen. Das ganze darf man als Gedankenanstoß für eine Diskussion ansehen, was die beste Testmethodik darstellt, wenn man sowohl reale anliegende Chiptaktraten als auch den Punkt des Vorheizens von Grafikkarten & Gehäuse mit in seine Tests einfließen lassen will.

Zur Preislage der GeForce GTX 1060 hat die PC Games Hardware eine Analystenstimme anzubieten, welche den gegenüber der GeForce GTX 960 gestiegenen Preispunkt erklären will. Zum einen sind die 16nm-Wafer für den benutzten GP106-Chip natürlich teurer: Der GP106-Chip soll somit 33,30 Dollar in der Fertigung kosten, der vorhergehende GM206-Chip von GeForce GTX 950 & 960 dagegen nur 19,90 Dollar. Zum anderen wird auf die dreifache Speichermenge verwiesen, was ebenfalls für Mehrkosten zwischen GeForce GTX 960 und 1060 sorgen sollte. Zur Deckung des 50-Dollar-Preisunterschieds bei den Listenpreisen dürfte dies jedoch etwas knapp werden – aber am Ende macht nVidia sowieso rein verkaufspolitische Preise, die nur in grober Relation etwas mit den Herstellungspreisen zu tun haben. Als Marktführer kann nVidia es sich leisten, Preise zu verlangen, wo man auch ordentlich Gewinn dran macht – gut zu sehen an allen jüngeren Geschäftszahlen. Und so lange der Wettbewerb nVidia nicht dazu zwingt, werden sich die Grafikkartenpreise immer eher daran orientieren, was man verlangen kann – und weniger daran, was man mindestens nehmen muß.

Daneben gibt jene Meldung endlich einmal einen klaren Hinweis auf die reale Kostensteigerung bei einem neuen Fertigungsverfahren. Im Beispiel von GM206 zu GP106 liegt jene nominell bei +67,3%. Eingerechnet die kleine Differenz bei der Chipfläche von 227mm² zu 200mm² sind es real sogar +89,9%. Dies ist dann sehr happig, denn bei angenommen gleich großen Grafikchip bedeutet dies eine Kostensteigerung (des reinen Grafikchips) von grob +90%. Wollte man dies komplett auszugleichen, müssten die 16nm-Grafikchips nur nahezu die Hälfte so groß (-47%) werden wie ihre 28nm-Pendants (derart viel kleinere Chips begünstigen dann allerdings auch billigere Grafikboards, insofern funktioniert diese Milchmädchenrechnung nur höchst grob). Dies erfüllt nVidia in der Pascal-Generation nicht wirklich, denn der GP104 ist schon 78,8% (-27%) so groß wie der GM204 und der GP106 ist sogar 88,1% (-14%) so groß wie der GM206. Es ergibt sich somit automatisch eine Kostensteigerung für die Grafikchip-Entwickler und somit der Zwang zu gewissen Preissteigerungen. Problematisch dürfte diese Entwicklung aber vor allem bei zukünftigen Fertigungsverfahren werden, welche teilweise mit noch höheren Kostensteigerungen erwartet werden.