23

Hardware- und Nachrichten-Links des 22./23. Juli 2017

Der TechSpot schneidet erneut die Frage an, ob es für Spiele ein Vierkerner oder Sechskerner sein soll – ermittelt anhand des Vergleichs Core i7-7700K gegen den Core i7-7800X sowohl unter default-Taktraten als auch unter üblicher Übertaktung. Die Benchmarks wurden allerdings allesamt nur mittels einer GeForce GTX 1080 Ti unter der FullHD-Auflösung aufgenommen – ein Setting, welches sich nicht so richtig zwischen der Darstellung der realen Spielerpraxis und dem ernsthaften Erzeugen einer CPU-Limitierung entscheiden kann. Insofern ist es in Frage zu stellen, ob das Ergebnis wirklich eine größere Bedeutung hat: Der Vierkerner gewinnt durchgehend, wenn auch bei einem insgesamt bedeutungslosen Unterschied – denn die grob 10% Differenz zum Sechskerner findet durchgehend auf fps-Werten statt, die nirgendwann auch nur in die Nähe eines Niveaus kommen, irgendwie an der (perfekten) Spielbarkeit des jeweiligen Titels kratzen zu können.

7700K 7700K OC 7800X 7800X OC
Technik Kaby Lake, 4C + HT, 339$ Skylake-X, 6C + HT, 383$
Taktraten 4.2/4.5 GHz OC @ 4.9 GHz 3.5/4.0 GHz OC @ 4.7 GHz
30 Spieletests @ FullHD 100% 102,1% 90,3% 94,3%
basierend auf den Benchmarks des TechSpots

Trotzdem läßt sich noch eine interessante Aussage aus diesem Test ziehen: Der Sechskerner auf 4.7 GHz Übertaktung ist erstaunlicherweise immer noch klar langsamer als der Vierkerner auf default-Takt von 4.2/4.5 GHz. Hier zeigt sich, das letztlich die benutzte Plattform sowie die kleineren Differenzen in der CPU-Architektur (Skylake-X mit veränderter Cache-Struktur sowie Mesh- anstatt Ringbus-System) sogar einen ausreichend hohen Einfluß speziell im Spielebereich haben, um selbst einen klaren Taktratenvorteil noch unterminieren zu können. Oder anders formuliert: Ein Sechskerner mit der "alten" Architektur und auf einer ähnlichen Consumer-Plattform wie der Kaby-Lake-Vierkerner könnte wahrscheinlich selbst unter dieser Benchmark-Ansetzung besser abschneiden, wenigstens denn unter Übertaktung glänzen. An dieser Stelle dürfte zukünftig Coffee Lake ansetzen, welches sowohl die "alte" Intel-Architektur als auch taktschnelle Sechskerner ins normale Consumer-Segment bringen wird.

Tom's Hardware haben sich die Radeon Vega Frontier Edition angesehen: Dabei lag der Blickpunkt zum einen auf einer sehr detaillieren Analyse der vorliegenden Technik, zum anderen auch auf dem, wo AMD selber die Karte sieht – sprich, unter Profi-Anwendungen in Konkurrenz zu nVidias Quadro-Serie. Hierfür werden für einige Anwendungen zertifizierte Treiber benötigt, welche Vega FE und Quadro mitbringen, nVidias Titan-Karten allerdings nicht – ein gewichtiger Unterschied zugunsten der AMD-Lösung. Dabei schnitt die Vega FE überraschend gut ab: Getestet wurde zwar nur gegen eine Quadro P6000 (Basis: GP102), welche (meistens) schneller herauskam, aber die Vega FE sollte somit das Performanceniveau der Quadro P5000 (Basis: GP104) schlagen können, bei der Hälfte von deren Preislage. Interessanterweise ist der Performance-Rückstand zur Quadro P6000 unter den ebenfalls angetretenen Spiele-Benchmarks viel deutlicher als unter den Profi-Benchmarks – ein weiterer Hinweis darauf, das hier noch Treiberarbeit fehlt, welche AMD erst mit dem anstehenden Release der Radeon RX Vega offenbaren dürfte. Wieviel an Mehrperformance ein echter Gaming-Treiber bringen kann (sowohl für Radeon RX Vega als natürlich auch die Vega FE), ist leider immer noch nur zu raten, die Performance der kommenden Radeon RX Vega XTX damit nach wie vor vollkommen unbestimmt.

Notebookcheck wenden sich nochmals den MaxQ Mobile-Grafiklösungen von nVidia zu – und berichten über den Fall einer GeForce GTX 1060 MaxQ im HP Omen 15 Notebook, welche entgegen der kürzlichen Berichterstattung deutlich näher an ihre Notebook-Variante herankommt (nur -9% weniger Performance). Leider wurde an dieser Stelle nicht weiter nach der Ursache geforscht, dabei liegt jene augenscheinlich im TDP-Unterschied, welcher in diesem konkreten Fall gar nicht einmal so groß ist: Die GeForce GTX 1060 für Notebooks hat eine TDP von 80 Watt, die GeForce GTX 1060 MaxQ ist vom Notebook-Hersteller auf zwischen 60-70 Watt TDP konfigurierbar. Nutzt dies ein Notebookhersteller in Richtung einer TDP von 70 Watt aus, dann sind dies gerade einmal -12,3% weniger TDP – eine Performancedifferenz von -9% wäre hierbei völlig normal. Daraus läßt sich allerdings keine allgemeingültige Aussage für alle verbauten GeForce GTX 1060 MaxQ Grafiklösungen treffen, denn auf (ebenfalls möglichen) nur 60 Watt TDP wäre die TDP-Differenz schon bei -25%, da dürfte auch die Performance-Differenz klar größer ausfallen als nur -9%. Eher interessant ist hier im übrigen der deutliche Unterschied zur Desktop-Lösung, denn auf nur 60 Watt TDP hätte die MaxQ-Variante gerade einmal die Hälfte des Power-Limits der GeForce GTX 1060 für den Desktop zur Verfügung.