5

Hardware- und Nachrichten-Links des 4./5. August 2016

HT4U berichten über weitere Treiber-Verbesserungen bei der Radeon RX 480 im Rahmen des Crimson-Treibers 16.8.1, welche zum Launch der Radeon RX 470 verwendet wurde. Zumindest im Launchtest von HT4U liegt damit die Radeon RX 480 8GB (bisheriger Perf.Index 550%) näher an der Radeon R9 390X (Perf.Index 580%) als an der Radeon R9 390 (Perf.Index 540%) – ein Ergebnis, welches natürlich noch durch andere Tests bestätigt werden muß. In jedem Fall wird es damit interessant, wer von den Launchtests zur Radeon RX 470 den neuen Treiber auch für die Radeon RX 480 verwendet hat – und wer nachlässigerweise einfach frühere Ergebnisse zweitverwendet hat. Dies ist aus Gründen des Zeitdrucks natürlich verständlich, führt im Sinne der Leser und Grafikkartenkäufer aber an der Sache vorbei – nicht nur, weil damit die Radeon RX 480 eventuell etwas falsch eingeordnet wird, sondern auch weil der Abstand der neuen Radeon RX 470 zur RX 480 somit möglicherweise fälschlich beschrieben wird. Wir werden uns der Sache in der kommenden Launch-Analyse zur Radeon RX 470 noch annehmen, welche leider durch die dann doch noch aufgetauchten Hardwaretests zur Titan X in entsprechende Verzögerung geraten ist.

Die PC Games Hardware bringt eine neue, abweichende Information zur Chipfläche von Polaris 11 – welcher bei der am 8. August erwarteten Radeon RX 460 verbaut wird. Jener Mainstream-Grafikchip ist nun nicht gleich 146mm², sondern nur 124mm² groß (Aussage eines AMD-Ingenieurs auf dem Polaris-Techday) – was die PCGH zusätzlich noch durch ein Foto belegen kann: In jenem ist der Polaris-11-Chip als sogar etwas kleiner als ein GDDR5-Speicherchip zu sehen, welcher seinerseits auf eine Chipfläche von 133mm² kommt. Jene 124mm² passen auch besser zur Hardware von Polaris 11, welche schließlich teilweise sogar weniger als die Hälfte des 232mm² großen Polaris-10-Chips ausmacht (1024 zu 2304 Shader-Einheiten). Natürlich lassen fixe Einheiten wie PCI-Express-Interface, Video- und Display-Engine eigentlich niemals eine perfekte Schrumpfung oder perfekte Hochskalierung von Grafikchips zu, das aktuelle Gegenbeispiel von GP104 zu GP102 ist da schlicht die berühmte Ausnahme von der Regel.

Interessant in diesem Zusammenhang, das Polaris 11 wohl nur ein PCI Express 3.0 x8 Interface trägt, welches auch ebenso auf entsprechenden Grafikkarten ausgeführt wird. Gänzlich sicher ist diese Information noch nicht, dies müsste erst noch durch AMD selber bestätigt werden. Im Fall des Falles spart man nochmals ein wenig Strom sowie Chipfläche ein, was im Rahmen der klaren Mainstream-Performance der Karte für keinerlei Nachteile sorgen dürfte. Ungünstig wäre das ganze nur, wenn man eine Radeon RX 460 in uralte Mainboards mit nur PCI Express 1.1 Slot steckt, weil PCI Express 1.1 mit nur 8 Lanes umgerechnet so viel Bandbreite wie PCI Express 3.0 mit nur 2 Lanes ergibt – was dann wirklich grenzwertig sein könnte. Dies wäre allerdings zuerst mit entsprechenden Benchmarks zu belegen, denn alle vorherige Messungen zum Thema der PCI-Express-Bandbreite stammen von HighEnd-Lösungen, welche aufgrund ihrer (klar) höheren Frameraten natürlich auch mehr Bandbreite benötigten. Die Limitierung beim PCI-Express-Interface von Polaris 11 liegt im übrigen im Grafikchip selber – sprich, ob auf der Karte selber der volle PCI-Expess-Stecker mit Kontakten versehen ist (wie beim Referenzdesign), spielt keine Rolle – wie gesagt, sofern sich diese Information bestätigen läßt.

Eine gewisse Diskussion gibt es derzeit über den Artikel bzw. das Video von RealWorld Technologies, in welchem jene eine Tile-based Rasterization bei nVidia-Grafikchips ab der Maxwell-Generation beschreiben. Unser Forum sieht das ganze allerdings noch etwas anders: Die wahrscheinlichste Auflösung liegt darin, das nVidia ab der Maxwell-Generation so etwas in beschränktem Umfang nutzt, dies aber noch lange nicht zum Hauptweg der Raster-Verarbeitung auserkoren hat. Dabei geht es wohl in erster Linie darum, auf einfachem Wege größere Effizienzgewinne (durch möglichst frühes Weglassen von am Ende nicht sichtbaren Bildteilen) zu erreichen, ohne deswegen aber etwas an der grundsätzlichen Grafikchip-Architektur ändern zu müssen. Mit allen ihren Optimierungen sind heutige Grafikchips trotz ihres nominell nicht so eleganten Immediate-Ansatzes inzwischen wohl genauso effizient wie beim Deferred-Ansatz, welchen seinerzeit PowerVR mit den Kyro-Grafikchips vertreten hatte (und in deren Grafiklösungen für den SoC-Bereich weiterhin fortlebt).

Golem haben sich die CPU-Übertaktung in einem Notebook anhand des Skylake-basierten Core i7-6820HK im Schenker-Notebook H506 angesehen. Jener Vierkern-Prozessor kommt mit nominellen Taktraten von 2.7/3.6 GHz zu einer TDP von 45 Watt daher, zudem ist der Multiplikator frei und lädt demzufolge zu Taktraten-Spielereien ein – natürlich nur, sofern der Notebook-Hersteller selbiges in seinem BIOS zuläßt. Als klare Limitation beim Notebook-Übertakten darf zuerst einmal die (üblicherweise nicht wechselbare) Kühllösung gelten, welche auch das maximal sinnvolle Power-Limit eingrenzt. Zwar kann man jenes höher setzen als sinnvoll wäre, erreicht damit aber in der Praxis teilweise noch niedrigere Taktraten und Performance-Gewinne – Notebook-Übertakten ist also in besonderem Maße eine Aufgabe, wo die sinnvollste Übertaktung sorgsam durch Hin- und Hertesten herausgearbeitet werden muß.

Dies beachtend, kamen Golem auf eine Taktraten von immerhin 4.0 GHz für alle CPU-Kerne (default-Turbo für alle Kerne ist 3.2 GHz), welche fast durchgehend gehalten werden konnte und dem Notebook zu einem Performanceplus von zwischen +16% und +25% verhalf. Allerdings ist Notebook-Übertaktung weiterhin nichts, was man irgendwie empfehlen könnte – das Risko von Seiteneffekten auf andere Bauteile ist aufgrund der kompakten Bauweise einfach viel größer als bei einem Desktop-PC. Zudem ist ein Notebook in aller Regel im Ganzen kaputt, kosten Reparatur oder Bauteilersatz meistens viel zu viel – auch wieder im Gegensatz zum Desktop-PC, wo einzelne Komponenten gut und zu fairen Marktpreisen austauschbar sind. Die Idee der Übertaktung passt halt schlecht zu einem System, welches nicht aus zu allen Seiten hin kompatiblen Standardkomponenten aufgebaut ist, sondern wo allein das Gesamtprodukt vom Hersteller entsprechend getestet und abgenommen wird. Übertaktung dürfte somit auch weiterhin die klare Domäne von Desktop-Systemen bleiben.