31

Hardware- und Nachrichten-Links des 31. August 2018

Ein japanischer Twitter-Account mit (laut Reddit) üblicherweise verläßlichen Informationen zeigt die verschiedenen Turing-Ausführungen bzw. jeweiligen Turing-Grafikchip und entsprechenden Device IDs auf. Darunter ist neben bekannten und erwartbaren Turing-Varianten auch eine Mobile-Lösung auf Turing-Basis – ergo eine "GeForce RTX 2080 Mobile", was angesichts des ca. 530mm² großen TU104-Chips als reichlich gewagt gelten darf und sicherlich nicht in die "normalen" Gaming-Notebooks der Notebookhersteller geht. Aber als typisches Halo-Produkt ist das ganze sicherlich gangbar, einige wenige (teure) Gaming-Notebooks werden sich dann also mit dieser Turing-basierten Mobile-Lösung schmücken können. Der andere interessante Punkt ist die erneute Nennung eines TU106-Chips – auf welchem dann angeblich die GeForce RTX 2070 basieren soll. An dieser Stelle haben wir allerdings unsere großen Bedenken, denn ein extra TU106-Chip für die GeForce RTX 2070 lohnt überhaupt nicht – angesichts von 75% der Shader-Einheiten des TU104-Chips und desselben Speicherinterfaces wäre ein TU106-Chip mit 2304 Shader-Einheiten locker und leicht 80% so groß wie der TU104-Chip.

Codename Device-IDs bekannte Grafikkarten
TU102 1E02, 1E04 & 1E07 GeForce RTX 2080 Ti
TU102GL 1E30, 1E3C & 1E3D Quadro RTX 6000
TU104 1E82 & 1E87 GeForce RTX 2080
TU104M 1EAB & 1EAB GeForce RTX 2080 Mobile
TU106 1F07 GeForce RTX 2070
Quelle: 小町の戯れ言@Komachi @ Twitter

Dafür einen extra Grafikchip aufzulegen, lohnt eigentlich überhaupt nicht – wenn, dann kommt der TU106-Chip als (starke) Midrange-Lösung mit einer Chipfläche von 300-350mm², also mit erheblichen Flächenabstand zum TU104-Chip und seinen ~530mm² Chipfläche. Gut möglich, das mit der originalen Information nur die Device-IDs zur Verfügung standen und einiges andere dann hinzugedichtet wurde, sprich ein TU106-Chip niemals zur originalen Information gehörte. Sollte die GeForce RTX 2070 dagegen doch auf einem extra Grafikchip basieren, würde sich diese Ausgangslage in jedem Fall noch dazu anbieten, später mit einer etwas kleineren TU106-Salvagelösung eine (hypothetische) "GeForce RTX 2065" aufzulegen, welche dann im aktuellen Pascal-Portfolio die GeForce GTX 1070 ersetzen könnte und somit den kompletten GP104-Chip obsolet machen würde. Was hier wirklich Sache ist, sollte sich vielleicht schon zum initialen Turing-Launch am 14. September ergeben: Jener umfaßt zwar eigentlich nur GeForce RTX 2080 & 2080 Ti, aber möglicherweise fallen hierbei auch schon ein paar klärende Informationen zur GeForce RTX 2070 ab.

Die PC Games Hardware hat sich eingehend mit Technik und Performance von World of WarCraft: Battle for Azeroth beschäftigt – der neuen WoW-Version, mittels welcher das Spiel den Sprung auf DirectX 12 wagt. Damit fällt der Support für frühere DirectX-9-Grafikkarten heraus, Mindestbedingung ist nun eine Grafikkarte, welche DirectX 12 wenigstens in Software ableisten kann ("Feature-Level 11_0"). Dabei wird DirectX 12 seitens WoW nur rein zur CPU-Beschleunigung benutzt, die Grafik-Qualität zu DirectX 11 ist identisch – und letzteres wird auch auf nVidia-Grafikkarten nach wie vor per default genutzt, nur AMD-Grafikkarten werden standardmäßig unter DirectX 12 angesprochen. Die Grafikkarten-Benchmarks zeigen aufgrund der seitens WoW immer weiter nach oben geschraubten Optikqualität keine übermäßigen Frameraten oberhalb von 100 fps mehr an – was gleichfalls auch daran hängt, das WoW ein extremes CPU-Limit aufweist, welches selbst in eher ruhigen Szenen unterschwellig existiert. In einer wirklich heftigen Szene (die PCGH wählte den Hafenmarkt von Boralus) kann man dann selbst unter der UltraHD-Auflösung noch gute Performance-Unterschiede zwischen einzelnen Prozessoren erzeugen – was völlig abweichend vom Performance-Verhalten der meisten anderen Videospiele ist. Dabei liegt Intel nach wie vor klar vor AMD – dies allerdings inzwischen zu (halbwegs) erträglichen Differenzen und nicht mehr so dramatisch weit weg, wie es teilweise bei früheren WoW-Versionen zu beobachten war.

Bei CNews.cz (maschinelle Übesetzung ins Deutsche) thematisiert man die in der Geekbench-Datenbank aufgetauchten Ergebnisse eines Zhaoxin KX-6840 Prozessors – eines ersten 16nm-Prozessors des chinesischen CPU-Entwicklers Zhaoxin, welcher hierfür die x86-Lizenz der Mutterfirma VIA benutzt. Das hierbei erreichte Geekbench-Ergebnis sieht durchaus praktikabel aus – zwar weiterhin unterhalb vergleichbarer AMD- und Intel-Prozessoren, doch nun nicht mehr mit VIA-typisch großem Abstand. Vielmehr könnte der Zhaoxin KX-6840 damit durchaus eine gute Konkurrenz zu Intels LowPower-Prozessoren geben, jene von der Performance her potentiell sogar unter Druck setzen können. Natürlich ist der Geekbench in seinen Ergebnissen weit zu variabel, um davon ausgehend bereits feste Schlüsse zu ziehen – aber der Ansatzpunkt hierfür scheint durchaus gegeben. Interessant dürfte sein, wie groß das Prozessoren-Die des Zhaoxin KX-6840 unter der 16nm-Fertigung noch ist, denn das vorhergehende KX-5000-Die war unter der 28nm-Fertigung bei ebenfalls 8 CPU-Kernen samt SMT immerhin 187mm² dick – und damit natürlich zu groß für einen Einsatz in LowPower- und dann zumeist auch LowCost-Umgebungen.

(Technik) Geekbench 3 ST Geekbench 3 MT
Zhaoxin ZXD-D4600 8C, 1.8 GHz (28nm TSMC) 918 5571
Zhaoxin KX-6840 8C, 3.0 GHz (16nm TSMC) 1670 10069
Ryzen 3 1200 4C, 3.1/3.4 GHz (14nm GloFo) 4138 11490
Ryzen 5 1400 4C +SMT, 3.2/3.4 GHz (14nm GloFo) 4247 15060
Quellen: Geekbench-Datenbank & Technikaffe