4

Hardware- und Nachrichten-Links des 4. März 2019

In unserem Forum gibt es interessante Darlegungen zur Flächendifferenz der RT- & Tensor-Cores zwischen den kleineren Turing-Chips TU116 & TU117 (ohne RT/Tensor) und den größeren Turing-Chips TU102, TU104 & TU106 (mit RT/Tensor). Vorab sei (nochmals) erwähnt, das nVidias diesbezügliche Schaubilder wirklich nur schematisch gedacht sind, in der Realität RT- und Tencor-Cores jedoch Teile der eigentlichen Rechenwerke darstellen und keine abgeteilte und damit direkt identifizierbare Einheiten. Das genannte Forumsposting arbeitet dabei mit Größenvergleichen des kompletten Shader-Clusters (im genauen eines TPCs, was zwei Shader-Cluster im Verbund sind) bzw. einer kompletten Raster-Engine (GPC). Der Vergleich auf TPC-Basis ergibt 3,27mm² pro einzelnem Shader-Cluster bei TU116 gegenüber 3,92mm² bei TU106, der Vergleich auf GPC-Basis ergibt dagegen 5,29mm² bei TU116 gegenüber 6,04mm² bei TU106. Wie zu sehen, passen beide Werte noch nicht richtig zusammen, andererseits geht beim Vergleich auf GPC-Basis schließlich auch noch der Anteil der Raster-Engine selber ab (welcher augenscheinlich nicht gerade klein ist).

"Turing Minor" "Turing Major"
Grafikchips TU116 & TU117 TU106, TU104 & TU102
RT-Cores
Tensor-Cores
explizite FP16-Cores (FP16 läuft über Tensor-Cores)
Chipfläche pro Shader-Cluster ~3,3mm² ~3,9mm²  (grob +20%)
L2-Cache pro 16 ROPs 512 kByte 1 MByte
Angaben lt. AnandTech & 3DCenter-Forum

Wirklich perfekte Zahlen zur Größe der Shader-Cluster der Turing-Chips erhält man damit noch nicht (das Ergebnis auf TPC-Basis sollte der Realität allerdings schon recht nahe sein), allerdings gibt es zumindest eine Antwort zur Frage der Flächendifferenz für RT- & Tensor-Cores: Beim Vergleich auf GPC-Basis sind dies nur 14% – logischerweise etwas verwässert durch den jeweils gleichlautenden Anteil der Raster-Engine. Beim Vergleich auf TPC-Basis sind dies hingegen 20% mehr Chipfläche, welche RT- & Tensor-Cores innerhalb der Shader-Cluster für sich beanspruchen. Eingedenk dessen, das heutige Grafikchips weniger als die Hälfte ihrer Chipfläche für die Shader-Einheiten selber verwenden, ist der Effekt der Hinzunahme von RT- & Tensor-Cores zur Turing-Architektur somit grob auf einen hohen einstelligen Betrag der gesamten Chipfläche zu schätzen. Dies ist weit weniger, als teilweise vermutet worden war und auch als nVidias Schaubilder suggerieren. Vielleicht wäre sogar unter der eigentlich für Turing geplanten 10nm-Fertigung von Samsung mehr möglich gewesen – unter der aktuellen 12nm-Fertigung als nur leicht verbessertem 16nm-Derivat konnte sich nVidia jedenfalls keine größere RT- und Tensor-Einheiten leisten, die Turing-Chips sind schließlich auch so schon übermäßig groß ausgefallen.

Twitterer Tum Apisak hat eine GeForce GTX 1650 Mobile entdeckt – was nebenbei auch ein paar technische Daten bestätigt. So werden wiederum 4 GB Grafikkartenspeicher zu dieser wahrscheinlich TU117-basierten Grafiklösung genannt, was dann auf dasselbe 128 Bit Speicherinterface wie beim GP107-Chip von GeForce GTX 1050 & 1050 Ti hinausläuft. Interessant ist der Speichertakt von gleich 4000 MHz DDR, dies ist höher noch als bei GeForce GTX 1050 & 1050 Ti (jeweils 3500 MHz DDR). Damit gleich nVidia etwas aus, das diese kleineren Turing-Lösungen ohne den Boost durch GDDR6-Speicher antreten, somit gibt es gegenüber der Vorgängerlösung also wenigstens einen Zuwachs von +14% bei der Speicherbandbreite. Dies könnte wichtig sein, um die höhere Shader-Power des TU117-Chips auch wirklich auszunutzen – wie üblich wird es hierbei +20% mehr Shader-Einheiten, höhere Taktraten und die (etwas) effizientere Turing-Architektur geben. Ganz zu den +33,7%, welche die TU116-basierte GeForce GTX 1660 Ti auf die GP106-basierte GeForce GTX 1060 6GB oben drauf legt, dürfte es allerdings nicht reichen – denn in diesem Vergleich war eben noch der GDDR6-Speicher im Spiel. Der Performance-Zuwachs, welchen die TU117-basierte GeForce GTX 1650 gegenüber der GP107-basierten GeForce GTX 1050 Ti herausholen kann, ist demzufolge niedriger auf irgendwo zwischen +20% und +30% zu schätzen.

Für jenes mit einer GeForce GTX 1650 Mobile bestücktes Notebook wurde als CPU dann im übrigen ein Core i7-9750H aus Intels kommender Core i-9000H Serie an Notebook-Prozessoren genannt. Die Taktraten lagen dabei bei 2.6/4.3 GHz, was eine etwas genauere Angabe darstellt als bei den bisher vorliegenden Daten zur Core i-9000H Serie. Wichtig ist hierbei vor allem die klare Aussage zu den CPU-Kernen und CPU-Threads jenes Core i7-9750H: Es handelt sich um einen Sechskerner mit HyperThreading. Damit ist dann auch die bei Entdeckung der Core i-9000H Serie aufgestellte These vom Tisch, Intel würde auch im Mobile-Segment vermehrt mit Prozessoren ohne aktivem HyperThreading operieren. Von Intel hierzu angegebene Performance-Kennungen hatten diese Auslegung zumindest unterstützt, waren aber bei weitem nicht eindeutig genug, um sich diesbezüglich schon sicher zu sein. In der Realität geht Intel nun aber den konventionellen Weg und wird alle diese Mobile-Prozessoren wiederum mit aktivem HyperThreading antreten lassen – die kleineren als Vierkerner, die mittleren als Sechskerner und die größten als Achtkerner, allesamt mit aktivem HyperThreading. Damit gewinnen in der Core i-9000H Serie ergo nur die beiden Spitzenmodelle an CPU-Kernen hinzu, bei allen darunterliegenden Modellen wird dieselbe Kern-Anzahl angeboten wie schon innerhalb der Core i-8000H Serie.

Eine andere Grafikkarten-Entdeckung kommt von Notebookcheck, wo man in der Beschreibung eines Dell-Notebooks eine "GeForce RTX 2050 Mobile" erspähen konnte. Interessanterweise ist der entsprechende Text so formuliert, das ein Schreibfehler zugunsten einer "GeForce RTX 2060 Mobile" faktisch auszuschließen ist – es handelt sich in jedem Fall um eine abweichende Karte gegenüber der GeForce RTX 2060. Notebookcheck spekulieren hierzu auf einen Schreibfehler zugunsten einer "GeForce GTX 2050", aber dies dürfte wohl nicht passieren – alle kleineren Turing-Lösungen ordnet nVidia nunmehr in seine "GeForce GTX 16" Serie ein, da wird man nicht noch extra eine "GeForce GTX 20" Serie aufmachen. Allerdings braucht man sich nun auch keine große Hoffnungen auf eine GeForce RTX 2050 für den Deskop-Bereich machen – jene GeForce RTX 2050 Mobile dürfte eine der im Mobile-Bereich typischen Abspeckungen von der GeForce RTX 2060 darstellen, kommt aber sicherlich nicht auch noch in den Desktop-Bereich. Dort wäre zwischen GeForce GTX 1660 Ti (Perf.Index 780%) und GeForce RTX 2060 (Perf.Index 920%) einfach zu wenig Platz, um noch eine weitere Grafikkarte einzuschieben. Im Mobile-Bereich geht dies hingegen, weil dort die Performance-Relationen zwischen den einzelnen Lösungen zumeist unbekannt sind und sich letztlich auch noch von Notebook zu Notebook stark unterscheiden können. Eher kann man diese Meldung dahingehend sehen, das nVidia nunmehr dabei ist, sein Turing-Mobileportfolio auf das Mainstream- und Midrange-Segment auszuweiten, man durchaus in Kürze eine entsprechende offizielle Ankündigung erwarten kann.

Golem und Heise berichten über den zukünftigen USB4-Standard, welcher in eine interessante Richtung geht: Danach hat Intel alle technischen Daten von Thunderbolt 3 hierfür zur Verfügung gestellt, womit USB 4 somit technisch Thunderbolt 3 entsprechen wird – womöglich mit ein paar kleinen Eigenheiten zur besseren Abwärtskompatibilität mit den bisherigen USB-Standards. Dies muß jetzt noch genau spezifiziert werden, ergo kommt USB4 nicht gerade demnächst um die Ecke. Spannend ist hieran vor allem der Punkt, das Intel mit diesem Schritt Thunderbolt zwar technologisch rettet, dafür allerdings auf alle Lizenzzahlungen oder sonstigen Einschränkungen verzichtet – für USB4 darf logischerweise jeder entsprechende Chips und Geräte entwickeln. Beide Standards werden somit faktisch zusammengeführt – mal schauen, ob Intel dann nach Thunderbolt 3 noch etwas neues für Thunderbolt nachlegt. Dies ist aber eher unwahrscheinlich, denn mit diesem Schritt zieht sich Thunderbolt 3 faktisch aus der Konkurrenz zurück – alle Anbieter werden zukünftig nur noch auf USB4 setzen, was diesen einheitlichen Standard (auf technologisch höchstem Niveau) stärkt und allen etwaigen Konkurrenz-Standards es um so schwerer macht, noch Fuß zu fassen.