27

Hardware- und Nachrichten-Links des 27. August 2018

Expreview (maschinelle Übersetzing ins Deutsche) haben sich noch einmal an einer genaueren Schätzung zur Chipfläche des Turing TU104-Chips versucht. Hierbei kam ein nomineller Wert von 552mm² heraus – nicht unähnlich den letzten Schätzungen aus unserem Forum von 557-559mm². Eingedenk des Punkts, das der größere TU12-Chip von derselben Quelle mit 786mm² geschätzt wurde, real aber "nur" 754mm² groß ist, haben Expreview selbige Fehlermarge dann auch noch auf den TU104-Chip angesetzt – und kommen somit auf eine wahrscheinliche Chipfläche von ~530mm². Dies passt auch besser zur Hardware-Gestaltung, welche bei zwei Dritteln des TU102-Chips liegt und damit (gemessen an den in der Relation sehr gut vergleichbaren Pascal-Chips GP102 und GP104) eher eine Chipfläche näher an grob 500mm² ergeben sollte. Wie gestern schon ausgeführt, ergeben jene ~530mm² beim TU104-Chip umgerechnet auf einen hypothetischen TU106-Chips einer hypothetischen GeForce RTX 2060 dann eine anzunehmende Chipfläche von ~340mm² – und damit in jedem Fall mehr als beim GP104-Chip (314mm²), was einen extra TU106-Chip eher wirtschaftlich uninteressant machen sollte.

27

GlobalFoundries stoppt die 7nm-Fertigung

Der Halbleiterfertiger GlobalFoundries hat Montag Abend eine mehr oder weniger schockierende Pressemitteilung herausgegeben, wonach man alle weiteren Aktivitäten am eigentlich für das nächste Jahr geplanten 7nm-Fertigungsverfahren umgehend stoppt, womit dieses Fertigungsverfahren also auch keine Marktreife mehr erreichen wird. Das ganze geht mit einer grundsätzlich neuen Unternehmensstrategie einher: Zukünftig will sich GlobalFoundries auf bekannte Fertigungsverfahren konzentrieren, hierzu werden die 14nm- und die 12nm-Fertigung genannt. Nur jene schon laufenden Fertigungsverfahren sollen noch weiterentwickelt werden – während die Entwicklung noch kleinerer Fertigungsverfahren wie 5nm und 3nm laut einer weiterführenden Meldung seitens AnandTech komplett eingestellt wird. Und damit passiert etwas wirklich entscheidendes in der Gesamtbetrachtung: GlobalFoundries meldet sich hiermit als technologisch führender Halbleiterfertiger ab.

Chipfläche Taktrate Stromverbrauch
GlobalFoundries 12LP (zu 14LPP) -15% +10% -0%
GlobalFoundries 7LP (zu 14LPP)  (eingestellt!) -65% > +40% > -60%
GlobalFoundries 7LP+ (zu 7LP)  (eingestellt!) -10% ? ?
Quellen: GlobalFoundries, WikiChip & GlobalFoundries
26

Hardware- und Nachrichten-Links des 25./26. August 2018

Heise thematisieren anhand des Beispiels der Northlight-Engine von Spieleentwickler Remedy (Max Payne, Alan Wake, Quantum Break) die Schwierigkeit, RayTracing zu vernüftigen Frameraten auf heutiger Hardware zu realisieren. Dafür sind zum einen erhebliche Abspeckungen an der RayTracing-Qualität vonnöten, zum anderen dann Engine-interne Tricks, um die benötigte Rechenleistung bei nicht besonders relevanten Bildteilen noch weiter zu senken. Trotzdem kommen in einer vergleichsweise statischen Demo-Szene bislang nur 30 fps unter FullHD heraus – auf einer Titan V der Volta-Generation, welcher allerdings noch der RT Core der Turing-Generation fehlt. Selbst mit den Vorteilen der Turing-Architektur wird eine echte, vollständige Spielszene sich noch für einige Zeit nicht mit RayTracing darstellen lassen – einfach weil hierfür die Rohpower (trotz aller Abspeckungen) fehlt. Derzeit kann RayTracing nur für einige zusätzliche Effekte angesetzt werden – bzw. Effekte, welche man mittels RayTracing schöner hinbekommt als mit bisherigen Möglichkeiten. Erst zukünftige RTX-Generationen werden sich langsam daran heranrobben können, größere Lasten unter RayTracing darzustellen. Doch bis zu dem Punkt, wo man dann langsam auf die Abspeckungen bei der RayTracing-Qualität (Rays pro Pixel) verzichten kann, dürften noch einige Hardware-Generationen vergehen.

26

Die neue Kantenglättung von nVidias Turing: Deep Learning Super Sample (DLSS)

Bei der Turing-Generation bringt nVidia mittels "Deep Learning Super Sample" (DLSS) eine neue Kantenglättung daher, welche im Gegensatz zum früher schon erwähnten "Adaptive Temporal Antialiasing" bereits spruchreif ist und seiten nVidia massiv bei den Turing-Grafikkarten promoted wird. Als Post-Processing-Verfahren kann DLSS grundsätzlich von jedem Spiel benutzt werden, das Spiel muß aber dennoch darauf vorbereitet sein, es handelt sich also nicht um ein Treiber-seitig aktivierbares Kantenglättungs-Verfahren. Zwar wird es tiefergehende Details samt Bildqualitäts-Vergleichen zu DLSS sicherlich erst mit dem kommenden Turing-Launch (14. September 2018) geben, aber dennoch kann man auf Basis der bisherigen nVidia-Informationen sowie Berichten der Gamescom-Fachbesucher dennoch schon ein gewisses Bild zu DLSS zeichnen: Hierunter verbirgt sich eine adaptive Kantenglättung in einem bislang noch nicht genauer erläuterten technischen Verfahren, deren Clou primär in einem vorhergehenden Mustererkennungs-Training der zu glättenden Kanten liegt. DLSS weiss also vor der eigentlichen Kantenglättung bereits, was Kante und was nur Farbübergang ist – und ist demzufolge in der Lage, seine Kantenglättung gezielt nur auf den reinen Kanten anzusetzen.

26 26

Sind die Turing-Preise noch gangbar?

Die Preislagen der kommenden Turing-Beschleuniger sind bekannterweise hoch – und könnten sogar noch steigen, sofern die Grafikkartenhersteller es nicht schaffen, den nVidia-Referenzpreis zu halten (welchen nVidia ja selber bei seinen Founders-Edition-Karten nicht hält). Aber dies ist derzeit noch ein ungelegtes Ei, vorerst kann man nur zu den offiziell genannten Listenpreisen und den letzten Performance-Prognosen vergleichen. Danach bietet Turing knapp dasselbe Performance/Preis-Verhältnis wie Pascal auf. Aber die absoluten Preise ziehen damit natürlich deutlich an, die HighEnd-Lösung GeForce RTX 2080 landet preislich im Enthusiasten-Segment bei 699 Dollar Listenpreis, die Enthusiasten-Lösung GeForce RTX 2080 Ti kommt auf einen bei non-Titan-Karten bislang nie gesehenen Listenpreis von 999 Dollar heraus. Die nachfolgende Umfrage soll die Stimmungslage hierzu quantifizieren: Sind diese seitens nVidia aufgerufenen Turing-Preise doch noch gangbar, weil das Performance/Preis-Verhältnis augenscheinlich nicht schlechter wird – oder geht es hiermit nunmehr auf Preishöhen hinauf, die nicht mehr ertragbar sind?

Ja - die Turing-Preise sind noch gangbar.
3% (67 Stimmen)
Jein - aber es kann mit einer etwas höheren Mehrperformance noch was werden.
4% (83 Stimmen)
Jein - aber es kann was werden, sofern RayTracing oder/und DLSS wirklich zünden.
6% (138 Stimmen)
Nein - das Verhältnis Performance zu Preis müsste gravierend besser sein.
18% (409 Stimmen)
Nein - der absolute Preisansatz ist einfach viel zu hoch.
70% (1626 Stimmen)
Gesamte Stimmen: 2323
24

Hardware- und Nachrichten-Links des 24. August 2018

Videocardz zeigen eine nVidia-Präsentationsfolie, welche Verbesserungen beim Cache-System von Turing aufzeigt: Gegenüber "Pascal" wurde die Level1-Bandbreite sowie die Level2-Kapazität verdoppelt, während die Level1-Kapazität auf 2,7fache steigt. Natürlich gibt es keinen expliziten "Turing"- wie auch "Pascal"-Chip (und wenn nVidia dies selber so schreibt, sollte wenigstens die Fachpresse entsprechend genauer arbeiten), sondern dies trifft auf einzelne Grafikchip dieser Architekturen zu. Im Fall von "Turing" dürfte höchstwahrscheinlich der größere TU102-Chip gemeint sein, im Fall von "Pascal" wird wohl der vergleichbare GP102-Chip gemeint sein, da nur auf diesen die genannten 3 MB Level2-Cache zutreffen. Der Vergleich beider Grafikchips ist wie gesagt zielführend, da beide für das selbe Marktsegment gedacht sind – aus beiden werden die jeweiligen Ti- und Titan-Karten gezogen. Die größeren Caches und geringeren Latenzen dürften in jedem Fall der Recheneffizienz der Turing-basierten Beschleuniger zu gute kommen – wobei dieser Effekt für die Quadro-Modelle üblicherweise etwas größer als für die GeForce-Modelle ausfallen sollte.

Pascal GP102 Turing TU102
Level1-Cache (pro SM) 48 kB 64 oder 128 kB
Shared Memory (pro SM) 96 kB 128 oder 64 kB
Level2-Cache (Gesamtchip) 3 MB 6 MB
24

Eine Performance-Prognose zu GeForce RTX 2070, 2080 & 2080 Ti

Mittels seiner eigenen Benchmarks zur GeForce RTX 2080 hat nVidia wie bekannt ein Performance-Versprechen von +47% zwischen GeForce GTX 1080 und GeForce RTX 2080 aufgestellt – was in Folge dessen natürlich auch nutzbar ist, um eine Performance-Prognose für die komplette Grafikkarten-Serie aufzustellen, sprich auch für GeForce RTX 2070 und GeForce RTX 2080 Ti. Einzurechnen sind hierbei natürlich erst einmal zwei Effekte: Zum einen dürften jene Benchmarks mit einer nVidia-eigenen Founders Edition aufgestellt sein, was aber im Fall der Turing-Generation eine werksübertakte Variante bedeutet. Jener Effekt ist wegen des um 5-6% höheren Boosttakts der Founders Edition nicht ganz bedeutsam, aber für +3% Mehrperformance sollte dies schon reichen. Und zweitens dürfte sich nVidia natürlich bei seinen 10 Benchmarks jene Spieletitel und Settings herausgesucht haben, wo man besonders gut dasteht. Selbst wenn die grundsätzliche Tendenz von unabhängigen Testberichten im Endeffekt als "ähnlich" klassifiziert werden sollte, liegen hier sicherlich auch noch ein paar Prozentpunkte im einstelligen Bereich, welche nVidia sich mit seinen eigenen Benchmarks schönfärbt.

Chip Hardware 4K Perf. Release Vorgänger
GeForce RTX 2080 Ti TU102 4352 Shader-Einheiten @ 352 Bit Interface, 1350/1545/3500 MHz, 11 GB GDDR6 geschätzt ~245-263% 14. Sept. 2018 GeForce GTX 1080 Ti
175%
GeForce RTX 2080 TU104 2944 Shader-Einheiten @ 256 Bit Interface, 1515/1710/3500 MHz, 8 GB GDDR6 geschätzt ~178-185% 14. Sept. 2018 GeForce GTX 1080
132%
GeForce RTX 2070 TU104 2304 Shader-Einheiten @ 256 Bit Interface, 1410/1620/3500 MHz, 8 GB GDDR6 geschätzt ~150-155% Oktober 2018 GeForce GTX 1070
107%
Performance-Werte gemäß des 4K Performance-Index, bezogen immer auf die Referenztaktung, interpoliert von nVidias eigenen Performance-Werten.
24

Die Systemanforderungen zu F1 2018

Die Steam-Seite zu "F1 2018" listet die offiziellen PC-Systemanforderungen zur Autorennsimulation von Spieleentwickler und -publisher Codemasters. Das am heutigen 24. August in den Handel gehende Spiel auf Basis der EGO Engine 4.0 setzt wiederum nur DirectX 11 voraus und kommt im Minimum mit ausgesprochen handzahmen bis fast altertümlichen PC-Spezifikationen aus: Zwar wird generell ein 64-Bit-Betriebssystem und 8 GB Hauptspeicher vorausgesetzt und sind Core i3-2130 oder FX-4300 nun keine ganz schwachen Prozessoren, aber GeForce GT 640 oder Radeon HD 7750 auf Grafikkarten-Seite sind eine lange nicht mehr gesehene niedrige Anforderung. Beide Karten wurden üblicherweise nur mit 1 GB Grafikkartenspeicher aufgelegt und haben einen FullHD Performance-Index für die jeweils kleinere DDR3-Ausführung von 75% bzw. ~70% – dies ist grob das Performance-Niveau der GeForce GT 1030 mit DDR4-Speicher.

Minimum Empfohlen
OS Windows 7 64-Bit, DirectX 11, 50 GB Platzbedarf
CPU Core i3-2130 oder FX-4300 Core i5-8600K oder Ryzen 5 2600X
Speicher 8 GB RAM 8 GB RAM
Gfx GeForce GT 640 oder Radeon HD 7750 GeForce GTX 1060 oder Radeon RX 580
24

nVidia Geschäftsergebnisse Q2/2018: Ende des Mining-Booms ergibt kurzfristige Delle auf weiterhin sehr hohem Geschäftsniveau

Ein wenig untergangen im Trommelfeuer der Turing-bezogenen Meldungen sind die neuen Finanzdaten seitens nVidia, welche hiermit nachgereicht werden sollen. nVidia deckt mit seinem letzten Geschäftsbericht das zweite Finanzquartal des Finanzjahres 2019 ab, welches abweichend vom Kalenderquartal von Mai bis Juli 2018 lieft. Sinnbildlich entspricht dies grob dem zweiten Kalenderquartal 2018, in welchem nVidia erneut stark gegenüber dem Vorjahresquartal zulegen konnte: Beim Umsatz ging es um +40% hinaus, beim nominellen Gewinn um +89% sowie beim operativen Gewinn um +68%. Allerdings sieht man hierbei keine aktuelle oder aber eine langfristige Entwicklung, denn der große Umsatzanstieg war vielmehr schon im vorangangenen ersten Finanzquartal beendet. Diesem gegenüber schneidet nVidia ungewohnterweise sogar (leicht) negativ ab: Beim Umsatz ging es gegenüber dem Vorquartal um -2,6%, beim nominellen Gewinn um -11,5% sowie beim operativen Gewinn um -10,7% nach unten.

Q2/2017 Q3/2017 Q4/2017 Q1/2018 Q2/2018
Umsatz 2230 Mio. $ 2636 Mio. $ 2911 Mio. $ 3207 Mio. $ 3123 Mio. $
Gewinn 583 Mio. $ 838 Mio. $ 1118 Mio. $ 1244 Mio. $ 1101 Mio. $
operativer Gewinn 688 Mio. $ 895 Mio. $ 1073 Mio. $ 1295 Mio. $ 1157 Mio. $
Für Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.
23

Hardware- und Nachrichten-Links des 23. August 2018

Videocardz zeigen in der Berichterstattung über nVidias Editor's Day noch eine weitere Performance-Folie, welche rein nur die Shading-Performance von Turing thematisiert. Hierbei wird ein Einheiten-normierter Performance-Vergleich geboten – ob es auch Takt-normiert ist, erschließt sich aus der Folie nicht, ist aber wegen der ähnlichen Taktraten zwischen Pascal und Turing vielleicht auch nicht ganz so wesentlich. In jedem Fall versprich nVidia hiermit eine grob +50% höhere Shading-Performance auf Basis derselben Anzahl an Shader-Einheiten zwischen Turing und Pascal – was letztlich bedeutet, das die Recheneffizienz zwischen Turing und Pascal in einem sehr erheblichen Maßstab zunimmt. Somit braucht nVidia auch nicht so sehr auf eine höhere Rohleistung zu schauen, die effizientere Grafikchip-Architektur ist hier der größere Performance-Bringer zugunsten von Turing. Dies gibt in jedem Fall Hoffnung darauf, das sich nVidias Performance-Versprechen trotz der nominell eher geringen Rohleistungs-Steigerung doch erfüllen läßt.

Inhalt abgleichen