nVidia-Grafik

17

Erste Turing-Benchmarks unter Final Fantasy XV aufgetaucht

Unser aufmerksames Forum hat ein paar Benchmarks zu den Turing-Grafikkarten GeForce RTX 2080 und GeForce RTX 2080 Ti in der Benchmark-Datenbank zu Final Fantasy XV entdeckt. In jene werden alle mit dem offiziellen Benchmark-Tool zu Final Fantasy XV getätigten Benchmarks automatisch hochgeladen, ergo dürfte man hierbei die ersten von Hardwaretestern angefertigten Messungen zu diesen Turing-Karten sehen, welche für die kommenden Launchreviews zum 19. September gedacht sind. Die Benchmark-Datenbank zu Final Fantasy XV liefert natürlich nur Durchschnittswerte aller jemals getätigen Messungen ab, beachtet dabei aber keinerlei Übertaktungen oder andere Systemeinflüsse – die Werte sind also nur eher grob miteinander vergleichbar. Allerdings ergibt sich nach Studium des entsprechenden Benchmark-Threads zu Final Fantasy XV in unserem Forum durchaus der Eindruck, das die in dieser Datenbank notierten Werte zu den bisherigen Pascal-Beschleunigern nicht wirklich durch einzelne Übertaktungs-Ergebnisse nach oben gezogen wurden, ergo für einen groben Vergleich durchaus benutzbar sind.

WQHD Std. WQHD HQ 4K Std. 4K HQ Differenz (4K HQ)
Titan V OC @ 2.0 GHz - - - 6879 -
GeForce RTX 2080 Ti 12009 10030 6379 5844 +32% zur GTX1080Ti
Titan V 11651 9223 6302 5271 -
Titan Xp - 8316 5376 4756 -
GeForce RTX 2080 - 8109 5286 4641 +37% zur GTX1080
GeForce GTX 1080 Ti 9529 7797 5257 4441 -
GeForce GTX 1080 7541 6107 3990 3395 -
Wertequellen: Titan V OC aus dem 3DCenter-Forum, alle anderen aus der FFXV Benchmark-Datenbank
15

nVidia verspricht mittels offizieller Benchmarks +43% Mehrperformance von Pascal zu Turing

Videocardz zeigen die nVidia-eigenen Benchmarks aus dem "Reviews Guide" zum kommenden Launch von GeForce RTX 2080 & 2080 Ti (19. September 2018, wahrscheinlich 15 Uhr). Jene Benchmarks sind primär als Referenzwerte für die Messungen der Hardwaretester gedacht, insofern sollten sich die hierbei ausgeworfenen Zahlen (theoretisch) mit denselben Bildqualitäts-Settings durchaus nachstellen lassen. In der Praxis dürften die Hardwaretester inzwischen schon neuere Treiber haben, kommen eventuell auch Spiele-Patches mit Turing-Support hinzu und nutzen die erfahreneren Webseiten vorzugsweise eigene Testsequenzen, um eventuellen Benchmark-Optimierungen seitens der Grafikchip-Entwickler vorzubeugen. Nichtsdestotrotz ergeben diese Zahlen (allesamt unter der UltraHD-Auflösung) die genauste Performance-Angaben, welche von nVidia zu GeForce RTX 2080 & 2080 Ti zu bekommen ist – und welche später dann natürlich mit den Ergebnissen der Launchreviews verglichen werden kann.

1080 1080Ti 2080 2080Ti 2080/1080 2080/1080Ti 2080Ti/1080Ti
Battlefield 1 52 fps 60 fps 72 fps 89 fps +38% +20% +48%
Call of Duty: WW2 66 fps 91 fps 104 fps 139 fps +58% +14% +53%
F1 2018 52 fps 63 fps 72 fps 91 fps +38% +14% +44%
Hitman (2016) 56 fps 72 fps 78 fps 91 fps +39% +8% +26%
Mass Effect: Andromeda 36 fps 43 fps 51 fps 61 fps +42% +19% +42%
Middle-Earth: Shadow of Mordor 37 fps 47 fps 53 fps 67 fps +43% +13% +43%
PlayerUnknown's Battlegrounds 46 fps 58 fps 62 fps 79 fps +35% +7% +36%
Rainbow Six: Siege 79 fps 103 fps 123 fps 154 fps +56% +19% +50%
Shadow of the Tomb Raider 32 fps 43 fps 47 fps 59 fps +47% +9% +37%
Star Wars: Battlefront II 52 fps 60 fps 66 fps 86 fps +27% +10% +43%
The Witcher III 43 fps 57 fps 62 fps 78 fps +44% +9% +37%
Wolfenstein II: The New Colossus 54 fps 72 fps 84 fps 108 fps +56% +17% +50%
3DMark13 TimeSpy Extreme 3260 4410 4960 6480 +52% +12% +47%
VRMark Cyan Room 63 fps 80 fps 105 fps 135 fps +67% +31% +69%
Schnitt der Spiele-Tests (12) 100% 126,8% 143,6% 180,6% +43,6% +13,3% +42,5%
Schnitt aller Tests (14) 100% 127,4% 145,8% 184,3% +45,8% +14,5% +44,7%
Quelle: nVidia-eigene Benchmarks aus dem GeForce RTX 2080 & 2080 Ti "Reviewers Guide" bei Videocardz, allesamt unter UltraHD und mit SDR-Monitorausgabe
15

Erste 3DMark13-Werte zur GeForce RTX 2080 aufgetaucht

Mit der Verteilung erster Turing-bezogener Treiber (v411.51) an die Hardwaretester war es nur eine Frage der Zeit, wann erste Leaks auftauchen – sei es absichtlich oder auch nur unvorsichtigerweise, wenn man die Testmaschine am Internet stehen hat und die Testsoftware dann automatisch Kontakt zu ihrer Benchmark-Datenbanken aufnimmt. Letzteres dürfte im Fall der seitens Videocardz gemeldeten 3DMark13-Ergebnisse zur GeForce RTX 2080 passiert sein, welche zwar gestern noch online zu sehen waren, inzwischen aber für die Öffentlichkeit wieder gesperrt sind. Hierbei wurde eine Gigabyte-Karte durch FireStike und TimeSpy geschickt, von einer nVidia-Karte kommt zudem noch ein Benchmark-Wert unter dem TimeSpy Extreme. Jene Gigabyte-Karte wurde dabei mit einem Chiptakt von 1875 MHz ausgewiesen, was nach einer gewissen Werksübertaktung aussieht – wie allerdings sicherlich fast alle der von den Grafikkarten-Herstellern an die Hardwaretester derzeit gegebenen Testsamples eine Werksübertaktung tragen dürften.

FireStrike TimeSpy TimeSpy Extreme
Auflösung FullHD = 1920x1080 WQHD = 2560x1440 UltraHD = 3840x2160
GeForce RTX 2080 27085  (-2,4%) 10659  (+13,0%) 4925  (+14,5%)
GeForce GTX 1080 Ti Ø 27749 Ø 9429 4302
GeForce GTX 1080 Ø 21663 Ø 7073 3200
Radeon RX Vega 64 Ø 22340 Ø 7085 3329
ausschließlich Graphics/GPU-Werte; Quellen: GeForce RTX 2080 von Videocardz, FireStrike & TimeSpy als Mittelwert der Benchmarks von TweakPC, Hardware.fr, SweClockers & KitGuru, TimeSpy Extreme von AnandTech
14

Erste Detail-Berichte zu nVidias Turing-Architektur erschienen

Wir erwartet, sind Freitag Nachmittag die Architektur-Artikel zu nVidia Turing-Architektur erschienen (untenstehend verlinkt). Selbige erklären die Feinheiten jener neuen Grafikchip-Architektur, welche sich eben nicht nur auf das Thema RayTracing beschränken, sondern vor allem auch beim konventionellen Grafikrendering erhebliche Vorteile bieten – siehe schon die neuen Shader-Cluster bei Turing. Zu selbigen klären sich nun auch einige noch offene Fragen: So lassen sich die extra Integer-Einheiten zeitgleich mit den konventionellen FP32-Einheiten nutzen, was für einen erheblichen Performance-Boost sorgen soll. Denn laut nVidia kommen in modernen Spielen auf 100 FP32-Berechnungen auch schon ca. 36 Integer-Berechnungen (bei Battlefield 1 dagegen sogar 100:50) – welche bisher in den FP32-Einheiten früherer Grafikchip-Architekturen mit ausgeführt wurden, dafür aber die jeweiligen Shader-Einheiten für andere FP32-Berechnungen blockiert haben. Nun kann alles nebeneinanderher ausgeführt werden, blockieren die verschiedenen Rechenoperationen sich also nicht mehr gegenseitig. So gesehen haben die Shader-Cluster von Turing dann also doch wieder 128 Ausführungseinheiten – die stärker genutzten 64x FP32- sowie die etwas weniger genutzten 64x INT32-Einheiten (Nutzungsverhältnis grob 74:26%).

14

nVidia prognostiziert die 4K-Performance von Turing mit +47-50% gegenüber Pascal

Auf der GPU Technology Conference (GTC) Japan hat nVidia gestern weitere Präsentationsfolien mit Performance-Zielsetzungen zur anstehenden Turing-Generation gezeigt. Jene offerieren einen fps-Schnitt der Turing-Grafikkarten GeForce RTX 2080 & 2080 Ti gegenüber ihren jeweiligen Vorgängern aus den Pascal- und Maxwell-Generationen unter der UltraHD-Auflösung, einmal ohne und einmal mit der neuen DLSS-Kantenglättung. Die Angaben zu DLSS sind natürlich kaum verwendbar, bevor nicht klar ist, mit welcher Bildqualität DLSS antritt bzw. mit welchem anderen Kantenglättungs-Verfahren nVidia selbiges vergleicht. Genaue Zahlenangaben gibt es zudem nicht und das ganze erscheint auch ziemlich schematisch gedacht – aber wenn man die sich aus den Grafiken ergebenden Pixelabstände in fps-Zahlen umrechnet, dann verspricht nVidia hiermit indirekt einen Performancesprung unter UltraHD bzw. 4K bei der GeForce RTX 2080 gegenüber der GeForce GTX 1080 von +50% bzw. bei der GeForce RTX 2080 Ti gegenüber der GeForce GTX 1080 Ti von noch +47%.

12

nVidias Turing-Architektur bohrt die Shader-Cluster deutlich auf

Wieso die drei Turing-Chips so vergleichsweise "dick" ausgefallen sind, ergibt sich beim Blick auf die seitens Videocardz freundlicherweise mitgelieferten Blockdiagramme (selbst wenn es sich hierbei nur um Schemabilder handelt): nVidia hat die Shader-Cluster von Turing gegenüber früheren nVidia-Architekturen maßgeblich aufgebohrt, es kommen neben einem extra RT-Core pro Shader-Cluster auch noch 64 Integer-Einheiten sowie 8 Tensor-Cores neu hinzu. Schon allein die letzten beiden belegen im Schemabild mehr Fläche aus die eigentlichen (FP32) Shader-Einheiten, eingerechnet des extra RT-Cores ist es offensichtlich, das hier direkt in den Shader-Clustern sehr viel Chipfläche für die neuen Eigenschaften und Funktionen der Turing-Architektur zur Verfügung steht. Auf den ganzen Chip bezogen kann davon ausgehen, das alle diese Turing-bezogenen Neuerungen für ca. 50-55% mehr Chipfläche (bei gleicher Anzahl an Shader-Einheiten) sorgen dürften.

12

Spezifikationen der drei Turing-Chips TU102, TU104 & TU106 offengelegt

Bei Videocardz hat man Zugang zu einem "nVidia Turing Architecture White Paper" und zitiert hieraus interessante Details zur anstehenden Turing-Generation. Markant hierbei ist vor allem die echte Offenlegung der drei Turing-Chips TU102, TU104 und TU106, was bei der Turing-Vorstellung nur ziemlich lückenhaft abgehandelt wurde. Die Turing-Chips TU102 & TU104 waren zwar schon ziemlich weit ausgebreitet, der TU106 kommt nun noch hinzu – mit einer kleinen Überraschung in dieser Form, als das jener Grafikchip tatsächlich den Unterbau der GeForce RTX 2070 darstellen wird. Damit bringt nVidia gleich drei sehr große Chips daher, welche sich bei den Chipflächen ungewöhnlich gering unterscheiden – der TU102 (754mm²) ist nur +38% größer als der TU104 (545mm²) und der TU104 gar nur +22% größer als der TU106 (445mm²). Insbesondere TU104 und TU106 trennen somit nur 100mm² Chipfläche, was selbst angesichts des hohen Performancelevels der damit herauskommenden Grafikkarten vergleichsweise wenig ist.

TU106 TU104 TU102
Chip 10,6 Mrd. Transistoren auf 445mm² Chipfläche in der 12nm-Fertigung von TSMC 13,6 Mrd. Transistoren auf 545mm² Chipfläche in der 12nm-Fertigung von TSMC 18,6 Mrd. Transistoren auf 754mm² Chipfläche in der 12nm-Fertigung von TSMC
Hardware 3 Raster-Engines, 36 Shader-Cluster, 2304 Shader-Einheiten, 144 TMUs, 36 RT-Cores, 288 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Speicherinterface 6 Raster-Engines, 48 Shader-Cluster, 3072 Shader-Einheiten, 192 TMUs, 48 RT-Cores, 384 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Speicherinterface 6 Raster-Engines, 72 Shader-Cluster, 4608 Shader-Einheiten, 288 TMUs, 72 RT-Cores, 576 Tensor-Cores, 96 ROPs, 6 MB Level2-Cache, 384 Bit GDDR6-Speicherinterface
NVLink & SLI - ein NVLink 2.0 x8-Anschluß (50 GB/sec), Support für maximal 2fach SLI zwei NVLink 2.0 x8-Anschlüsse (100 GB/sec), Support für maximal 2fach SLI
verbaut bei GeForce RTX 2070 (Vollausbau) GeForce RTX 2080 (Salvage) & Quadro RTX 5000 (Vollausbau) GeForce RTX 2080 Ti (Salvage) & Quadro RTX 6000/8000 (Vollausbau)
11

Die Grafikchip- und Grafikkarten-Marktanteile im zweiten Quartal 2018

Dieser Artikel basiert leider auf falschem, inzwischen korrigiertem Zahlenmaterial. Siehe dazu die Neufassung vom 21. September 2018.

Seitens der Marktforscher von Jon Peddie Research liegen neue Daten zu den Grafikchip-Marktanteilen für das zweite Quartal 2018 vor, wie üblich unterteilt in eine Statistik für den Gesamtmarkt inklusive integrierter Grafiklösungen sowie eine Statistik der Grafikchips für extra Desktop-Grafikkarten (beiderseits erstaunlicherweise derzeit nur noch über den Google-Cache erreichbar: No.1 & No.2). In beiden Fällen ist das bestimmende Ereignis der Ende des Cryptomining-Booms und damit stark zurückgehende Verkäufe entsprechender Grafikkarten – womit im Gesamtmarkt aller Grafikchips AMD und nVidia deutlich verlieren und Intel automatisch an Boden gewinnt. Allerdings hat Intel im zweiten Quartal auch seine absoluten Grafikchip-Absätze leicht gesteigert, der hiermit mal wieder erreichte Intel-Marktanteil von satten 70% ist also nicht allein bedingt durch das Ende des Cryptomining-Booms.

Q2/2017 Q3/2017 Q4/2017 Q1/2018 Q2/2018
AMD 13,2%
13,2%
13,0%
13,0%
14,2%
 
14,9%
 
13%
 
Intel 70,6%
70,3%
67,8%
70,1%
67,4%
 
66,6%
 
70%
 
nVidia 16,3%
16,4%
19,3%
16,9%
18,4%
 
18,4%
 
17%
 
Quellen: Jon Peddie Research (schwarz) bzw. Mercury Research (blau)
8

nVidias Pascal-Grafikkarten bleiben wohl bis mindestens Jahresende 2018 im Angebotsportfolio

In einer Analysten-Konferenz (Transkript bei Seeking Alpha) hat nVidias Finanz-Chefin ausgesagt, das dieses Jahr die Turing- und Pascal-Serien gemeinsam in voller Schönheit verkauft werden, das Turing demzufolge Pascal zumindest für diese Zeitspanne nirgendwo ersetzen wird. Das entscheidende Wort hierbei ist "overall" – womit ausgedrückt wird, das die komplette Pascal-Generation für diesen Zeitraum weiterverkauft werden soll. Konkret dürften hiermit GeForce GTX 1080 und 1080 Ti gemeint sein, welche also trotz des Turing-Marktstarts weiterhin neben der Turing-Generation in nVidias Angebotsportfolio bestehen bleiben und damit (derzeit) noch nicht zur "Auslaufware" gemacht werden sollen. Mittels vergleichsweise niedrigerer Preispunkte für diese Pascal-Grafikkarten erscheint eine solche Verkaufsstrategie problemlos machbar, da die Turing-Grafikkarten preislich derart hoch angesetzt sind, da sich da genügend Spielräume finden lassen.

We will be selling probably for the holiday season, both our Turing and our Pascal overall architecture.
Quelle:  Colette Kress (nVidia CFO) im Citi 2018 Global Technology Conference Call am 6. September 2018

6

Turing-Midrangechip "TU106" für die GeForce RTX 2060 deutet sich an

Wie es mit der Turing-Generation unterhalb der GeForce RTX 2070 weitergeht, ist bislang noch nicht offiziell thematisiert worden und lag daher eher im Feld von Gerüchten und Vermutungen. Hier und da wurden zwar schon einmal kleinere Turing-Chips genannt, aber dies waren zumeist nur wohlfeile Annahmen, welche nicht auf harten Fakten basierten. Zuletzt gab es allerdings schon einen Hinweis auf einen weiteren Turing-Chip neben TU102 (GeForce RTX 2080 Ti) und TU104 (GeForce RTX 2070 & 2080) in Form des TU106-Chips. War dies aber noch nicht 100%ig sicher, so kommt nun seitens der Macher des Hardwareinformations-Tools HWinfo ein klarer Hinweis auf die Existenz eines solchen TU106-Grafikchips – jener wird nämlich in den Release Notes zur aktuellen Tool-Version 5.88 als Änderung der nächsten Tool-Version genannt. Da die Macher dieserart Tools hierfür üblicherweise Daten nutzen, welche die Hardware-Hersteller selber zur Verfügung stellen, kann man dies dann wohl als eine gewisse Bestätigung der Existenz des TU106-Chips ansehen:

Inhalt abgleichen