nVidia-Grafik

23

Umfrage-Auswertung: Sind die Turing-Preise noch gangbar?

Noch vor dem Turing-Launch und bewaffnet rein mit den offiziellen Preisinformationen wurde an dieser Stelle die Frage zur Abstimmung gestellt, ob die Turing-Preislagen denn noch gangbar sind. Inzwischen gab es in dieser Frage auch eher keine positive Entwicklung, sondern kommen die ersten Turing-Karten nun zu den hohen Preisen der Founders Edition in den Markt, deren Performance-Bild ist zudem auch eher am unteren Ende der vorherigen Erwartungen angesiedelt. Noch vor diesen neuen Informationen der letzten Woche stimmten die Umfrageteilnehmer zum Ende August bis Anfang September allerdings über diese Frage der Turing-Preise ab – und hatten auch schon seinerzeit eine überaus klare Antwort.

21

Reloaded: Die Grafikchip- und Grafikkarten-Marktanteile im zweiten Quartal 2018

Die originale Meldung zu den Grafikchip- und Grafikkarten-Marktanteile im zweiten Quartal 2018 zeigte ein Bild, in welchem AMD verlor sowie Intel und nVidia weiter zulegten – und war bei den konkreten Zahlen leider falsch, denn seitens der Marktforscher von Jon Peddie Research liegen inzwischen korrigierte Fassungen der jeweiligen Marktreports vor: No.1 & No.2, entdeckt seitens der aufmerksamen PC Games Hardware. In den ursprünglichen Reports war wohl die Menge an abgesetzten AMD-Grafikchips für Desktop-Grafikkarten in nicht unerheblicher Form zu niedrig – was aber dann natürlich auch das Insgesamt-Ergebnis für alle abgesetzten Grafikchips (inklusive der integrierten) beeinflußt. Somit kommt AMD in der Insgesamt-Abrechnung etwas besser und Intel etwas schlechter weg als in der vorherigen Fassung – nVidia bleibt erstaunlicherweise gleich, aber dies könnte auch an der (vorherigen) Rundung liegen. Die Tendenz, das Intel derzeit weiter zulegt, weil bei AMD & nVidia das Mining-Geschäft weggebrochen ist und damit insgesamt weniger Desktop-Grafikkarten abgesetzt werden, ändert sich durch diese Korrektur in jedem Fall nicht.

Q2/2017 Q3/2017 Q4/2017 Q1/2018 Q2/2018
AMD 13,2%
13,2%
13,0%
13,0%
14,2%
 
14,9%
 
14,7%
 
Intel 70,6%
70,3%
67,8%
70,1%
67,4%
 
66,6%
 
68,2%
 
nVidia 16,3%
16,4%
19,3%
16,9%
18,4%
 
18,4%
 
17,0%
 
Quellen: Jon Peddie Research (schwarz) bzw. Mercury Research (blau)
19

GeForce RTX 2080 /Ti Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick

Als Vorgriff auf die entstehenden Launch-Analyse zu GeForce RTX 2080 und GeForce RTX 2080 Ti soll hiermit ein erster Überblick über die mit den Launchreviews kredenzten Performancemessungen zu diesen beiden neuen Turing-Beschleunigern gegeben werden. Jener Vorgriff beschränkt sich derzeit rein auf die UltraHD-Auflösung als die für die beiden neuen Grafikkarten sicherlich interessanteste Aufgabenstellung. Einzurechen wäre dabei, das nahezu alle Hardwaretester für ihre Launchreviews seitens nVidia mit Founders-Edition-Karten ausgerüstet wurden und jene auch als Benchmark-Standard angesetzt haben – ungeachtet deren nicht unerheblicher Werksübertaktung. Das aufgezeigte Performancebild entspricht somit eben nur dieser nVidia-eigenen Werksübertaktung – welche gutklassigen Herstellerübertaktung entspricht, die verschiedenen bei TechPowerUp im Test befindlichen Herstellermodelle können sich meistens nur um +1-2% von der Performance dieses neuen nVidia-Standards absetzen. Karten zum Referenztakt (welche es augenscheinlich genauso geben wird) dürften dann entsprechend langsamer sein – mangels hierzu vorliegenden Tests kann man jene Differenz derzeit nur grob auf 3-5% beziffern, welche die Referenztaktung jeweils langsamer sein sollte.

vs. Vega 64 vs. 1080 vs. 1080 Ti vs. Titan Xp
GeForce RTX 2080 Ti "Founders Edition" +79,2% +77,0% +35,0% +24,4%
GeForce RTX 2080 Ti Referenztaktung ca. +72% ca. +70% ca. +30% ca. +20%
GeForce RTX 2080 "Founders Edition" +41,4% +39,7% +6,6% -1,8%
GeForce RTX 2080 Referenztaktung ca. +36% ca. +34% ca. +2% ca. -6%
basierend auf den Ergebnissen der Launchreviews; Werte der RTX-Referenztaktungen interpoliert/geschätzt
18

nVidias nächste Mainstream- und Midrange-Grafikkarten kommen frühestens nächstes Jahr

Die chinesische Webseite PCOnline (maschinelle Übersetzung ins Deutsche) hat bei einer Asus-Veranstaltung zu nVidias Turing und den GeForce RTX Grafikkarten aus den Asus-Verantwortlichen interessante Aussagen zum weiteren Werdegang der Turing-Generation hervorlocken können. Erst einmal bestätigt man das, was sich aufgrund nVidia-Aussagen und der aktuellen Preissituation schon andeutet: Pascal & Turing stehen dieses Jahr gemeinsam im Markt – auch und vor allem, weil es eigentlich kaum Berührungspunkte zwischen beiden Grafikkarten-Generationen gibt. Denn die Preise der Turing-Beschleuniger sind in der Praxis ausreichend hoch, um alles bis sogar einschließlich der GeForce GTX 1080 überhaupt nicht zu tangieren – und die GeForce GTX 1080 Ti als die real einzige Karte mitten im Turing-Preisfeld hat ihre eigenen Vorteile, kann faktisch problemlos (bis zum Auslauf) weiterverkauft werden. Die viel wichtigere Aussage ist aber natürlich jene zu Mainstream- und Midrange-Beschleunigern innerhalb der Turing-Generation bzw. der GeForce 20 Serie – hier als "60er und 50er Grafikkarten" bezeichnet: Jene erwartet man nicht vor nächstem Jahr.

Herr Yang Chenghan hat klargemacht, dass RTX- und GTX-Grafikkarten zumindest in diesem Jahr in einer Parallelbeziehung stehen werden. Die nächste Generation von 60er und 50er Grafikkarten wird frühestens im nächsten Jahr erscheinen. Herr Zhang Nan fügte hinzu, dass die Grafikkarten der RTX-Serie am ehesten die Modelle GTX1080Ti und GTX1080 betreffen, aber diese beiden Modelle sehr gut und fast ausverkauft sind, so dass die Auswirkungen des RTX-Launchs nicht groß sind. In Bezug auf die RTX 2070 Grafikkarte gab Asus an, dass jene erst Ende Oktober erhältlich sein wird und der Preis von GTX1070 und GTX1070Ti wahrscheinlich nicht im gleichen Bereich liegt, so dass die Grafikkarten-Serien GTX und RTX zumindest in diesem Jahr nicht in Konflikt geraten.
Quelle:  Asus gegenüber PCOnline, automatisch durch Google übersetzt und nachfolgend noch (geringfügig) manuell ausgebessert

17

Erste Turing-Benchmarks unter Final Fantasy XV aufgetaucht

Unser aufmerksames Forum hat ein paar Benchmarks zu den Turing-Grafikkarten GeForce RTX 2080 und GeForce RTX 2080 Ti in der Benchmark-Datenbank zu Final Fantasy XV entdeckt. In jene werden alle mit dem offiziellen Benchmark-Tool zu Final Fantasy XV getätigten Benchmarks automatisch hochgeladen, ergo dürfte man hierbei die ersten von Hardwaretestern angefertigten Messungen zu diesen Turing-Karten sehen, welche für die kommenden Launchreviews zum 19. September gedacht sind. Die Benchmark-Datenbank zu Final Fantasy XV liefert natürlich nur Durchschnittswerte aller jemals getätigen Messungen ab, beachtet dabei aber keinerlei Übertaktungen oder andere Systemeinflüsse – die Werte sind also nur eher grob miteinander vergleichbar. Allerdings ergibt sich nach Studium des entsprechenden Benchmark-Threads zu Final Fantasy XV in unserem Forum durchaus der Eindruck, das die in dieser Datenbank notierten Werte zu den bisherigen Pascal-Beschleunigern nicht wirklich durch einzelne Übertaktungs-Ergebnisse nach oben gezogen wurden, ergo für einen groben Vergleich durchaus benutzbar sind.

WQHD Std. WQHD HQ 4K Std. 4K HQ Differenz (4K HQ)
Titan V OC @ 2.0 GHz - - - 6879 -
GeForce RTX 2080 Ti 12009 10030 6379 5844 +32% zur GTX1080Ti
Titan V 11651 9223 6302 5271 -
Titan Xp - 8316 5376 4756 -
GeForce RTX 2080 - 8109 5286 4641 +37% zur GTX1080
GeForce GTX 1080 Ti 9529 7797 5257 4441 -
GeForce GTX 1080 7541 6107 3990 3395 -
Wertequellen: Titan V OC aus dem 3DCenter-Forum, alle anderen aus der FFXV Benchmark-Datenbank
15

nVidia verspricht mittels offizieller Benchmarks +43% Mehrperformance von Pascal zu Turing

Videocardz zeigen die nVidia-eigenen Benchmarks aus dem "Reviews Guide" zum kommenden Launch von GeForce RTX 2080 & 2080 Ti (19. September 2018, wahrscheinlich 15 Uhr). Jene Benchmarks sind primär als Referenzwerte für die Messungen der Hardwaretester gedacht, insofern sollten sich die hierbei ausgeworfenen Zahlen (theoretisch) mit denselben Bildqualitäts-Settings durchaus nachstellen lassen. In der Praxis dürften die Hardwaretester inzwischen schon neuere Treiber haben, kommen eventuell auch Spiele-Patches mit Turing-Support hinzu und nutzen die erfahreneren Webseiten vorzugsweise eigene Testsequenzen, um eventuellen Benchmark-Optimierungen seitens der Grafikchip-Entwickler vorzubeugen. Nichtsdestotrotz ergeben diese Zahlen (allesamt unter der UltraHD-Auflösung) die genauste Performance-Angaben, welche von nVidia zu GeForce RTX 2080 & 2080 Ti zu bekommen ist – und welche später dann natürlich mit den Ergebnissen der Launchreviews verglichen werden kann.

1080 1080Ti 2080 2080Ti 2080/1080 2080/1080Ti 2080Ti/1080Ti
Battlefield 1 52 fps 60 fps 72 fps 89 fps +38% +20% +48%
Call of Duty: WW2 66 fps 91 fps 104 fps 139 fps +58% +14% +53%
F1 2018 52 fps 63 fps 72 fps 91 fps +38% +14% +44%
Hitman (2016) 56 fps 72 fps 78 fps 91 fps +39% +8% +26%
Mass Effect: Andromeda 36 fps 43 fps 51 fps 61 fps +42% +19% +42%
Middle-Earth: Shadow of Mordor 37 fps 47 fps 53 fps 67 fps +43% +13% +43%
PlayerUnknown's Battlegrounds 46 fps 58 fps 62 fps 79 fps +35% +7% +36%
Rainbow Six: Siege 79 fps 103 fps 123 fps 154 fps +56% +19% +50%
Shadow of the Tomb Raider 32 fps 43 fps 47 fps 59 fps +47% +9% +37%
Star Wars: Battlefront II 52 fps 60 fps 66 fps 86 fps +27% +10% +43%
The Witcher III 43 fps 57 fps 62 fps 78 fps +44% +9% +37%
Wolfenstein II: The New Colossus 54 fps 72 fps 84 fps 108 fps +56% +17% +50%
3DMark13 TimeSpy Extreme 3260 4410 4960 6480 +52% +12% +47%
VRMark Cyan Room 63 fps 80 fps 105 fps 135 fps +67% +31% +69%
Schnitt der Spiele-Tests (12) 100% 126,8% 143,6% 180,6% +43,6% +13,3% +42,5%
Schnitt aller Tests (14) 100% 127,4% 145,8% 184,3% +45,8% +14,5% +44,7%
Quelle: nVidia-eigene Benchmarks aus dem GeForce RTX 2080 & 2080 Ti "Reviewers Guide" bei Videocardz, allesamt unter UltraHD und mit SDR-Monitorausgabe
15

Erste 3DMark13-Werte zur GeForce RTX 2080 aufgetaucht

Mit der Verteilung erster Turing-bezogener Treiber (v411.51) an die Hardwaretester war es nur eine Frage der Zeit, wann erste Leaks auftauchen – sei es absichtlich oder auch nur unvorsichtigerweise, wenn man die Testmaschine am Internet stehen hat und die Testsoftware dann automatisch Kontakt zu ihrer Benchmark-Datenbanken aufnimmt. Letzteres dürfte im Fall der seitens Videocardz gemeldeten 3DMark13-Ergebnisse zur GeForce RTX 2080 passiert sein, welche zwar gestern noch online zu sehen waren, inzwischen aber für die Öffentlichkeit wieder gesperrt sind. Hierbei wurde eine Gigabyte-Karte durch FireStike und TimeSpy geschickt, von einer nVidia-Karte kommt zudem noch ein Benchmark-Wert unter dem TimeSpy Extreme. Jene Gigabyte-Karte wurde dabei mit einem Chiptakt von 1875 MHz ausgewiesen, was nach einer gewissen Werksübertaktung aussieht – wie allerdings sicherlich fast alle der von den Grafikkarten-Herstellern an die Hardwaretester derzeit gegebenen Testsamples eine Werksübertaktung tragen dürften.

FireStrike TimeSpy TimeSpy Extreme
Auflösung FullHD = 1920x1080 WQHD = 2560x1440 UltraHD = 3840x2160
GeForce RTX 2080 27085  (-2,4%) 10659  (+13,0%) 4925  (+14,5%)
GeForce GTX 1080 Ti Ø 27749 Ø 9429 4302
GeForce GTX 1080 Ø 21663 Ø 7073 3200
Radeon RX Vega 64 Ø 22340 Ø 7085 3329
ausschließlich Graphics/GPU-Werte; Quellen: GeForce RTX 2080 von Videocardz, FireStrike & TimeSpy als Mittelwert der Benchmarks von TweakPC, Hardware.fr, SweClockers & KitGuru, TimeSpy Extreme von AnandTech
14

Erste Detail-Berichte zu nVidias Turing-Architektur erschienen

Wir erwartet, sind Freitag Nachmittag die Architektur-Artikel zu nVidia Turing-Architektur erschienen (untenstehend verlinkt). Selbige erklären die Feinheiten jener neuen Grafikchip-Architektur, welche sich eben nicht nur auf das Thema RayTracing beschränken, sondern vor allem auch beim konventionellen Grafikrendering erhebliche Vorteile bieten – siehe schon die neuen Shader-Cluster bei Turing. Zu selbigen klären sich nun auch einige noch offene Fragen: So lassen sich die extra Integer-Einheiten zeitgleich mit den konventionellen FP32-Einheiten nutzen, was für einen erheblichen Performance-Boost sorgen soll. Denn laut nVidia kommen in modernen Spielen auf 100 FP32-Berechnungen auch schon ca. 36 Integer-Berechnungen (bei Battlefield 1 dagegen sogar 100:50) – welche bisher in den FP32-Einheiten früherer Grafikchip-Architekturen mit ausgeführt wurden, dafür aber die jeweiligen Shader-Einheiten für andere FP32-Berechnungen blockiert haben. Nun kann alles nebeneinanderher ausgeführt werden, blockieren die verschiedenen Rechenoperationen sich also nicht mehr gegenseitig. So gesehen haben die Shader-Cluster von Turing dann also doch wieder 128 Ausführungseinheiten – die stärker genutzten 64x FP32- sowie die etwas weniger genutzten 64x INT32-Einheiten (Nutzungsverhältnis grob 74:26%).

14

nVidia prognostiziert die 4K-Performance von Turing mit +47-50% gegenüber Pascal

Auf der GPU Technology Conference (GTC) Japan hat nVidia gestern weitere Präsentationsfolien mit Performance-Zielsetzungen zur anstehenden Turing-Generation gezeigt. Jene offerieren einen fps-Schnitt der Turing-Grafikkarten GeForce RTX 2080 & 2080 Ti gegenüber ihren jeweiligen Vorgängern aus den Pascal- und Maxwell-Generationen unter der UltraHD-Auflösung, einmal ohne und einmal mit der neuen DLSS-Kantenglättung. Die Angaben zu DLSS sind natürlich kaum verwendbar, bevor nicht klar ist, mit welcher Bildqualität DLSS antritt bzw. mit welchem anderen Kantenglättungs-Verfahren nVidia selbiges vergleicht. Genaue Zahlenangaben gibt es zudem nicht und das ganze erscheint auch ziemlich schematisch gedacht – aber wenn man die sich aus den Grafiken ergebenden Pixelabstände in fps-Zahlen umrechnet, dann verspricht nVidia hiermit indirekt einen Performancesprung unter UltraHD bzw. 4K bei der GeForce RTX 2080 gegenüber der GeForce GTX 1080 von +50% bzw. bei der GeForce RTX 2080 Ti gegenüber der GeForce GTX 1080 Ti von noch +47%.

12

nVidias Turing-Architektur bohrt die Shader-Cluster deutlich auf

Wieso die drei Turing-Chips so vergleichsweise "dick" ausgefallen sind, ergibt sich beim Blick auf die seitens Videocardz freundlicherweise mitgelieferten Blockdiagramme (selbst wenn es sich hierbei nur um Schemabilder handelt): nVidia hat die Shader-Cluster von Turing gegenüber früheren nVidia-Architekturen maßgeblich aufgebohrt, es kommen neben einem extra RT-Core pro Shader-Cluster auch noch 64 Integer-Einheiten sowie 8 Tensor-Cores neu hinzu. Schon allein die letzten beiden belegen im Schemabild mehr Fläche aus die eigentlichen (FP32) Shader-Einheiten, eingerechnet des extra RT-Cores ist es offensichtlich, das hier direkt in den Shader-Clustern sehr viel Chipfläche für die neuen Eigenschaften und Funktionen der Turing-Architektur zur Verfügung steht. Auf den ganzen Chip bezogen kann davon ausgehen, das alle diese Turing-bezogenen Neuerungen für ca. 50-55% mehr Chipfläche (bei gleicher Anzahl an Shader-Einheiten) sorgen dürften.

Inhalt abgleichen