3

Erster 3DMark13-Wert zur GeForce RTX 2080 Ti liegt um +36% besser als bei der GeForce GTX 1080 Ti

Über Reddit wird der (angebliche) 3DMark13 TimeSpy Benchmark-Wert einer GeForce RTX 2080 Ti verbreitet, welcher original Videocardz zugespielt wurde, dort aber bislang mangels irgendeiner Bestätigung nicht veröffentlich wurde (im Sinne einer vorherigen Quellenverifizierung natürlich außerordentlich löblich, im Sinne des Informationsgewinns sich vielleicht auch andere Meinungen gestattet). Im Gegensatz zum vorherigen 3DMark13 TimeSpy-Wert einer GeForce RTX 2080 liegt hierbei allerdings kein Eintrag in der 3DMark-Benchmarkdatenbank vor, sondern nur ein teilweiser Handy-Screenshot des Ergebnisses – was somit natürlich gefälscht sein könnte. Zudem sollen derzeit laut Videocardz nur nVidia selber und die Grafikkarten-Hersteller bereits Turing-Treiber besitzen, was den Kreis möglicher Leaks enorm einengt. Zumindest die Device ID passt zur GeForce RTX 2080 Ti, aufgrund der Ergebnis-Höhe lief die Karte ziemlich sicher unübertaktet. Wie schon bei den heutigen Spiele-Benchmarks zur GeForce RTX 2080 Ti gilt aber somit: Es kann keine Gewähr für die Richtigkeit dieser Zahlen übernommen werden – aber sie sehen zumindest von der Ergebnishöhe her ausreichend solide bzw. entsprechend unspektakulär aus.

Technik TimeSpy (Score) TimeSpy (Graphics)
GeForce RTX 2080 Ti  (?) Turing TU102, 4352 Shader-Einheiten @ 352 Bit GDDR6-Interface ? 12825
Titan V Volta GV100, 5120 Shader-Einheiten @ 3072 Bit HBM2-Interface 11692 11751
Titan Xp Pascal GP102, 3840 Shader-Einheiten @ 384 Bit GDDR5X-Interface 9886 10188
GeForce RTX 2080  (?) Turing TU104, 2944 Shader-Einheiten @ 256 Bit GDDR6-Interface 8547 10030
GeForce GTX 1080 Ti Pascal GP102, 3584 Shader-Einheiten @ 352 Bit GDDR5X-Interface Ø 8696 Ø 9429
GeForce GTX 1080 Pascal GP104, 2560 Shader-Einheiten @ 256 Bit GDDR5X-Interface Ø 6905 Ø 7073
GeForce GTX 1070 Ti Pascal GP104, 2432 Shader-Einheiten @ 256 Bit GDDR5-Interface Ø 6680 Ø 6783
GeForce GTX 1070 Pascal GP104, 1920 Shader-Einheiten @ 256 Bit GDDR5-Interface Ø 5761 Ø 5733
Radeon RX Vega 64 AMD Vega 10, 4096 Shader-Einheiten @ 2048 Bit HBM2-Interface Ø 6994 Ø 7085
Radeon RX Vega 56 AMD Vega 10, 3584 Shader-Einheiten @ 2048 Bit HBM2-Interface Ø 6170 Ø 6251
Quellen: GeForce RTX 2080 direkt bei 3DMark, GeForce RTX 2080 Ti bei Reddit, Titan V aus dem 3DCenter-Forum, Titan Xp bei Guru3D, alle anderen sind das mathematische Mittel aus den Werten von TweakPC, Hardware.fr, SweClockers und KitGuru

Denn gemäß des einzig und allein zu sehenden Graphics-Score kommt die GeForce RTX 2080 Ti um +26% gegenüber einer Titan Xp sowie um +36% gegenüber einer GeForce GTX 1080 Ti heraus – letzteres ist nahezu deckungsgleich zu den schon erwähnten Spiele-Benchmarks zur GeForce RTX 2080 Ti (+37,5%). Die Chance, das zwei Faker nahezu gleichlautende Ergebnisse herausbringen, die dann auch noch auf allgemeine Prognosen zutreffen, ist um übrigen nicht gerade hoch – was dann die Chance auf Echtheit dieser Werte wieder um ein bißchen erhöht. Wollte man sich also auf dieser Werte einlassen, dann ergibt sich, das die GeForce RTX 2080 Ti abweichend von der bisherigen Prognose, basierend primär auf deren Rohleistung sowie den nVidia-Benchmarks zur GeForce RTX 2080, doch etwas schwächer herauszukommen scheint. Vielleicht können bessere Treiber zum Launchtag daran noch etwas verändern – andererseits könnte bei all diesen Vorab-Benchmarks immer auch nVidias werksübertaktete Founders Edition im Spiel gewesen sein, welche ca. 5-6% Mehrtakt bietet und damit ca. 3-4% schneller als die Referenztaktung sein sollte.

Trotzdem erscheint es als sinnvoll, gemäß der vorliegenden Ergebnisse die Performance-Prognose zur GeForce RTX 2080 Ti hiermit etwas abzusenken: Von bislang ~245-263% auf nunmehr ~235-250% im UltraHD Performance-Index. Dies ist sicherlich kein größerer Unterschied und am Ende könnte die Karte immer noch mit einer Performance herauskommen, welche auf die alte wie auch die neue Prognose zutrifft – aber das Spektrum der Prognose verschiebt sich sicherlich nach unten. Der Grund dürfte ziemlich sicher im Power-Limit der Karte liegen, welches von GeForce GTX 1080 Ti zu GeForce RTX 2080 Ti nicht gewachsen ist – im Gegensatz zu den anderen Pascal/Turing-Vergleichen mit jeweils höheren Power-Limits. Diese Auflösung würde natürlich zukünftigen Besitzern der GeForce RTX 2080 Ti auch die (potentielle) Aussicht auf viel Mehrperformance unter Übertaktung an die Hand geben – denn bei der GeForce RTX 2080 Ti würde somit allein durch das Anheben des Power-Limits erhebliches Potential offengelegt. Mal schauen, was die kommenden Launchreviews zu dieser Frage sagen können.

Chip Hardware 4K Perf. Launch Vorgänger
GeForce RTX 2080 Ti TU102 4352 Shader-Einheiten @ 352 Bit Interface, 1350/1545/3500 MHz, 11 GB GDDR6, 250W GCP, 999$ geschätzt
~235-250%
14. Sept. 2018 GeForce GTX 1080 Ti
175%
GeForce RTX 2080 TU104 2944 Shader-Einheiten @ 256 Bit Interface, 1515/1710/3500 MHz, 8 GB GDDR6, 215W GCP, 699$ geschätzt
~178-185%
14. Sept. 2018 GeForce GTX 1080
132%
GeForce RTX 2070 TU104 2304 Shader-Einheiten @ 256 Bit Interface, 1410/1620/3500 MHz, 8 GB GDDR6, 175W GCP, 499$ geschätzt
~150-155%
Ende Okt. 2018 GeForce GTX 1070
107%
Performance-Werte gemäß des 4K Performance-Index, bezogen immer auf die Referenztaktung.
Über Reddit wird der (angebliche) 3DMark13 TimeSpy Benchmark-Wert einer GeForce RTX 2080 Ti verbreitet, welcher original Videocardz zugespielt wurde, dort aber bislang mangels irgendeiner Bestätigung nicht veröffentlich wurde (im Sinne einer vorherigen Quellenverifizierung natürlich außerordentlich löblich, im Sinne des Informationsgewinns sich vielleicht auch andere Meinungen gestattet). Im Gegensatz zum vorherigen 3DMark13 TimeSpy-Wert einer GeForce RTX 2080 liegt hierbei allerdings kein Eintrag in der 3DMark-Benchmarkdatenbank vor, sondern nur ein teilweiser Handy-Screenshot des Ergebnisses - was somit natürlich gefälscht sein könnte. Zudem sollen derzeit laut Videocardz nur nVidia selber und die Grafikkarten-Hersteller bereits Turing-Treiber besitzen, was den Kreis möglicher Leaks enorm einengt. Zumindest die Device ID passt zur GeForce RTX 2080 Ti, aufgrund der Ergebnis-Höhe lief die Karte ziemlich sicher unübertaktet. Wie schon bei den heutigen Spiele-Benchmarks zur GeForce RTX 2080 Ti gilt aber somit: Es kann keine Gewähr für die Richtigkeit dieser Zahlen übernommen werden - aber sie sehen zumindest von der Ergebnishöhe her ausreichend solide bzw. entsprechend unspektakulär aus.





Technik
TimeSpy (Score)
TimeSpy (Graphics)




GeForce RTX 2080 Ti  (?)
Turing TU102, 4352 Shader-Einheiten @ 352 Bit GDDR6-Interface
?
12825


Titan V
Volta GV100, 5120 Shader-Einheiten @ 3072 Bit HBM2-Interface
11692
11751


Titan Xp
Pascal GP102, 3840 Shader-Einheiten @ 384 Bit GDDR5X-Interface
9886
10188


GeForce RTX 2080  (?)
Turing TU104, 2944 Shader-Einheiten @ 256 Bit GDDR6-Interface
8547
10030


GeForce GTX 1080 Ti
Pascal GP102, 3584 Shader-Einheiten @ 352 Bit GDDR5X-Interface
Ø 8696
Ø 9429


GeForce GTX 1080
Pascal GP104, 2560 Shader-Einheiten @ 256 Bit GDDR5X-Interface
Ø 6905
Ø 7073


GeForce GTX 1070 Ti
Pascal GP104, 2432 Shader-Einheiten @ 256 Bit GDDR5-Interface
Ø 6680
Ø 6783


GeForce GTX 1070
Pascal GP104, 1920 Shader-Einheiten @ 256 Bit GDDR5-Interface
Ø 5761
Ø 5733


Radeon RX Vega 64
AMD Vega 10, 4096 Shader-Einheiten @ 2048 Bit HBM2-Interface
Ø 6994
Ø 7085


Radeon RX Vega 56
AMD Vega 10, 3584 Shader-Einheiten @ 2048 Bit HBM2-Interface
Ø 6170
Ø 6251


Quellen: GeForce RTX 2080 direkt bei 3DMark, GeForce RTX 2080 Ti bei Reddit, Titan V aus dem 3DCenter-Forum, Titan Xp bei Guru3D, alle anderen sind das mathematische Mittel aus den Werten von TweakPC, Hardware.fr, SweClockers und KitGuru