nVidia-Grafik

26

Gerüchteküche: nVidia wird die Turing-Generation mit GTX-Grafikkarten (ohne RayTracing) weiter ausbauen

Laut Videocardz (mit eigenen sowie fernöstlichen Quellen) wird nVidia nach der GeForce RTX 2060 die Turing-Generation tatsächlich weiter ausbauen – dann allerdings mit GTX-Grafikkarten, welche also kein (aktives) RayTracing mitbringen werden. Damit wird es nach der GeForce RTX 2060 also beispielsweise keine GeForce RTX 2050 geben – interessanterweise aber auch keine GeForce GTX 2050. Denn nVidia scheint die nachfolgenden Turing-Grafikkarten nicht in der GeForce-20-Serie, sondern vielmehr in eine extra GeForce-11-Serie einzuordnen, denn als erste nachfolgende Karte wurde eine "GeForce GTX 1160 Ti" genannt. Teilweise wurde die Karte in (augenscheinlich) nVidias eigenem Marketingmaterial sogar als "GeForce GTX 1660 Ti" angegeben, aber dies könnte auch einfach nur ein Schreibfehler gewesen sein.

21

Erster Test zeigt die GeForce GTX 1060 GDDR5X exakt genauso schnell wie die reguläre GDDR5-Variante

Bei TechPowerUp gibt es den ersten Test zu einer GeForce GTX 1060 GDDR5X seitens KFA2. Hiermit klärt sich erst einmal sicher, das für diese Karte der größere GP104-Chip verwendet wird – TechPowerUp haben jenen als "GP104-150" derart auf der Platine fotographiert, auch GPU-Z liest dies inzwischen entsprechend aus. Zielsetzung der Karte ist jedoch augenscheinlich weiterhin der glatte Ersatz der regulären GeForce GTX 1060 6GB – sprich, die real zur Verfügung stehende Hardware entspricht komplett der regulären GeForce GTX 1060 6GB mit deren nominellen GDDR5-Speicher. So wird der GP104-Chip der GeForce GTX 1060 GDDR5X auf das Niveau der regulären GeForce GTX 1060 6GB (von 1280 Shader-Einheiten) heruntergestutzt, die Chip-Taktraten sind dieselben – und letztlich läuft auch der GDDR5X-Speicher untypisch niedrig auf 2000 MHz QDR, sprich mit einer Datenrate von 8 Gbps. Dies entspricht der Datenrate der regulären GeForce GTX 1060 mit GDDR5-Speicher – obwohl der bei der konkreten KFA2-Karte verbaute GDDR5X-Speicher mit (spezifiziert) 2750 MHz QDR (11 Gbps) eigentlich wesentlich schneller laufen könnte.

19

Erster 3DMark-Wert zur GeForce RTX 2060 zeigt auf eine Performance nahe der GeForce GTX 1080 hin

Bei Tom's Hardware zeigt man einen 3DMark13 "TimeSpy" Benchmark-Wert zur kommenden GeForce RTX 2060, welcher augenscheinlich aus nVidias eigenem Marketing-Material zur Karte stammt – in jedem Fall ist die gezeigte Marketing-Folie im nVidia-Stil abgefasst. Danach erreicht die neue Karte 7523 GPU-Punkte – was gemäß diesen augenscheinlich nVidia-eigenen Messungen um +10,7% besser ist als bei der GeForce GTX 1070 Ti sowie um -10,4% gegenüber der GeForce RTX 2070 zurückliegt. Jener Test unter dem 3DMark13 TimeSpy dürfte der GeForce RTX 2060 allerdings stark entgegenkommen, da deren klar geringere Speicherbandbreite hier wenig zählt, die geringe Differenz bei der Rechenleistung zur GeForce RTX 2070 viel eher den Ausschlag gibt. Anders formuliert dürfte der Performance-Abstand zwischen GeForce RTX 2060 und 2070 unter realen Spielen leicht größer ausfallen als unter dieser TimeSpy-Messung. Die bisherige Performance-Schätzung zur GeForce RTX 2060 von ~120-125% für die Referenzversion (sowie ~125-130% für die Founders Edition) kann somit weiterhin aufrecht erhalten werden. Die Founders Edition der GeForce RTX 2060 dürfte somit im besten Fall minimal hinter der GeForce GTX 1080 herauskommen – welche unter dem 3DMark13 TimeSpy augenscheinlich schon geschlagen wird.

TimeSpy (nVidia) TimeSpy (unabh.) TimeSpy (TweakT) 4K-Index
GeForce RTX 2070 FE 8398 - 8790 151%
Radeon RX Vega 64 - Ø 7072 6765 132%
GeForce GTX 1080 - Ø 7075 6798 132%
GeForce RTX 2060 FE 7523 - - ~125-130%
GeForce GTX 1070 Ti 6797 Ø 6805 6385 122%
Radeon RX Vega 56 - Ø 6178 6366 117%
GeForce GTX 1070 6005 Ø 5713 5524 107%
GeForce GTX 1060 6GB 4214 Ø 4119 4046 76%
TimeSpy-Benchmarks von nVidia bei Tom's Hardware, unabhängige Werte sind der Durchschnitt von TweakPC, Hardware.fr & SweClockers, die vorletzte Spalte gibt die Werte von TweakTown an, durchgehend Graphics-Werte
18

JEDEC bohrt die HBM2-Spezifikation auf: Bis zu 1200 MHz Takt, bis zu 24 GB Speicher pro Stack

Das Speicherstandardisierungs-Gremium JEDEC hat die offizielle Speicherspezifikation für HBM-Speicher aktualisiert, welche in der Folge nunmehr deutlich mehr Möglichkeiten für den aktuellen HBM2-Speicher bietet – ohne das dies allerdings als wirklich neuer Standard tituliert werden würde ("HBM1" und "HBM2" scheinen sowieso keine offiziellen Bezeichnungen zu sein, haben sich allerdings derart eingebürgert). Dabei sind die Änderungen durch die Aufbohrung des HBM-Standards durchaus beachtbar: Die Speichertakt geht von 1000 MHz DDR auf 1200 MHz hinauf, zudem steigt die mögliche Speichermenge pro HBM-Stack von 8 GB auf satte 24 GB an. Damit könnte der Stappelspeicher in seiner maximal üblichen Fassung (bei 4 Speicherstacks) eine Speichermenge von 96 GB liefern – was man in jedem Fall als ausreichend zukunftssicher angesehen kann, gerade gegenüber dem Anfang von HBM, wo man seinerzeit auf maximal 4 GB (bei den Fiji-basierten Grafikkarten) festhing. Mangels einer besseren Bezeichnung und zur besseren Abgrenzung lassen wir die neue Spezifikation derzeit einfach mal unter "HBM2.5" laufen, eventuell gibt es hierzu in Zukunft noch eine bessere Benennung.

HBM1 HBM2 HBM2.5
HBM-Stacks üblicherweise 4 üblicherweise 2/4 üblicherweise 2/4
GPU-Interface pro Stack 1024 Bit pro Stack 1024 Bit pro Stack 1024 Bit
üblicher Speichertakt bis zu 500 MHz DDR bis zu 1000 MHz DDR bis zu 1200 MHz DDR
maximale Speicherbandbreite (4 Stacks) 512 GB/sec
(512 MHz DDR @ 4096 Bit)
1024 GB/sec
(1000 MHz DDR @ 4096 Bit)
1228 GB/sec
(1200 MHz DDR @ 4096 Bit)
realisierbare Speichermengen pro Stack 1 GB pro Stack 1/2/4/8 GB pro Stack 1/2/4/8/12/16/24 GB
maximale Speichermenge (4 Stacks) 4 GB 32 GB 96 GB
maximale 2-Stack-Konfiguration 2 GB @ 256 GB/sec 16 GB @ 512 GB/sec 48 GB @ 614 GB/sec
maximale 4-Stack-Konfiguration 4 GB @ 512 GB/sec 32 GB @ 1024 GB/sec 96 GB @ 1228 GB/sec
Verfügbarkeit voll verfügbar voll verfügbar unbekannt
14

Umfrage-Auswertung: Wie ist der bisherige Eindruck zu RayTracing?

Mit einer Umfrage von Ende November wurde nach dem ersten Eindruck zu RayTracing gefragt, was sich primär auf das erste öffentlich einsichtbare Beispiel in Form von Battlefield V bezieht. Der Umfrage-Zeitpunkt war dabei noch vor dem letzten Patch zu Battlefield V, welcher die RayTracing-Performance sehr erheblich steigerte – insofern könnte derzeit die Bewertung auch schon wieder leicht besser ausfallen. Dies gilt insbesondere für die mit 38,7% größte Stimmengruppe, welche den Optik-Effekt von RayTracing durchaus anerkennen, den hiermit einhergehenden Performance-Verlust allerdings (auf derzeitiger Hardware) noch für zu groß halten. In dieser Gruppe dürfte es sicherlich angesichts der neuen Benchmark-Ergebnisse einige inzwischen positiver gegenüber RayTracing gestimmte Nutzer geben.

10

nVidias GeForce RTX 2060 zeigt sich mit 1920 Shader-Einheiten an einem 192 Bit Speicherinterface

Videocardz sind Bilder und Daten zur GeForce RTX 2060 zugeflogen – einer ersten Turing-Grafikkarte für den Preisbereich unterhalb von 500 Euro. Inwiefern die GeForce RTX 2060 dann wirklich dem Midrange-Segment zuzuordnen ist, muß sich allerdings noch erweisen, denn die zu dieser Karte genante Hardware ist vergleichsweise dick: Laut einem gezeigten Geekbench-Eintrag gibt es 30 Shader-Cluster, was auf 1920 Shader-Einheiten hinauslaufen sollte, die verbauten 6 GB Speicher zeigen dann direkt auf ein 192 Bit breites Speicherinterface hin. Jene Geekbench-Werte könnten natürlich auch von einer entsprechenden Mobile-Ausführung stammen, dies ist nicht ganz eindeutig, da nVidia zuletzt ja den "Mobile"-Suffix bei seinen Mobile-Beschleunigern offiziell weggelassen hat. Andererseits resultiert dieser Schritt auch daraus, das Desktop- und Mobile-Beschleuniger bei nVidia nunmehr grundsätzlich die gleiche Hardware (und sogar nahezu dieselben Taktraten) haben – ergo ist die Chance ziemlich hoch, das auch die Desktop-Ausführung der GeForce RTX 2060 mit jenen 1920 Shader-Einheiten an einem 192 Bit Speicherinterface antritt.

GeForce RTX 2060 GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti
Chipbasis ? nVidia TU106 nVidia TU104 nVidia TU102
Technik angbl. 30 Shader-Cluster, 1920 Shader-Einheiten, 192 Bit Speicherinterface 3 Raster-Engines, 36 Shader-Cluster, 2304 Shader-Einheiten, 144 TMUs, 36 RT-Cores, 288 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Speicherinterface (Vollausbau) 6 Raster-Engines, 46 Shader-Cluster, 2944 Shader-Einheiten, 184 TMUs, 46 RT-Cores, 368 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Interface (Salvage) 6 Raster-Engines, 68 Shader-Cluster, 4352 Shader-Einheiten, 272 TMUs, 68 RT-Cores, 544 Tensor-Cores, 88 ROPs, 5.5 MB Level2-Cache, 352 Bit GDDR6-Interface (Salvage)
Taktraten ? Ref: 1410/1620/3500 MHz Ref: 1515/1710/3500 MHz Ref: 1350/1635/3500 MHz
Speicher angbl. 6 GB 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6
TDP (GCP) ? Ref: 175W Ref: 215W Ref: 250W
4K Perf.Index geschätzt ~120-125% Ref: 146% Ref: 180% Ref: 228%
Listenpreis ? Ref: 499$ Ref: 699$ Ref: 999$
Release mglw. Jahresanfang 2019 16. Oktober 2018 19. September 2018 19. September 2018
5

Der 7nm-Prozeß verdoppelt die Fertigungskosten (auf gleicher Chipfläche)

Beim japanischen PC Watch (maschinelle Übersetzung ins Deutsche) hat man sich mit der Frage beschäftigt, wieso AMD bei Zen 2 auf ein Chiplet-Design setzt. Dabei nennt man als primäre Ursache die steigenden Kosten mit jedem Fertigungsverfahren – wobei der Kostenanstieg vom 14/16nm-Node auf den 7nm-Node besonders drastisch ausfallen soll. So haben sich die Kosten für einen 250mm² großen Chip zwischen 45nm und 14/16nm schon fast verdoppelt, nun aber soll allein der Sprung von 14/16nm auf 7nm eine erneute Kostenverdopplung mit sich bringen. Die hierzu angeführte Folie stammt von AMD selber, dürfte jedoch halbwegs korrekt sein, da AMD die 7nm-Fertigung letztlich auch selber benutzt. Trifft die angeführte Kostensteigerung grob in diesem Rahmen zu, zwingt die 7nm-Fertigung rein von der Kostenseite eigentlich zur Halbierung der Chipfläche (gegenüber vergleichbaren 14/16nm-Chips) – ansonsten würde der herauskommende 7nm-Chip glatt doppelt so teurer herauskommen, was nicht bei jedem damit erstellten Produkt am Markt wirklich darstellbar ist.

4

nVidia mit Fortnite-Itembundle sowie Verlängerung des Monster-Hunter-World-Spielebundles für GeForce GTX 1060, 1070 & 1070 Ti

nVidia hat zur Absatzankurbelung von GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti ein neues Bundle aufgelegt, welches dem F2P-Shooter "Fortnite" gilt und dort dem Grafikkarten-Käufer das "Counterattack-Set" sowie 2000 V-Bucks (Wert ca. 20 Dollar) zur Verfügung stellt. Da solcherart Item-Aktionen in aller Regel nur eine begrenzte Wirkung haben, wurde zudem das eigentlich kürzlich ausgelaufene Spielebundle für "Monster Hunter World" zugunsten der gleichen Grafikkarten verlängert, jenes läuft nunmehr bis zum 7. Januar 2019. Interessanterweise sollen die genannten Grafikkarten dabei mit beiden Bundles gleichzeitig ausgeliefert werden, zumindest bis zu diesem Stichtag (oder wenn die von nVidia eingekauften Lizenzkeys aufgebraucht sind). Damit bekommen Käufer der GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti durchaus etwas geboten, auch wenn AMDs aktuelles Spielebundle nochmals wertiger daherkommt.

3

nVidia stellt die "Titan RTX" mit dem Vollausbau des TU102-Chips und satten 24 GB Speicher vor

Unerwartet schnell nach seinen ersten Gamer-Lösungen hat nVidia heute mit der "Titan RTX" seine neue Titan-Grafikkarte der Turing-Generation vorgestellt – welche sich wie schon die vorherigen Titan V der Volta-Generation eindeutig nicht mehr an Spieler wendet. Dafür spricht allein der Preispunkt von wiederum astronomischen 2499 Dollar (bzw. 2699 Euro) – was zwar minimal weniger ist als bei der Titan V (2999 Dollar bzw. 3200 Euro), aber für Gamer dennoch weit jenseits von Gut und Böse rangiert. Vor allem bietet die Titan RTX abgesehen des Titan-Namens nicht wirklich viel mehr als eine GeForce RTX 2080 Ti im nunmehr einfach golden lackierten FE-Design: Sicherlich gibt es den beiderseits zugrundeliegenden TU102-Chip bei der Titan-Karte nunmehr im Vollausbau, was auf 6% mehr Hardware-Einheiten und ein 9% breiteres Speicherinterface hinausläuft. Theoretisch gibt es mit 1350/1770/3500 MHz auf der Titan-Karte sogar die höheren Taktraten als auf der Founders Edition zur GeForce RTX 2080 Ti, welche offiziell mit 1350/1635/3500 MHz geführt wird.

30

RayTracing unter Battlefield V: Aller Anfang ist schwer

Wie angekündigt und auch im Sinne der (noch) aktuellen Umfrage, wollen wir hiermit noch einmal zurückkommen zum (hervorragenden) RayTracing-Blindtest, welcher mittels des YouTube-Videos von Optimum Tech (ab Video-Zeitpunkt 1:17) absolviert werden kann (und sollte). Hiermit bietet sich eine gute Gelegenheit, den Stand des allerersten RayTracing-Versuchs sowohl für die Nachwelt zu dokumentieren, als auch natürlich als aktuelle Diskussions-Grundlage zu verwenden. Schließlich muß man anhand dieser Bilder klar sagen, das RayTracing im realen Gameplay von Battlefield V kaum einen beachtbaren Effekt hervorruft – im Gegensatz zu den Werbebildern seitens des Spielepublishers und von nVidia. Dies zeigt sich schon allein daran, das gemäß der Kommentare zum YouTube-Video sehr viele Anwender die RayTracing-Funktionalität regelrecht im falschen Bildteil vermutet haben: Aktives RayTracing ist jeweils links zu sehen auf (allen) diesen Vergleichsbildern unter Battlefield V (allesamt mit Copyright allein von Optimum Tech).

Inhalt abgleichen