nVidia-Grafik

19

Erster 3DMark-Wert zur GeForce RTX 2060 zeigt auf eine Performance nahe der GeForce GTX 1080 hin

Bei Tom's Hardware zeigt man einen 3DMark13 "TimeSpy" Benchmark-Wert zur kommenden GeForce RTX 2060, welcher augenscheinlich aus nVidias eigenem Marketing-Material zur Karte stammt – in jedem Fall ist die gezeigte Marketing-Folie im nVidia-Stil abgefasst. Danach erreicht die neue Karte 7523 GPU-Punkte – was gemäß diesen augenscheinlich nVidia-eigenen Messungen um +10,7% besser ist als bei der GeForce GTX 1070 Ti sowie um -10,4% gegenüber der GeForce RTX 2070 zurückliegt. Jener Test unter dem 3DMark13 TimeSpy dürfte der GeForce RTX 2060 allerdings stark entgegenkommen, da deren klar geringere Speicherbandbreite hier wenig zählt, die geringe Differenz bei der Rechenleistung zur GeForce RTX 2070 viel eher den Ausschlag gibt. Anders formuliert dürfte der Performance-Abstand zwischen GeForce RTX 2060 und 2070 unter realen Spielen leicht größer ausfallen als unter dieser TimeSpy-Messung. Die bisherige Performance-Schätzung zur GeForce RTX 2060 von ~120-125% für die Referenzversion (sowie ~125-130% für die Founders Edition) kann somit weiterhin aufrecht erhalten werden. Die Founders Edition der GeForce RTX 2060 dürfte somit im besten Fall minimal hinter der GeForce GTX 1080 herauskommen – welche unter dem 3DMark13 TimeSpy augenscheinlich schon geschlagen wird.

TimeSpy (nVidia) TimeSpy (unabh.) TimeSpy (TweakT) 4K-Index
GeForce RTX 2070 FE 8398 - 8790 151%
Radeon RX Vega 64 - Ø 7072 6765 132%
GeForce GTX 1080 - Ø 7075 6798 132%
GeForce RTX 2060 FE 7523 - - ~125-130%
GeForce GTX 1070 Ti 6797 Ø 6805 6385 122%
Radeon RX Vega 56 - Ø 6178 6366 117%
GeForce GTX 1070 6005 Ø 5713 5524 107%
GeForce GTX 1060 6GB 4214 Ø 4119 4046 76%
TimeSpy-Benchmarks von nVidia bei Tom's Hardware, unabhängige Werte sind der Durchschnitt von TweakPC, Hardware.fr & SweClockers, die vorletzte Spalte gibt die Werte von TweakTown an, durchgehend Graphics-Werte
18

JEDEC bohrt die HBM2-Spezifikation auf: Bis zu 1200 MHz Takt, bis zu 24 GB Speicher pro Stack

Das Speicherstandardisierungs-Gremium JEDEC hat die offizielle Speicherspezifikation für HBM-Speicher aktualisiert, welche in der Folge nunmehr deutlich mehr Möglichkeiten für den aktuellen HBM2-Speicher bietet – ohne das dies allerdings als wirklich neuer Standard tituliert werden würde ("HBM1" und "HBM2" scheinen sowieso keine offiziellen Bezeichnungen zu sein, haben sich allerdings derart eingebürgert). Dabei sind die Änderungen durch die Aufbohrung des HBM-Standards durchaus beachtbar: Die Speichertakt geht von 1000 MHz DDR auf 1200 MHz hinauf, zudem steigt die mögliche Speichermenge pro HBM-Stack von 8 GB auf satte 24 GB an. Damit könnte der Stappelspeicher in seiner maximal üblichen Fassung (bei 4 Speicherstacks) eine Speichermenge von 96 GB liefern – was man in jedem Fall als ausreichend zukunftssicher angesehen kann, gerade gegenüber dem Anfang von HBM, wo man seinerzeit auf maximal 4 GB (bei den Fiji-basierten Grafikkarten) festhing. Mangels einer besseren Bezeichnung und zur besseren Abgrenzung lassen wir die neue Spezifikation derzeit einfach mal unter "HBM2.5" laufen, eventuell gibt es hierzu in Zukunft noch eine bessere Benennung.

HBM1 HBM2 HBM2.5
HBM-Stacks üblicherweise 4 üblicherweise 2/4 üblicherweise 2/4
GPU-Interface pro Stack 1024 Bit pro Stack 1024 Bit pro Stack 1024 Bit
üblicher Speichertakt bis zu 500 MHz DDR bis zu 1000 MHz DDR bis zu 1200 MHz DDR
maximale Speicherbandbreite (4 Stacks) 512 GB/sec
(512 MHz DDR @ 4096 Bit)
1024 GB/sec
(1000 MHz DDR @ 4096 Bit)
1228 GB/sec
(1200 MHz DDR @ 4096 Bit)
realisierbare Speichermengen pro Stack 1 GB pro Stack 1/2/4/8 GB pro Stack 1/2/4/8/12/16/24 GB
maximale Speichermenge (4 Stacks) 4 GB 32 GB 96 GB
maximale 2-Stack-Konfiguration 2 GB @ 256 GB/sec 16 GB @ 512 GB/sec 48 GB @ 614 GB/sec
maximale 4-Stack-Konfiguration 4 GB @ 512 GB/sec 32 GB @ 1024 GB/sec 96 GB @ 1228 GB/sec
Verfügbarkeit voll verfügbar voll verfügbar unbekannt
14

Umfrage-Auswertung: Wie ist der bisherige Eindruck zu RayTracing?

Mit einer Umfrage von Ende November wurde nach dem ersten Eindruck zu RayTracing gefragt, was sich primär auf das erste öffentlich einsichtbare Beispiel in Form von Battlefield V bezieht. Der Umfrage-Zeitpunkt war dabei noch vor dem letzten Patch zu Battlefield V, welcher die RayTracing-Performance sehr erheblich steigerte – insofern könnte derzeit die Bewertung auch schon wieder leicht besser ausfallen. Dies gilt insbesondere für die mit 38,7% größte Stimmengruppe, welche den Optik-Effekt von RayTracing durchaus anerkennen, den hiermit einhergehenden Performance-Verlust allerdings (auf derzeitiger Hardware) noch für zu groß halten. In dieser Gruppe dürfte es sicherlich angesichts der neuen Benchmark-Ergebnisse einige inzwischen positiver gegenüber RayTracing gestimmte Nutzer geben.

10

nVidias GeForce RTX 2060 zeigt sich mit 1920 Shader-Einheiten an einem 192 Bit Speicherinterface

Videocardz sind Bilder und Daten zur GeForce RTX 2060 zugeflogen – einer ersten Turing-Grafikkarte für den Preisbereich unterhalb von 500 Euro. Inwiefern die GeForce RTX 2060 dann wirklich dem Midrange-Segment zuzuordnen ist, muß sich allerdings noch erweisen, denn die zu dieser Karte genante Hardware ist vergleichsweise dick: Laut einem gezeigten Geekbench-Eintrag gibt es 30 Shader-Cluster, was auf 1920 Shader-Einheiten hinauslaufen sollte, die verbauten 6 GB Speicher zeigen dann direkt auf ein 192 Bit breites Speicherinterface hin. Jene Geekbench-Werte könnten natürlich auch von einer entsprechenden Mobile-Ausführung stammen, dies ist nicht ganz eindeutig, da nVidia zuletzt ja den "Mobile"-Suffix bei seinen Mobile-Beschleunigern offiziell weggelassen hat. Andererseits resultiert dieser Schritt auch daraus, das Desktop- und Mobile-Beschleuniger bei nVidia nunmehr grundsätzlich die gleiche Hardware (und sogar nahezu dieselben Taktraten) haben – ergo ist die Chance ziemlich hoch, das auch die Desktop-Ausführung der GeForce RTX 2060 mit jenen 1920 Shader-Einheiten an einem 192 Bit Speicherinterface antritt.

GeForce RTX 2060 GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti
Chipbasis ? nVidia TU106 nVidia TU104 nVidia TU102
Technik angbl. 30 Shader-Cluster, 1920 Shader-Einheiten, 192 Bit Speicherinterface 3 Raster-Engines, 36 Shader-Cluster, 2304 Shader-Einheiten, 144 TMUs, 36 RT-Cores, 288 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Speicherinterface (Vollausbau) 6 Raster-Engines, 46 Shader-Cluster, 2944 Shader-Einheiten, 184 TMUs, 46 RT-Cores, 368 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Interface (Salvage) 6 Raster-Engines, 68 Shader-Cluster, 4352 Shader-Einheiten, 272 TMUs, 68 RT-Cores, 544 Tensor-Cores, 88 ROPs, 5.5 MB Level2-Cache, 352 Bit GDDR6-Interface (Salvage)
Taktraten ? Ref: 1410/1620/3500 MHz Ref: 1515/1710/3500 MHz Ref: 1350/1635/3500 MHz
Speicher angbl. 6 GB 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6
TDP (GCP) ? Ref: 175W Ref: 215W Ref: 250W
4K Perf.Index geschätzt ~120-125% Ref: 146% Ref: 180% Ref: 228%
Listenpreis ? Ref: 499$ Ref: 699$ Ref: 999$
Release mglw. Jahresanfang 2019 16. Oktober 2018 19. September 2018 19. September 2018
5

Der 7nm-Prozeß verdoppelt die Fertigungskosten (auf gleicher Chipfläche)

Beim japanischen PC Watch (maschinelle Übersetzung ins Deutsche) hat man sich mit der Frage beschäftigt, wieso AMD bei Zen 2 auf ein Chiplet-Design setzt. Dabei nennt man als primäre Ursache die steigenden Kosten mit jedem Fertigungsverfahren – wobei der Kostenanstieg vom 14/16nm-Node auf den 7nm-Node besonders drastisch ausfallen soll. So haben sich die Kosten für einen 250mm² großen Chip zwischen 45nm und 14/16nm schon fast verdoppelt, nun aber soll allein der Sprung von 14/16nm auf 7nm eine erneute Kostenverdopplung mit sich bringen. Die hierzu angeführte Folie stammt von AMD selber, dürfte jedoch halbwegs korrekt sein, da AMD die 7nm-Fertigung letztlich auch selber benutzt. Trifft die angeführte Kostensteigerung grob in diesem Rahmen zu, zwingt die 7nm-Fertigung rein von der Kostenseite eigentlich zur Halbierung der Chipfläche (gegenüber vergleichbaren 14/16nm-Chips) – ansonsten würde der herauskommende 7nm-Chip glatt doppelt so teurer herauskommen, was nicht bei jedem damit erstellten Produkt am Markt wirklich darstellbar ist.

4

nVidia mit Fortnite-Itembundle sowie Verlängerung des Monster-Hunter-World-Spielebundles für GeForce GTX 1060, 1070 & 1070 Ti

nVidia hat zur Absatzankurbelung von GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti ein neues Bundle aufgelegt, welches dem F2P-Shooter "Fortnite" gilt und dort dem Grafikkarten-Käufer das "Counterattack-Set" sowie 2000 V-Bucks (Wert ca. 20 Dollar) zur Verfügung stellt. Da solcherart Item-Aktionen in aller Regel nur eine begrenzte Wirkung haben, wurde zudem das eigentlich kürzlich ausgelaufene Spielebundle für "Monster Hunter World" zugunsten der gleichen Grafikkarten verlängert, jenes läuft nunmehr bis zum 7. Januar 2019. Interessanterweise sollen die genannten Grafikkarten dabei mit beiden Bundles gleichzeitig ausgeliefert werden, zumindest bis zu diesem Stichtag (oder wenn die von nVidia eingekauften Lizenzkeys aufgebraucht sind). Damit bekommen Käufer der GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti durchaus etwas geboten, auch wenn AMDs aktuelles Spielebundle nochmals wertiger daherkommt.

3

nVidia stellt die "Titan RTX" mit dem Vollausbau des TU102-Chips und satten 24 GB Speicher vor

Unerwartet schnell nach seinen ersten Gamer-Lösungen hat nVidia heute mit der "Titan RTX" seine neue Titan-Grafikkarte der Turing-Generation vorgestellt – welche sich wie schon die vorherigen Titan V der Volta-Generation eindeutig nicht mehr an Spieler wendet. Dafür spricht allein der Preispunkt von wiederum astronomischen 2499 Dollar (bzw. 2699 Euro) – was zwar minimal weniger ist als bei der Titan V (2999 Dollar bzw. 3200 Euro), aber für Gamer dennoch weit jenseits von Gut und Böse rangiert. Vor allem bietet die Titan RTX abgesehen des Titan-Namens nicht wirklich viel mehr als eine GeForce RTX 2080 Ti im nunmehr einfach golden lackierten FE-Design: Sicherlich gibt es den beiderseits zugrundeliegenden TU102-Chip bei der Titan-Karte nunmehr im Vollausbau, was auf 6% mehr Hardware-Einheiten und ein 9% breiteres Speicherinterface hinausläuft. Theoretisch gibt es mit 1350/1770/3500 MHz auf der Titan-Karte sogar die höheren Taktraten als auf der Founders Edition zur GeForce RTX 2080 Ti, welche offiziell mit 1350/1635/3500 MHz geführt wird.

30

RayTracing unter Battlefield V: Aller Anfang ist schwer

Wie angekündigt und auch im Sinne der (noch) aktuellen Umfrage, wollen wir hiermit noch einmal zurückkommen zum (hervorragenden) RayTracing-Blindtest, welcher mittels des YouTube-Videos von Optimum Tech (ab Video-Zeitpunkt 1:17) absolviert werden kann (und sollte). Hiermit bietet sich eine gute Gelegenheit, den Stand des allerersten RayTracing-Versuchs sowohl für die Nachwelt zu dokumentieren, als auch natürlich als aktuelle Diskussions-Grundlage zu verwenden. Schließlich muß man anhand dieser Bilder klar sagen, das RayTracing im realen Gameplay von Battlefield V kaum einen beachtbaren Effekt hervorruft – im Gegensatz zu den Werbebildern seitens des Spielepublishers und von nVidia. Dies zeigt sich schon allein daran, das gemäß der Kommentare zum YouTube-Video sehr viele Anwender die RayTracing-Funktionalität regelrecht im falschen Bildteil vermutet haben: Aktives RayTracing ist jeweils links zu sehen auf (allen) diesen Vergleichsbildern unter Battlefield V (allesamt mit Copyright allein von Optimum Tech).

29

Die Grafikchip- und Grafikkarten-Marktanteile im dritten Quartal 2018

Seitens der Marktforscher von Jon Peddie Research liegen in zwei Meldungen – No. 1 & No. 2 Zahlen zu den Marktanteilen für Grafikchips im dritten Quartal 2018 vor. Von der alternativen Quelle in Form der Marktforscher von Mercury Research war zuletzt in dieser Frage leider nichts mehr zu hören (abgesehen von Zahlen zum CPU-Markt), so das wieder nur allein die Daten von Jon Peddie Research als Quellmaterial benutzt werden können. Jene sehen im Markt aller Grafikchips (inklusive der in die x86-Prozessoren integrierten also) die übliche eher kleinere Veränderung samt der üblichen totalen Intel-Dominanz. Selbige ist zuletzt wieder etwas stärker geworden, resultierend primär als schlechten Umsätzen im Feld der extra Grafikkarten und damit einem (weiteren) Bedeutungszuwachs im Feld der integrierten Grafiklösungen. Dabei hat sich in der Tendenz AMD allerdings etwas besser halten können – resultierend schlicht aus dem Umstand, das AMD mittels seiner Raven-Ridge-APUs selber integrierte Beschleuniger im Angebot hat, im Gegensatz zu nVidia.

Q3/2017 Q4/2017 Q1/2018 Q2/2018 Q3/2018
AMD 13,0%
13,0%
14,2%
 
14,9%
 
14,7%
 
14,1%
 
Intel 67,8%
70,1%
67,4%
 
66,6%
 
68,2%
 
69,7%
 
nVidia 19,3%
16,9%
18,4%
 
18,4%
 
17,0%
 
16,0%
 
Quellen: Jon Peddie Research (schwarz) bzw. Mercury Research (blau)
27

Umfrage-Auswertung: Wann werden die ersten 7nm-basierten Gamer-Grafikkarten erwartet?

Mittels einer Umfrage von Anfang September (und damit noch vor dem Turing-Launch) wurde die Frage gestellt, wann die ersten 7nm-basierten Gamer-Grafikkarten erwartet werden. Hierbei ging und geht es logischerweise nicht um Faktenwissen, sondern eine reine Erwartungshaltung – schließlich liegen die 7nm-Grafikkarten noch in einiger Entfernung, von nicht Gaming-bezogenen Pipecleanern wie Vega 20 prinzipgebunden abgesehen. Auch jetzt zwei Monate nach dem Zeitpunkt der Umfrage gibt es noch keine wirklich besseren Informationen zum Zeitpunkt der ersten 7nm-Beschleuniger – das ganze bleibt auch weiterhin rein im Bereich von Erwartungen. Und jene Erwartungshaltung sieht das Jahr 2019 in der Vorhand – für den Zeitraum Frühjahr bis Winter 2019 votierten mit 63,3% fast zwei Drittel der Umfrageteilnehmer. Dabei sieht die Tendenz eher nach Vorsicht als überschäumender Vorfreude aus – denn spätere Termine im Jahr 2019 bekamen leicht höhere Wertungen als frühere Termine im Jahr 2019.

Inhalt abgleichen