nVidia-Grafik

18

JEDEC bohrt die HBM2-Spezifikation auf: Bis zu 1200 MHz Takt, bis zu 24 GB Speicher pro Stack

Das Speicherstandardisierungs-Gremium JEDEC hat die offizielle Speicherspezifikation für HBM-Speicher aktualisiert, welche in der Folge nunmehr deutlich mehr Möglichkeiten für den aktuellen HBM2-Speicher bietet – ohne das dies allerdings als wirklich neuer Standard tituliert werden würde ("HBM1" und "HBM2" scheinen sowieso keine offiziellen Bezeichnungen zu sein, haben sich allerdings derart eingebürgert). Dabei sind die Änderungen durch die Aufbohrung des HBM-Standards durchaus beachtbar: Die Speichertakt geht von 1000 MHz DDR auf 1200 MHz hinauf, zudem steigt die mögliche Speichermenge pro HBM-Stack von 8 GB auf satte 24 GB an. Damit könnte der Stappelspeicher in seiner maximal üblichen Fassung (bei 4 Speicherstacks) eine Speichermenge von 96 GB liefern – was man in jedem Fall als ausreichend zukunftssicher angesehen kann, gerade gegenüber dem Anfang von HBM, wo man seinerzeit auf maximal 4 GB (bei den Fiji-basierten Grafikkarten) festhing. Mangels einer besseren Bezeichnung und zur besseren Abgrenzung lassen wir die neue Spezifikation derzeit einfach mal unter "HBM2.5" laufen, eventuell gibt es hierzu in Zukunft noch eine bessere Benennung.

HBM1 HBM2 HBM2.5
HBM-Stacks üblicherweise 4 üblicherweise 2/4 üblicherweise 2/4
GPU-Interface pro Stack 1024 Bit pro Stack 1024 Bit pro Stack 1024 Bit
üblicher Speichertakt bis zu 500 MHz DDR bis zu 1000 MHz DDR bis zu 1200 MHz DDR
maximale Speicherbandbreite 512 GB/sec
(512 MHz DDR @ 4096 Bit)
2048 GB/sec
(1000 MHz DDR @ 8192 Bit)
2458 GB/sec
(1200 MHz DDR @ 8192 Bit)
realisierbare Speichermengen pro Stack 1 GB pro Stack 1/2/4/8 GB pro Stack 1/2/4/8/12/16/24 GB
maximale Speichermenge (4 Stacks) 4 GB 32 GB 96 GB
2-Stack-Konfiguration 2 GB @ 256 GB/sec 16 GB @ 512 GB/sec 48 GB @ 614 GB/sec
4-Stack-Konfiguration 4 GB @ 512 GB/sec 32 GB @ 1024 GB/sec 96 GB @ 1228 GB/sec
Verfügbarkeit voll verfügbar voll verfügbar unbekannt
14

Umfrage-Auswertung: Wie ist der bisherige Eindruck zu RayTracing?

Mit einer Umfrage von Ende November wurde nach dem ersten Eindruck zu RayTracing gefragt, was sich primär auf das erste öffentlich einsichtbare Beispiel in Form von Battlefield V bezieht. Der Umfrage-Zeitpunkt war dabei noch vor dem letzten Patch zu Battlefield V, welcher die RayTracing-Performance sehr erheblich steigerte – insofern könnte derzeit die Bewertung auch schon wieder leicht besser ausfallen. Dies gilt insbesondere für die mit 38,7% größte Stimmengruppe, welche den Optik-Effekt von RayTracing durchaus anerkennen, den hiermit einhergehenden Performance-Verlust allerdings (auf derzeitiger Hardware) noch für zu groß halten. In dieser Gruppe dürfte es sicherlich angesichts der neuen Benchmark-Ergebnisse einige inzwischen positiver gegenüber RayTracing gestimmte Nutzer geben.

10

nVidias GeForce RTX 2060 zeigt sich mit 1920 Shader-Einheiten an einem 192 Bit Speicherinterface

Videocardz sind Bilder und Daten zur GeForce RTX 2060 zugeflogen – einer ersten Turing-Grafikkarte für den Preisbereich unterhalb von 500 Euro. Inwiefern die GeForce RTX 2060 dann wirklich dem Midrange-Segment zuzuordnen ist, muß sich allerdings noch erweisen, denn die zu dieser Karte genante Hardware ist vergleichsweise dick: Laut einem gezeigten Geekbench-Eintrag gibt es 30 Shader-Cluster, was auf 1920 Shader-Einheiten hinauslaufen sollte, die verbauten 6 GB Speicher zeigen dann direkt auf ein 192 Bit breites Speicherinterface hin. Jene Geekbench-Werte könnten natürlich auch von einer entsprechenden Mobile-Ausführung stammen, dies ist nicht ganz eindeutig, da nVidia zuletzt ja den "Mobile"-Suffix bei seinen Mobile-Beschleunigern offiziell weggelassen hat. Andererseits resultiert dieser Schritt auch daraus, das Desktop- und Mobile-Beschleuniger bei nVidia nunmehr grundsätzlich die gleiche Hardware (und sogar nahezu dieselben Taktraten) haben – ergo ist die Chance ziemlich hoch, das auch die Desktop-Ausführung der GeForce RTX 2060 mit jenen 1920 Shader-Einheiten an einem 192 Bit Speicherinterface antritt.

GeForce RTX 2060 GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti
Chipbasis ? nVidia TU106 nVidia TU104 nVidia TU102
Technik angbl. 30 Shader-Cluster, 1920 Shader-Einheiten, 192 Bit Speicherinterface 3 Raster-Engines, 36 Shader-Cluster, 2304 Shader-Einheiten, 144 TMUs, 36 RT-Cores, 288 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Speicherinterface (Vollausbau) 6 Raster-Engines, 46 Shader-Cluster, 2944 Shader-Einheiten, 184 TMUs, 46 RT-Cores, 368 Tensor-Cores, 64 ROPs, 4 MB Level2-Cache, 256 Bit GDDR6-Interface (Salvage) 6 Raster-Engines, 68 Shader-Cluster, 4352 Shader-Einheiten, 272 TMUs, 68 RT-Cores, 544 Tensor-Cores, 88 ROPs, 5.5 MB Level2-Cache, 352 Bit GDDR6-Interface (Salvage)
Taktraten ? Ref: 1410/1620/3500 MHz Ref: 1515/1710/3500 MHz Ref: 1350/1635/3500 MHz
Speicher angbl. 6 GB 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6
TDP (GCP) ? Ref: 175W Ref: 215W Ref: 250W
4K Perf.Index geschätzt ~120-125% Ref: 146% Ref: 180% Ref: 228%
Listenpreis ? Ref: 499$ Ref: 699$ Ref: 999$
Release mglw. Jahresanfang 2019 16. Oktober 2018 19. September 2018 19. September 2018
5

Der 7nm-Prozeß verdoppelt die Fertigungskosten (auf gleicher Chipfläche)

Beim japanischen PC Watch (maschinelle Übersetzung ins Deutsche) hat man sich mit der Frage beschäftigt, wieso AMD bei Zen 2 auf ein Chiplet-Design setzt. Dabei nennt man als primäre Ursache die steigenden Kosten mit jedem Fertigungsverfahren – wobei der Kostenanstieg vom 14/16nm-Node auf den 7nm-Node besonders drastisch ausfallen soll. So haben sich die Kosten für einen 250mm² großen Chip zwischen 45nm und 14/16nm schon fast verdoppelt, nun aber soll allein der Sprung von 14/16nm auf 7nm eine erneute Kostenverdopplung mit sich bringen. Die hierzu angeführte Folie stammt von AMD selber, dürfte jedoch halbwegs korrekt sein, da AMD die 7nm-Fertigung letztlich auch selber benutzt. Trifft die angeführte Kostensteigerung grob in diesem Rahmen zu, zwingt die 7nm-Fertigung rein von der Kostenseite eigentlich zur Halbierung der Chipfläche (gegenüber vergleichbaren 14/16nm-Chips) – ansonsten würde der herauskommende 7nm-Chip glatt doppelt so teurer herauskommen, was nicht bei jedem damit erstellten Produkt am Markt wirklich darstellbar ist.

4

nVidia mit Fortnite-Itembundle sowie Verlängerung des Monster-Hunter-World-Spielebundles für GeForce GTX 1060, 1070 & 1070 Ti

nVidia hat zur Absatzankurbelung von GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti ein neues Bundle aufgelegt, welches dem F2P-Shooter "Fortnite" gilt und dort dem Grafikkarten-Käufer das "Counterattack-Set" sowie 2000 V-Bucks (Wert ca. 20 Dollar) zur Verfügung stellt. Da solcherart Item-Aktionen in aller Regel nur eine begrenzte Wirkung haben, wurde zudem das eigentlich kürzlich ausgelaufene Spielebundle für "Monster Hunter World" zugunsten der gleichen Grafikkarten verlängert, jenes läuft nunmehr bis zum 7. Januar 2019. Interessanterweise sollen die genannten Grafikkarten dabei mit beiden Bundles gleichzeitig ausgeliefert werden, zumindest bis zu diesem Stichtag (oder wenn die von nVidia eingekauften Lizenzkeys aufgebraucht sind). Damit bekommen Käufer der GeForce GTX 1060 6GB, GeForce GTX 1070 und GeForce GTX 1070 Ti durchaus etwas geboten, auch wenn AMDs aktuelles Spielebundle nochmals wertiger daherkommt.

3

nVidia stellt die "Titan RTX" mit dem Vollausbau des TU102-Chips und satten 24 GB Speicher vor

Unerwartet schnell nach seinen ersten Gamer-Lösungen hat nVidia heute mit der "Titan RTX" seine neue Titan-Grafikkarte der Turing-Generation vorgestellt – welche sich wie schon die vorherigen Titan V der Volta-Generation eindeutig nicht mehr an Spieler wendet. Dafür spricht allein der Preispunkt von wiederum astronomischen 2499 Dollar (bzw. 2699 Euro) – was zwar minimal weniger ist als bei der Titan V (2999 Dollar bzw. 3200 Euro), aber für Gamer dennoch weit jenseits von Gut und Böse rangiert. Vor allem bietet die Titan RTX abgesehen des Titan-Namens nicht wirklich viel mehr als eine GeForce RTX 2080 Ti im nunmehr einfach golden lackierten FE-Design: Sicherlich gibt es den beiderseits zugrundeliegenden TU102-Chip bei der Titan-Karte nunmehr im Vollausbau, was auf 6% mehr Hardware-Einheiten und ein 9% breiteres Speicherinterface hinausläuft. Theoretisch gibt es mit 1350/1770/3500 MHz auf der Titan-Karte sogar die höheren Taktraten als auf der Founders Edition zur GeForce RTX 2080 Ti, welche offiziell mit 1350/1635/3500 MHz geführt wird.

30

RayTracing unter Battlefield V: Aller Anfang ist schwer

Wie angekündigt und auch im Sinne der (noch) aktuellen Umfrage, wollen wir hiermit noch einmal zurückkommen zum (hervorragenden) RayTracing-Blindtest, welcher mittels des YouTube-Videos von Optimum Tech (ab Video-Zeitpunkt 1:17) absolviert werden kann (und sollte). Hiermit bietet sich eine gute Gelegenheit, den Stand des allerersten RayTracing-Versuchs sowohl für die Nachwelt zu dokumentieren, als auch natürlich als aktuelle Diskussions-Grundlage zu verwenden. Schließlich muß man anhand dieser Bilder klar sagen, das RayTracing im realen Gameplay von Battlefield V kaum einen beachtbaren Effekt hervorruft – im Gegensatz zu den Werbebildern seitens des Spielepublishers und von nVidia. Dies zeigt sich schon allein daran, das gemäß der Kommentare zum YouTube-Video sehr viele Anwender die RayTracing-Funktionalität regelrecht im falschen Bildteil vermutet haben: Aktives RayTracing ist jeweils links zu sehen auf (allen) diesen Vergleichsbildern unter Battlefield V (allesamt mit Copyright allein von Optimum Tech).

29

Die Grafikchip- und Grafikkarten-Marktanteile im dritten Quartal 2018

Seitens der Marktforscher von Jon Peddie Research liegen in zwei Meldungen – No. 1 & No. 2 Zahlen zu den Marktanteilen für Grafikchips im dritten Quartal 2018 vor. Von der alternativen Quelle in Form der Marktforscher von Mercury Research war zuletzt in dieser Frage leider nichts mehr zu hören (abgesehen von Zahlen zum CPU-Markt), so das wieder nur allein die Daten von Jon Peddie Research als Quellmaterial benutzt werden können. Jene sehen im Markt aller Grafikchips (inklusive der in die x86-Prozessoren integrierten also) die übliche eher kleinere Veränderung samt der üblichen totalen Intel-Dominanz. Selbige ist zuletzt wieder etwas stärker geworden, resultierend primär als schlechten Umsätzen im Feld der extra Grafikkarten und damit einem (weiteren) Bedeutungszuwachs im Feld der integrierten Grafiklösungen. Dabei hat sich in der Tendenz AMD allerdings etwas besser halten können – resultierend schlicht aus dem Umstand, das AMD mittels seiner Raven-Ridge-APUs selber integrierte Beschleuniger im Angebot hat, im Gegensatz zu nVidia.

Q3/2017 Q4/2017 Q1/2018 Q2/2018 Q3/2018
AMD 13,0%
13,0%
14,2%
 
14,9%
 
14,7%
 
14,1%
 
Intel 67,8%
70,1%
67,4%
 
66,6%
 
68,2%
 
69,7%
 
nVidia 19,3%
16,9%
18,4%
 
18,4%
 
17,0%
 
16,0%
 
Quellen: Jon Peddie Research (schwarz) bzw. Mercury Research (blau)
27

Umfrage-Auswertung: Wann werden die ersten 7nm-basierten Gamer-Grafikkarten erwartet?

Mittels einer Umfrage von Anfang September (und damit noch vor dem Turing-Launch) wurde die Frage gestellt, wann die ersten 7nm-basierten Gamer-Grafikkarten erwartet werden. Hierbei ging und geht es logischerweise nicht um Faktenwissen, sondern eine reine Erwartungshaltung – schließlich liegen die 7nm-Grafikkarten noch in einiger Entfernung, von nicht Gaming-bezogenen Pipecleanern wie Vega 20 prinzipgebunden abgesehen. Auch jetzt zwei Monate nach dem Zeitpunkt der Umfrage gibt es noch keine wirklich besseren Informationen zum Zeitpunkt der ersten 7nm-Beschleuniger – das ganze bleibt auch weiterhin rein im Bereich von Erwartungen. Und jene Erwartungshaltung sieht das Jahr 2019 in der Vorhand – für den Zeitraum Frühjahr bis Winter 2019 votierten mit 63,3% fast zwei Drittel der Umfrageteilnehmer. Dabei sieht die Tendenz eher nach Vorsicht als überschäumender Vorfreude aus – denn spätere Termine im Jahr 2019 bekamen leicht höhere Wertungen als frühere Termine im Jahr 2019.

23

Angeblicher Benchmark zur "GeForce RTX 2060" unter Final Fantasy XV aufgetaucht

In der Benchmark-Datenbank zu Final Fantasy XV ist mal wieder der Wert einer noch nicht veröffentlichten Grafikkarte aufgetaucht, welcher somit kontrovers diskutiert werden kann: Hierbei soll eine (derart genannte) "GeForce RTX 2060" unter der UltraHD-Auflösung auf der "High"-Bildqualität ihre 2589 Punkte erreicht haben – was um +30% schneller ist, als eine GeForce GTX 1060 6GB im Durchschnitt erreicht (1985 Punkte). Dies wäre wohl gerade so ausreichend für eine neue Midrange-Lösung, wobei man sich einen etwas höheren Performancegewinn zur Vorgänger-Lösung durchaus vorstellen könnte. Wirklich sicher, ob sich unter diesem Eintrag tatsächlich eine GeForce RTX 2060 verbirgt, kann man natürlich nicht sein – jener Benchmark greift vermutlich nur auf die offiziellen Device-IDs zu, welche sich allerdings mit einer BIOS-Modifikation problemlos verändern lassen. Im übrigen listet jene Benchmark-Datenbank nach wie vor das schon vor einiger Zeit genannte "NVIDIA Graphics Device" auf, welches mit seinem Performancebild von 3090 Punkten (und damit +56% zur GeForce GTX 1060 6GB) durchaus auch ein Kandidat für eine Turing-basierte Midrange-Lösung wäre.

Technik 4K @ "High"
GeForce RTX 2070 nVidia Turing TU106, 2304 SE @ 256 Bit GDDR6 3927
GeForce GTX 1080 nVidia Pascal GP104, 2560 SE @ 256 Bit GDDDR5X 3401
GeForce GTX 1070 Ti nVidia Pascal GP104, 2432 SE @ 256 Bit GDDR5 3136
"NVIDIA Graphics Device" unklar 3090
GeForce GTX 1070 nVidia Pascal GP104, 1920 SE @ 256 Bit GDDR5 2748
"GeForce RTX 2060" potentielle Midrange-Lösung von Turing 2589
GeForce GTX 1060 6GB nVidia Pascal GP106, 1280 SE @ 192 Bit GDDR5 1985
gemäß der Resultate aus der Final Fantasy XV Benchmark-Datenbank (Stand 23. November 2018)
Inhalt abgleichen