15

Umfrage-Auswertung: Wann dürften die aktuellen Grafikkartenspeicher-Mengen von 6-8 GB zu knapp werden?

Mittels einer Umfrage von Anfang März wurde nach diesem Zeitpunkt gefragt, wann der Grafikkartenspeicher der derzeit zumeist verkauften Grafikkarten-Modelle mit 6 & 8 GB Grafikkartenspeicher zu knapp werden dürften. Die derzeitige Einschätzung der 3DCenter-Leser zu dieser Frage verteilt sich genauso wie hierzu die Meinungslage üblicherweise breit auseinanderliegend ist: Zumindest die ersten drei Antwortoptionen erhielten jeweils sehr hohe Stimmanteile, allein die (am weitesten in der Zukunft liegende) Antwortoption "Jahr 2023" fiel demgegenüber bemerkbar ab. Die größten Stimmanteile konnte die Antwortoption "Jahr 2021" auf sich vereinigen, auch der Median der gesammten Umfrage liegt in diesem Bereich.

14

Hardware- und Nachrichten-Links des 13./14. April 2019

Notebookcheck haben sich mit den Performance-Differenzen verschiedener "GeForce RTX 2080 MaxQ" Mobile-Grafikösungen beschäftigt. Im Gegensatz zu vorherigen Pascal-Generation hat nVidia die Spezifikationen der (bisherigen) Turing-basierten Mobile-Beschleuniger wachsweich ausgelegt, mit sehr variablen TDPs und damit vielen Möglichkeiten für die Notebook-Hersteller, von der Performance her klar unterschiedliche Lösungen aufzulegen. Im Extremfall kann dies so weit gehen, das eine guteklassige "GeForce RTX 2070 Mobile" einer niedrig angesetzten "GeForce RTX 2080 MaxQ" das Wasser abgräbt – was man eigentlich nicht zwingend erwarten würde. Im Gegensatz zur Theorie haben Notebookcheck einen praktischen Fall vorliegen, wo zwei GeForce RTX 2080 MaxQ Mobile-Lösungen auf beachtbare Performance-Differenzen herauskommen. Zwar ist die Performance im Notebook immer etwas unterschiedlich, aber bei klar Grafikkarten-limitierten Szenarien (4K-Auflösung) und noch auf Basis derselben CPU sollten eigentlich kaum beachtbare Unterschiede herauskommen.

Asus Zephyrus S GX701GX Acer Triton 500
Technik Core i7-8750H, GeForce RTX 2080 MaxQ @ 90W TDP (990/1230/3500 MHz) Core i7-8750H, GeForce RTX 2080 MaxQ @ 80W TDP (735/1095/3500 MHz)
Spiele-Performance @ UltraHD 100% 92,0%
basierend auf den Benchmarks unter 16 Spiele-Titeln bei Notebookcheck
14 14

In welchem Preisbereich werden Grafikkarten gekauft (2019)?

Mit dieser Umfrage soll (in Wiederholung einer 2016er Umfrage) der Preisbereich ermittelt werden, in welchem die Grafikkarten-Käufer üblicherweise suchen. Als Antwortoptionen werden verschiedene preisliche Abstufungen angeboten – zuzüglich einer Angabe, welche festlegt, wie strikt man die jeweilige Preisobergrenze befolgt: Versucht man nur, im persönlichen Preisbereich zu bleiben, verschiebt dies aber je nach vorliegendem Angebot durchaus einmal – oder arbeitet man mit einer festen Preisobergrenze, welche faktisch niemals durchbrochen wird?
PS: Diskussion zur Umfrage und zum Umfrageergebnis in unserem Forum.

12

Hardware- und Nachrichten-Links des 12. April 2019

Von DSO Gaming, Overclock3D, TechPowerUP, WCCF Tech und letztlich GameGPU kommen Grafikkarten-Benchmarks zu "Devil May Cry 5". Das Spiel auf Basis der RE-Engine von Capcom hat nominell keine überragenden Systemanforderungen, was sich dann auch in den entsprechenden Benchmarks auf der Max-Qualität des Spiels sofort zeigt – wo eine GeForce RTX 2080 Ti unter FullHD problemlos die 200-fps-Marke knackt. Insofern ist es dann auch nicht verwunderlich, wenn für FullHD mit der maximalen Bildqualität selbst solche "Alt"-Beschleuniger wie GeForce GTX 670 4GB und Radeon HD 7950 noch 35 fps im Schnitt liefern (sollten). Die WQHD-Auflösung sieht vergleichsweise ähnlich handzahm aus, zur UltraHD-Auflösung gibt es hingegen einen sehr erheblichen Anforderungssprung, welcher am Ende nur noch vier Grafikkarten übrig läßt, welche unter selbiger die 60-fps-Marke erreichen.

Grafikkarten-Empfehlung für Devil May Cry 5
Ø 35 fps Ø 60 fps Gfx-Speicher
FullHD GeForce GTX 670 4GB, GeForce GTX 760 4GB GeForce GTX 960 4GB, GeForce GTX 1050 Ti, GeForce GTX 1650 oder Radeon HD 7950, Radeon R9 270X 4GB, Radeon R7 370 4GB, Radeon RX 460 4GB, Radeon RX 560 4GB GeForce GTX 780 Ti, GeForce GTX 970, GeForce GTX 1060 3GB, GeForce GTX 1660 oder Radeon R9 290, Radeon R9 390, Radeon RX 470, Radeon RX 570 3 GB
(besser 4 GB)
WQHD GeForce GTX Titan, GeForce GTX 780, GeForce GTX 970, GeForce GTX 1060 3GB, GeForce GTX 1650 oder Radeon HD 7970 "GHz", Radeon R9 280X,Radeon R9 380X, Radeon RX 470, Radeon RX 570 GeForce GTX 980 Ti, GeForce GTX 1070, GeForce GTX 1660 oder Radeon R9 Fury, Radeon RX 590 3 GB
(besser 4 GB)
UltraHD GeForce GTX 980 Ti, GeForce GTX 1070, GeForce GTX 1660 oder Radeon R9 Fury X, Radeon RX 590 GeForce GTX 1080 Ti, GeForce RTX 2080 oder Radeon VII 4 GB
(besser 6 GB)
jeweils bestmögliche Bildqualität, interpoliert gemäß der Benchmarks von TechPowerUP und GameGPU
11

Hardware- und Nachrichten-Links des 11. April 2019

Der neue nVidia-Treiber 425.31 bietet nun auch RayTracing auf Pascal-Grafikkarten (und auf den Turing-Karten ohne RayTracing-Hardware), so wie es seitens nVidia zur GDC versprochen wurde. nVidia schränkt diese Funktionalität allerdings ein auf Pascal-Grafikkarten ab der GeForce GTX 1060 6GB (deren 3-GB-Schwester ist also nicht mit dabei) sowie Turing-Grafikkarten ab der GeForce GTX 1660, jeweils inklusive aller Mobile-Äquivalente. Das ganze funktioniert nicht unähnlich wie bei der Titan V zum Jahresanfang in einem Software-Modus, wobei selbiger natürlich erheblich auf die Frameraten schlägt. Die nVidia-eigenen Benchmarks, welche die ComputerBase hierzu ausrollt, sehen gerade einmal eine GeForce GTX 1080 Ti noch hier und da die 30-fps-Grenze unter RayTracing erreichen. In beiden Fällen fällt die Performance des Pascal-Spitzenmodells damit grob auf das Niveau einer GeForce RTX 2060 herab, was als ungünstiger Tausch erscheint – hier wird klar zu viel Performance für das RayTracing-Feature verschleudert. Da in Zukunft logischerweise eher Spieletitel mit verstärktem RayTracing-Einsatz zu erwarten sind, dürfte dieser Software-Modus außerhalb von Techdemos eigentlich nirgendwo praktikabel einsetzbar sein – sondern dient nVidia eher nur als weitere Demonstration der "Überlegenheit" der RTX-Beschleuniger.

10

Hardware- und Nachrichten-Links des 10. April 2019

Aus unserem Forum kommt eine einleuchtende Begründung, wieso beim TU117-Chip der kommenden GeForce GTX 1650 dann doch wahrscheinlich gleich 1024 Shader-Einheiten zur Verfügung stehen (egal ob jene vollzählig bei der GeForce GTX 1650 genutzt werden). Denn bislang ist es bei nVidia immer so, das auf Chip-Ebene die TPCs ("Thread Processing Cluster") gleichförming auf die Raster-Engines aufteilbar sind. Dies geht allerdings bei 896 Shader-Einheiten im Turing-Stil einfach nicht mehr auf, denn diese Shader-Anzahl ergibt 14 Shader-Cluster, demzufolge 7 TPC (ab Turing enthält ein TPC immer zwei Shader-Cluster) – und jene 7 TPC lassen sich nicht gleichförmig auf 2 Raster-Engines aufteilen. Dies kann man bei einzelnen Grafiklösungen über deaktivierte Einheiten letztlich so tun, auf Chip-Ebene setzt man allerdings gewöhnlich immer nur gleichförmige Designs an. Insofern dürfte der TU117-Chip eher 1024 Shader-Einheiten aufweisen, die damit herauskommenden 16 Shader-Cluster samt 8 TPCs lassen sich perfekt auf die 2 Raster-Engines aufteilen.

Pascal Turing
Enthusiast GP102
6 Raster-Engines, 30 TPC, 30 Shader-Cluster, 3840 Shader-Einheiten auf 471mm²
TU102
6 Raster-Enginges, 36 TPC, 72 Shader-Cluster, 4608 Shader-Einheiten auf 754mm²
HighEnd GP104
4 Raster-Engines, 20 TPC, 20 Shader-Cluster, 2560 Shader-Einheiten auf 314mm²
TU104
6 Raster-Enginges, 24 TPC, 48 Shader-Cluster, 3072 Shader-Einheiten auf 545mm²
Midrange GP106
2 Raster-Engines, 10 TPC, 10 Shader-Cluster, 1280 Shader-Einheiten auf 200mm²
TU116
3 Raster-Engines, 12 TPC, 24 Shader-Cluster, 1536 Shader-Einheiten auf 284mm²
Mainstream GP107
2 Raster-Engines, 6 TPC, 6 Shader-Cluster, 768 Shader-Einheiten auf 132mm²
TU117
angen. 2 Raster-Engines, 8 TPC, 16 Shader-Cluster, 1024 Shader-Einheiten auf ~200mm²
9

Hardware- und Nachrichten-Links des 9. April 2019

Videocardz zeigen erste Bilder zur GeForce GTX 1650 – einmal seitens Zotac sowie einmal seitens Gainward & Palit. Jene Bilder bestätigen trotz Fehlens weiterer Daten einige Informationen zur kommenden Mainstream-Grafikkarte: Zum einen nennen die jeweiligen Verpackungen wiederum 4 GB GDDR5-Speicher, was dann (erneut) klar auf ein 128 Bit Speicherinterface beim zugrundeliegenden TU117-Chip hindeutet. Zum anderen kommen diese Karten trotz (wahrscheinlich nur leichter) Werksübertaktung jeweils ohne PCI-Express-Stromstecker aus, was die Karten-TDP auf maximal 75 Watt begrenzt. Dies ist wie bei der GeForce GTX 1050 Ti, allerdings tritt jene Pascal-basierte Mainstream-Lösung in der Realität mit einem Power-Limit von nur 60 Watt an, ist also real deutlich unterhalb ihrer TDP von 75 Watt angesiedelt. Genau jenen Spielraum dürfte nVidia bei der GeForce GTX 1650 ausnutzen, denn allein nur mittels der höheren Turing-Effizienz ist die zu zuletzt zu sehende Mehrperformance von +38% kaum zu erreichen. Von der GeForce GTX 1650 ist somit ab dem 22. April ein neues Mainstream-Niveau zu erwarten, welches nur knapp unterhalb der kleinsten Midrange-Beschleuniger á GeForce GTX 1060 3GB und Radeon RX 570 liegt.

GeForce GTX 1050 Ti GeForce GTX 1650 GeForce GTX 1060 3GB GeForce GTX 1660
Chip-Basis nVidia GP107 nVidia TU117 nVidia GP106 nVidia TU116
Architektur Pascal Turing ohne RT Pascal Turing ohne RT
Technik 2 Raster-Engines, 6 Shader-Cluster, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface (Vollausbau) 2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 128 Bit GDDR5-Interface (Vollausbau) 2 Raster-Engines, 9 Shader-Cluster, 1152 Shader-Einheiten, 72 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage) 3 Raster-Engines, 20 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage)
Taktraten 1290/1392/3500 MHz (DDR)
(Ø-Chiptakt: ~1640 MHz)
1485/?/4000 MHz (DDR) 1506/1708/4000 MHz (DDR) 1530/1785/4000 MHz (DDR)
Rohleistungen 2,5 TFlops & 112 GB/sec ~3,1 TFlops & 128 GB/sec 3,9 TFlops & 192 GB/sec 5,0 TFlops & 192 GB/sec
Speicher 4 GB GDDR5 4 GB GDDR5 3 GB GDDR5 6 GB GDDR5
FHD Perf.Index 360% gesch. ~470-500% 530% 650%
TDP (GCP) 75W  (Power-Limit 60W) 75W 120W 120W
Listenpreis 139$ 179$ - 219$
Release 25. Oktober 2016 22. April 2019 18. August 2016 14. März 2019
Alle Angaben zu derzeit noch nicht veröffentlichen Grafikkarten-Modellen (GeForce GTX 1650) sind als nicht gesichert anzusehen.
8

Hardware- und Nachrichten-Links des 8. April 2019

WCCF Tech berichten über eine im "Userbench" neu aufgetauchte nVidia-Grafikkarte, welche aufgrund ihrer Benchmark-Werte derzeit als "GeForce RTX 2070 Ti" tituliert wird. Allerdings ist hierbei die Chance auf einen Fake bzw. Scherz wesentlich höher als die Existenz exakt dieser Grafikkarte – und zwar ganz einfach wegen der Rahmenbedingungen des aktuellen nVidia-Portfolios. Jenes ist mit drei Grafikchips und drei Grafikkarten allein im HighEnd/Enthusiasten-Segment bereits ausreichend bestückt, eine dazwischengeschobene Karte würde kaum noch eine Lücke finden. Zumindest trifft dies klar für eine potentielle GeForce RTX 2070 Ti zu, welche sich ja preislich oberhalb der GeForce RTX 2070 (499$/599$) sowie unterhalb der GeForce RTX 2080 (699$/799$) einordnen müsste. Der einzige passende Preispunkt für eine potentielle GeForce RTX 2070 Ti wären hierbei 599 Dollar – womit die Karte dann in direkte Konkurrenz zur Founders Edition der GeForce RTX 2070 gehen würde. Dies ist vielleicht gangbar, aber auch nicht wirklich wahrscheinlich.

FHD-Index 4K-Index Verbr. Liste Straße
GeForce RTX 2080 FE 1250% 186% 228W 799$ 839€
GeForce RTX 2080 Ref. 1210% 180% ~215W 699$ 670-710€
GeForce RTX 2070 FE 1070% 151% ~191W 599$ 629€
GeForce RTX 2070 Ref. 1030% 146% ~174W 499$ 480-520€
7

Hardware- und Nachrichten-Links des 6./7. April 2019

Laut WCCF Tech wird AMD um den 23. April herum ein Treffen mit seinen Abnehmern (große OEMs & Grafikkarten-Hersteller) abhalten, auf welchen die kommenden Produkte in Form der Zen-2-Prozessoren & Navi-Grafikchips das Thema sein werden. Das ganze ist eine geschlossene Veranstaltung und wohl nur für Partnerfirmen im nordamerikanischen Raum gedacht, ergo dürften sich hierzu kaum größere Leaks ergeben – wohlweislich dürfte AMD gleichlautenden Veranstaltungen für anderen Weltregionen separat und später ansetzen, um eventuelle Leaks wenigstens halbwegs einzudämmen. Gegenüber den AMD-Partnern dürfte AMD aufgrund dieses Datums dann allerdings sicherlich vergleichsweise freigiebig sein, was jene zu erwarten haben – die AMD-Partner müssen schließlich vorab wissen, was es zu welchem Termin zu verkaufen gibt. Bei diesem Anlaß sollten dann also sicherlich gewisse Produktspezifikationen sowie in jedem Fall deren Launchtermine ausgerollt werden – mit einer gewissen Chance, das dies nachfolgend dann als Leak nach draußen dringt. Zu diesem späten Termin muß AMD am Ende solcherart Leaks auch nicht mehr mit aller Macht verhindern – helfen jene doch eher dabei, mehr Nutzerinteresse zugunsten der wenig später nachfolgenden Launches zu generieren.

6 6

Wie weit verbreitet ist Multi-GPU im Jahr 2019 noch?

Das früher einmal sehr interessante Thema Multi-GPU liegt derzeit eher darnieder, ausgelöst durch immer größer werdende Entfernung der Spieleentwickler und letztlich auch der Grafikchip-Hersteller hiervon. Nichtsdestotrotz gibt es noch Multi-GPU-User sowie auch viele ehemalige Nutzer – was mittels dieser Umfrage quantifiziert werden soll.
PS: Diskussion zur Umfrage und zum Umfrageergebnis in unserem Forum.

Aktueller Multi-GPU-Nutzer (AMD).
1% (20 Stimmen)
Aktueller Multi-GPU-Nutzer (nVidia).
2% (44 Stimmen)
Früherer Multi-GPU-Nutzer (3dfx).
7% (129 Stimmen)
Früherer Multi-GPU-Nutzer (ATi/AMD).
6% (121 Stimmen)
Früherer Multi-GPU-Nutzer (nVidia).
9% (176 Stimmen)
Früherer Multi-GPU-Nutzer (verschiedene Hersteller).
4% (77 Stimmen)
Niemals jemals Multi-GPU-Nutzer.
71% (1399 Stimmen)
Gesamte Stimmen: 1966
Inhalt abgleichen