Bei der Umfrage von letzter Woche ging es um die Frage, wieviel Grafikkartenspeicher für eine jetzt neu herauskommende HighEnd-Lösung als ausreichend angesehen wird. Hierbei ging es eher um die unterste Menge an Grafikkartenspeicher, welcher diese Grafikkarte noch sinnvoll verwendbar macht – und weniger um die Frage, was man am liebsten als Speichermenge sehen würde. Schließlich können auch die Grafikchip-Entwickler hierbei nur einen Mittelweg aus Sinnhaftigkeit und steigender Kostenlage wählen, ein bedingungsloses "Immer Mehr!" ist schon allein aus betriebswirtschaftlicher Sicht nicht realisierbar. Zu beachten war bei dieser Umfrage zudem der Punkt, das explizit im Sinne einer HighEnd-Lösung gefragt wurde, sprich einem sinngemäßen Nachfolger der GeForce GTX 1080 (wahrscheinlich "GeForce GTX 1180" genannt), welche in Form einer nachfolgenden Enthusiasten-Lösung (wahrscheinlich "GeForce GTX 1180 Ti" genannt) letztlich nicht die Speerspitze des kommenden Grafikkarten-Portfolios auf Basis von nVidias Turing-Generation darstellen wird, sondern "nur" die zweitbeste aufgebotene Lösung.
Zum kommenden Turing-Launch darf man sicherlich auf eine gute Mehrperformance hoffen – und muß genauso befürchten, das nVidia seine dann unangefochtene Stellung an der Leistungsspitze zu vielleicht sogar erheblichen Preissteigerungen ausnutzt. Bis zu einem gewissen Grad kann man dies meistens noch irgendwie mitgehen, aber irgendwann ist dann sicherlich genug, gerade sofern nVidia die Turing-Generation wirklich nicht mit der Enthusiasten-Lösung "GeForce GTX 1180 Ti", sondern der HighEnd-Lösung "GeForce GTX 1180" eröffnen sollte. Eine Umfrage von Mitte Juni ging somit der Frage nach, was der höchstmögliche noch gangbare Preis für eben diese HighEnd-Lösung in Form von "GeForce GTX 1180" oder "GeForce GTX 2080" sein darf – immer eingerechnet den Umstand, das dies langfristig nur die zweitschnellste Turing-Lösung sein wird, später da also noch einmal eine "Ti"-Lösung oben drauf gesetzt werden dürfte.
Mittels eines Artikels seitens Tom's Hardware hat sich ein weiterer Test zur GeForce GTX 1050 3GB eingefunden – welcher sogar noch vor dem schon besprochenen Test von Guru3D herauskam, was uns allerdings (leider) entgangen war. Beide Tests bestätigen sich von der grundsätzlichen Performance der GeForce GTX 1050 3GB her nunmehr gegenseitig: Die 3-GB-Karte kommt grob in der Mitte zwischen regulärer GeForce GTX 1050 2GB und der größeren GeForce GTX 1050 Ti heraus, allerdings mit leichter Tendenz zu letztgenannter (größerer) Karte. Insofern kann die bisherige Einstufung im 3DCenter FullHD Performance-Index von ~340% weiterhin aufrecht gehalten werden. Aufgrund der sowieso geringen Abstände dieser Karten untereinander dürften sich hier auch keine Verschiebungen mehr ergeben – und kommagenau ist der Performance-Index sowieso nicht gedacht, hierbei geht es eher um grobe Angaben zum Aufbau eines umfassenden Gesamtbilds.
| GeForce GTX 1050 2GB | GeForce GTX 1050 3GB | GeForce GTX 1050 Ti | |
|---|---|---|---|
| Testmuster bei Tom's | MSI-Modell, Werks-OC auf 1404/1518/3500 MHz (+4% Chiptakt) | unspezifiziertes Modell, wahrscheinlich auf Referenz-Taktung | MSI Gaming X, Werks-OC auf 1354/1468/3500 MHz (+5% Chiptakt) |
| FullHD-Performance lt. Tom's | 86,9% (-13,1%) | 93,0% (-7,0%) | 100% |
| Testmuster beim Guru3D | MSI Gaming X, Werks-OC auf 1417/1531/3500 MHz (+5% Chiptakt) | MSI-Modell, 1392/1518/3500 MHz (Referenz-Taktung) | MSI Gaming X, Werks-OC auf 1354/1468/3500 MHz (+5% Chiptakt) |
| FullHD-Performance lt. Guru3D | 84,5% (-15,5%) | 92,4% (-7,6%) | 100% |
| WQHD-Performance lt. Guru3D | 81,3% (-18,7%) | 89,9% (-10,1%) | 100% |
| 3DCenter FullHD Perf.Index | 310% | ~340% | 360% |
Die Umfrage der letzten Woche widmete sich dem heiklen Thema von nVidias neuem generellen NDA – und dessen Bewertung durch die 3DCenter-Leser. Nachdem es in der diesbezüglichen Forendiskussion zuletzt eher ausgleichende Töne gegeben hatte, wird dem neuen generellen nVidia-NDA dagegen von einer Mehrheit der Umfrageteilnehmer eine klare Abfuhr erteilt – gleich 62,3% der Umfrageteilnehmer stimmten für die Option, dies als klaren Versuch der Vereinnahmung der Presse zu begreifen. Diesem Urteil wird man sich sicherlich stellen müssen, auch wenn es natürlich auch andere Stimmen gab: Für 18,5% der Umfrageteilnehmer wäre eher die gelebte Praxis als der reine NDA-Text wichtig, 5,8% sehen nur ein gewisses Ärgernis und 13,4% dagegen einen Fall von "Wind um Nichts".
Beim Guru3D ist der erste Test zu einer GeForce GTX 1050 3GB aufgetaucht, welcher somit eine erste Performance-Abschätzung dieser Mainstream-Grafikkarte ermöglicht. Die getestete Karte stammt von MSI, läuft aber (im Gegensatz zu den mitgetesteten anderen Karten) auf den Referenz-Taktraten von 1392/1518/3500 MHz. Die anderen im Guru3D-Test verwendeten Karten sind zumeist werksübertaktete Herstellerdesigns, selbst wenn Guru3D dies (leider) nicht derart in den Balkendiagrammen kennzeichnen – erkennbar ist dies jedoch im Vergleich der 3DMark-Werte (ohne Hersteller-Kennzeichnung vs. mit Hersteller-Kennzeichnung). Gänzlich genau kann dieser Test somit trotz der Verwendung von 13 Spiele-Benchmarks nicht sein, denn GeForce GTX 1050 2GB und GeForce GTX 1050 Ti laufen hier eben mit leichter Werksübertaktung, die GeForce GTX 1050 3GB dagegen auf Referenz-Taktung. Dafür gibt es den Vorteil, das beim Guru3D üblicherweise nur selten erhebliche Speichermengen-Differenzen gemessen werden – und somit die kleineren Karten nicht an diesem Punkt unterhalb ihres Wertes geschlagen werden.
| GeForce GTX 1050 2GB | GeForce GTX 1050 3GB | GeForce GTX 1050 Ti | |
|---|---|---|---|
| Testmuster | MSI Gaming X, Werks-OC auf 1417/1531/3500 MHz (+5% Chiptakt) | MSI-Modell, 1392/1518/3500 MHz (Referenz-Taktung) | MSI Gaming X, Werks-OC auf 1354/1468/3500 MHz (+5% Chiptakt) |
| FullHD-Performance lt. Guru3D | 84,5% (-15,5%) | 92,4% (-7,6%) | 100% |
| WQHD-Performance lt. Guru3D | 81,3% (-18,7%) | 89,9% (-10,1%) | 100% |
| 3DCenter FullHD Perf.Index | 310% | ~340% | 360% |
Bei Gamers Nexus hat man sich (dankenswerterweise) die GeForce GT 1030 DDR4 angesehen, der Super-LowEnd-Ausführung der GeForce GT 1030, welche wie bekannt normalerweise mit GDDR5-Speicher antritt. Seit einiger Zeit ist allerdings auch eine DDR4-Ausführung dieser Karte im Portfolio einiger Grafikkarten-Hersteller zu finden, welche nun inzwischen in den Handel gelangt ist. Durch den Wechsel auf DDR4-Speicher sinkt die zur Verfügung stehende Speicherbandbreite rapide von vorher 48 GB/sec (GDDR5) auf nur noch 16,8 GB/sec (DDR4) ab, was sich logischerweise sehr erheblich auf die Performance dieser sowieso nur für Casual- und eSports-Titel verwendbaren Grafikkarte auswirkt. Mit dem nun vorliegenden Test läßt sich dies endlich auch quantifizieren – und es geht leider bis an die Grenze der vorherigen Schätzung heran: Die DDR4-Ausführung der GeForce GT 1030 ist glatt um die Hälfte langsamer als die reguläre GDDR5-Ausführung.
| Ryzen 5 2400G | GeForce GT 1030 DDR4 | GeForce GT 1030 GDDR5 | |
|---|---|---|---|
| Anmerkungen | mit DualChannel DDR4/3200 laufend | Gigabyte-Modell, Taktraten 1151/1379/1050 MHz | EVGA-Modell, Taktraten 1290/1544/3000 MHz (Werksübertaktung) |
| 3DMark13 FireStrike (FullHD; GPU-Score) | - | 1922 | 3793 |
| Counter-Strike: GO (FullHD @ Custom) | 95,0 fps | 55,0 fps | 122,7 fps |
| Doom (2016) (FullHD @ Ultra) | - | 13,6 fps | 16,2 fps |
| Dota 2 (FullHD @ High) | 45,3 fps | 32,0 fps | 67,0 fps |
| Sniper Elite 4 (FullHD @ High) | 29,5 fps | 12,5 fps | 25,0 fps |
| Rocket League (FullHD @ Medium/High) | 57,5 fps | 28,0 fps | 63,0 fps |
| FullHD Perf.Index | - | ~85% | ~170% |
Die möglicherweise sogar entscheidendere Information der Meldung über eine "GeForce GTX 1160" seitens Laptopmedia liegt in der dort ausgewiesenen Speicherbestückung von "nur" 6 GB Speicher bei dieser kommenden Mobile-Lösung. Dies deutet zuerst einmal auf die Weiterverwendung eines 192 Bit Speicherinterfaces beim (vermutlich) zugrundeliegenden GT106-Chip hin – und gleichzeitig darauf, das nVidia die Speicherbestückungen bei der Turing-Generation nun doch nicht steigern wird. Schließlich ist schon das Entwicklerboard für den GT102-Chip ziemlich wahrscheinlich für 12 GB GDDR6-Speicher gedacht, da bleibt dann als Speicherbestückung für den dazwischenliegenden GT104-Chip der kommenden GeForce GTX 1180 nur noch 8 GB GDDR6-Speicher als Auflösung übrig. Gänzlich sicher ist dies zwar noch nicht, aber die Anzeichen mehren sich durchaus, das nVidia bei der Turing-Generation letztlich nur dieselben Speichermengen aufbietet wie bei der vorherigen Pascal-Generation.
| GT106 | GT104 | GT102 | |
|---|---|---|---|
| Chip | 12nm, vmtl. ~250-300mm² | 12nm, vmtl. ~440-460mm² | 12nm, ~676mm² |
| Shader-Cluster | vmtl. 24-32 (= 1536-2048 Shader-Einheiten) |
vmtl. 56-64 (= 3584-4096 Shader-Einheiten) |
gesch. 84-96 (= 5376-6144 Shader-Einheiten) |
| Speicherinterface | 192 Bit GDDR6 | 256 Bit GDDR6 | 384 Bit GDDR6 |
| Speicherausbau | 6 GB | 8 GB | 12 GB |
| Performance | gesch. +50-70% vs. GP106 | gesch. +50-60% vs. GP104 | gesch. +40-60% vs. GP102 |
| TDP | gesch. (bis zu) 165 Watt | gesch. (bis zu) 230 Watt | gesch. (bis zu) 300 Watt |
| Die Angaben dieser Tabelle sind mehrheitlich hoch spekulativ. | |||
Eine Meldung über den Treibersupport von PCI Express 4.0 bei AMDs Vega-20-Chip seitens der ComputerBase bringt das Thema "PCI Express 4.0" mal wieder hoch – nachdem nun schon seit einigen Jahren darüber geredet wird, bislang aber nicht viel in dieser Frage passiert ist. Zwar liegt (nun endlich) seit Oktober 2017 eine finale Spezifikation vor, aber die entsprechenden Roadmaps der Chipentwickler bedingen eine langjährige Vorausplanung, womit eine schnelle Adaption des neuen Standards kaum machbar ist. Nur speziell bei Vega 20 stand der Support für PCI Express 4.0 schon lange auf dem Programm, selbige weitsichtige Vorausplanung gilt auch für AMDs zweite Epyc-Generation "Rome" auf Zen-2-Basis im Jahr 2019. Bei den anderen beiden wichtigen Chipentwicklern gibt es dagegen noch keinerlei belastbare Aussagen zum Thema PCI Express 4.0 – das Feature stand augenscheinlich mal für Skylake-X/SP auf dem Programm, wurde jedoch mangels finalisierter Spezifikation dann doch nicht realisiert.
| 2018 | 2019 | 2020 | |
|---|---|---|---|
| AMD-Prozessoren | Threadripper II: ziemlich sicher nicht | Picasso: ziemlich sicher nicht Epyc II ("Rome", Zen 2): bestätigt PCIe 4.0 Threadripper III (Zen 2): gute Chance auf PCIe 4.0 Ryzen III (Zen 2): unsicher, aber mit Chance auf PCIe 4.0 |
Zen 3: ziemlich sicher mit PCIe 4.0 |
| Intel-Prozessoren | Coffee Lake 8C-Die: ziemlich sicher nicht Cascade Lake: ziemlich sicher nicht |
Ice Lake: möglich, aber nicht besonders wahrscheinlich | Ice-Lake-X/SP: gute Chance auf PCIe 4.0 Tiger Lake: gute Chance auf PCIe 4.0 |
| AMD-Grafikkarten | Vega 20: bestätigt PCIe 4.0 | Navi: unsicher, aber mit Chance auf PCIe 4.0 | NextGen: ziemlich sicher mit PCIe 4.0 |
| nVidia-Grafikkarten | Turing: recht unwahrscheinlich | Ampere (HPC): ziemlich sicher mit PCIe 4.0 | NextGen: ziemlich sicher mit PCIe 4.0 |
| Die Angaben dieser Tabelle sind natürlich größtenteils ungesichert. | |||
Gemäß einer Analyse der Lötstellen zum Turing-Entwicklerboard bei TechPowerUp dürfte der hier einzubringende Grafikchip grob 26x26mm groß sein – und damit auf eine Chipfläche von satten 676mm² kommen. Die reale Zahl kann davon noch einmal um ein gewisses Maß abweichen, aber ganz große Differenzen sind dann auch nicht mehr zu erwarten. Jene 676mm² Chipfläche sind natürlich erst einmal sehr "dick", mit so großen Grafikchips hatte man zuletzt im Gaming-Bereich nicht mehr zu tun – der GP102 der GeForce GTX 1080 Ti ist nur 471mm² groß, selbst der GM200 der GeForce GTX 980 Ti mit 601mm² sowie AMDs Fiji der Radeon R9 Nano/Fury Karten mit 596mm² fallen etwas kleiner aus. Andererseits ist dies wohl einfach der Preis, wenn man innerhalb der 12nm-Fertigung nochmals höher hinaus will – die gewissen Vorteile von TSMCs 12FFC zum vorherigen 16FF+ reichen da nicht aus, da muß man schon mit wirklich größerer Chipfläche herangehen. Die genannten 676mm² ergeben eine um +43% größere Chipfläche – auf gleicher Fertigung passen da (milchmädchenhaft gerechnet) +43% mehr Transistoren ein, unter Einrechnung der (nominellen) Vorteile der 12nm-Fertigung könnten es sogar bis zu +79% mehr Transistoren sein.
Ein auf Reddit unvermittelt gezeigtes Entwicklerboard ("Bring-Up-Board") ist aller Wahrscheinlichkeit der laufenden Turing-Entwicklung bei nVidia zuzurechnen und gibt zu dieser bereits ein paar interessante Details preis. Das Entwicklerboard stammt erst einmal klar von nVidia selber und ist Entwicklungs-typisch mit monströser Stromversorgung ausgerüstet: Es stehen drei 8polige Stromstecker zur Verfügung, die verbauten Spannungswandler werden mit mehreren 60mm-Lüftern aktiv gekühlt. Für die nachfolgenden Serienkarten sagt dies natürlich nichts aus, bei solchen Entwicklerboards geht es um andere Dinge als das Herantasten an die für Serienkarten sinnvolle Stromversorgung. Der Grafikchip selber ist bei diesem Board nicht bestückt, aber die Verwendung von GDDR6-Speicher deutet klar auf einen kommenden neuen nVidia-Grafikchip hin, welcher dann eben schon der Turing-Generation angehören sollte:
