17

Hardware- und Nachrichten-Links des 17. April 2019

Videocardz bringen nochmals neuere technischen Daten zur kommenden GeForce GTX 1650 als dem vorläufigen Abschluß der Turing-Serie im Desktop-Segment. So tritt jene Mainstream-Lösung nunmehr am 23. April 2019 an, nachdem vorher zuerst der 30. April und nachfolgend der 22. April kolporiert wurden. Die vollen Taktraten belaufen sich auf 1485/1665/4000 MHz, speziell der (offizielle) Boosttakt war bislang noch nicht bekannt. Bestätigt wurden die vorher bereits vermuteten 896 Shader-Einheiten sowie die Verwendung des TU117-Chips – wobei die exakte Chipversion "TU117-300" die Chance offenläßt, das es vielleicht noch größere Chipversionen geben könnte. Wie kürzlich schon an dieser Stelle ausgeführt, sollte der TU117-Chip aus Symetriegründen eigentlich gleich 1024 Shader-Einheiten aufweisen – auch wenn nVidia bei der GeForce GTX 1650 wie gesagt nur 896 davon aktiviert. Dies könnte auch schlicht damit zusammenhängen, das mit mehr als 896 Shader-Einheiten die gewählte TDP (GCP) von 75 Watt nicht mehr einzuhalten wäre.

GeForce GTX 1050 Ti GeForce GTX 1650 GeForce GTX 1060 3GB GeForce GTX 1660
Chip-Basis nVidia GP107 nVidia TU117 nVidia GP106 nVidia TU116
Architektur Pascal Turing ohne RT Pascal Turing ohne RT
Technik 2 Raster-Engines, 6 Shader-Cluster, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface (Vollausbau) 2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 128 Bit GDDR5-Interface 2 Raster-Engines, 9 Shader-Cluster, 1152 Shader-Einheiten, 72 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage) 3 Raster-Engines, 20 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage)
Taktraten 1290/1392/3500 MHz (DDR)
(Ø-Chiptakt: ~1640 MHz)
1485/1665/4000 MHz (DDR) 1506/1708/4000 MHz (DDR) 1530/1785/4000 MHz (DDR)
Rohleistungen 2,5 TFlops & 112 GB/sec 3,0 TFlops & 128 GB/sec 3,9 TFlops & 192 GB/sec 5,0 TFlops & 192 GB/sec
Speicher 4 GB GDDR5 4 GB GDDR5 3 GB GDDR5 6 GB GDDR5
FHD Perf.Index 360% gesch. ~470-500% 530% 650%
TDP (GCP) 75W 75W 120W 120W
Listenpreis 139$ 149$ - 219$
Release 25. Oktober 2016 23. April 2019 18. August 2016 14. März 2019
Alle Angaben zu derzeit noch nicht veröffentlichen Grafikkarten-Modellen (GeForce GTX 1650) sind als nicht gesichert anzusehen.

In diesem Fall kommt erschwerend hinzu, das nVidia ohne den Verbau von extra PCI-Express-Stromsteckern diesen nominellen Wert (von 75W TDP) gar nicht ausnutzen darf, denn die Stromversorgung über den PCI-Express-Slot ist nur bis 66 Watt bei Nutzung der 12V-Schienen spezifiziert – und die spezifikationsgemäß mögliche Nebenleistung aus der 3,3V-Schiene (9,9W) wird von modernen Grafikkarten kaum noch genutzt. Mittels einer zweiten Meldung gibt es dann noch einen neuen Listenpreis zur GeForce GTX 1650: Anstatt bisher 179 Dollar soll die neue Mainstream-Karte nunmehr nur noch mit 149 Dollar ins Rennen gehen. nVidia hat sich hier positiverweise doch noch umentschieden und schickt die GeForce GTX 1650 nicht mit einem Preis in den Markt, zu welchem sie angesichts von Radeon RX 570 Karten unterhalb von 150 Euro Straßenpreis faktisch nur verlieren konnte. Trotzdem dürfte die GeForce GTX 1650 weiterhin mit der aktuellen Preissituation im Mainstream-Segment zu kämpfen haben – wo zwar auch viel Unsinn angeboten wird, aber einige Polaris-Karten beim Performance/Preis-Verhältnis so weit vorn liegen, das nVidia mit der GeForce GTX 1650 vermutlich trotzdem nur als zweiter Sieger vom Platz geht.

Nachdem sich TSMC kürzlich bezüglich der 5nm-Chipfertigung nach vorn gewagt hatte, kommt nun auch von Samsung eine entsprechende Meldung zum (erfolgreichen) Ende der Designarbeiten an eben jenem 5nm-Prozess. Im Gegensatz zu TSMC gab man diesbezüglich keinen genauen Terminplan heraus, aber ähnlich wie bei TSMC dürfte nun auch bei Samsungs 5nm-Prozess die Riskfertigung starten, während die Massenfertigung kleiner SoCs eher ein Thema des Jahres 2020 ist und große PC-Chips in dieser Fertigungsklasse erst im Jahr 2021 zu erwarten sind. Deutlich abweichend von TSMC sind dagegen die Spezifikationen von Samsungs 5nm-Prozess: Hierbei handelt es sich nicht um einen der üblicherweise großen Schritte, denn mittels einer Flächenreduktion von -20% (aka +25% höhere Packdichte) sowie einem um nur -10% gesenkten Stromverbrauch (gegenüber Samsungs 7nm-Prozess) kommt man niemals auf das Idealbild, auf derselben Chipfläche die doppelte Transistorenanzahl zum insgesamt gleichen Stromverbrauch verbauen zu können. Jenes Idealbild wird zwar inzwischen nur noch selten geboten, aber Samsungs 5nm-Prozess ist derart weit entfernt, das hierzu die Charakterisierung als "Halfnode" eher passend erscheint.

Chipfläche Taktrate Stromverbrauch
Samsung 10LPE (zu 14LPP) -30% > +10% -30%
Samsung 10LPP (zu 10LPE) ±0 +10% -15%
Samsung 8nm (zu 10LPE) -10% +10% ?
Samsung 7LPE (zu 10LPE) -46% +17% -48%
Samsung 6nm (zu 7LPE) ? ? ?
Samsung 5LPE (zu 7LPE) -20% +20% -10%
Samsung 4LPE (zu 7LPE) ? ? ?
Samsung 4LPP (zu 7LPE) ? ? ?
Samsung 3GAAE (zu 7LPE) ? +20% -50%
Samsung 3GAAP (zu 3GAAE) ? ? ?
Quellen: SemiWiki, AnandTech & Samsung

Samsungs eigentlicher nächster großer Fertigungsschritt dürfte dann die früher schon erwähnte "3GAAE" Fertigung werden, selbst wenn zu dieser noch nicht alle technischen Daten vorliegen. Als gewichtigen Vorteil bietet der 5nm-Prozess von Samsung allerdings die Weiterverwendung der Designtools vo Samsungs 7nm-Prozess an – ergo fällt der Aufwand für die Chipentwickler deutlich geringer aus, womit die Chance auf eine beachtbare Nutzung dieser Chipfertigung steigt. In den allermeisten Fällen reichen die Vorteile der 5nm-Fertigung von Samsung sogar aus, gerade wenn man wie Apple und Samsung für deren Spitzen-Smartphones jedes Jahr eine neue Geräte- und damit Hardware-Generation präsentieren will. Im eigentlichen drückt hierbei nur der Schuh bei PC-Grafikchips, wo vor allem der Stromverbrauch sehr bedeutsam heruntergehen muß – ansonsten kann man sich die Idee von Verbau von mehr Hardware-Einheiten schließlich glatt sparen. Die konkrete Nutzung von Samsungs 5nm-Prozess im PC-Segment bleibt somit abzuwarten – wobei es allerdings auch noch keine konkrete Meldungen (zu großen PC-Chips) für Samsungs 7nm-Prozess gibt.

Gleiches trifft auch auf die 6nm-Chipfertigung zu, welche sowohl von Samsung als auch TSMC beiderseits als Verbesserung der 7nm-Fertigung angekündigt wurde. Seitens Samsung gibt es leider keine Angaben zu den konkreten technischen Verbesserungen dieser Fertigungsstufe, TSMC hingegen notiert eine um +18% höhere Packdichte (gegenüber dem Standardprozess "7FF"), was ergo eine Flächenreduktion um -15% ergibt. Daten zu (möglichen) Taktraten sowie zum Stromverbrauch gab es dagegen auch bei TSMC nicht, mutmaßlich verändert sich hierbei nicht viel. Prinzipiell erscheint die 6nm-Fertigung bei TSMC somit sehr ähnlich zur eigenen 7nm-Ausbaustufe "7FF+" – was durchaus die Vermutung offenläßt, das es sich hierbei fast nur um eine andere Bezeichnung für 7FF+ handeln könnte, weil sich "6nm" eben einfach besser anhört als "7nm". Daneben ist TSMCs neue 6nm-Fertigung interessanterweise terminlich recht spät angesetzt, wenn deren Riskfertigung erst im ersten Quartal 2020 ansteht – womit große PC-Chips üblicherweise erst tief im Jahr 2021 machbar wären, wenn eigentlich schon die 5nm-Fertigung für selbige bei TSMC spruchreif sein sollte. Aber womöglich ist die 6nm-Fertigung auch eher als bewußt kostengünstige Ausweichlösung vorgesehen, wenn man die (üblicherweise) hohen Anfangskosten der 5nm-Fertigung nicht mittragen will.

Chipfläche Taktrate Stromverbrauch
TSMC 12FFC (zu 16FF+) -20% +10% -25%
TSMC 10FF (zu 16FF+) > -50% +20% -40%
TSMC 7FF (zu 10FF) -40% +8% -33%
TSMC 7FF+ (zu 7FF) -17% +0% -10%
TSMC 6nm (zu 7FF) -15% ? ?
TSMC 5FF (zu 7FF) -45% +15% -20%
Quellen: AnandTech, SemiWiki & TSMC
Videocardz bringen nochmals neuere technischen Daten zur kommenden GeForce GTX 1650 als dem vorläufigen Abschluß der Turing-Serie im Desktop-Segment. So tritt jene Mainstream-Lösung nunmehr am 23. April 2019 an, nachdem vorher zuerst der 30. April und nachfolgend der 22. April kolporiert wurden. Die vollen Taktraten belaufen sich auf 1485/1665/4000 MHz, speziell der (offizielle) Boosttakt war bislang noch nicht bekannt. Bestätigt wurden die vorher bereits vermuteten 896 Shader-Einheiten sowie die Verwendung des TU117-Chips - wobei die exakte Chipversion "TU117-300" die Chance offenläßt, das es vielleicht noch größere Chipversionen geben könnte. Wie kürzlich schon an dieser Stelle ausgeführt, sollte der TU117-Chip aus Symetriegründen eigentlich gleich 1024 Shader-Einheiten aufweisen - auch wenn nVidia bei der GeForce GTX 1650 wie gesagt nur 896 davon aktiviert. Dies könnte auch schlicht damit zusammenhängen, das mit mehr als 896 Shader-Einheiten die gewählte TDP (GCP) von 75 Watt nicht mehr einzuhalten wäre.





GeForce GTX 1050 Ti
GeForce GTX 1650
GeForce GTX 1060 3GB
GeForce GTX 1660




Chip-Basis
nVidia GP107
nVidia TU117
nVidia GP106
nVidia TU116


Architektur
Pascal
Turing ohne RT
Pascal
Turing ohne RT


Technik
2 Raster-Engines, 6 Shader-Cluster, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface (Vollausbau)
2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 128 Bit GDDR5-Interface
2 Raster-Engines, 9 Shader-Cluster, 1152 Shader-Einheiten, 72 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage)
3 Raster-Engines, 20 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage)


Taktraten
1290/1392/3500 MHz (DDR)
(Ø-Chiptakt: ~1640 MHz)
1485/1665/4000 MHz (DDR)
1506/1708/4000 MHz (DDR)
1530/1785/4000 MHz (DDR)


Rohleistungen
2,5 TFlops & 112 GB/sec
3,0 TFlops & 128 GB/sec
3,9 TFlops & 192 GB/sec
5,0 TFlops & 192 GB/sec


Speicher
4 GB GDDR5
4 GB GDDR5
3 GB GDDR5
6 GB GDDR5


FHD Perf.Index
360%
gesch. ~470-500%
530%
650%


TDP (GCP)
75W
75W
120W
120W


Listenpreis
139$
149$
-
219$


Release
25. Oktober 2016
23. April 2019
18. August 2016
14. März 2019


Alle Angaben zu derzeit noch nicht veröffentlichen Grafikkarten-Modellen (GeForce GTX 1650) sind als nicht gesichert anzusehen.