Mit der Umfrage von letzter Woche wurde nach dem Ersteindruck zur GeForce RTX 2060 gefragt, der bislang kleinsten Grafikkarte innerhalb von nVidias Turing-Generation. Wie allerdings schon bei den bisherigen Turing-Grafikkarten zu beobachten, kam auch die GeForce RTX 2060 nicht gut weg in dieser Umfrage: Nur 14,3% positiver Ersteindruck stehen immerhin 38,5% durchschnittlicher sowie gleich 47,2% negativer Ersteindruck gegenüber. Wenigstens sind diese Umfragewerte nicht so dramatisch schlecht wie teilweise bei GeForce RTX 2080 und 2080 Ti zu konstatieren, die passabel vernünftigen Umfragewerte der GeForce RTX 2070 werden allerdings durch die GeForce RTX 2060 nicht erreicht.
Seitens HardOCP kommt genaueres zu den Termin- und Preislagen zu nVidias kommenden Midrange- und Mainstream-Grafikkarten der Turing-Generation, was somit auch nVidias Grafikkarten-Portfolio für das Jahr 2019 klarer erscheinen läßt. So werden wohl alle Turing-basierten Grafikkarten ohne RayTracing als "GeForce 16" Serie laufen – die Namenswahl zwischen "GeForce 10" (Pascal) und "GeForce 20" (Turing mit RayTracing) soll dann wohl andeuten, das hierbei etwas "fehlt" (wobei RayTracing in diesem Preisbereich derzeit sowieso zu langsam wäre). Den Anfang soll die GeForce GTX 1660 Ti am 15. Februar zu einem Listenpreis von 279 Dollar machen, gefolgt von der GeForce GTX 1660 gegen Anfang März zu einem Listenpreis von 229 Dollar. Beide wohl TU116-basierte Grafikkarten wurden zuletzt schon recht genau beschrieben, die nunmehr genannten Listenpreise passen perfekt zu der bereits vorliegenden technischen Konzeption.
The Nvidia GeForce GTX 1660 Ti will launch on February 15, with an MSRP of $279.
The GTX 1660 will launch in early March at $229.
The GTX 1650 will go on sale for $179 in late March.
Nvidia will continue to supply the 1050 TI to retailers, and its price will drop to keep it competitive.
Quelle: HardOCP am 23. Januar 2019
Bei Tom's Hardware hat man aktuelle Gerüchte zur GeForce GTX 1660 /Ti zusammengefasst, deren Quellenlage teilweise in Industriekreisen liegt, teilweise aber auch auf eigenen Vermutungen basiert. Da man dies jedoch extra gekennzeichnet hat, läßt sich unter anderem erkennen, das die Quellen von Tom's Hardware bereits fest von einer extra GeForce GTX 1660 6GB (non Ti) sprechen, während Tom's Hardware selber noch von einer zusätzlichen 3-GB-Ausführung dieser Karte ausgehen (ganz wie bei der vorhergehenden GeForce GTX 1060). Damit wäre das Midrange-Segment dann wirklich gefüllt, der zugrundeliegende TU116-Chip würde somit in gleich drei Karten-Versionen resultieren. Zusammen mit ersten Taktraten-Angaben zu GeForce GTX 1660 & GeForce GTX 1660 Ti ergibt sich somit ein inzwischen schon ganz zusammenhängendes Bild (welches nichtsdestotrotz natürlich noch viele unsichere bzw. nicht belegte Anteile enthält):
GeForce GTX 1060 6GB | GeForce GTX 1660 3GB | GeForce GTX 1660 6GB | GeForce GTX 1660 Ti | GeForce RTX 2060 | |
---|---|---|---|---|---|
Chip-Basis | nVidia GP106-400 | nVidia TU116-300 | nVidia TU116-300 | nVidia TU116-400 | nVidia TU106-300 |
Architektur | Pascal | Turing ohne RT | Turing ohne RT | Turing ohne RT | Turing mit RT |
Technik | 2 Raster-Engines, 10 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface | 2 Raster-Engines, 20 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface | 2 Raster-Engines, 20 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface | 2 Raster-Engines, 24 Shader-Cluster, 1536 Shader-Einheiten, 96 TMUs, 192 Bit GDDR6-Interface | 3 Raster-Engines, 30 Shader-Cluster, 1920 Shader-Einheiten, 120 TMUs, 192 Bit GDDR6-Interface |
Taktraten | 1506/1708/4000 MHz (DDR) | 1530/1785/4000 MHz (DDR) | 1530/1785/4000 MHz (DDR) | 1500/1770/3000 MHz (QDR) | 1365/1680/3500 MHz (QDR) |
Rohleistungen | 4,4 TFlops & 192 GB/sec | 4,6 TFlops & 192 GB/sec | 4,6 TFlops & 192 GB/sec | 5,4 TFlops & 288 GB/sec | 6,5 TFlops & 336 GB/sec |
Speicher | 6 GB GDDR5 | 3 GB GDDR5 | 6 GB GDDR5 | 6 GB GDDR6 | 6 GB GDDR6 |
FHD Perf.Index | 590% | ? | geschätzt 630-670% | geschätzt 770-820% | 920% |
Listenpreis | 249$ | ? | geschätzt 199-229$ | 279$ | 349$ |
Release | 19. Juli 2016 | womöglich Frühjahr 2019 | womöglich Frühjahr 2019 | angeblich Mitte Februar | 7. Januar 2019 |
Status | bereits veröffentlicht | derzeit reine Spekulation | kommt angeblich | kommt sicher | bereits veröffentlicht |
Mittels der Umfrage der letzten Woche wurde nach der für das Jahr 2019 am meisten erwarteten Hardware gefragt, sich dabei beziehend auf den kürzlichen Artikel "Das Hardware-Jahr 2019 in der Vorschau" – welcher bewußt erst nach der CES geschrieben wurde, um besser erfassen zu können, was hierzu Realität und was unhaltbare Gerüchte sind. Daran, das AMD dieses Jahr die spannendsten Produkte bringen wird, hat dies allerdings nichts geändert bzw. wurde dies vielleicht gerade durch die CES-Ankündigung von Zen-2-basierten Prozessoren sogar noch verstärkt. In jedem Fall hat die diesjährige Umfrage zur 2019er Hardware damit mittels der Ryzen 3000 Prozessoren auf immerhin 53,6% Stimmenanteil einen sehr eindeutigen Sieger bekommen.
Mit der GeForce RTX 2060 hat nVidia am 7. Januar 2019 (mit Auslieferung ab dem 15. Januar) die voraussichtlich kleinste Turing-basierende Lösung vorgestellt, welche noch mit aktivem RayTracing und damit unter dem Siegel "RTX" antreten wird. Die Karte basiert auf einer maßvollen Abspeckung des TU106-Chips der GeForce RTX 2070, welcher die GeForce RTX 2060 teilweise erstaunlich nahekommt. Als Pluspunkt gibt es mit 349 Dollar einen für Turing-Verhältnisse vergleichsweise freundlichen Preispunkt, als Negativpunkt dann allerdings nur 6 GB Grafikkartenspeicher. Die Karte bewegt sich damit im Grenzbereich von Midrange- zu HighEnd-Segment, tendiert je nach Betrachtungsweise mal zu der einen oder anderen Seite. Wo sich die Karte bei den harten Fakten von Performance, Stromverbrauch, Frametimes-Betrachtungen und Performance/Preis-Verhältnis gegenüber der vorhandenen Konkurrenz an AMD- und nVidia-Karten einordnen muß, soll mit dieser Launch-Analyse herausgefunden werden ... zum Artikel.
FHD | WQHD | 4K | Verbr. | FHD-Index | 4K-Index | Liste | Straße | |
---|---|---|---|---|---|---|---|---|
GeForce RTX 2070 FE | 116,2% | 118,3% | 122,4% | ~191W | 1070% | 151% | 599$ | 629€ |
GeForce RTX 2070 Ref. | 112,4% | 114,4% | 117,9% | ~174W | 1030% | 146% | 499$ | 480-510€ |
GeForce GTX 1080 | 104,9% | 104,7% | 107,5% | 175W | 960% | 132% | 499$ | ausgelaufen |
Radeon RX Vega 64 | 100,6% | 102,9% | 106,4% | 297W | 930% | 132% | 499$ | 440-470€ |
GeForce RTX 2060 | 100% | 100% | 100% | 160W | 920% | 124% | 349$ | 370-400€ |
GeForce GTX 1070 Ti | 98,3% | 97,5% | 98,3% | 173W | 900% | 122% | 449$ | 380-450€ |
Radeon RX Vega 56 | 91,2% | 91,2% | 94,6% | 223W | 840% | 117% | 399$ | 360-410€ |
GeForce GTX 1070 | 87,3% | 85,9% | 86,8% | 147W | 800% | 107% | 379$ | 300-350€ |
Radeon RX 590 | - | - | - | 212W | 640% | 87% | 279$ | 240-280€ |
Radeon RX 580 8GB | - | - | - | 187W | 590% | 80% | 229$ | 190-210€ |
GeForce GTX 1060 6GB | 64,2% | 62,0% | 61,4% | 116W | 590% | 76% | 249$ | 200-220€ |
Bei Videocardz hat man nochmals weitere Informationen erhalten, welche die kommenden "GeForce GTX 1660 Ti" (erneut) als mit 1536 Shader-Einheiten an einem 192 Bit Speicherinterface ausgerüstet beschreiben. Der zugrundeliegende TU116-Chip geht damit denselben Weg wie alle von Pascal zu Turing halbwegs vergleichbaren Chips – nämlich das es nominell 20% mehr Shader-Einheiten gibt, der vorherige GP106-Chip der GeForce GTX 1060 hat schließlich 1280 davon. Zusammen mit einem gewissen Effizienzgewinn der Turing-Architektur sowie der viel höheren Speicherbandbreite von GDDR6 ist davon ausgehend ein Performancegewinn von ca. +35-40% realisierbar. Dies bringt die GeForce GTX 1660 Ti knapp an die Performancehöhe einer GeForce GTX 1070 (4K Perf.Index 107%) heran, ganz erreichen oder gar übertreffen dürfte die GeForce GTX 1660 Ti diesen Wert allerdings nicht.
Technik | 4K-Index | TDP | Listenpreis | |
---|---|---|---|---|
GeForce RTX 2080 Ti | Turing TU102, 4352 SE @ 352 Bit GDDR6-Interface | 228% | 250W | 999$ |
GeForce RTX 2080 | Turing TU104, 2944 SE @ 256 Bit GDDR6-Interface | 180% | 215W | 699$ |
GeForce RTX 2070 | Turing TU106, 2304 SE @ 256 Bit GDDR6-Interface | 146% | 175W | 499$ |
GeForce RTX 2060 | Turing TU106, 1920 SE @ 192 Bit GDDR6-Interface | 124% | 160W | 349$ |
GeForce GTX 1660 Ti | Turing TU116, 1536 SE @ 192 Bit GDDR6-Interface | gesch. ~95-105% | angen. 120W | angen. 250$ |
GeForce GTX 1660 | Turing TU116, angen. 1280 SE @ 192 Bit GDDR6-Interface | gesch. ~80-90% | angen. 110W | angen. 220$ |
GeForce GTX 1550 Ti | Turing TU117, 896 SE @ 128 Bit GDDR6-Interface | - | angen. 70W | angen. 170$ |
GeForce GTX 1550 | Turing TU117, angen. 768 SE @ 128 Bit GDDR6-Interface | - | angen. 60W | angen. 150$ |
Performance- und TDP-Angaben zu den Turing-Karten gemäß deren Referenztaktung (nicht der FE-Taktung) |
Das abgelaufene Hardware-Jahr 2018 war wie erwartet ein Übergangsjahr, welches mangels neuer Fertigungstechnologien zumeist nur Refreshes und gewisse Verbesserungen gebracht hat – mit einer Ausnahme in Form von nVidias Turing-Generation (anstatt der erwartete Ampere-Generation), welche allerdings auch weiterhin auf den bekannten Fertigungstechnologien basiert. Mit dem anbrechenden Hardware-Jahr 2019 wird dieser Knoten zumindest teilweise platzen: Bei AMD stehen die Zeichen auf die Ausnutzung der 7nm-Fertigung an allen Fronten, Intel will nun endlich wirklich 10nm-Produkte in Serie bringen – nur bei nVidia dürfte diesbezüglich nichts passieren bzw. ist wirklich neues dann erst im Jahr 2020 zu erwarten. Erst jenes Jahr 2020 dürfte dann den großen Durchbruch der 7nm-Fertigung von TSMC & Samsung sowie der (ähnlichen) 10nm-Fertigung von Intel mit sich bringen, da erst dann die kostendämmende EUV-Belichtungstechnologie breitflächig zur Verfügung steht. Doch der Reihe nach ... zum Artikel.
AMD | Intel | nVidia | |
---|---|---|---|
Januar | Picasso Mainstream-APUs |
Core i-9000 (2. Welle) Mainstr./Midrange/HighEnd-CPUs |
GeForce RTX 2060 Midrange-Grafikkarte |
Februar | Radeon VII HighEnd-Grafikkarte |
||
Frühling | Turing TU116 & TU117 Mainstream/Midrange-GPUs |
||
Sommer | Ryzen 3000 Midrange/HighEnd-CPUs |
Cascade Lake HEDT-CPUs |
|
Sommer/Herbst | Navi 12 Midrange-GPU |
Comet Lake HighEnd-CPUs |
Ampere HPC-Grafiklösungen |
Herbst | Threadripper 3000 HEDT-CPUs |
||
Herbst/Winter | Navi 10 HighEnd-GPU |
||
Jahresende | Ice Lake Mainstream/Midrange/HighEnd-CPUs |
Nachdem das bisherigen Battlefield-V-Spielebundle von nVidia am 7. Januar ausgelaufen ist, hat nVidia umgehend nachgelegt bzw. selbiges Spielebundle in einer verbesserten Version neu aufgelegt. Das neue Bundle enthält neben "Battlefield V" auch das am 22. Februar 2019 erscheinende "Anthem" und gilt nunmehr auch für die zwischenzeitlich veröffentlichte GeForce RTX 2060 sowie alle Notebooks mit RTX-Grafikkarten der Bauklasse 2060, 2070 und 2080. Allerdings gibt es beim Bundleumfang eine gewichtige Differenz je nach konkreter Grafikkarte: Beide Spiele zusammen erhalten nur Käufer von GeForce RTX 2080 und 2080 Ti, während die Käufer von GeForce RTX 2060 und 2070 eine Wahl zwischen beiden Titeln treffen müssen. Zudem gibt es leider für bisherige Käufer von GeForce RTX 2080 & 2080 Ti keine nachträgliche Möglichkeit, das bisherige BF5-Bundle in dieses höherwertigere Bundle umzuwandeln (der frühe Vogel bekommt in diesem Fall also einen Wurm weniger).
Ein wesentlicher Punkt von nVidias CES-Pressekonferenz war neben viel Show rund um RayTracing, der (kurzen) Vorstellung der GeForce RTX 2060 sowie der Ankündigung von Turing-basierten Mobile-Beschleunigern die Neuerungen zu nVidias G-Sync. So gibt es nunmehr einen extra Standard "G-Sync Ultimate" für eine ordentliche HDR-Darstellung (mit entsprechend hohem Helligkeitswert), was das bisherige "G-Sync HDR" beerbt. Gleichfalls öffnet nVidia sich nominell dem offenen AdaptiveSync-Standard, welcher technisch auf AMDs FreeSync basiert. nVidia ordnet dies unter "G-Sync Compatible" ein und will entsprechende FreeSync-Monitore mit einem neuen Treiber ab 15. Januar dann mit G-Sync-Funktionalität beglücken. Allerdings sind nVidias Anforderungen offenbar ziemlich hoch, von 400 vorab getesteten FreeSync-Monitoren haben nur 12 die nVidia-Prüfungen bestanden und können sich zukünftig mit dem Prädikat "G-Sync Compatible" schmücken.
Grafikchip-Entwickler nVidia hat mit der CES seine bekannten Turing-Beschleuniger nun auch für das Notebook-Geschäft freigegeben. Konkret wurden dabei GeForce RTX 2060, 2070 und 2080 auch für mobile Bedürfnisse vorgestellt, deren Auslieferung (in Form erster entsprechender Notebooks) ab dem 29. Januar starten soll. Wie zuletzt bei nVidia üblich, tragen die neuen Mobile-Beschleuniger die grundsätzlichen Hardware-Eigenschaften ihrer Desktop-Pendant zu leicht (reguläre Mobile-Varianten) bzw. stark (MaxQ-Varianten) reduzierten Taktraten. Leider bietet nVidia in dieser Frage bei den Mobile-Beschleunigern der Turing-Generation ein ziemliches Spezifikations-Wirrwarr an, nachdem dies bei den Mobile-Beschleunigern der Pascal-Generation noch vergleichsweise eindeutig gelöst war: So gibt es keine klar voneinander abgegrenzten Spezifikationen für Mobile- und MaxQ-Varianten mehr, ergo ist für den Notebook-Käufer vorab noch viel weniger klar zu sehen, was man da wirklich erhält.
GeForce RTX 2080 MaxQ & Mobile | GeForce RTX 2080 Desktop (Ref.) | |
---|---|---|
Hardware | TU104, 2944 SE @ 256 Bit GDDR6 | TU104, 2944 SE @ 256 Bit GDDR6 |
Taktraten | konfigurierbar 735-1380/1095-1590/≤3500 MHz | 1515/1710/3500 MHz |
Speicherausbau | 8 GB GDDR6 | 8 GB GDDR6 |
TDP | konfigurierbar 80 bis 150+ Watt (GSP) | 215 Watt (GCP) |
UltraHD Perf.Index | je nach Taktrate ~100-150% | 180% |