Während AMD bislang gerade einmal eine einzige 14nm-Grafikkarte in Form der Radeon RX 480 herausgebracht hat, ist nVidia mit seinen 16nm-Angeboten schon wesentlich weiter: GeForce GTX 1070 und GeForce GTX 1080 besetzen derzeit erfolgreich und konkurrenzlos das HighEnd-Segment, im Midrange-Bereich gibt nVidia AMD mit der GeForce GTX 1060 Paroli. Mit der ab heute lieferbaren Titan X besetzt man hingegen ein nochmals in der 14/16nm-Generation bislang unbeackertes Marktsegment: Als neue Enthusiasten-Lösung erwartet der Käufer für die happigen 1200 Dollar Listenpreis natürlich eine über alles erhabenen Performance samt einer passenden Speicherausstattung. Um so erstaunlicher ist, das nVidia nunmehr zum offiziellen Launch zwar eine Verfügbarkeit über seinen eigenen Online-Shop vermelden kann (für einen deutschen Preis von 1299 Euro) – es jedoch so gut wie keine Testberichte zur neuen Karte gibt.
Bislang gibt es diesbezüglich einzig allein etwas seitens GameStar und PCWorld zu lesen – beiderseits keine umfangreichen Testberichte und sicherlich nicht dazu geeignet, darauf basierend die Titan X nunmehr tiefergehend in ihren Details zu betrachten. Vielmehr kann man derzeit leider nur ein paar Informationsfetzen zur Karten-Performance zusammentragen, dies dann auch unter Einrechnung der seitens Videocardz offerierten 3DMark13-Resultate. Mehr als eine Bestätigung der vorab schon getätigten Performance-Prognose kommt dabei allerdings auch nicht heraus – es gibt derzeit schlicht zu wenige Meßwerte, um jene Performance-Prognose schon genauer abfassen zu können oder gar schon eine solide Performance-Abschätzung liefern zu können:
Performance-Aussage | hochgerechneter Perf.Index | |
---|---|---|
3DCenter | vorherige Schätzung auf Basis der technischen Daten | FullHD: grob ~1200-1250% 4K: grob ~165-175% |
GameStar | Durchschnitt von drei Spieletests: +31,8% @ 4K gegenüber der GeForce GTX 1080 (aber nur +15,8% gegenüber einer guten Werksübertaktung der GeForce GTX 1080) | 4K: Richtung ~174% |
PCWorld | Durchschnitt von vier Spieletests: +24,4% @ 5K als SLI-Gespann gegenüber einem SLI-Gespann von werksübertakteten GeForce GTX 1080 Karten | nicht wertbar |
Videocardz | 3DMark13 FireStrike: +23,4% @ FullHD sowie +29,5% @ 4K gegenüber der GeForce GTX 1080 | FullHD: Richtung ~1180% 4K: Richtung ~171% |
Für den Hardlaunch einer sogar explizit vorab angekündigten Grafikkarte ist dies einigermaßen schwach. Selbst wenn nVidia die Karte gern eher im DeepLearning-Bereich sehen würde, sollte doch klar sein, das in der Enthusiasten-Gemeinde ungeachtet des wie immer absurden Preispunkts echtes Interesse zugunsten der Titan X existiert. Zudem ist die Karte unter den richtigen Bedingungen (sprich Konzentration auf die 4K-Auflösung oder höher) auch mit grob +30% Performanceplus gegenüber der GeForce GTX 1080 sowie der größeren Speichermenge sicherlich eine entsprechende Betrachtung wert – und hat damit nicht einen so seltsam anmutenden Launch mit einer Lieferbarkeit nur über nVidias eigenen Online-Shop und jedoch keinerlei Berichterstattung zur Karte selber verdient.
Dabei dürften gerade die Frage interessieren, wie viel aus der Titan X noch herauszuholen ist – schließlich kommt eine gut werksübertaktete GeForce GTX 1080 der Titan X schon ziemlich nahe, im GameStar-Test hatte die Enthusiasten-Lösung dann nur noch +15,8% Mehrperformance gegenüber der (werksgetweakten) HighEnd-Lösung. Hierbei wäre allein schon interessant, welches Power-Limit die Titan X trägt, wie nahe sie diesem in der Praxis kommt und wieviel Spielraum beim Power-Limit der nVidia-Treiber zur Titan X hergibt. Auch die Fragen nach den durchschnittlich erreichten Boost-Taktraten, der realen Stromaufaufnahme sowie der Geräuschbelastung können damit am heutigen Tag leider nicht beantwortet werden – und müssen somit später nachgereicht werden, wenn es entsprechend aussagekräftige Testberichte zu lesen gibt.
GeForce GTX Titan X | GeForce GTX 1080 | Titan X | |
---|---|---|---|
Chipbasis | nVidia GM200 | nVidia GP104 | nVidia GP102 |
Fertigung | 8 Mrd. Transistoren in 28nm auf 601mm² Chipfläche bei TSMC | 7,2 Mrd. Transistoren in 16nm auf 314mm² Chipfläche bei TSMC | 12 Mrd. Transistoren in 16nm auf 471mm² Chipfläche bei TSMC |
Architektur | Maxwell 2, DirectX 12 Feature-Level 12_1 | Pascal, DirectX 12 Feature-Level 12_1 | |
Features | Vulkan, DSR, SLI, PhysX, G-Sync | Vulkan, Asynchonous Compute, DSR, SLI, PhysX, G-Sync | |
Technik | 6 Raster-Engines, 3072 Shader-Einheiten, 192 TMUs, 96 ROPs, 384 Bit GDDR5-Interface, 3 MB Level2-Cache (Vollausbau) | 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 256 Bit GDDR5X-Interface, 2 MB Level2-Cache (Vollausbau) | bestätigt: 3584 Shader-Einheiten, 384 Bit GDDR5X-Interface angenommen: 224 TMUs, 96 ROPs |
Taktraten | 1000/1075/3500 MHz (Ø-Chiptakt: 1067 MHz) |
1607/1733/2500 MHz (Ø-Chiptakt: 1694 MHz) |
1417/1531/2500 Hz (Ø-Chiptakt: ? MHz) |
Speicherausbau | 12 GB GDDR5 | 8 GB GDDR5X | 12 GB GDDR5X |
Layout | DualSlot | DualSlot | DualSlot |
Kartenlänge | 27,0cm | 27,0cm | 27,0cm |
Stromstecker | 1x 6pol. + 1x 8pol. | 1x 8pol. | 1x 6pol. + 1x 8pol. |
off. Verbrauch | 250W (GCP) | 180W (GCP) | 250W (GCP) |
Ausgänge | DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 | DualLink DVI-D, HDMI 2.0b, 3x DisplayPort 1.2 (DP-1.4-ready) | DualLink DVI-D, HDMI 2.0b, 3x DisplayPort 1.2 (DP-1.4-ready) |
FullHD Perf.Index | 780% | 960% | gesch. ~1200-1250% |
4K Perf.Index | 105% | 132% | gesch. ~165-175% |
Listenpreis | 999$ | 699$ | 1200$ |
Straßenpreis | 1070-1130€ | 680-730€ | 1299€ |
Release | 17. März 2015 | 17. Mai 2016 | 2. August 2016 |