19

AMD-Livestream zu 30 Jahren Grafikchip-Entwicklung am 23. August

AMD feiert am 23. August das 30jährige Bestehen der Grafikchip-Entwicklung beim anno 2006 von AMD übernommenen Unternehmen ATI mittels eines auf Twitch zu sehenden Livestreams, welcher am Samstag den 23. August um 16 Uhr deutscher Zeit startet und runde 4 Stunden laufen soll. Innerhalb des Livestreams wird wohl primär die Geschichte der verschiedenen ATI/AMD-Grafikchips im Laufe dieser 30jährigen Entwicklung betrachtet werden, inklusive auch der heutzutage kaum noch recherierbaren Anfangstage, wo ATI eine Großmacht im Geschäft der früheren 2D-Grafikkarte war. Der Livestream soll zudem für einen späteren Genuß nachfolgend auf YouTube verfügbar gemacht werden. Der interessanteste Punkt an der ganzen Sache ist aber wohl die in AMDs Vorschaubild auf den 23. August eingetragene Frage "Whats Next?" – welche man dahingegend deuten könnte, daß AMD an diesem Tag irgendetwas zu kommenden neuen Grafikchips sagen wird.

All zu viel sollte man dahingehend aber nicht erwarten: Die Veranstaltung dürfte wegen des Streifzug durch die Grafikchip-Historie auch so interessant genug sein. Am absoluten Ende (nach guten 4 Stunden Laufzeit) dann aber noch etwas konkretes zu neuen Grafikchips zu sagen, wäre taktisch eher unklug (jeder Marketing-Mensch wird bestätigen, daß dann die Kräfte und damit die Aufnahmefähigkeit erschöpft sein werden). Möglicherweise macht es AMD trotzdem, ein regelrechter Launch von beispielsweise der Tonga-basierten Radeon R9 285 zum 23. August ist jedoch kaum zu erwarten, Marketing-taktisch wäre eine Trennung beider Ereignisse sinnvoller (zwei Ereignisse anstatt eines). Generell erscheint ein Launch der Radeon R9 285 noch im August als nicht mehr besonders wahrscheinlich, bei einem kurz bevorstehenden Launch müsste es mehr Bilder & Daten seitens der Grafikkarten-Hersteller sowie eventuell auch Liefermeldungen von Distributoren & Einzelhändlern geben.

Wichtiges Update: Im Investoren-Bereich von AMDs Webseite steht tatsächlich die Anmerkung "New Product Announcements" zu dieser Veranstaltung. Damit ist alles möglich – von der reinen Erwähnung zukünftiger Produktreihen über die handfeste Ankündigung von demmächst erscheinenden Produkten bis hin sogar zu ausgewachsenen Launches, welche dann zeitgleich auf den üblich verdächtigen Hardwaretest-Webseiten stattfinden würden. Man wird sich überraschen lassen müssen ...

19

Aktualisierte Fertigungsverfahren-Roadmap: GlobalFoundries & TSMC bei 14nm/16nm fast zeitgleich

Nach den ganzen Termin-Verschiebungen von zukünftigen Prozessoren, APUs und Grafikchips der letzten Zeit brauchte auch die von uns ab und zu erstellte Fertigungsverfahren-Roadmap ein Updates, welches hiermit geliefert sei. Markante Punkte sind die Termin-Verschiebungen diverser aktueller und kommender Fertigungsverfahren bei allen Chipfertigern sowie der augenscheinliche Verzicht von GlobalFoundries auf die 20nm-Fertigung zugunsten der kürzlich von Samsung lizensierten 14nm-Fertigung. Letzteres ist zwar noch nicht offiziell, aber nachdem GlobalFoundries-Hauptauftragnehmer AMD augenscheinlich keine 20nm-Designs (außer zwei LowPower-APUs, welche aber wahrscheinlich wie üblich von TSMC kommen) auflegen wird, lohnen die (hohen) Kosten für eine entsprechende Fabrikumrüstung sicherlich nicht.

Abgesehen davon, daß Intel in der kommenden 14nm/16nm-Ära seinen normalerweise hohen Zeitvorsprung gegenüber den anderen Chipfertigern teilweise einbüßen wird, dürfte die nahezu zeitgleiche Auflage der 14nm-Fertigung von GlobalFoundries sowie der 16nm-Fertigung von TSMC interessant werden, da sich beide Auftragsfertiger im Sinne des PC-Segments um dieselben Aufträge bemühen. In früheren Zeiten hatten beide Chipfertiger meistens unterschiedliche Fertigungsverfahren zu unterschiedlichen Zeitpunkten an den Start gebracht, bei der 16nm/14nm-Fertigung treffen beide jedoch (voraussichtlich) mit einem vergleichbaren Produkte zum selben Zeitpunkt aufeinander. Hier dürften einige Karten neu gemischt werden – womöglich sehen wir sogar erstmals den Fall, daß die AMD- und nVidia-Grafikchips nicht vom selben Chipfertiger (TSMC) kommen. Eine Nebenoption stellt hier sogar noch die 14nm-Fertigung von Samsung dar, welche technologisch gleich zur 14nm-Fertigung von GlobalFoundries ist – wobei Samsung bislang allerdings nie als Chipfertiger von in Masse hergestellten Prozessoren, APUs oder Grafikchips für den PC-Bereich aufgetreten ist.

GlobalFoundries Intel TSMC
45nm Januar 2009 (Phenom II) Januar 2008 (Core 2 Penryn) -
40nm - - April 2009 (RV740)
32nm Juni 2011 (Llano) Januar 2010 (Nehalem Clarkdale) -
28nm Januar 2014 (Kaveri) - Januar 2012 (Tahiti)
22nm - April 2012 (Ivy Bridge) -
20nm wird scheinbar zugunsten von 14nm ausgelassen - lt. Roadmap Anfang 2013
finale SoC-Produkte Herbst 2014
scheinbar keine GPU-Produkte in 20nm geplant
16nm - - lt. Roadmap November 2013
finale SoC-Produkte geschätzt Ende 2015
finale GPU-Produkte geschätzt Anfang 2016
14nm lt. Roadmap Ende 2014
finale Produkte geschätzt Ende 2015 bis Anfang 2016
lt. Roadmap 2013
finale CPU-Produkte Ende 2014 (Broadwell)
finale SoC-Produkte H2/2015 (Airmont)
-
10nm lt. Roadmap Ende 2015
finale Produkte geschätzt 2017
lt. Roadmap 2015
finale Produkte geschätzt 2016 (Skymont)
lt. Roadmap 2016
finale Produkte geschätzt 2018
7nm ? lt. Roadmap 2017
finale Produkte geschätzt 2018
?
3D-Transistoren ab der 14nm-Fertigung (2015) ab der 22nm-Fertigung (2012) ab der 16nm-Fertigung (2015)
EUV-Lithographie ? möglicherweise unterhalb der 10nm-Fertigung derzeit bis einschließlich 10nm nicht geplant
450mm-Wafer ? Richtung 2023 ?
Die Namen insbesondere der neueren Fertigungsverfahren werden inzwischen weitgehend aus Marketing-Erwägungen festgelegt und müssen nicht wirklich viel mit der real verwendeten Technik bzw. Strukturgröße zu tun haben.
19

Umfrage-Auswertung: Wieviel Speicher ist momentan im Hauptrechner verbaut (2014)?

Eine Umfrage von Anfang August ging der Frage nach der aktuell installierten Menge an PC-Hauptspeicher im Hauptrechner nach und will damit eine aktualisierte Datenbasis zu dieser bereits im Oktober 2012 sowie im Februar 2010 laufenden Umfrage schaffen. Der Stand von Oktober 2012 war, daß die große Mehrheit der Nutzer sich zwischen den großen Gruppen von 4 GB, 6/8 GB und 12/16 GB Speicher aufteilten. Heuer nun ist die Speicherbestückung von 4 GB faktisch "geschlagen" und keine wirklich große Gruppe mehr, die große Mehrheit der Nutzer findet sich im August 2014 dagegen bei 8 GB und 16 GB Speicherbestückung wieder.

Die durchschnittlich verbaute Speichermenge unter den Umfrage-Teilnehmern steht damit derzeit bei immerhin schon 12,2 GB – was allerdings nur ein Zuwachs von 28% im Zeitraum der 22 Monate seit der letzten Umfrage ist. Im Oktober 2012 betrug der Zuwachs an durchschnittlicher Speicherausrüstung noch 86% (von 5,1 auf 9,5 GB), welcher allerdings in einem Zeitraum von 32 Monaten gegenüber der Umfrage aus dem Februar 2010 erzielt wurde. Trotzdem ist hier eine gewisse Abschwächung des Speichermengen-Wachstums zu sehen – angesichts der erreichten durchschnittlichen Speicherausrüstung haben die 3DCenter-Leser die Anforderungen der heutigen Spielegeneration allerdings mehrheitlich schon vorweg genommen und sehen daher aktuell den Aufrüstbedarf wohl etwas schwinden.

So ging auch der Wert der an einer Speicheraufrüstung interessierten Umfrage-Teilnehmer weiter herunter: Von immerhin 29,6% im Februar 2010 auf 23,0% im Oktober 2012 auf nunmehr 21,3% im August 2014. Ob diese beiden Tendenzen in der Zukunft so weiterlaufen werden, kann man allerdings kaum daraus schlußfolgern: Üblicherweise kommt nach einem gewissen Tief im Aufrüstdrang immer wieder ein Hoch. So ist zu erwarten, daß sich 8 GB kaum als meistbenutzte Speichermenge halten kann, 16 GB Hauptspeicher (und mehr) locken schließlich schon jetzt viele Nutzer. Auch könnte die Umstellung der Speichertechnologie auf DDR4-Speicher ab Haswell-E und Skylake viele totale Systemwechsel auslösen, bei welcher Gelegenheit dann auch die Speichermenge gleich mit erhöht wird.

Februar 2010 Oktober 2012 August 2014
unter 2 GB  (Wunsch nach mehr) 2,1%  (55%) 0,7%  (43%) 2,0%  (54%)
2 GB  (Wunsch nach mehr) 12,5%  (59%) 2,2%  (68%)
3 GB  (Wunsch nach mehr) 3,1%  (42%) 1,3%  (47%)
4 GB  (Wunsch nach mehr) 53,2%  (27%) 22,4%  (44%) 9,1%  (53%)
6 GB  (Wunsch nach mehr) 26,1%  (16%) 47,1%  (15%) 2,6%  (39%)
8 GB  (Wunsch nach mehr) 43,5%  (20%)
12 GB  (Wunsch nach mehr) 2,2%  (17%) 21,5%  (11%) 3,7%  (11%)
16 GB  (Wunsch nach mehr) 32,1%  (11%)
24 GB  (Wunsch nach mehr) 0,8%  (94%) 4,8%  (29%) 0,9%  (6%)
32 GB  (Wunsch nach mehr) 4,8%  (17%)
über 32 GB  (Wunsch nach mehr) 1,3%  (65%)
durchschnittliche Speicherausstattung ø 5,1 GB ø 9,5 GB ø 12,2 GB
Wunsch nach mehr (insgesamt) 29,6% 23,0% 21,3%
18

Hardware- und Nachrichten-Links des 18. August 2014

Laut Hexus will AMD am 1. September den Preis seines FX-Spitzenmodell FX-9590 deutlich absenken, von derzeit rund 225£ dann auf rund 175£ (-22%). Hinzu kommt eine geringere Preissenkung beim FX-6300, eventuell wird AMD bei dieser Gelegenheit auch an den Preisen der anderen FX-Prozessoren etwas drehen. Zugleich sollen drei neue Modelle der FX-8xxx Serie erscheinen, möglicherweise mit schlicht mehr Takt als die bisherigen FX-8xxx Prozessoren. Daß es auch ein neues FX-9xxx Modell gibt, nachdem der FX-9590 eine große Preissenkung erhält, ist allerdings eher unwahrscheinlich – letztlich ist der FX-9590 schon gut ausgereizt und gewinnt AMD in diesem Marktsegment auch durch höhere Taktraten wahrscheinlich nichts mehr hinzu. Höhere Umsätze im FX-Segment könnte AMD allerhöchstens durch Preisbrecher-Angebote bei 95-Watt-Modellen erzielen – aber damit würde man sich natürlich auch die letzten Reste von Marge kaputtmachen.

Die PC Games Hardware notiert die Systemanforderungen zu Lords of the Fallen, welche mit 64-Bit Windows, 6 GB Hauptspeicher, QuadCore-CPU und DirectX-11-Grafikkarte in der Leistungsklasse GeForce GTX 460 oder besser wieder einmal durchaus fortschrittlich ausfallen. Einschränkenderweise muß man hier anmerken, daß wenn ein Core 2 Quad Q8400 für das Spiel ausreichen soll, diese Leistung wohl sicher auch von einem modernen Intel-Zweikerner mit HyperThreading erreicht werden kann – hier kommt es darauf an, ob das Spiel in der Praxis auch wirklich auf den vier (physikalischen) Rechenkerne besteht. In jedem Fall sieht fast so aus, als müsste man die im letzten November definierten generellen Spiele-Mindestanforderungen für die Spiele-Generation im Herbst/Winter 2014 in absehbarer Zeit noch einmal neu formulieren: Mit nur 4 GB Speicher wird es heutzutage eng, zudem wird nun öfters einmal eine DirectX-11-Grafiklösung zwingend gefordert. Einige der kommenden Spiele-Releases könnten diese Marken aber durchaus noch weiter nach oben verschieben.

SemiWiki bieten einen technologischen Vergleich von Intel 14nm vs. TSMC 16nm mit teilweise sehr selten zu lesenenden genauen Zahlen der einzelnen technischen Spezifikationen. Die dort genannten Abstände sind jedoch weit von 14nm bzw. 16nm entfernt – was allerdings grob schon bekannt war, da die Fertigungsgrößen mittlerweile eher vom Marketing festgelegt werden als denn von der Ingenieursabteilung (Intel hat kürzlich zugegeben, daß alles unterhalb von 90nm eher denn Marketing-Bezeichnungen sind). In Bezug auf den Unterschied zwischen Intels 14nm- und TSMCs 16nm-Fertigung ist dagegen alles halbwegs im Rahmen der Erwartungen, wenn man die kleine Differenz zwischen 14nm und 16nm (+14%) mit eingerechnet. Zu beachten wäre allerdings, daß hier die Daten von TSMCs 16nm Standard-Prozeß benutzt wurden, TSMC inzwischen aber noch die verbesserten Ausführungen "16FF" und "16FF+" anbietet – beide, um im Wettbewerb mit Auftragsfertiger Samsung und dessen 14nm-Fertigung besser bestehen zu können. Welche Verbesserungen "16FF" und "16FF+" konkret technisch bieten, ist aber noch nicht bekannt.

Aus unserem Forum kommt der interessante Testbericht eines Carbon 600W-P4B 600W Netzteils, welches bei eBay für 50-60 Euro angeboten wird. Dabei handelt es sich jedoch um ein Netzteil mit Fake-PFC, welches in dieser Form in der EU gar nicht zugelassen ist (und auch nie zugelassen werden kann). Ein Power Factor Correction (PFC, oder Leistungsfaktorkorrekturfilter erhöht nicht nur den Wirkfaktor, sondern ist auch aus Sicherheitsgründen (gegenüber ansonsten auftretenden elektrischen Störungen) zwingend notwendig. In dem genannten Netzteil sind anstatt einer üblicherweise als PFC verwendeten Drosselspule nur ein paar (weitgehend nutzlose) Metallplatten "verbaut", das ganze ist in dem Sinne vorsätzlich gefälscht. Damit besteht natürlich auch das Risiko, daß auch noch weitere Bauteile eventuell funktionslose Plaste- und Metallteile sind. Erstaunlich, daß sich solche eher nur aus Fernost bekannten Verkaufstricks bis nach Europa verbreitet haben. In jedem Fall läßt sich hieraus mitnehmen, daß man solch einfach fälschbaren Dinge wie Netzteile eher nicht in der Kombination "unbekannter chinesischer Hersteller" plus "nahezu anonymer eBay-Anbieter" erstehen sollte.

18

Aktualisierte Intel Prozessoren-Roadmap: Details zu Broadwell & Skylake ergänzt, Termine korrigiert

Nach den ganzen neuen Informationen über die kommenden Intel-Architekturen Broadwell und Skylake musste unsere Intel Prozessoren-Roadmap entsprechend aktualisiert werden. Bedeutsame Änderungen und Ergänzungen sind die nun bekannten 5% mehr IPC von Broadwell, die DirectX 11.2 Fähigkeit der Intel Generation 8 Grafiklösung, welche in Airmont, Braswell und Broadwell eingesetzt wird, sowie die Informationen über die bis zu 72 Recheneinheiten der Skylake-Grafiklösung samt dem DDR3/DDR4 Kombi-Speicherinterface von Skylake. Terminlich wurde zudem Haswell-E mit dem vermeintlichen Launch-Datum vom 29. August 2014 genauer eingegrenzt, während zu Airmont nunmehr eine genauere Angabe zur Verschiebung vorliegt: Jene LowPower-Architektur wird nun erst im zweiten Halbjahr 2015 spruchreif werden, womit sich folglich auch der direkte Nachfolger "Goldmont" auf das Jahr 2016 verschieben dürfte.

Die Verschiebung von Airmont (im genauen des kompletten 14nm-SoC-Fertiungsprozesses P1273) auf das zweite Halbjahr bei gleichzeitiger Betonung Intels, daß "Braswell" noch im ersten Quartal 2015 antreten wird, lassen zudem den inzwischen gefestigten Schluß zu, daß Braswell in der Tat "nur" eine Broadwell-Auskopplung ist, welche eben wegen der Airomt-Verschiebung seitens Intel kurzfristig eingeschoben wird. Ansonsten wäre Braswell auch schwer zu erklären, weil man eine wirklich neue Architektur nicht einfach mal kurzfristig aus dem Ärmel schüttelt – Auskoppelungen auf Basis bestehender Architekturen sind dagegen durchaus in einer annehmbaren Zeit realisierbar. Trotzdem bleibt eine größere Unsicherheit, was Braswell nun wirklich ist – man muß sich überraschen lassen. Das gleiche gilt auch für den nahezu gleichzeitigen Start von Broadwell-K und Skylake im Desktop-Segment im Sommer 2015 – eigentlich passt dies terminlich nicht gut zusammen, alle Intel-Roadmaps sind sich jedoch in dieser Frage bislang einig.

LowPower Mainstream/Performance Enthusiast
Iststand Silvermont (BayTrail)
22nm, 2-4 Rechenkerne, integrierte Grafik mit 4 Recheneinheiten, DirectX 11.0 (Intel Gen. 7), DualChannel DDR3/1333
(Modell-Liste)
Haswell-Refresh
22nm, 2-4 Rechenkerne, integrierte Grafik mit 20 oder 40 Recheneinheiten sowie optionalem eDRAM, DirectX 11.1 (Intel Gen. 7.5), Sockel 1150, DualChannel DDR3/1600
(Modell-Liste)
Ivy Bridge E
22nm, 4-6 Rechenkerne, keine integrierte Grafik, Sockel 2011, QuadChannel DDR3/1866
(Modell-Liste)
29. August 2014 Haswell-E
22nm, 6-8 Rechenkerne, keine integrierte Grafik, Sockel 2011-3, QuadChannel DDR4/2133
(Modell-Liste)
Q4/2014 bis Q2/2015 Broadwell
14nm (Refresh zu Haswell, 5% mehr IPC), 2-4 Rechenkerne, integrierte Grafik mit 24 oder 48 Recheneinheiten sowie optionalem eDRAM, DirectX 11.2 (Intel Gen. 8), Sockel 1150, DualChannel DDR3
(Ultrabook-Modelle zum Ende 2014, Mobile-Modelle im Q1/2015, ungelockte Desktop-Modelle im Sommer 2015, keine normalen Desktop-Modelle geplant)
Q1/2015 Braswell
14nm (Abstammung unklar, wahrscheinlich Broadwell-basierend), integrierte Grafik mit bis zu 16 Recheneinheiten, DirectX 11.2 (Intel Gen. 8)
Sommer 2015 Skylake
14nm (neue Architektur), 2-4 Rechenkerne
integrierte Grafik mit 36 oder 72 Recheneinheiten sowie optionalem eDRAM, DirectX 11.2+ (Intel Gen. 9), Thunderbolt III, Sockel 1151, DualChannel DDR3/1600 bzw. DDR4/2133
Herbst 2015 Broadwell-E
14nm, 6-8 Rechenkerne, keine integrierte Grafik, Sockel 2011-3, DDR4
zweites Halbjahr 2015 Airmont (CherryTrail)
14nm (Refresh zu Valleyview), integrierte Grafik, DirectX 11.2 (Intel Gen. 8)
2016 Goldmont (WillowTrail)
14nm (neue Architektur), integrierte Grafik, DirectX 11.2+ (Intel Gen. 9)
Cannonlake
10nm (Refresh zu Skylake)
Herbst 2016 Skylake-E
14nm, keine integrierte Grafik, PCI Express 4.0, DDR4
17

Hardware- und Nachrichten-Links des 16./17. August 2014

WCCF Tech wärmen ausgehend von einer (nicht öffentlich einsehbaren) Meldung seitens SemiAccurate die Idee wieder auf, AMDs Fiji-Chip würde über als "stacked Chips" ausgeführten High Bandwith Memory (HBM) verfügen können. Allerdings gingen die letzten Meldungen über HBM eher in diese Richtung, daß jenes nicht in näherer Zeit wirklich wirtschaftlich zu fertigen sein soll. Vor allem aber muß der Punkt, daß AMD an HBM für zukünftige Grafikchip und APUs arbeitet, nicht bedeuten, daß davon bereits der Fiji-Chip betroffen wäre – dies ist derzeit wohl eine reine Annahme ohne jede valuierbare Grundlage. Sofern allerdings Fiji tatsächlich deutlich später kommt, wie von der Meldung angenommen, wäre dies eventuell doch realisierbar. Derzeit ist einfach über AMDs kommende HighEnd-Grafikchips nach dem Hawaii-Chip viel zu wenig sicher bekannt – und das wenige bekannte Wissen ist durchsetzt von Annahmen und Spekulationen, welche nun einmal fehlbar sind.

Auf nVidia-Seite hat man sich dagegen in unserem Forum den Spaß gemacht, spekulative Spezifikationen zur GeForce GTX 880 in einem (natürlich gefälschten) GPU-Z-Screenshot abzubilden – teils auch um darauf hinzuweisen, wie einfach so etwas machbar ist. Die dort genannten Spezifikationen gehen von 1920 Shader-Einheiten, 120 TMUs, 32 ROPs und einem 256 Bit DDR Speicherinterface zu Taktraten von 1085/1212/3500 MHz für die GeForce GTX 880 aus, was nach der jüngsten Meldung zur GeForce GTX 870 eine durchaus solide Annahme darstellt. In dieser oder ähnlicher Form kann die GeForce GTX 880 durchaus erscheinen – mit um die 20% mehr Rohpower und wohl auch freundlichem Power-Target, um diese Rohpower dann auch besser auf die Straße zu bringen. Vakant ist noch der Speichertakt, weil sehr viel Spielraum oberhalb von 3500 MHz Speichertakt ist eigentlich nicht mehr vorhanden bzw. kommt die Grafikkarten-Hersteller dann eher teuer. Am Ende sind bestenfalls ca. 15% Mehrperformance gegenüber der GeForce GTX 870 anzunehmen, was die GeForce GTX 880 knapp in die Performanceregion einer GeForce GTX 780 Ti katapultieren sollte.

Allerdings kommt aus unserem Forum auch noch eine Neuauslegung der bekannten Daten. Danach soll der GM204-Chip in sogar drei bis vier Grafikkarten-Ausführungen erscheinen, wobei das jüngst gezeigte Exemplar (mit 13 SMM aka 1664 Shader-Einheiten) eher das kleinste von allen sein soll. In diesem Gedankenmodell kommt der GM204-Chip im Vollausbau nicht mit 15 SMM aka 1920 Shader-Einheiten, sondern sogar mit 18 SMM aka 2304 Shader-Einheiten daher, Abstufungen bei der (real anliegenden) Speicherbandbreite könnte man dann über Deaktivierung eines Teils des (in der Maxwell-Architektur sehr großen) Level2-Caches erreichen. Mit 2304 Maxwell-Shadereinheiten würde der (volle) GM204-Chip dann allerdings überaus potent ausfallen und in diesem Gedankenmodell den GK110-Chip deutlich schlagen können. Die vorliegenden Benchmarks zeigen schließlich schon darauf hin, daß sich die Maxwell-Architektur auch schon auf 1664 Shader-Einheiten mit einer GK110-basierten GeForce GTX 880 (2304 Shader-Einheiten) anlegen kann.

Zu nVidias GM200-Chip kommt hingegen nochmals aus unserem Forum die Meldung, daß nVidia inzwischen "Customer Samples" desselben durch die Gegend schickt – welche im übrigen weiterhin das A1-Stepping tragen, was auf eine Massenfertigung im A1-Stepping hindeutet. nVidia hat also mit dem GM200-Chip ziemliches Glück gehabt, daß dieser große Chip keine weiteren Steppings bis zur wirklichen Produktionsreife benötigt, womit die Zeitspanne zwischen Tape-Out und Verkaufsstart geringer ausfallen kann als angenommen. Derzeit liegt der GM200-Chip gerade einmal anderthalb bis zwei Monate hinter dem GM204-Chip zurück – was, wenn der GM204-Chip sein kolportiertes Launch-Datum von September halten kann, auf einen November-Launch des GM204-Chips hinauslaufen könnte. Selbst wenn es etwas später wird (der GM200-Chip ist viel größer und komplexer), könnte nVidia am Ende doch noch das kürzlich indirekt durch nVidia genannte Launch-Ziel von Ende 2014 halten. Ob wir allerdings noch dieses Jahr eine "GeForce GTX Titan II" sehen werden, ist damit nicht gesagt – nVidia könnte den GM200-Chip zuerst auch nur für das Profi-Segment bringen und die Consumer-Varianten dann erst im neuen Jahr.

Inhalt abgleichen