27

AMDs "Carrizo" Mainstream-APU für 2015 bringt DDR4-Support

Seitens dem BSN kommt eine ganze Reihe an Details zu AMDs "Carrizo" Mainstream-APU für das Jahr 2015, welche dann in Ablösung der aktuellen Mainstream-APU "Kaveri" gehen wird. Markante Punkte von Carrizo sind die Verwendung der Excavator-Ausbaustufe der Bulldozer-Architektur auf CPU-Seite sowie die Weiterverwendung der GCN-basierten Grafiklösung in einer "Volcanic Islands" vergleichbaren Technologiestufe auf GPU-Seite. Hinzu kommt nun offenbar ein Kombi-Speicherinterface, welches sowohl DDR3- als auch DDR4-Speicher (aber sicher nicht gleichzeitig) beherrscht. Deswegen wird Carrizo (zusammen mit DDR3-Speicher) voraussichtlich auch in Mainboards des Sockels FM2+ eingesetzt werden können – während die Verwendung von DDR4-Speicher automatisch neue Mainboards und wohl auch einen neuen Sockel (FM3?) bedingt.

Mittels des prinzipiellen Supports von DDR4-Speicher hält sich AMD wohl schlicht alle Möglichkeiten offen – gebraucht wird diese Speichersorte jedoch kaum bei Carrizo, da DDR4-Speicher für den Mainstream-Ansatz von Carrizo zu teuer sein dürfte und bis auf die integrierte Grafiklösung der Prozessor auch nicht vom schnelleren Speicher profitiert. Die integrierte Grafiklösung von Carrizo dürfte gegenüber Kaveri (8 Shader-Cluster aka 512 Shader-Einheiten) kaum größer ausfallen, da Carrizo wir auch schon Kaveri weiterhin in der 28nm-Fertigung daherkommen soll. Allerhöchstwahrscheinlich wird es dieselbe 28nm-Bulk-Fertigung von GlobalFoundries wie bei Kaveri, da AMD seine Mindestabnahme-Verträge mit GlobalFoundries erfüllen muß und kein anderes Chipprojekt von AMD in ähnliche Stückzahlen geht wie diese Mainstream-APUs.

Die Weiterverwendung der 28nm-Fertigung limitiert ganz allgemein die Aussichten von Carrizo: Wahrscheinlich gibt es nur ein wenig mehr CPU-Power durch die Verbesserungen der Excavator-Rechenkerne, vielleicht hier und da allgemeine Verbesserungen und möglicherweise auch mehr Takt zu gleicher Leistungsaufnahme. Damit sind durchaus +10% bis +20% herauszuholen – was nicht schlecht wäre, aber auch keinen großen Sprung bedeuten würde. Wie AMD damit gegenüber Intels 2015er Angeboten in der 14nm-Fertigung (glatt die Hälfte von AMDs 28nm-Fertigung!) bestehen will, ist schleierhaft – gerade wenn es (im Mobile-Segment) um die Performance normiert auf eine definierte TDP geht, dürfte dies ganz schwierig werden. Dabei sind AMDs Mainstream-APUs den Intel-Kontrahenten technologisch schon eine ganze Weile überlegen, nur wird dies durch Intels massiven Vorsprung in der Chipfertigung größtenteils wieder aufgehoben, Intels höhere Marktmacht verhindert zudem größere AMD-Erfolge insesondere im OEM-Geschäft sehr effektiv.

Llano Trinity Richland Kaveri Carrizo
Fertigung 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 28nm Bulk GlobalFoundries 28nm Bulk GlobalFoundries
Die-Daten 1,45 Mrd. Transistoren auf 228mm² Die-Fläche 1,3 Mrd. Transistoren auf 246mm² Die-Fläche 2,41 Mrd. Transistoren auf 245mm² Die-Fläche wahrscheinlich ähnlich wie Kaveri
CPU-Unterbau 4 Husky-Rechenkerne der K10.5-Architektur 4 Piledriver-Rechenkerne der Bulldozer-Architektur 4 Steamroller-Rechenkerne der Bulldozer-Architektur 4 Excavator-Rechenkerne der Bulldozer-Architektur
CPU-Takt maximal 3.0 GHz maximal 4.2 GHz (unter TurboCore) maximal 4.4 GHz (unter TurboCore) maximal 3.7 GHz (unter TurboCore) ?
Grafikeinheit 400 VLIW5 Shader-Einheiten (20 TMUs, 8 ROPs) mit maximal 600 MHz Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 800 MHz TurboCore-Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 844 MHz TurboCore-Takt 512 (1D) Shader-Einheiten (32 TMUs, 8 ROPs) mit maximal 720 MHz TurboCore-Takt wahrscheinlich ähnlich wie Kaveri
Speicherinterface 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3/DDR4 Kombi-Interface
Featureset SSE4a, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, GCN 1.1, DirectX 11.2b, HSA, Mantle, TrueAudio SSE4a, AVX2, FMA3/4, GCN 1.1, DirectX 11.2b, HSA, Mantle, TrueAudio +?
Sockel FM1 FM2 FM2 FM2+ FM2+ (DDR3)
FM3 (DDR4)
Launch 14. Juni 2011 Mobile: 15. Mai 2012
Desktop: 2. Oktober 2012
Mobile: 12. März 2013
Desktop: 5. Juni 2013
Desktop: 14. Januar 2014
Mobile: Sommer 2014
erwartet Anfang 2015

Ein interessanter Punkt von Carrizo ist die Integration eines Mini-Chipsatzes direkt in die CPU. Jener bietet Support für zwei SATA3-Ports, vier USB3.0-Ports, acht USB2.0-Ports sowie einem SD-Cardreader und dürfte damit für die Bedürfnisse von Mobile-Rechnern ausreichend sein. Im Desktop-Einsatz wird dieser Mini-Chipsatz deaktiviert und es kommt ein gewöhnlicher, großer Mainboard-Chipsatz zum Einsatz, welcher per PCI Express 3.0 angebunden wird. AMDs Carrizo ist damit die erste CPU, welche PCI Express 3.0 auch seitens des Mainboard-Chipsatzes nutzt – interessant für die schnellstmögliche Anbindung von SSDs, welche direkt oder indirekt an PCI Express angebunden sind. Dafür muß bei Carrizo allerdings die Grafikkarten-Anbindung leiden: Gibt es bei Kaveri 16+8 PCI Express Lanes (16 für die Grafikkarte, 8 zum Mainboard-Chipsatz), sind es bei Carrizo nunmehr nur noch 8+8 PCI Express Lanes, die Grafikkarte muß also mit nur noch 8 PCI Express Lanes – allerdings der Versionsnummer 3.0 – auskommen. Für die bei dieser Mainstream-APU üblicherweise eingesetzten Grafikkarten dürfte dies eigentlich keinen Unterschied ausmachen, ein Schönheitsfehler ist es trotzdem.

26

Hardware- und Nachrichten-Links des 26. März 2014

Wie die ComputerBase in Berufung auf klärende Worte seitens nVidia berichtet, handelt es sich bei nVidias kommender Grafikchip-Architektur "Pascal" nicht schlicht um eine Umbenennung der früher an dieser Stelle auf den nVidia-Roadmaps stehenden Grafikchip-Architektur "Volta" – sondern vielmehr soll Volta weiterhin erscheinen, und zwar nach Pascal. Terminlich wurde dies nicht weiter eingegrenzt – aber vor dem Jahr 2018 dürfte diesbezüglich kaum etwas passieren, eher denn später als termingerecht. Genauere Informationen zu der Zielsetzung bei Volta gibt es noch nicht – die frühere Berichterstattung sprach von 3D-Speicher, aber dies wird nun schließlich schon bei Pascal passieren. Insofern muß man sich einfach überraschen lassen, nVidia dürfte sicherlich kaum etwas konkretes zu Volta sagen, bevor Pascal nicht wenigstens knapp vor der Tür steht.

Daneben hat der Heise Newsticker bei seiner Berichterstattung die Frage aufgeworfen, inwiefern nVidia mit Pascal/Volta ein Modell mit ausschließlicher Nutzung von 3D-Speicher anstrebt – oder ob es vielleicht ein Modell wie bei der Xbox One oder den Intel-Grafikchips wird, wo nur ein Teil des schnellen Speichers direkt angebunden wird und der Rest dann per gewöhnlichem Speicher gelöst wird. Dies hat auch Auswirkungen auf das Geschäft zwischen GPU-Hersteller und Grafikkarten-Hersteller: Wenn nVidia zukünftig einen Pascal/Volta-Grafikchip gleich mit mehreren GigaByte 3D-Speicher direkt auf dem Trägermaterial komplett in dieser Form an die Grafikkarten-Hersteller ausliefert, steigt der Wertanteil von nVidia an einer Grafikkarte, womit auch mehr Umsatz durch nVidias Bücher geht. Richtigerweise merkt der Heise Newsticker aber an, daß derzeit niemand weiss, ob der 3D-Speicher möglicherweise nur eine Sache für den Profi- und den HighEnd-Bereich ist und vielleicht sogar bei den allermeisten normalen Grafikkarten gar nicht zum Einsatz kommt.

Laut WCCF Tech steht der Haswell-Refresh zum offiziellen Release am 11. Mai an, wobei die Prozessoren und neuen 9er Mainboards zu diesem Zeitpunkt breit verfügbar sein sollten. Wie bekannt, treten die Haswell Refresh-Modelle vorwiegend nur mit jeweils 100 MHz Mehrtakt an, während die neuen 9er Mainboards keine Bedingung für diese Prozessoren darstellen, sondern auch 8er Mainboards mit den neuen Prozessoren kombinierbar sind – ein insgesamt also sehr unspektakulärer Launch. Die einzig interessanten neuen ungelockten Prozessoren mit überarbeitetem Package samt neuer Wärmeleitpaste sollen hingegen zur Computex im Juni gezeigt und dann erst im dritten Quartal verkauft werden. Haswell-E hingegen wird nunmehr für einen September-Termin genannt, was zur bisherigen Terminvorgabe "drittes Quartal" passt.

26

Umfrage-Auswertung: Spielt DRM beim Spielekauf eine Rolle?

Die Umfrage von letzter Woche widmete sich dem heiklen Thema "DRM beim Spielkauf" – wobei DRM natürlich nicht nur diverse technische Kopierschutzmaßnahmen, sondern auch die zwangsweise Account-Verbindung mit Steam, Origin, GfWL & Co. umfaßt. Die Meinungen zu diesem Thema verteilen sich – wie gut an der Grafik zu sehen – ziemlich stark, wobei es dennoch eine starke Tendenz gibt, DRM beim Spielekauf aus dem Weg zu gehen. Zum totalen Boykott sind aber nur 20,6% der Umfrage-Teilnehmer bereit, während weitere 36,8% bevorzugt DRM-freie Titel kaufen und nur selten DRM-Titel erwerben. Eine mit insgesamt 18,9% nicht gerade kleine Gruppe hilft sich bei DRM-Titeln mit Cracks weiter – wobei anzunehmen ist, daß die Dunkelziffer hier wohl höher ist als die Umfrage ausdrückt, nicht jeder dürfte bei einer solchen Antwortoption wirklich ehrlich antworten.

Am Ende interessieren nur ganze 23,7% der Umfrage-Teilnehmer das Thema DRM beim Spielekauf und in der Spielepraxis gänzlich nicht – dies ist erstaunlich wenig angesichts der großen Erfolg insbesondere der Steam-Plattform. Andererseits zeigt es den Verfechtern der DRM-Praxis an, das DRM-Systeme vielleicht einen Markterfolg haben können, dennoch aber seitens der Spielekäufer eher nur zwangsweise toleriert werden. Sobald man es jedoch übertreibt, wird die deutlich zu sehende grundsätzlich negative Stimmung gegenüber dem Spiele-DRM dann zu einer anderen Verhaltensweise der Spieler führen – was für die DRM-Anbieter bedeutet, es keinesfalls zu übertreiben und nach Möglichkeit sowohl technisch als auch rhetorisch eher ab- als aufzurüsten.

25

Hardware- und Nachrichten-Links des 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

Gestern schon verlinkt, aber noch nicht extra erwähnt wurde die Meldung seitens Golem über erste kommende ASIC-Rechner für Litecoin – und das sich damit abzeichnende Ende des Litecoin-Minings im Heim-Bereich. Der jetzt für das zweite bis dritte Quartal 2014 angekündigte ASIC-Rechner soll die Rechenleistung von 100 HighEnd-Grafikkarten erreichen und wird damit exakt diesen Effekt auslösen, welcher auch schon Bitcoins passiert ist: Die Rechenschwierigkeit zur Erzeugung neuer Coins geht extrem nach oben, womit der Ertrag mit normaler Hardware ins Bodenlose fällt. Die ASICs selber sind wiederum ein arg zweischneidiges Schwert: Jene lassen sich derzeit sehr einfach bewerben, weil sie unter jetzigen Bedingungen wie Gelddruckmaschinen aussehen. Sobald die Geräte jedoch breit verfügbar sind, wird komplett neu gerechnet und kann sich daher auch sehr schnell die Situation ergeben, daß man die satten 10.000 Dollar Anschaffungskosten nicht wieder hereinbekommt.

Vor der Anschaffung von ASIC-Minern sollte man sich die einfache Grundregel durch den Kopf gehen lassen, daß niemand eine Gelddruckmaschine verkauft, wenn man sie auch zuerst selber nutzen und dann einfach später ausliefern kann. Sinnvoll ist das Hantieren mit ASIC-Beschleunigern zur Coin-Erzeugung wohl nur, wenn man direkt an der Quelle sitzt. Ganz allgemein betrachtet wird die ASIC-basierte Erzeugung dem Projekt Litecoin nicht gut tun, weil somit die Masse der interessierten Nutzer von einer sinnvollen Coin-Erzeugung ausgeschlossen wird. Deswegen hatte man sich bei Litecoin schon bewußt für ein Rechenverfahren entschieden, welches eher schlecht auf ASICs umzusetzen ist. Diese löbliche Idee hat in der Praxis jedoch nicht lange genug gehalten – und nun geht Litecoin, lange bevor man irgendeine monetäre Infrastruktur außerhalb von Coin-Börsen aufgebaut hat, in die Hände weniger Profi-Miner.

Gerade, um am Platzhirsch Bitcoin vorbeizukommen, ist dies eine schlechte Ausgangslage – hierfür wird eine breite Masse an Beteiligten benötigt. Litecoin scheint somit zumindest als Anwärter auf den Coin-Thron auszuscheiden. Ein wirklicher Kontrahent für Bitcoins Platz an der Sonne müsste zuerst sicherstellen, daß das Mining wirklich nicht von spezieller Hardware übernommen werden kann – wie auch immer man dies anstellt. Denn nur darüber, daß die breite Masse mitrechnen kann, wäre ein solcher Publikumserfolg möglich, welcher jenen von Bitcoin überbietet und damit Bitcoins nach wie vor (vergleichsweise) überragende Stellung im Geschäftsverkehr und im Einzelhandel angreifen könnte. Und nur die Verbindung zur Realwirtschaft ist es, welche letztlich zwischen "(vergleichsweise) echtem Geld" und "Spielgeld im Hype-Modus" unterscheidet.

25

nVidia kündigt Pascal-Architektur für das Jahr 2016 an

Auf der GPU Technology Conference (GTC) hat nVidia neben der GeForce GTX Titan Z auch noch einen gewissen Ausblick auf seine langfristigen Pläne gegeben, welche im Jahr 2016 in der neue Grafikchip-Architektur "Pascal" münden sollen. Bislang stand "Volta" an dieser Stelle auf der nVidia-Roadmap, die Pascal-Architektur ist augenscheinlich nur ein neuer Name für das, was man mit Volta vorhatte. Gleichzeitig wurde das Projekt allerdings auch präzisiert: War bislang zu Volta nur die Nutzung von 3D-Speicher bekannt, spezifizierte man dies für Pascal mit einer angestrebten Speicherbandbreite von rund 1000 GB/sec genauer aus. Dies ist grob das Dreifache einer GeForce GTX 780 Ti (336 GB/sec) oder Radeon R9 290X (320 GB/sec) und stellt damit einen gehörigen Schub an Speicherbandbreite dar, welche in den letzten Jahren niemals so schnell in so kurzer Zeit gewachsen ist.

Ein gänzlich neuer Punkt zu Pascal ist die generelle Überarbeitung der Verbindung zur CPU mittels einer neuen Verbindungsart namens "NVLink". Hiermit will nVidia die Bandbreite zur CPU um das 5fache bis 12fache steigern, zudem wird damit "Unified Memory" zur gleichzeitigen Nutzung von Haupt- und Grafikkartenspeicher durch CPU und GPU möglich. NVLink wurde in Zusammenarbeit mit IBM entwickelt und soll auch bei IBMs eigenen Server-Prozessoren zum Einsatz kommen – der entscheidende Punkt ist dabei, daß es damit augenscheinlich in Konkurrenz zu PCI Express geht. Ob sich dies daher im Consumer-Bereich durchsetzen wird, steht absolut in den Sternen, denn dann müssten Intel, AMD und die Mainboard-Hersteller nur für nVidia eine Extrawurst braten – sehr unwahrscheinlich. Gut möglich, daß das NVLink-Interface vorerst nur eine Bedeutung für den professionellen Bereich bekommt und im Consumer-Segment glatt negiert wird.

Ganz generell scheint vieles von dem, was sich nVidia für die Pascal-Architektur ausgedacht hat, in Richtung professioneller Einsatz zu gehen – dazu gehören NVLink, aber auch das vielbeschworene "Unified Memory", welches im Spielebereich auf dem PC nicht wirklich benötigt wird. Selbst der 3D-Speicher mit seiner hohen Bandbreite ist für den professionellen Einsatz überaus nützlich, da dort oftmals mit extrem großen Datenmengen hantiert wird. Von der Ausrichtung der Architektur her scheint der Gaming-Einsatz jetzt zwar nicht gleich in den Hintergrund zu rücken, aber auch nicht mehr die eine große Maßgabe zu sein – womöglich auch daraus resultierend, daß für den Gaming-Zweck die Grafikchip-Architekturen gut genug sind und es (fast) nur noch um mehr Hardware-Einheiten unter Mithilfe neuer Fertigungsverfahren geht.

Stichwort Fertigungsverfahren bei Pascal: nVidia gab hierzu nichts bekannt, deswegen schossen sofort die Spekulationen ins Kraut. Meistens wird hierbei die 20nm-Fertigung angenommen, da Pascal nun nicht mehr all zu weit weg liegt und Auftragsfertiger TSMC schließlich noch immer nichts in 20nm lieferbar hat. Dagegen spricht, daß nVidia neue Architekturen immer auf neuen Fertigungsverfahren aufsetzt und nur die zwischenliegenden Refresh-Generationen auf Basis derselben Fertigung daherkommen. Sprich: 20nm ist bei nVidia für Maxwell und den Maxwell-Refresh zu erwarten, Pascal sollte dann also schon 16nm sein. Da 16nm bei TSMC auch nichts anderes als 20nm mit 3D-Transistoren ist und selbst nach vorsichtiger Schätzung Ende 2015 bereitstellen sollte, erscheint die 16nm-Fertigung für Pascal als die derzeit wahrscheinlichste Auflösung. Dazwischen werden wie gesagt noch mindestens zwei Grafikkarten-Generationen von nVidia liegen: Maxwell zum Jahresende 2014 sowie ein Maxwell-Refresh innerhalb des Jahres 2015.

25

nVidia kündigt GK110-basierte DualChip-Lösung "GeForce GTX Titan Z" an

Auf der GTC hat nVidia soeben die kommende DualChip-Lösung "GeForce GTX Titan Z" angekündigt, welche im Gegensatz zur früheren DualChip-Lösung GeForce GTX 690 nicht auf zwei GK104-, sondern auf zwei GK110-Chip basieren wird. Dabei setzt nVidia sogar den Vollausbau des GK110-Chips mit jeweils 2880 Shader-Einheiten an einem 384 Bit DDR Speicherinterface an, für eine DualChip-Lösung ist dies ungewöhnlich viel. Erkauft wird sich das ganze jedoch mit einem sehr niedrigen Chiptakt von knapp unter 700 MHz – eine genaue Taktangabe gibt es zwar noch nicht, aber dies läßt sich aus den seitens nVidia genannten 8 TeraFlops Rechenleistung schließen.

Damit kommt die GeForce GTX Titan Z auf eine Rechenleistung, die nur 42% oberhalb einer (einzelnen) GeForce GTX Titan Black bzw. auch nur 50% oberhalb einer (einzelnen) GeForce GTX 780 Ti rangiert, was eine eher magere Steigerung angesichts der mit DualChip-Grafikkarten immer einhergehenden gewissen Ineffizienz darstellt. Viel mehr als 35% Mehrperformance gegenüber einer GeForce GTX Titan Black ist von der GeForce GTX Titan Z nicht zu erwarten – was zwar locker für den Spitzenplatz bei einzelnen Grafikkarten langt, aber immer noch weit langsamer ist als zwei GeForce GTX Titan Black Karten unter SLI leisten können. Letztere sind zudem klar günstiger zu haben, da die GeForce GTX Titan Z für den monströsen Preis von 2999 Dollar in den Handel gelangen soll.

Unter diesen Voraussetzungen dürften sich kaum sinnvolle Anwendungszwecke für die GeForce GTX Titan Z finden lassen. nVidia sieht die Grafikkarte zwar auch für den professionellen Bereich vor, dort werden jedoch – wegen der angepassten Treiber – eher gern Quadro- und Tesla-Modelle genommen. Im Endeffekt handelt es sich bei der GeForce GTX Titan Z um ein Prestigeprojekt, mit dem man zeigt, was man maximal kann – nicht, was wirklich sinnvoll wäre. Genauere Daten und einen voraussichtlichen Release- bzw. Liefertermin gibt es bislang leider noch nicht.

Nachtrag vom 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

Inhalt abgleichen