25 25

In welchem Preisbereich werden Grafikkarten gekauft?

Mit dieser Umfrage soll der Preisbereich ermittelt werden, in welchem die Grafikkarten-Käufer üblicherweise suchen. Als Antwortoptionen werden verschiedene preisliche Abstufungen angeboten – zuzüglich einer Angabe, welche festlegt, wie strikt man die jeweilige Preisobergrenze befolgt: Versucht man nur, im persönlichen Preisbereich zu bleiben, verschiebt dies aber je nach vorliegendem Angebot durchaus einmal – oder arbeitet man mit einer festen Preisobergrenze, welche faktisch niemals durchbrochen wird?

24

Hardware- und Nachrichten-Links des 23./24. Juni 2016

Videocardz zeigen einen GPU-Z-Screenshot der Radeon RX480 mit angeblich sogar aus unabhängiger Quelle bestätigten Daten: Danach tritt die Polaris-10-basierte Karte (neben erneut genannten Taktraten von ≤1266/4000 MHz ohne allerdings weiterhin einen offiziellen Basetakt) mit den erwarteten 144 Textureneinheiten an – was sich im bekannten GCN-System von jeweils 64 Shader- und 4 Textureneinheiten pro Shader-Cluster natürlich von selbst ergibt, bisher aber noch einer Bestätigung wartete. Abweichend (und auch unabhängig) hiervon liegt die Anzahl der Raster Operation Units (ROPs) nunmehr bei nur 32 Stück – wie beim früheren Pitcairn-Chip, aber nur auf der Hälfte des vorherigen Haiwaii-Chips (64 ROPs an einem 512 Bit GDDR-Speicherinterface). Ein Grund hierfür dürfte sicherlich im kleineren Speicherinterface von Polaris 10 zu suchen sein, ein anderer Grund in der insgesamten Einordnung dieses neuen AMD-Grafikchips nicht mehr in der HighEnd-, sondern der Performance-Klasse: Und da ist die WQHD-Auflösung das absolut höchste der Gefühle, schaut man eher in Richtung FullHD.

Hierfür sind dann weder ganz breite Speicherinterfaces noch besonders viele ROPs vonnöten, insofern ergibt das ganze einen sinnvollen Aufbau des Polaris-10-Chips. Trotzdem bleibt die Frage, ob diese ROP-Anzahl die Polaris-10-Grafikkarten nicht hier und da etwas an Performance kosten wird. Nominell ist von nVidias Konter in Form des GP106-Chips zwar auch nicht wesentlich mehr zu erwarten – bei dem kolportierten 192 Bit GDDR5-Speicherinterface dürften es auf nVidia-Seite wohl 48 ROPs werden. Zuzüglich der deutlich höheren Taktraten der nVidia-Chipdesigns kann da aber doch schon ein deutlicher Unterschied in der ROP-Power zugunsten von nVidia herauskommen – wie gesagt, gänzlich ohne Performanceeffekt dürfte diese knappe ROP-Anzahl bei Polaris 10 nicht ausgehen. Aber wahrscheinlich dürfte sich AMD schlicht zugunsten der größtmögliche Effizienz entschieden haben – sprich, der vermutliche Performanceeffekt von gleich 64 ROPs deckt wohl nicht die dafür notwendige größere Chipfläche und damit den höheren Kosteneinsatz ab.

In einer weiteren Meldung zeigen Videocardz zudem einige Tweets seitens AMDs Grafik-Chef Raja Koduri mit klarem Bezug zum später kommenden Vega 10 Grafikchip. Hierzu hatte der AMD-Chef mit einem AMD-Designteam in Shanghai einen Vega-bezogenen Meilenstein zu feiern – was alles mögliche bedeuten kann, aber zumindest andeutet, das jener zweite Teil von AMDs 14/16nm-Generation auf dem Weg ist und auch nicht gerade Ewigkeiten nach Polaris 11 & 10 zu erwarten sein wird. Dies könnte man als Bestätigung einer früheren Meldung über den Vega-10-Chip bereits im Oktober 2016 ansehen – aber AMD hat natürlich nichts über konkrete Terminlagen gesagt, in dieser Frage bleibt die weitere Entwicklung schlicht abzuwarten. Auch eine weitere frühere Meldung über 4096 Shader-Einheiten bei Vega 10 (aka Greenland) läßt sich derzeit weiterhin nicht bestätigen – ist allerdings anhand der nunmehr bekannten Anzahl der Shader-Einheiten des nächstkleineren AMD-Chips (Polaris 10 bei 2304 Shader-Einheiten) umso wahrscheinlicher.

Mit Vega 10 dürfte AMD somit durchaus so etwas wie eine Neuauflage des Fiji-Chips (4096 Shader-Einheiten an einem 4096 Bit HBM1-Interface) unter kleinerer Fertigung wagen – eventuell mit einem anderem Speicherinterface (2048 Bit) durch die Nutzung von HBM2-Speicher, aber weiterhin mit ähnlicher Speicherbandbreite. Über die kleinere Fertigung kann man sicherlich auch auf höhere Chiptaktraten kommen, so das die Rechenleistung gegenüber dem Fiji-Chip bemerkbar ansteigen würde. Den Hauptteil des (anzustrebenden) Performancesprungs müssten in diesem Fall dann allerdings wirklich die Verbesserungen der vierten GCN-Ausführung bringen – denn immerhin würde jener verbesserte Fiji-Chip dann mit der Zielsetzung antreten, sich mit dem nVidia GP104 und damit der GeForce GTX 1080 anzulegen, welche sich ihrerseits um immerhin 32-43% besser als das schnellste Fiji-Produkt (Radeon R9 Fury X) positionieren konnte. Mit faktisch derselben Hardware und nur besseren Taktraten sowie einem Effizienzgewinn durch die neue GCN-Ausbaustufe so viel aus Vega 10 herausholen, erscheint als schweres Brot für AMD – insofern bleibt doch abzuwarten, ob sich Vega 10 wirklich mit dem GP104-Chip anlegen kann.

Nach dem Vega-10-Chip sollte sich noch der Vega-11-Chip anschließen, welcher als nochmals mächtiger und AMDs eigentliche Enthusiasten-Lösung innerhalb der 14/16nm-Generation angesehen wird. Von diesem ist eine Ausnutzung der maximal möglichen Chipfläche (sprich wiederum in Richtung 600mm²), mehr Shader-Einheiten und aber vor allem die Rückkehr aller für professionelle Zwecke notwendigen Features zu erwarten – denn nach dem in dieser Frage nahezu unnutzbaren Fiji-Chip braucht AMD sicherlich auch mal wieder eine wirkliche HPC-Lösung, gerade in Konkurrenz zu nVidias neuem HPC-Chip GP100. Während nVidia jedoch erstmals gleich zwei Enthusiasten-Chips mit getrennten Aufgaben auflegen wird (GP100 rein für HPC, GP102 rein fürs Gaming), dürfte AMD im Vega-11-Chip beide Funktionen vereinen wollen – was dann letztlich auch die Anzahl der maximal möglichen Shader-Einheiten etwas limitiert, welche derzeit auf grob 6000 geschätzt wird. Vega 11 dürfte allerdings auch einer der letzten Grafikchips der initialen 14/16nm-Welle sein und ist kaum vor dem Frühjahr 2017 zu erwarten.

Ausgehend von einer Meldung seitens WCCF Tech berichten derzeit einige Webseiten über angeblich bereits feststehende Listenpreise der Radeon RX460 und RX470 von 99$ (RX460 2GB) bzw. 119$ (RX460 4GB) sowie 149$ (RX470 4GB) bzw. 179$ (RX470 8GB). Allerdings handelt es sich hierbei augenscheinlich um eine reine Annahme seitens WCCF Tech, ohne dafür eine konkrete Quelle oder einen Hinweis zu haben – faktisch ein Platzhalter, bis echte Informationen vorliegen. Natürlich kann man diese Preislagen zu Radeon RX460 & RX470 annehmen, jene sind von der Höhe her auch nicht weit her geholt (wir haben es zuletzt etwas defensiver gesehen) – aber in jedem Fall liegt hier mitnichten bereits eine klare Informationen oder gar die Bestätigung zu einem AMD-offiziellen Listenpreis vor. Zudem ist generell noch unsicher, ob es überhaupt eine Radeon RX470 mit 8 GB Speicher geben wird – diese Karte wurde zwar angenommen, aber nirgendwo ernsthaft bestätigt (das AMD-eigene Vorserien-Benchmarks mit dieser Speicherbestückung laufen, ist keine Aussage zu den Retailmodellen).

Aufgrund der wahrscheinlich eng aneinanderliegenden Preispunkte dieser RX400-Karten ist es denkbar, das eine hypothetische Radeon RX470 8GB letztlich so viel kostet wie eine Radeon RX480 4GB – und dann wäre bis auf entschiedene Nutzer höherer Auflösungen eventuell doch die Mehrperformance der Radeon RX480 dem Mehrspeicher vorzuziehen. In jedem Fall könnte man sich aus Gründen der Angebotsstraffung vorstellen, das AMD höchstselbst die Radeon RX470 nur mit 4 GB plant – ob dann die Grafikkarten-Hersteller auf eigene Faust noch eine 8-GB-Version nachschieben, dürfte jenen überlassen sein, wird aber bei einem offiziell nicht protegiertem Produkt immer etwas länger dauern und wohl auch etwas mehr kosten als der durchaus spartanisch zu nennende Mehrpreis zwischen Radeon RX480 mit 4 GB und mit 8 GB Speicher (+30 Dollar/Euro). Wie gesagt sind diese ganzen aktuellen Listenpreis-Meldungen zu Radeon RX460 & RX470 unter den großen Vorbehalt zu stellen, das die Ausgangs-Webseite in Form von WCCF Tech letztlich nur eine Platzhalter-Annahme zu deren Preisen zum besten gegeben hat.

23

Umfrage-Auswertung: Wie ist der Ersteindruck zur GeForce GTX 1070?

Eine Umfrage von Anfang Juni fragte nach dem Ersteindruck zur GeForce GTX 1070, der zweiten Grafikkarte der derzeit anlaufenden 14/16nm-Generation. Die Stimmungslage zu dieser Karte ist fast deckungsgleich wie bei der vorhergehenden GeForce GTX 1080: 45,9% positiver Ersteindruck sind zudem ein vernünftiges Ergebnis – aber auch nichts, was in irgendeiner Form bedeutsam wäre, gerade wenn es sich um die kleinere Lösung auf Basis des nur zweitbesten Chips des kompletten Grafikchip-Portfolios von nVidia handelt, welche schon halb im Bereich von Massenware stehen sollte. Die an dieser Stelle vorhergehende GeForce GTX 970 hatte jedenfalls seinerzeit mit 88,0% positivem Ersteindruck gänzlich andere Werte vorzuweisen (wenngleich dies vor der GTX970-Affäre war):

Die Grundlage für diese hohe Differenz bildet der faktisch einzige große Fehler der GeForce GTX 1070: Die Karte wurde preislich einfach zu hoch angesetzt, dafür stimmten auch satte 90,2% der Umfrage-Teilnehmer mit durchschnittlichem bzw. negativem Ersteindruck. Die GeForce GTX 970 kam seinerzeit für einen Listenpreis von 329 Dollar und Straßenpreisen von recht konstant um die 320-330 Euro in den Markt, für die GeForce GTX 1070 hat nVidia nun allerdings Listenpreise von 379 Dollar (Herstellerdesigns) bzw. 449 Dollar (Founders Edition) angesetzt, die ersten Straßenpreise sehen die Karte jedoch nur etwas unterhalb der 500-Euro-Grenze. Ein fast 50%iger Preisaufschlag ist in diesem Marktsegment nicht so einfach wegzudiskutieren trotz der gebotenen höheren Leistung – welche aufgrund des neuen Grafikchips in einer kleineren Fertigungsgröße sowieso obligatorisch sein sollte.

Und somit reicht es für die GeForce GTX 1070 auch nur zu einem potentiellen Kaufinteresse von 17,5% – kein ganz schlechter Wert, aber eher durchschnittlich und von vielen früheren Grafikkarten dieses Preisbereichs ebenfalls erreicht bzw. überboten. Vom Spitzenwert der GeForce GTX 970 von satten 52,4% potentiellem Kaufinteresse ist man meilenwert entfernt – und es stellt sich erneut die Frage, ob die höheren Preislagen, welche nVidia in dieser Grafikkarten-Generation aufruft, wirklich so sinnvoll sind, nehmen sie den (technisch sehr guten) Pascal-Karten doch einiges an Marktpotential. Auf diesen Preislagen ist es vor allem schwer, einen überspringenden Funken sprich eine echte Kundenbegeisterung zu entfachen – wie es AMD derzeit geschafft hat mit den wesentlich langsameren, aber preislich sehr gut einen Sweetspot ansprechenden Radeon RX400 Karten.

  positiv durchschn. negativ Kaufint.
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380X 21,8% 47,0% 31,2% 8,1%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R7 360 24,5% 32,1% 43,4% 7,6%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
GeForce GTX 1080 45,9% 28,6% 25,5% 12,2%
GeForce GTX 1070 44,0% 30,4% 25,6% 17,5%
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 950 23,1% 33,1% 43,8% 4,9%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
22

Hardware- und Nachrichten-Links des 22. Juni 2016

Die PC Games Hardware hat eine feine Auflistungen der Herstellerdesigns zur GeForce GTX 1080 anzubieten: Anhand der notierten Informationen zu Taktraten, Stromzufuhr und Power-Limit kann man gut die möglichen Performance-Differenzen der einzelnen Herstellermodelle abschätzen. Insbesondere beim Übertakten der GeForce GTX 1080 dürfte dabei das Power-Limit entscheidend sein – dumm nur, wenn manche Hersteller jenes selbst bei klaren Werksübertaktungen nicht angehoben haben, hierbei drohnt ein faktisch unterdurchschnittlicher Performancegewinn durch jene Werksübertaktung. Auf 200 Watt (ausgehend vom nVidia-default von 180 Watt) kann man das Power-Limit bei jeder ernst gemeinten Herstellerkarte durchaus einstellen, wenn die GeForce GTX 1080 im Referenzdesign und auf Referenz-Taktraten schon 174 Watt unter Spielen aus der Leitung zieht. Direkt zur Übertaktung gedachte Karten sollten eher gleich mit einem Power-Limit von 230-250 Watt antreten – denn wie üblich gilt, das unter Übertaktung die hohe Energieeffizienz des default-Zustandes nicht mehr gehalten werden kann, das also höhere Taktraten immer mit relativ gesehen deutlich stärker steigendem Strombedarf einhergehen.

In dieser Frage sind viele Herstellerdesigns zur GeForce GTX 1080 (trotz klarer Werksübertaktung) jedoch sehr handzahm, wird meistens nur ein Power-Limit von 200 Watt geboten – selten auch 215 oder 230 Watt. Eine einzige Gigabyte-Karte geht mit 250 Watt hier wirklich in die Vollen, wobei von vielen anderen Herstellern (unverständlicherweise) keine klaren Angaben zur wichtigen Frage des Power-Limits geliefert werden. Andererseits muß auch klar gesagt werden, das die GeForce GTX 1080 gerade unter höheren Auflösungen Probleme haben wird, eventuell große Taktratengewinne beim Chiptakt auch in reale Mehrperformance umzusetzen – da die Speicherbandbreite der Karte kaum noch erhöhbar ist, der derzeit verbaute GDDRX5-Speicher einfach nicht viel mehr mitmacht (oder mehr mitmacht und dann jedoch langsamer wird). Die bei allen neuen Grafikkarten der 14/16nm-Generation angesetzten Speichertaktraten sind derzeit so knapp am Limit der jeweiligen Speichersorte, das die 14/16m-Karten nur nominell gesehen gute Übertakter sind: Viel mehr Chiptakt sind sicherlich erreichbar – aber es kommt dafür nicht viel mehr Performance heraus.

Fudzilla fügen der kürzlich bekanntgewordenen letzten Intel-Roadmap, welche Intels Enthusiasten-Lösungen Skylake-X & Kaby-Lake-X zeitgleich im zweiten Quartal 20147 sieht, weitere Informationen hinzu: Danach sollen diese Enthusiasten-Lösung weiterhin maximal mit 10 CPU-Rechenkernen antreten – Skylake-X mit einem Zehnkerner und einem weiteren Prozessor mit niedrigerer Kernanzahl und Kaby-Lake-X angeblich sogar nur als Vierkerner, beiderseits im neuen Sockel 2066. Damit dürfte Intel – trotz neuem Mainboard-Chipsatz auf Basis der auch beim normalen Kaby Lake zum Einsatz kommenden 200er Chipsatz-Serie – wohl nicht viel reißen können, selbst wenn es technisch gesehen mehr CPU-Kerne als im Desktop-Angebot von AMDs Zen-Prozessoren (maximal 8 CPU-Kerne bei den Desktop-Modellen) sein werden. Doch nachdem sich Broadwell-E nur als ziemlich überteuerte Angelegenheit herausgestellt hat, konnte man sich durchaus einen gewissen Fortschritt mit der nächsten Enthusiasten-Generation vorstellen – welcher nun zumindest auf technischer Seite nicht eintreten wird. Und ob Intel preislich von dem einmal beschrittenen Hochpreis-Pfad abkehren wird, dürfte auch eher zu bezweifeln sein. Demgemäß scheinen Skylake-X und Kaby-Lake-X noch keinerlei interessante Fortschritte mit sich zu bringen bzw. AMDs Zen irgendwie unter Druck setzen zu können.

Der Planet 3DNow! berichtet über Anstrengungen Intels, die frühere EU-Kartellstrafe erneut anzufechten und damit 1 Milliarde Euro von der EU (nicht von AMD) zurückzuerhalten. Aus streng juristischem Blickwinkel ist es natürlich sinnvoll, alle rechtlichen Möglichkeiten auszuschöpfen – aber gleichzeitig läßt man damit auch erkennen, das man aus dieser seinerzeitigen Strafe trotz (für die Verhältnisse von Intel mit 50 Mrd. Dollar Jahresumsatz) deren sehr maßvoller Höhe eigentlich nichts gelernt hat. Selbige Problematik ergibt sich letztlich auch aus der Strafe, die Microsoft im seinerzeitigen Browser-Krieg kassiert hat – welche man beiderseits als zusätzliche Geschäftskosten hat verbuchen können, die möglicherweise die Bilanz kurzfristig verhagelt haben, aber die jeweiligen Unternehmen nicht wirklich für ihr Verhalten abgestraft haben. Die EU-Regularien sind in diesen Fragen leider zu eng aufgestellt und geben keine Möglichkeit, im Fall eines faktischen Monopolisten gegen die Rest-Konkurrenz entsprechend angehobene Strafen auszusprechen – solche, bei denen dann der Vorstand wackelt, weil die Aktionäre Sturm laufen. Und nur so ein extremer Druck würde diese Unternehmen letztlich dazu zwingen, ihr Verhalten wirklich abzuändern – ansonsten kann man weiterhin solcherart Kartellstrafen einfach als aufzubringende Nebenkosten sogar vorab schon einkalkulieren.

22

Spezifikations-Vergleich Intel Xeon Phi 7200 vs. nVidia Tesla P100

Mit der Vorstellung von Intels neuem Xeon Phi Prozessor auf Knights-Landing-Basis in Konkurrenz zu nVidias GP100-Chip lohnt nunmehr wieder einmal ein Vergleich der verschiedenen HPC-Ansätze der entsprechenden Hersteller – derzeit noch ohne AMD, denn deren entsprechendes Vega-11-Projekt dürfte erst im nächsten Jahr spruchreif werden. Intel hat mit "Knights Landing" mal wieder einen echten Monsterchip mit einer Chipfläche von ~700mm² unter der 14nm-Fertigung hingelegt – und in diese bis zu 76 physikalische Rechenkerne einer hochgeschraubten Silvermont-Architektur gesteckt, womit diese eigentlich für LowPower-Prozessoren gedachte Atom-Architektur einen interessanten Zweitnutzen erfährt. Wie bei nVidias Tesla P100 können die aktuellen Xeon Phi 7200 Lösungen die vorhandene Hardware aus Ausbeutegründen jedoch nicht komplett ausnutzen – die Tesla P100 kommt mit nur 3584 freigeschalteten von 3840 physikalisch vorhandenen Shader-Einheiten daher, Xeon Phi hingegen mit (je nach Modell) zwischen 64 und 72 freigeschalteten von 76 physikalisch vorhandenen x86-Rechenkernen:

Xeon Phi 7200 Tesla P100
Chipbasis Intel Knights Landing, ~8 Mrd. Transistoren in 14nm auf ~700mm² Chipfläche nVidia GP100, 15,3 Mrd. Transistoren in 16nm auf 610mm² Chipfläche
Technik bis zu 72 Silvermont-basierte x86-Rechenkerne (physikalisch 76 vorhanden) an einem HMC-Speicherinterface sowie einem Sechskanal-DDR4-Speicherinterface, 64 FMA pro Takt & Rechenkern, SP/DP-Verhältnis von 2:1 bis zu 3584 Shader-Einheiten (physikalisch 3840 vorhanden) an einem 4096 Bit HBM2-Speicherinterface, 2 FMA pro Takt & Shader-Einheit, HP/SP/DP-Verhältnis von 4:2:1
bootbar
gesockelt/Steckkarte / /
Interconnect Omni-Path NVLink (gesockelt, nur für IBM Power8+ & Power9) bzw. PCI Express (Steckkarte)
Taktraten bis zu 1500 MHz bis zu 1328/1480/~700 MHz
Speicher 16 GB HMC 12-16 GB HBM2
HalfPrecision ? bis zu 21 TFlops
SinglePrecision mehr als 6 TFlops bis zu 10,6 TFlops
DoublePrecision mehr als 3 TFlops bis zu 5,3 TFlops
Bandbreite bis zu 500 GB/sec (HMC) zuzüglich bis zu 115 GB/sec (DDR4) bis zu 720 GB/sec
TDP bis zu 245 Watt bis zu 300 Watt
Varianten Xeon Phi 7210, Xeon Phi 7230, Xeon Phi 7250, Xeon Phi 7290 Tesla P100 for PCIe, Tesla P100 for NVLink

Trotz enormen Aufwands seitens Intels liegt man weiterhin bei den nominellen Rechenleistungen klar gegenüber nVidia zurück – und nVidia lag in dieser Frage zuletzt auch gegenüber AMD zurück, insofern kann man durchaus abwarten, was AMD hierzu noch beizutragen haben wird. Zudem hat nVidia bei der Speicherbandbreite stark aufgeholt und kann nun sogar mehr Speicherbandbreite als Xeon Phi liefern. Mit NVLink hat man zudem eine eigene, hochbandbreitige Interconnect-Technologie zur Verfügung – welche allerdings noch den Nachteil hat, nur von einigen Prozessoren (IBM Power8+ & Power9) unterstützt zu werden. Intels Omni-Path erscheint da etwas eleganter, da sich jenes per Steckkarte nachrüsten läßt.

Aber wer hier gewinnt und wer verliert, läßt sich sowieso nicht anhand der Spezifikations-Aufzählung (und auch nicht der Preispunkte, die bei nVidia leider unbekannt sind) ermessen – da zählt eher die Eignung der jeweiligen Hardware für das konkrete Hardware-Projekt, welches mit seinen speziellen Anforderungen ganz automatisch den einen oder anderen Ansatz bevorteilen dürfte. Bislang haben AMD und nVidia dem Ansturm von Intels GPGPU-Beschleunigern noch ganz gut standgehalten, insbesondere nVidia ist zu einer bekannten Hausnummer bei Supercomputer-Beschleunigern geworden. Doch Intel hat natürlich die Reserven, sein ehemaliges Larrabee-Projekt auch erst ganz langfristig zum Erfolg zu führen – gerade da jenes aufgrund fehlender Marketing- und Rabattkosten kaum so kostspielig sein dürfte wie der mißlungene Ausflug ins Segment der Smartphone-Prozessoren.

22

Intel-Roadmap bestätigt Markstart der Desktop-Modelle von Kaby Lake nicht vor Jahresanfang 2017

Eine bei BenchLife (maschinelle Übersetzung ins Deutsche) aufgetauchte Auslieferungsroadmap zu den Desktop-Modellen von Intels "Kaby Lake" bestätigt deren vermutlichen Marktstart nicht vor Jahresanfang 2017 – was natürlich die CES Anfang Januar 2017 als potentiellen Launchtermin nahelegt. Zwar läuft die Produktion von Kaby Lake teilweise schon an und sind gemäß einer früheren Auslieferungsroadmap einige Mobile-Modelle von Kaby Lake schon im Spätsommer zu erwarten, bei den Desktop-Modellen von Kaby Lake werden die Vierkerner hingegen als "RTS" ("ready to ship") mit 50. Kalenderwoche 2016 bis 4. Kalenderwoche 2017 gekennzeichnet, die Zweikerner mit 6. bis 18. Kalenderwoche 2017:

Besonders abweichend ist diese neue Auslieferungsroadmap von einer schon im letzten Oktober herumgereichten Auslieferungsroadmap aber auch nicht: Auch dort wurde der Start der Desktop-Modelle erst zum Jahresende 2016 bzw. Jahresanfang 2017 prognostiziert – wie auch jetzt mit den Vierkernern zuerst und den Zweikernern erst klar im Jahr 2017 nachfolgend. Damit dürfte der Skylake-Refresh Kaby Lake mehr oder weniger direkt gegen AMDs Zen-Prozessoren antreten, welche im selben Zeitraum zu erwarten sind. Von Kaby Lake sind neben neuen Mainboard-Chipsätzen für allerdings denselben Sockel 1151 (wie bei Skylake) nur sehr geringfügige interne Verbesserungen zu erwarten, so das man ein gewisses Augenmerk Intels auf höhere Taktraten und/oder bessere Overclocking-Ergebnisse bei Kaby Lake erwartet. Intel muß dies natürlich nicht zwingend liefern, bisher haben sich alle neuen Intel-Generationen auch ohne große Verbesserungen trotzdem immer glänzend verkauft.

Inhalt abgleichen