29

Hardware- und Nachrichten-Links des 29. Januar 2019

Für einige Aufmerksamkeit sorgt derzeit ein Interview der Indiatimes mit dem Alienware-Mitbegründer Frank Azor, wo hierbei auch die Sprache auf zukünftige Intel-Grafikkarten und deren zu erwartender Markteinfluß gekommen ist. In der Berichterstattung hierzu wird gern ausgedrückt, das der Alienware-Mitbegründer nicht erwartet, das Intel konkurrenzfähig sein kann – nur hat jener das gemäß des originalen Interviews weder so gesagt noch so gemeint. Ganz im Gegenteil erwartet der Alienware-Mitbegründer durchaus konkurrenzfähige Intel-Grafikkarten – nur eben nicht im Performancebereich der GeForce RTX 2080 Ti. Genauer wurde dies dann nicht ausgeführt, aber es deutet wohl darauf hin, das der Alienware-Mitbegründer die anfänglichen Intel-Grafikkarten schlicht in einem niedrigeren Preis- und Performancebereich erwartet. Dies entspricht dann auch allen früheren Annahmen, das Intel sich zuerst auf eine solide Ausgangslage im Mainstream- und Midrange-Segment konzentrieren dürfte – gerade mit seinen allerersten Grafikkarten, welchen dann natürlich weitere Grafikkarten-Generationen nachfolgen sollen. Insofern wird vor allem in der Berichterstattung zu diesem Interview viel heiße Luft verbreitet – währenddessen man weiterhin erwarten darf, das Intel mit seinen eigenen Grafikkarten durchaus konkurrenzfähig antreten wird.

The challenge of besting NVIDIA and AMD's gaming performance is enormous. And it's not my expectation that that's going to happen immediately with the Intel GPU. My expectation is that Intel will come in with a good product, and it will serve its place in the market. I don't think they will best an NVIDIA GeForce RTX 2080 Ti graphics card. I think if anybody has that expectation, they're going to be disappointed. If Intel does it, that'll be amazing. But I don't think that's reasonable. I mean Intel is an extremely capable company that I'm sure will produce some really good product. But I think it's unrealistic to think that they're going to best the likes of NVIDIA or AMD immediately.
Quelle:  Frank Azor von Alienware gegenüber der Indiatimes vom 29. Januar 2019

Zur Frage der Kostenlage bei der Radeon VII gab es einige Gegenstimmen aus unserem Forum: So wurden dort die genannten Kostenpunkte für den Interposer (100$) sowie Platine samt Kühlkonstruktion (75$) als wahrscheinlich zu hoch angesetzt eingeordnet (in der gestrigen News wurden an dieser Stelle allerdings 100$ für die Platine und 75$ für die Kühlkonstruktion fälschlich zitiert). Bezüglich der Chipkosten gab es zudem den Hinweis auf einen "Die Per Wafer Calculator", hierbei wurden die Chipkosten bei einer Yieldrate von (immerhin) ca. 60% sowie gegenüber der 16nm-Fertigung glatt verdoppelten Fertigungskosten auf ~140 Dollar geschätzt. Selbst wenn also der HBM2-Speicher wirklich 320 Dollar kosten sollte, dürfte AMD in etwa auf einer Kostenlage von ~570 Dollar herauskommen – sofern der HBM2-Speicher etwas weniger kostet, kann es hier noch erheblich nach unten gehen. Vermutlich wäre die Radeon VII aber sowieso nicht wirtschaftlich darstellbar, wenn die reinen Materialkosten 500 Dollar übersteigen würden – die 200 Dollar Differenz zum Abgabepreis gehen ganz automatisch für Nebenkosten, Distribution und anfallende Steuern drauf, Gewinn wäre damit bestenfalls im marginalen Maßstab zu erzielen.

Bei dieser genaueren Betrachtung entpuppt sich somit vor allem der Preispunkt des HBM2-Speichers als Zünglein an der Waage: Kommt AMD hier erheblich von den genannten 320 Dollar (für wie gesagt gleich 16 GB HBM2) herunter, hat das noch die größten Auswirkungen. Selbst klar niedrigere Yieldraten (bei nur 40% steigt der Chippreis auf ca. 170 Dollar) haben keinen so großen Effekt auf den Gesamtpreis wie selbiger Kostenpunkt des HBM2-Speichers. Hierzu liegen allerdings weiterhin keine wirklich belastbaren Informationen vor, der von Fudzilla herangezogenen HBM2-Preis stammt letztlich immer noch aus einem zwei Jahre alten Artikel und dürfte somit inzwischen maßgeblich alt sein. Effekte, die hier zu einer Preisveränderung führen, sind zum einen neue Fertigungstechnologien (für Speicher), ein inzwischen höherer Marktbedarf bei HBM2, gleichzeitig allerdings auch der Punkt der generell steigenden Speicherpreise über das Jahr 2018 – das ganze ist somit leider nach wie vor nicht einschätzbar, womit auch der gesamte Kostenpunkt einer Radeon VII nicht wirklich kalkulierbar wird. Es bleibt zu hoffen, das AMD wenigstens ein bißchen Gewinn mit dieser Karte erzielen kann – und nicht, daß das ganze nur als "Liebhaberobjekt" eingebucht wird.

Auch in der Frage, wieso nVidias geschäftlicher Ausblick derzeit so tief eingetrübt ist, gibt es im Forum andere Stimmen: Danach sieht man als primäres Problem der Turing-Generation weniger den Preispunkt – als vielmehr die dafür gebotene Performance. Sicherlich hat sich nVidia hierbei vergleichsweise wenig für eine neue Grafikkarten-Generation verausgabt: Nur ca. 35% Mehrperformance, kein größerer Grafikkartenspeicher – und oben drauf das derzeit wenig nutzbare RayTracing-Features, welches dafür allerdings die Chipflächen aufbläht. Teilweise ist diese Argumentation nur die andere Seite derselben Medaille – denn mehr Performance würde das Preis/Leistungs-Verhältnis verbessern und es somit eher ermöglichen, zum gleichen Preispunkt wie bisher zu kaufen und dennoch etwas wirklich schlagkräftigeres in den Händen zu halten. Daneben gibt es aber auch Betrachtungsweisen, welche dies als extra Argumentation sehen: Der Blick zuerst auf die Mehrperformance ist halt unabhängig der Preislage, würde also durchaus auch höhere Preislagen akzeptieren – wenn es dafür einfach nur genügend Mehrperformance gäbe. Am Ende ist nVidia mit Turing so oder so in die doppelte Falle aus hohen Hardware-Anforderungen für RayTracing und einer nicht vorhandenen neuen Fertigungstechnologie getappt.

Dabei war der Zeitpunkt sicherlich günstig zum Start von RayTracing – welches ja sowieso eine (sehr) langfristige Entwicklung ist, die aber einfach irgendwann einmal gestartet werden musste. Denn der Wettbewerb seitens AMD ist derzeit schwach und bezieht sich wenig auf HighEnd- und Enthusiasten-Beschleuniger, ergo war jetzt der Zeitpunkt, wo nVidia auch einmal ein Experiment wagen konnte. Ohne neue Fertigungstechnologie explodierte jedoch für die RayTracing-Einheiten die Chipfläche, was dann gleichzeitig auch limitierend zugunsten der konventionellen Hardware-Einheiten wirkte und somit die Grundperformance dieser ersten RayTracing-Generation zu stark beschränkte. Die übliche Grundregel, das man solche erst langfristig wirkenden Features möglichst mit einer auf allen anderen Gebieten vollkommen überzeugenden Hardware verbindet (und damit bestmöglich "tarnt"), konnte somit nicht eingehalten werden – vielmehr hat die Hinzunahme von RayTracing sogar die Schlagkraft der Turing-Beschleuniger bei konventioneller Grafikberechnung limitiert (jene könnten ohne RayTracing mehr normale Shader-Einheiten enthalten).

Insofern ist für nVidia (und andere Hardware-Hersteller) hiermit auch zu lernen, das man zuerst die Grundperformance im Blick halten muß – und sich hierbei keine Schwächen erlauben kann, gerade wenn man viel Chipfläche für neue Features opfert bzw. deswegen die Preise höher ansetzt. Vieles kann man damit übertünchen, das man einfach eine hohe Grundperformance bietet – und um so nackter steht man da, wenn diese Zielsetzung nicht erreicht werden kann. Zugleich ergibt sich auch die Erkenntnis, das +35% Mehrperformance für eine neue Grafikkarten-Generation einfach zu wenig sind, zumindest sofern jene auf neuen Grafikchips basiert. Zumindest eignet sich eine solche Mehrperformance schlecht, um die Preise hochzureißen – und dann zu erwarten, ähnlich wie früher damit beste Geschäfte zu machen. Da müssen die Grafikchip-Entwickler einfach mehr bieten – was wohl schlicht bedeutet, das neue Grafikchip-Generationen auf Basis der gleichen oder nur wenig verbesserter Fertigungsverfahren in Zukunft verpönt sein dürften. Damit ist einfach zu wenig Staat zu machen – wer wirklich ein spannendes neues Produkt aufbieten will, kann diesen Fall als Maßgabe dafür betrachten, dafür unbedingt auf eine neue, klar bessere Fertigungstechnologie zu setzen.

Für einige Aufmerksamkeit sorgt derzeit ein Interview der Indiatimes mit dem Alienware-Mitbegründer Frank Azor, wo hierbei auch die Sprache auf zukünftige Intel-Grafikkarten und deren zu erwartender Markteinfluß gekommen ist. In der Berichterstattung hierzu wird gern ausgedrückt, das der Alienware-Mitbegründer nicht erwartet, das Intel konkurrenzfähig sein kann - nur hat jener das gemäß des originalen Interviews weder so gesagt noch so gemeint. Ganz im Gegenteil erwartet der Alienware-Mitbegründer durchaus konkurrenzfähige Intel-Grafikkarten - nur eben nicht im Performancebereich der GeForce RTX 2080 Ti. Genauer wurde dies dann nicht ausgeführt, aber es deutet wohl darauf hin, das der Alienware-Mitbegründer die anfänglichen Intel-Grafikkarten schlicht in einem niedrigeren Preis- und Performancebereich erwartet. Dies entspricht dann auch allen früheren Annahmen, das Intel sich zuerst auf eine solide Ausgangslage im Mainstream- und Midrange-Segment konzentrieren dürfte - gerade mit seinen allerersten Grafikkarten, welchen dann natürlich weitere Grafikkarten-Generationen nachfolgen sollen. Insofern wird vor allem in der Berichterstattung zu diesem Interview viel heiße Luft verbreitet - währenddessen man weiterhin erwarten darf, das Intel mit seinen eigenen Grafikkarten durchaus konkurrenzfähig antreten wird.


The challenge of besting NVIDIA and AMD's gaming performance is enormous. And it's not my expectation that that's going to happen immediately with the Intel GPU. My expectation is that Intel will come in with a good product, and it will serve its place in the market. I don't think they will best an NVIDIA GeForce RTX 2080 Ti graphics card. I think if anybody has that expectation, they're going to be disappointed. If Intel does it, that'll be amazing. But I don't think that's reasonable. I mean Intel is an extremely capable company that I'm sure will produce some really good product. But I think it's unrealistic to think that they're going to best the likes of NVIDIA or AMD immediately.
Quelle:  Frank Azor von Alienware gegenüber der Indiatimes vom 29. Januar 2019