23

Hardware- und Nachrichten-Links des 23. Mai 2016

Im SemiAccurate-Forum haben sich noch zwei weitere Deutungen des kürzlichen Zen-Dieshots eingefunden – No.1 und No.2. Insbesondere ersterer – stammend von Hans de Vries von (der leider kaum noch aktiven Seite) Chip-Architect – ist schon recht detailliert in der möglichen Anorderung der einzelnen Zen-Bauelemente. Zudem gibt es eine Schätzung zur Zen-Chipfläche von grob 160mm² – für einen Achtkerner wäre das spartanisch, Intel kommt bei einem Skylake-Vierkerner (mit GT2-Grafiklösung allerdings) in derselben 14nm-Fertigung auch schon auf ~122mm². Gemessen an dem, wie bisher bei Intel die Differenen zwischen Vierkerner mit iGPU und Achtkerner ohne iGPU lagen, sollte ein Intel-Achtkerner ohne iGPU in der 14nm-Fertigung bei ~230-250mm² herauskommen, wäre also sogar größer als AMDs in diesem Punkt (beiderseits keine iGPU) gleichen Ansatz. Damit kann AMD bei Zen letztlich günstigere Preise bieten, ohne deswegen zu sehr in die Gewinnmarge eingreifen zu müssen – zum Verkaufserfolg könnte somit auch endlich einmal wieder ein finanzieller Erfolg kommen. Aber natürlich ist der derzeit vorliegende Zen-Dieshot noch zu ungenau, um jenen mit all zu viel Vorschußlorbeeren zu versehen – wie jeder andere Hersteller auch muß AMD erst einmal liefern, ehe irgendwelche Preise vergeben werden.

Als weitere Auflösung im Fall der Notebook-Grafiklösung oberhalb des Performanceniveaus der GeForce GTX 1080 seitens Asus bietet sich natürlich auch eine ab Werk übertaktete GeForce GTX 1080 an, damit sind die fehlenden ca. 16% Performance durchaus erreichbar. Asus hatte zwar angegeben, den Benchmark ohne Übertaktung angetreten zu haben, aber dies muß ja nicht auf eine ab-Werk-Übertakung bezogen sein. Da das verwendete Konzept-Notebook womöglich sogar eine Wasserkühlung trägt, sind hohe Taktraten mit dem GP104-Chip erreichbar und die dabei entstehende Verlustleistung wohl gut abtragbar. Wie gesagt ist die Auslegung "AMD Polaris 10 unter CrossFire" auch nur eine hypothetische Idee, weil darauf der genannte Benchmark-Wert ziemlich gut passt – was überhaupt nicht aussagt, das es auch so kommt. Daneben wäre noch auf einen Punkt verwiesen, welcher bislang noch gar noch thematisiert wurde: Laut den von Asus für seine Teaser-Webseite vergebenen Tags soll es sich sogar um ein 24-Zoll-Notebook handeln. Dies dürfte neben der Hardware-Performance einiges Interesse hervorrufen, denn im Notebook-Markt gibt es derzeit kaum noch Angebote oberhalb von 17 Zoll – und 24 Zoll wäre dann schon ein wirklich außergewöhnlicher Sprung.

Die PC-Welt berichtet über Microsofts neueste Nervaktion, welche einen zum Umstieg auf Windows 10 bewegen soll: Ein GWX-PopUp, welches dem Nutzer ein Upgrade-Datum vorgibt – welches man zwar ändern, aber nicht gänzlich ablehnen kann. Die PC-Welt hängt sich hierbei nun daran auf, das ein Schließen des Fensters diesen Vorgang nicht unterbindet – aber das Schließen von Fenstern beendet in aller Regel nur Programme, nicht aber festgelegte Aufgaben (vergleiche beispielsweise den Taskplaner – ein Schließen dieses Programms bedeutet auch nicht, das die geplanten Tasks nun nicht mehr ausgeführt werden). Der springende Punkt ist hierbei vielmehr, das Microsoft dem Nutzer das Upgrade zu Windows 10 ohne offizielle Abwahlmöglichkeit vorgibt, ergo ein faktisches Zwangsupgrade einführt. Das es Mittel und Wege gibt, ein hierbei ausversehen geplantes Upgrade dennoch noch zu verhindern, spielt keine Rolle – dies geht in den Bereich der Hacks und Tricks, dies muß ein "normaler" Computernutzer nicht wissen. Rein rechtlich betrachtet handelt es sich um klaren Zwang, da keinerlei umgehend erreichbarer "Nein"-Button existiert.

Schade, das sich an dieser Stelle kein Staatswanwalt zu profilieren versucht (oder wenigstens auf den Eintrag in die Geschichtsbücher schielt), denn bei so etwas könnte man unter Ausnutzung der rechtlichen Möglichkeiten durchaus für einiges Aufsehen sorgen: Von der Computerkrimimalität (ungewollte Software-Veränderung) über das Vertragsrecht (mißbräuchliche Vertragsänderung) bis hin zum Strafrecht (Zwangsausübung) kann man dagegen einiges substantielles in Stellung bringen, da muß man gar nicht einmal das üblicherweise zahnlose Verbraucherschutzrecht bemühen. Eine funktionierende Justiz würde dem aktuellen Spuk mit einstweiligen Verfügungen unter Androhung schmerzhafter Bußgelder pro Tag oder/und Beugehaft für die Bosse von Microsoft Deutschland kurzfristig ein Ende bereiten – und sich danach auch nicht nehmen lassen, selbst die unvollendete Tat noch einmal strafrechtlich aufzuarbeiten (denn auch angedrohter, aber nicht ausgeführter Zwang ist strafbar). Dabei geht es weniger denn darum, sich sein Mütchen an (letztlich weisungsgebundenen) Microsoft-Mitarbeitern zu kühlen, sondern eher darum, das der rechtliche Rahmen für solcherart Aktionen mal wieder betont wird und den Firmen klar wird, das man sich trotz der vorhandenen technischen Möglichkeiten nicht einfach alles erlauben kann.

Trends der Zukunft berichten über Google Home – den persönlichen Heimassistenten, welchen Google in Konkurrenz zu Amazons Echo sowie noch nicht genauer benannter Facebook-Pläne in Vorbereitung hat. Die kleine graue Box soll erst einmal wie ein Google auf Sprachsteuerung funktionieren – sprich, Suchanfragen bewältigen, Termine eintragen und ähnliche nützliche Dinge mit den bekannten Google-Apps veranstalten. Damit das ganze funktioniert, muß Google Home natürlich die gesamte Zeit mithorchen (wenigstens auf sein Aufweck-Kommando) – und natürlich ständig mit den Google-Servern verbunden sein. Sicherlich zweifelhaft, ob dies kurz nach den Datenschutzbedenken bei der Xbox One schon geht – und Google Home soll ja nicht nur im Gaming-Raum stehen, sondern im Idealfall im ganzen Haus rund um die Uhr funktionieren. Schade ist bei solchen Projekten, wie der Nutzwert dieser Ideen für den möglichst einfachen Markterfolg kompromitiert wird – weil nützlich könnte die ganze Funktionalität schon sein. Aber dafür müsste es sich um einen im Haus befindlichen Mini-Supercomputer handeln, welcher alle Daten lokal verarbeitet, sich Informationen aus dem Internet nur anonym beschafft – und vor allem natürlich ganz allein dem Besitzer des Hauses untertan ist. DAS wäre dann ein persönlicher Assistent – was Google & Co. dagegen planen, ist die verlängerte Halteleine, zuzüglich einer ständig zuschaltbaren Direktleitung der NSA natürlich.

23

Asus teasert neue Notebook-Grafiklösung oberhalb des Performanceniveaus der GeForce GTX 1080 an

Computerhersteller Asus teasert auf seinen Webseiten ein neues G-Series Gaming-Notebook (im Konzept-Status) an – mit einer sensationell schnellen Grafiklösung, welche aber nicht weiter benannt wurde. Selbst die zuerst notierte Diagramm-Beschriftung "GXXX" soll nicht irgendwie indirekt auf eine GeForce-Lösung hindeuten, sondern bezieht sich eben auf Asus' G-Serie an Gaming-Notebooks. Andererseits ist die notierte Performance derart rasant, das einem hierzu eigentlich nur eine nVidia-Lösung auf Basis des GP104-Chips von GeForce GTX 1070 & 1080 einfällt. Das ganze ist allerdings mit einem kleinen Schönheitsfehler behaftet: Die gezeigte Performance ist hierfür schon wieder zu schnell, die von Asus notierten 34.312 GPU-Punkte unter dem 3DMark11 Performance schafft nicht einmal eine GeForce GTX 1080:

3DMark11 Perf. (insg.) 3DMark11 Perf. (GPU) (Quellen)
(unveröffentlichtes) Asus ROG GXXX Gaming-Notebook 20.811 34.312 (Asus)
GeForce GTX 1080 24.867 29.443 (Guru3D & Notebookcheck)
GeForce GTX 980 Ti 20.172 23.057 (Guru3D & Notebookcheck)
GeForce GTX 980/Notebook SLI 20.055 30.045 (Notebookcheck & Notebookcheck)
Radeon R9 Fury 16.795 17.543 (Guru3D & Notebookcheck)

Zwar kann man vom GP104-Chip eine ähnlich potente Mobile-Lösung erwarten wie beim vorhergehenden GM204-Chip mit der GeForce GTX 980/Notebooks, welche eine der GeForce GTX 980 aus dem Desktop-Bereich nahekommende Performance bietet. Aber das eine GP104-basierte Mobile-Lösung schneller als die GeForce GTX 1080 sein soll, erscheint dann wiederum als arg unwahrscheinlich – und der Performanceabstand ist dann auch wieder so groß, das selbst gewisse Meßungenauigkeiten als Auflösung eigentlich ausscheiden. Für eine SLI-Lösung auf GP104-Basis (Asus schließt nirgendwo die Verwendung mehrerer Grafikchips aus) ist der Wert dann schon wieder zu schlecht, da kommt selbst eine GeForce GTX 980/Notebooks im SLI-Verbund schon nahe genug heran – für das bekannt große Performanceplus, welches der GP104-Chip gegenüber dem GM204-Chip mitbringt, wäre dies deutlich zu wenig.

Daher wollen wir hiermit eine gewisse Spekulation auflegen – nämlich das es sich gar nicht um eine GP104- oder nVidia-basierte Lösung handelt, sondern vielmehr um AMD Polaris 10 unter CrossFire (?). Der gezeigte Performance-Wert erscheint dafür als ziemlich passend, auch wenn die Argumentationslinie hierzu ziemlich waagemutig ist: Ausgehend davon, das Polaris 10 unter den 3DMark-Messungen generell in etwa die Performance von Radeon R9 Fury X Grafikkarten bringt (hierzu gibt es aber nur einen Leak unter dem 3DMark13), könnte man auf den vorstehend aufgeführten 3DMark11 GPU-Wert der Radeon R9 Fury erst einmal ~7% drauflegen, um zur Radeon R9 Fury X zu gelangen. Hinzu kommen dann noch einmal ~85-90%, um das ganze unter CrossFire zu stellen – und dies macht dann ~34.700 bis 35.700 GPU-Punkte und kommt erstaunlicherweise viel besser auf die von Asus notierten 34.312 GPU-Punkte hin.

Alle diese hypothetischen Überlegungen setzen natürlich voraus, das AMD seine Polaris-10-Lösung auf einem Niveau ähnlich wie bei den Desktop-Beschleunigern auch ins Notebook bekommt, in diesem Fall dann sogar zwei Stück hiervon. Insbesondere noch vor dem eigentlichen Chip-Launch von Polaris 10 wäre dies eine technologisch herausragende Leistung – was demzufolge die Unsicherheit aufwirft, ob dies zu diesem frühen Zeitpunkt denn überhaupt möglich sein kann. Wir wollen diese Auflösung demzufolge nicht beschreien, selbst wenn die Zahlen halbwegs gut darauf hindeuten. Denn andere Auslegungsformen sind jederzeit möglich, die Chancen naturgemäß größer, das hierbei schlicht eine nVidia-basierte Grafiklösung zum Einsatz kommt.

Nachtrag vom 23. Mai 2016

Als weitere Auflösung im Fall der Notebook-Grafiklösung oberhalb des Performanceniveaus der GeForce GTX 1080 seitens Asus bietet sich natürlich auch eine ab Werk übertaktete GeForce GTX 1080 an, damit sind die fehlenden ca. 16% Performance durchaus erreichbar. Asus hatte zwar angegeben, den Benchmark ohne Übertaktung angetreten zu haben, aber dies muß ja nicht auf eine ab-Werk-Übertakung bezogen sein. Da das verwendete Konzept-Notebook womöglich sogar eine Wasserkühlung trägt, sind hohe Taktraten mit dem GP104-Chip erreichbar und die dabei entstehende Verlustleistung wohl gut abtragbar. Wie gesagt ist die Auslegung "AMD Polaris 10 unter CrossFire" auch nur eine hypothetische Idee, weil darauf der genannte Benchmark-Wert ziemlich gut passt – was überhaupt nicht aussagt, das es auch so kommt. Daneben wäre noch auf einen Punkt verwiesen, welcher bislang noch gar noch thematisiert wurde: Laut den von Asus für seine Teaser-Webseite vergebenen Tags soll es sich sogar um ein 24-Zoll-Notebook handeln. Dies dürfte neben der Hardware-Performance einiges Interesse hervorrufen, denn im Notebook-Markt gibt es derzeit kaum noch Angebote oberhalb von 17 Zoll – und 24 Zoll wäre dann schon ein wirklich außergewöhnlicher Sprung.

23

AMD verspricht für Bristol Ridge einen 15%igen CPU-Performancegewinn

Mit einer aktuellen Investoren-Präsentation (PDF) hat AMD gewisse Aussagen zur Bristol-Ridge- und Zen-Performance getroffen: Die kommenden "Bristol Ridge" APU soll sich dabei unter Notebook-Bedingungen um ca. 15% vom Architektur-gleichen Vorgänger Carrizo im (sehr gut mit der CPU-Leistung skalierenden) Cinebench R15 MultiThreading-Benchmark absetzen können. Auf Basis derselben Carrizo-Architektur dürfte AMD dies primär schon mit höheren Taktraten (plus minimalem Effekt durch den DDR4-Speicher) erreicht haben, dazu passen auch die im Anhang genannten Test-Modelle: FX-7500 (Kaveri) gegen FX-8800P (Carrizo) gegen FX-9800P (Bristol Ridge). Der FX-8800P tritt dabei mit 2.1/3.4 GHz an, der FX-9800P hingegen gleich mit 2.7/3.6 GHz – aus diesem Taktratensprung sind locker und leicht die genannten 15% Performanceplus ziehbar. Unbekannt sind leider die für diesen Test verwendeten TDP-Einstellungen – was eine wichtige Information wäre, da einige dieser AMD-Prozessoren über eine variable TDP verfügen (und dies natürlich gerade im Notebook-Bereich die letztliche Performance enorm beeinflußen kann).

Somit ist noch nicht ganz sicher, ob man aus diesem Benchmark wirklich schon schließen kann, das AMD bei Bristol Ridge ca. 15-20% höhere Taktraten unter den gleichen Verbrauchswerten hat erreichen können. Die Suggestion der Präsentation geht zwar in diese Richtung – für eine sinnvolle Bewertung reicht jenes Datenmaterial aber noch nicht aus. Dies dürfte sich dann aber zur Computex und nachfolgend ergeben, AMD will zu diesem Zeitpunkt "Bristol Ridge" offiziell in den Markt entlassen. Ein 15%iges Performanceplus könnte Bristol Ridge natürlich sehr gut weiterhelfen, nachdem schon die Vorgänger-Generation "Carrizo" eigentlich über gute Leistungswerte verfügte, allerdings im Zweikampf mit Intel dennoch nur partielle Siege einfahren konnte. Zudem war ja auch Intel nicht untätig und hat nach Carrizo inwischen Broadwell und Skylake ins Mobile-Segment gebracht. Auch hier finden sich primär Taktratensteigerungen ein, welche durch die verbesserte Fertigung erzielt werden – AMD muß herbei faktisch mit ähnlichem mitziehen, ansonsten würde man automatisch nach hinten durchgereicht werden.

Nicht wirklich einordenbar ist leider die ebenfalls gezeigte Zen-Performance, auch der Anhang führt hierzu nichts mehr erhellendes aus. Ohne jegliche Diagramm-Beschriftung stehen sich da nur zwei Balken gegenüber, wobei jener von "Summit Ridge" auf Basis der Zen-Architektur gegenüber demjenigen "Orochi" auf Basis der Bulldozer-Architektur einfach doppelt so lang ist – was im besten Fall noch aussagt, das hier irgendetwas verdoppelt wurde. Dies kann möglicherweise die Performance sein, aber AMD könnte uns hier auch irgendeine Spitzfindigkeit vorsetzen (im Forum wird schon über einen doppelten Stromverbrauch gescherzt) – denkbar wären technische Spezifikationen, denkbar wäre auch eine Performance/Watt-Rechnung, wie auch immer. Zu Zen ist AMD allgemein noch sehr maulfaul – und dürfte diese Taktik wohlweislich auch erst dann aufgeben, wenn man sich AMD-intern sicher ist, welchen konkreten Releasetermin man anpeilen und dann auch halten kann. Dies dürfte kaum vor dem Spätherbst werden, eher wahrscheinlich ist kurz vor Jahresschluß 2016.

22

Hardware- und Nachrichten-Links des 21./22. Mai 2016

Die PC Games Hardware hat sich mit der Grafikkarten-Performance unter Battleborn beschäftigt. Der Shooter im Comic-Style auf Basis der Unreal Engine 3 braucht üblicherweise "nur" eine mittelkräftige Hardware, um auf Touren zu kommen – je nach Frameratenansprüchen sind auch Grafikkarten älterer Baureihen noch ganz vernünftig mit dabei. Auffallend ist das schwache Abschneiden fast aller AMD-Grafikkarten – außer den Fiji-basierten Radeon R9 Nano, Fury & Fury X. Die Erklärung hierfür muß irgendwo in den Unterschieden der einzelnen GCN-Level liegen, denn auch die Radeon R9 380 & 380X (gleiches GCN-Level wie die Fiji-basierten Karten) laufen zwar nicht besonders schnell, aber dafür auffallend schneller als die normalerweise ähnlich potente Radeon R9 280X. Allerdings sollten bei derart großen Unterschieden in aller Regel angepasste Grafikkarten-Treiber erhebliche Besserung bringen können. Das Spiel verlangt der heutigen Hardware aber wie gesagt nicht so viel ab, als das dieser Nachteil derzeit so bedeutsam wäre. Unter UltraHD reicht es dann für Radeon R9 Nano und GeForce GTX 980 sowie besser sogar dafür aus, Frameraten von 50 fps (und mehr) mit der besten Spielgrafik zu sehen.

Das neue Citavia-Blog hat sich aus einer aktuellen AMD Investoren-Präsentation einen (halben) Zen-Dieshot herausgebastelt. In jener Präsentation wird auf einer Präsentationsseite mit reinem Bezug auf Zen ein Wafer-Foto gezeigt – selbiges ist allerdings unbeschriftet und dient eher nur der optischen Auflockerung, könnte also auch ein reines Dummy-Foto sein. Gemäß der Vergrößerung und Beschriftung lassen sich auf einem halben Die jedoch schon gewisse Elemente erkennen, darunter vier CPU-Rechenkerne, Level3-Cache und ein Speicherinterface – eine APU dürfte dies also nicht zu sein, da würde noch eine (flächenmäßig große) integrierte Grafiklösung fehlen. Da nur ein halbes Die vergrößert wurde, hat AMD letztlich also ein Wafer-Foto mit einem Achtkern-Prozessor gezeigt – mit einem zu Bulldozer augenscheinlich veränderten Aufbau, also am Ende doch Zen (in seiner Consumer-Form). Viel mehr läßt sich aus diesem Wafer-Bild leider noch nicht herauslesen – und das AMD über ein solche verfügt, ist auch nicht weiter verwunderlich, CPU-Projekte haben einen viel höheren Zeitbedarf für Produktions- und Marktvorbereitung als bei anderen Chips üblich.

Die GameZone berichtet über Gerüchte, wonach die Playstation 4K (oder Playstation Neo) eventuell gar nicht auf Sonys Plan gestanden haben mag, sondern letztlich eine Folge der ungünstigen Kostenlage beim eigentlich geplanten Die-Shrink gewesen sein soll. Regulär hätte Sony den PS4-SoC einfach nur auf die 14nm-Fertigung adaptieren wollen und dafür dann die entsprechenden Anpassungskosten bezahlt. Da aber Sony der einzige Chipabnehmer von Jaguar-basierten CPU-Rechenkernen unter 14nm wäre (da AMD diese CPU-Architektur komplett einstellt), wären die Anpassungskosten in diesem Fall unvergleichlich hoch gewesen und hätte man sich daher lieber für die Verwendung der Zen-Architektur als CPU-Unterbau entschieden. Ehrlicherweise klingt das ganze jedoch kaum schlüssig, denn derart hohe Anpassungskosten, das gleich lieber die Verwendung einer ganz neuen Architektur günstiger erscheinen, sind irgendwie nicht vorstellbar – solch ein Hexenwerk ist Chipherstellung nun doch nicht, gerade wenn man als Großauftraggeber üblicherweise fürstlich behandelt wird.

Zudem erklärt diese Geschichte nicht die Verwendung einer wesentlich vergrößerten Grafikeinheit – wenn es nur um den Kostenpunkt gehen würde, kann man ja Zen-Rechenkerne und auch eine neue Grafiklösung auf GCN 2.0 Niveau verwenden, muß aber eben nicht deutlich mehr Shader-Einheiten verbauen. Gerade letzteres widerspricht ja am Ende dem ursprünglichen Zweck des ganzen Die-Shrinks, womit üblicherweise nur Kosten gespart werden sollen – ein neuer Die mit faktisch selber Größe (weil sich Flächenreduktion und mehr Shader-Einheiten egalisieren) und unter der neuen 14nm-Fertigung wird auch abgesehen von den (einmaligen) Designkosten rein bei den Herstellungskosten deutlich teurer kommen. Wenn es Sony rein um Wirtschaftlichkeit gegangen wäre und der Die-Shrink auf die 14nm-Fertigung dies nicht hätte bieten können – dann hätte man den PS4-SoC auch weiterhin in der 28nm-Fertigung oder notfalls der 20nm-Fertigung herstellen lassen können. Stimmen die Gerüchte zum höheren Hardware-Ansatz der PS4K, dann handelt es sich hierbei aber eben nicht um eine Kostensenkungsmaßnahme – sondern um eine Konsole mit deutlich mehr Rechenkraft unter geradeso denselben Hardware-Kosten.

21 21

Wie ist der Ersteindruck zur GeForce GTX 1080?

Alle Entscheidungsgrundlagen zu dieser Frage findet man in der Launch-Analyse zur GeForce GTX 1080 sowie natürlich im entsprechenden Diskussions-Thread zum Launch der neuen nVidia-Grafikkarte. Preislich ist natürlich noch nichts wirklich konkret festmachbar, aber man kann inzwischen davon ausgehen, das die von nVidia genannten Preise sich ungefähr so halten lassen werden – darunter auch der günstigere Preis von ab 599 Dollar (in Euroland vielleicht 650 Euro) für die Herstellerkarten.

Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
3% (104 Stimmen)
Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung.
12% (380 Stimmen)
Positiver Ersteindruck, aber preislich außerhalb meiner Interessenlage.
30% (949 Stimmen)
Durchschnittlicher Ersteindruck, primär wegen der hohen Preislage.
22% (678 Stimmen)
Durchschnittlicher Ersteindruck, primär wegen des nicht ausreichenden Performancesprungs.
6% (173 Stimmen)
Durchschnittlicher Ersteindruck, primär aus anderem Grund.
1% (41 Stimmen)
Negativer Ersteindruck, primär wegen der hohen Preislage.
19% (606 Stimmen)
Negativer Ersteindruck, primär wegen des nicht ausreichenden Performancesprungs.
4% (131 Stimmen)
Negativer Ersteindruck, primär aus anderem Grund.
2% (59 Stimmen)
Gesamte Stimmen: 3121
20

Hardware- und Nachrichten-Links des 20. Mai 2016

Die PC Games Hardware hat sich von nVidia bestätigen lassen, das das Speicher-Subsystem der GeForce GTX 1070 in keiner Form beschnitten ist – bis auf die Nutzung von GDDR5-Speicher anstatt von GDDR5X-Speicher natürlich. Hierzu hat man sich die explizite Bestätigung eingeholt, das es auch in den Details – Anzahl der Raster Operation Units, Menge des Level2-Caches, Level der Farbkomprimierung – keine Unterschiede zur GeForce GTX 1080 geben wird. Dies war schon vermutet worden (und zwar auch allein deswegen, weil nVidia nicht noch einmal so ein Ärgernis wie bei der GeForce GTX 970 erleben will) – aber eine offizielle Bestätigung ist natürlich viel besser als wohlfeile Annahmen. nVidia braucht bei der GeForce GTX 1070 auch keine derartigen Abspeckungen, weil allein der Wechsel von GDDR5X auf GDDR5 (trotz deutlich höheren Speichertakts) die Speicherbandbreite in diesem konkreten Fall um 20% reduziert. Zusammen mit dem 25%igen Verlust an Shader-Einheiten von GeForce GTX 1080 zu 1070 wird sich immer ein vergleichsweise hoher Performance-Abstand zwischen beiden Karten ergeben, da braucht es keine zusätzlichen Abspeckungen an Nebenpunkten.

In unserem Forum wird ein neues Polaris-10-Benchmarkresultat in SiSofts Benchmark-Datenbank notiert – wobei hier die Höhe des Benchmark-Resultats eher nebensächlich ist, interessant sind die Taktraten der Polaris-10-Karte von immerhin 1266/3800 MHz. Dies sieht sowohl bei Chip- als auch Speichertakt eher nach einem Overclocking-Testresultat aus, zum vorhergehenden Fiji-Chip der Radeon R9 Nano/Fury Karten gab es vorab ähnliche Einträge in der SiSoft Benchmark-Datenbank. AMDs Polaris-Grafikkarten werden allgemein mit deutlich gemächlicheren Taktraten als nVidias Pascal-Beschleuniger erwartet – wohl etwas höher als die Taktraten der bisherigen AMD-Grafikkarten, aber keineswegs in Richtung von 1500 MHz und mehr wie bei nVidia. AMD folgt bei seinen 14nm-Grafikchips auch einem ganz anderen Designansatz als nVidia bei seinen 16nm-Grafikchips: Während bei nVidia recht wenige Ausführungseinheiten hingekommen sind, dafür aber die Taktraten deutlich stiegen, scheint AMD eher viel mehr Ausführungseinheiten auf eine vergleichsweise kleine Chipflächen zu packen, welche dann mit eher üblichen Taktraten betrieben werden.

Da es für das herauskommende Ziel ziemlich egal ist, wie man die benötigte Rechenleistung erreicht, ist keiner der beiden Ansätze als generell im Vorteil zu sehen – nVidia braucht für seine taktschnellen Chips mit weniger Recheneinheiten nominell weniger Transistoren, wird diese aber kaum so dicht packen können wie AMD mit seinen niedrigeren Polaris-Taktraten. Im Idealfall nehmen sich Polaris und Pascal nichts, wenn man die herauskommene Performance auf die jeweils dafür verbrauchte Chipfläche normiert. Gut läßt sich dies jetzt schon im Verhältnis von AMDs Polaris 10 und nVidias GP104 aufzeigen: Beiderseits mit 2560 Shader-Einheiten ausgerüstet (bei Polaris 10 voraussichtlich, wobei auch die vorgenannte Karte in der SiSoft Benchmark-Datenbank wieder nur mit 2304 Shader-Einheiten lief), aber die nVidia-Lösung mit deutlich mehr Dampf wegen der viel höheren Taktraten – und dafür die AMD-Lösung auch deutlich kleiner bei der Chipfläche (232mm² zu 314mm²) und damit von der Kostenseite her in einem ganz anderen Preissegment ansiedelbar. AMD muß halt die bisherigen Limitationen der GCN-Architektur lösen, sprich die hohe IPC-Steigerung von nVidias Maxwell-Generation wenigstens teilweise ausgleichen – dann werden da gut zu nVidia vergleichbare Angebot herauskommen können.

Hartware vermelden neue Zahlen zum Grafikchip-Absatz seitens Mercury Research für das erste Quartal 2016, welche ziemlich positiv für AMD aussehen: Bei Desktop-Grafikkarten soll AMD nunmehr bei 22,7% liegen (+1,6% gegenüber dem vierten Quartal 2015), bei Mobile-Lösungen bei 38,7% (+7,3) und insgesamt bei 29,4% (+3,2%). Leider weisen diese Zahlen nicht unerhebliche Unterschiede zu den Zahlen von Jon Peddie Research auf, da lag AMD im vierten Quartal 2015 bei gerade einmal 21,1% – und nicht bei 26,2% wie bei Mercury Research. Wer hier richtig liegt, können wir natürlich nicht beurteilen – allein, von Jon Peddie Research werden regelmäßig entsprechende Zahlen veröffentlicht, ergibt sich inzwischen eine feine Marktanteils-Statistik zurück bis ins Jahr 2002. Andererseits lohnt der Streit über die exakte Höhe der Zahlen auch wieder nicht, aller Vermutung nach dürften die nächsten Zahlen von Jon Peddie Research eine ähnliche Steigerung zugunsten von AMD sehen, welche dann endlich einmal wieder in Richtung der 30-Prozent-Marke bei dedizierten Grafiklösungen wandern und sich damit aus ihrem (tiefen) Loch von zwei Quartalen unterhalb von 20% Marktanteil Stück für Stück herausarbeiten. Von einem sinnvollen Markt kann hier trotzdem natürlich noch lange nicht gesprochen werden, da sollte bei nur zwei Anbietern der kleinere immer bei mindestens 40% Marktanteil herauskommen.

Golem berichten über einen ARM-Testchip in der 10nm-Fertigung von TSMC, welcher sein Tape-Out nun augenscheinlich erfolgreich hinter sich gebracht hat. Mit diesem Testchip testet ARM nicht nur die 10nm-Fertigung aus (welche zur Massenfertigung von SoCs allerdings erst in Richtung Frühling/Jahresmitte 2017 zur Verfügung stehen wird), sondern primär auch seine neue Artemis-Prozessorenarchitektur. Zu jener wurde wohlweislich nicht viel gesagt, diese Daten dürfte ARM noch möglichst lange unter Verschluß halten – so das derzeit nur klar wird, was TSMCs 10nm-Fertigung hierzu beitragen kann: 2,1fach höhere Packdichte (was im Prozessoren-Bereich aber schon lange nicht mehr ausgenutzt wird) zuzüglich 30% weniger Stromverbrauch auf gleicher Taktrate oder 11-12% höhere Taktrate bei gleichem Stromverbrauch. Für die Hauptabnehmer von ARM-Designs dürfte der Takratengewinn eher weniger interessant sein, die höhere Energieeffizienz viel stärker – und mehr Performance wird die neue Architektur sowieso mit sich bringen, könnte man jederzeit auch mit (noch) mehr CPU-Kernen herstellen und braucht man am Ende bei Smartphone/Tablet-SoCs sowieso nicht mehr wirklich.

Inhalt abgleichen