1 1

Welche neue Hardware wird im Jahr 2017 am meisten erwartet?

Grundlage dieser Umfrage sind die im kürzlichen Artikel "Das Hardware-Jahr 2017 in der Vorschau" notierten Hardware-Innovationen für das Jahr 2017.

AMD Bristol Ridge
1% (10 Stimmen)
AMD Ryzen
68% (1197 Stimmen)
AMD Raven Ridge
2% (31 Stimmen)
AMD Polaris-Refresh
1% (10 Stimmen)
AMD Vega
15% (272 Stimmen)
Intel Kaby Lake
1% (17 Stimmen)
Intel Kaby-Lake-X & Skylake-X
2% (29 Stimmen)
nVidia GeForce GTX 1080 Ti
3% (61 Stimmen)
nVidia Pascal-Refresh
3% (60 Stimmen)
Nintendo Switch
3% (51 Stimmen)
Microsoft Xbox Scorpio
1% (26 Stimmen)
Gesamte Stimmen: 1764
30

Hardware- und Nachrichten-Links des 29./30. Dezember 2016

Bei PC Perspective hat man sich angesehen, was eine einfache GeForce GTX 1050 Ti mit einem normalen OEM-PC alles anstellen kann. Hierzu hatte man zwei reguläre Komplett-PCs am Start – einmal ausgerüstet mit dem Zweikerner Core i3-6100 und einmal ausgerüstet mit dem Vierkerner Core i7-6700. Beide PCs wurden ansonsten mit der integrierten Intel-Grafiklösung HD Graphics 530 ausgeliefert, welche natürlich (bei weitem) nicht an der Spitze von Intels integrierten Lösungen angesiedelt ist und demzufolge keinen Gegner für die GeForce GTX 1050 Ti darstellen kann. Unter den verschiedenen angestellten Benchmarks erreichte die nVidia-Grafik grob eine 7- bis 10fache Performance gegenüber der integrierten Grafik. Dabei mussten die angesetzten modernen Spiele für die integrierte Intel-Grafik auf Low-Presets heruntergedreht werden, um überhaupt noch sinnvolle Frameraten auswerfen zu können – was dann oftmals in dreistelligen fps-Werten mit der GeForce GTX 1050 Ti resultierte. Anders formuliert sind mit dieser Mainstream-Grafikkarte von nVidia mittlere bis hohe Details zu spielbaren Frameraten möglich, während die integrierte Grafik selbige nur unter Low-Bildqualität und dem (deutlichen) Herunterdrehen der Auflösung erreichen dürfte. Der entscheidende Punkt der ganzen Übung ist aber sicherlich die Demonstration dessen, das man selbst einen normalen Komplett-PC problemlos mit einer GeForce GTX 1050 Ti in einem (kleinen) Gaming-PC verwandeln kann – und im Fall des Core i3-6100 reichte dafür selbst das nominell schwache 240-Watt-Netzteil aus.

Von BenchLife (maschinelle Übersetzung ins Deutsche) kommt eine wilde Meldung ob eines Kaby-Lake-Refreshs, welchen Intel angeblich gegen Herbst 2017 als "Core iX-8000" Serie herausbringen will. Dafür liegt allerdings eine gewisse Bestätigung mittels einer Intel-Unterlage vor, welche gerade auch diese neue Prozessoren-Serie explizit nennt. Trotzdem ist die Deutung dieser Meldung durchaus noch offen – denn Kaby Lake ist ja faktisch schon ein Refresh und Intel benötigt angesichts von AMDs kommenden Ryzen-Prozessoren sicherlich keine weiteren Refreshs, sondern eher dringend die Coffee-Lake-Generation mit mehr CPU-Kernen auch im normalen Consumer-Segment. Sinn macht das ganze nur dann, wenn damit letztlich nur gemeint wäre, das speziell Kaby Lake-R eben auch Teil der gemeinsamen Generation von Coffee Lake und Canon Lake werden wird – sprich mit in die Core iX-8000 Serie übernommen würde. Eine echter Kaby-Lake-Refresh (mit einem kompletten Portfolio an neuen Kaby-Lake-Modellen) würde hingegen Intels bisherig bekannte Releasestrategie komplett auf den Kopf stellen und vor allem die Coffee-Lake-Generation noch weiter nach hinten verschieben.

Bei 3DNews (maschinelle Übersetzung ins Deutsche) hat man aus dem Zen-Bericht von Canard PC weitere Details zur Zen-basierten Raven-Ridge-APU gezogen. So sollen diese nativen Vierkerner mit integrierter GCN5-Grafiklösung (aka Vega-basiert) mit nur halb so viel Level3-Cache antreten wie gleichartige Ryzen-Prozessoren – sprich für eine volle Raven-Ridge-APU gibt es 4 MB Level2-Cache, während ein Ryzen-Prozessor mit nur 4 CPU-Kernen 8 MB Level3-Cache aufzubieten hätte. Angesichts dessen, das AMDs bisherige APUs gänzlich auf einen Level3-Cache verzichten müssen, ist dieser Einschnitt allerdings verkraftbar. Genauso wenig dürfte die Halbierung des PCI-Express-Interfaces auf 8 Lanes wirklich wichtig sein, da man eine APU kaum mit einer so potenten Grafikkarte koppelt wird, als daß dies einen beachtbaren Unterschied ausmachen würde. Beide Abspeckungen dürften aber dazu beitragen, das die Raven-Ridge-APUs Chip-technisch nicht derart dicke Silizium-Brocken werden wie die bisherigen Carrizo-basierten AMD-APUs (250mm² Chipfläche).

Denn immerhin geht AMD bei Raven Ridge auch bei der integrierten Grafiklösung wieder nach vorn und wird hier gemäß früheren Roadmaps gleich 768 Shader-Einheiten (12 Shader-Cluster) verbauen – gegenüber bisher 512 Shader-Einheiten in den Carrizo-basierte APUs. Gemäß 3DNews will man damit eine Rechenleistung von 2 TFlops erreichen, der iGPU-Takt soll bei 1200 MHz liegen – dies ergibt allerdings nur 1,84 TFlops, der Rest dürfte über die CPU kommen bzw. wurde dies eventuell auch einfach nur großzügig aufgerundet. Auch so erscheint die iGPU-Taktrate vergleichsweise hoch, schließlich erreicht AMD bei seinen aktuellen Polaris-Grafikkarten auf diesen Taktraten schon Bereiche schlechter Energieeffizienz, wäre eine etwas niedrigere Taktrate bei einer APU durchaus zu erwarten. Andererseits könnte diese Taktraten-Angabe auch nur der maximale Boosttakt sein, welcher allenfalls in Desktop-Systemen (mit hoher TDP) oder vielleicht sogar nur sporadisch erreichbar ist, AMD hat ja durchaus eine gewisse Historie an hochgejubelten Rechenleistungs-Angaben. Ob es damit auch eine reale Mehrperformance gibt, dürfte sowieso viel eher daran liegen, welchen DDR4-Speicher AMD an seine Raven-Ridge-APUs bindet bzw. ob die GCN5-Architektur neue Tricks zur Speicherbandbreite-sparenden Grafikberechnung beherrscht.

30

Neuer Artikel: Eine Performance-Einordnung der GeForce GTX 1060 3GB

Wohlweislich ohne großen Launch hatte nVidia am 18. August 2016 die GeForce GTX 1060 3GB ins Angebots-Portfolio aufgenommen, die Karte wurde auch umgehend von den einzelnen Grafikkarten-Herstellern adaptiert und nachfolgend breit verfügbar. Was primär fehlte, war ein großer Strauß an Launch-Tests – was nVidia sehr gut in den Kram passte, denn da wollte man sicherlich nicht gerade fachmännisch nachgewiesen bekommen, das diese zweite GP106-basierte klar langsamer als die GeForce GTX 1060 6GB ust bzw. das die nur 3 GB Grafikkartenspeicher schon hier und da limitierten. Leider sind erst im Laufe der Zeit eine beachtbare Anzahl an (sinnvollen) Tests zur GeForce GTX 1060 3GB hinzugekommen – welche wir hiermit auswerten und damit die Performance der GeForce GTX 1060 3GB endlich einmal präzise angeben wollen ... zum Artikel

470 480-4GB 480-8GB 1050Ti 1060-3GB 1060-6GB
gemessene FullHD-Performance 81,7% 88,3% 93,5% 60,7% 90,5% 100%
3DC FullHD Performance-Index 480% 520% 550% 360% 530% 590%
(Differenz gegenüber bisherigem Stand) - - - - (+20) -
Straßenpreis 190-220€ 220-250€ 240-270€ 150-170€ 210-240€ 270-300€
30

Die Grafikkarten-Performance unter Watch Dogs 2

Zum OpenWorld-Hacker-Spiel Watch Dogs 2 kommen von der ComputerBase, der PC Games Hardware, Tom's Hardware und GameGPU umfangreiche Performance-Messungen aller möglicher Desktop-Grafikkarten, Notebookcheck fügen dann noch Benchmarks diverser Mobile-Beschleuniger hinzu. Das Spiel auf Basis der Disrupt-Engine zeigt eine hervorragende Grafikqualität, welche allerdings auch ziemlich heftige Hardware-Anforderungen hat – insbesondere beim Grafikkartenspeicher langt Watch Dogs 2 wirklich zu und ist auf Modellen gerade unterhalb von 3 GB Grafikkartenspeicher nur mit reduzierten Details (bzw. ohne UltraHD-Texturenpack) zu betreiben. Dabei ist das allgemein ausgemessene "Ultra"-Grafikpreset noch nicht einmal das Ende der Fahnenstange, mittels manueller Ausmaximierung aller Grafikoptionen kann man Watch Dogs 2 noch (sehr) viel Grafikkarten-schlauchender gestalten, als es derzeit schon der Fall ist.

Watch Dogs 2 – FullHD @ "Ultra"-Preset  (Datenbasis: PCGH, Tom's Hardware & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7970-GHz 280X 380-4GB 680-4GB 770-4GB 960-4GB 1050Ti
30-34 fps 380X 780
35-39 fps 290 470D
470
Titan Titan Black
780Ti
40-49 fps 290X 390
390X
Nano
Fury
480-4GB
480-8GB
970
980
1030-3GB
1060-6GB
50-59 fps Fury X 980Ti
ab 60 fps Titan XM 1070
1080
Titan XP

In der FullHD-Auflösung reicht aber auch schon jenes "Ultra"-Preset, um das Feld der qualifizierten Grafikkarten maßgeblich auszudünnen. Unterhalb von 3 GB Grafikkartenspeicher geht wie gesagt gar nichts, im Sinne einer möglichst Mikroruckler-freien Performance sind allerdings 4-GB-Modelle zu empfehlen. Eine gutklassige Performance erreicht man ab aktuellen Midrange-Modellen wie Radeon RX 470 oder GeForce GTX 1060 oder früheren HighEnd-Modellen wie Radeon R9 290 oder GeForce GTX 970. Das 60-fps-Land sehen allerdings nur die vier nVidia-Modelle GeForce GTX Titan (Maxwell, GeForce GTX 1070 & 1080 sowie Titan X (Pascal) – eine für die FullHD-Auflösung vergleichsweise schwache Ausbeute. An der leichten nVidia-Neigung des Spiels hängt es im eigentlichen nicht – eher werden hier die Grafikkarten derart gefordert, das eben das Fehlen aktueller HighEnd-Modelle von AMD um so deutlicher wird.

Watch Dogs 2 – FullHD @ "Ultra"-Preset  (Datenbasis: PCGH, Tom's Hardware & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 290 470D Titan Titan Black
30-34 fps 290X 390
390X
Nano
470
480-4GB
780Ti 1060-3GB
35-39 fps Fury
Fury X
480-8GB 970
980
1060-6GB
40-49 fps 980Ti
Titan XM
1070
50-59 fps 1080
ab 60 fps Titan XP

In der WQHD-Auflösung brechen die Frameraten schon so maßgeblich ein, daß das Feld nur noch aus modernen Midrange-Karten und früheren HighEnd-Beschleunigern besteht, wirklich spielbare Frameraten gar erst mit aktuellen HighEnd-Beschleunigern gegeben sind und die Titan X (Pascal) als einzige Grafikkarte die 60-fps-Marke durchbricht. Daß AMD hier die aktuellen Gegenangebote im HighEnd-Segment fehlen, wird einmal mehr sehr deutlich. Zugleich wird hier die nVidia-Neigung des Spiels doch etwas stärker, wenn sich eine GeForce GTX 970 vor einer Radeon RX 480 4GB und sogar noch vor einer Radeon R9 Nano einordnen kann. Mit nur 3 GB Grafikkartenspeicher erleidet man unter diesem Setting zudem schon echte Frameraten-Nachteile, die 3GB-Ausführung der GeForce GTX 1060 verliert unter WQHD viel mehr Performance (-17%) auf die 6-GB-Ausführung als unter FullHD (-12%).

Die Performance in der UltraHD-Auflösung läßt dann nur noch die Titan X (Pascal) auf einen spielbaren Wert knapp oberhalb der 40-fps-Marke kommen – selbst die GeForce GTX 1080 liegt hier bei nur knapp oberhalb 30 fps. Somit werden die allermeisten Anwender dann doch wohl lieber die Grafikqualität reduzieren: Der Wechsel vom "Ultra"-Preset auf das "VeryHigh"-Preset bringt immerhin ~37%, der Wechsel vom "Ultra"-Preset auf das "High"-Preset sogar ~68% (laut den Messungen der ComputerBase) und kann somit in jedem Fall den Unterschied zwischen den Prädikaten "spielbar" und "unspielbar" ausmachen. An dieser Stelle zeigt Watch Dogs 2 zumindest seine Eignung auch als zukünftiger Benchmark-Titel, denn die UltraHD-Auflösung mit manuell maximierter Grafik dürfte derzeit selbst für eine Titan X (Pascal) nicht zu bewältigen sein – und bleibt damit Aufgabe zukünftiger Grafikkarten.

30

Umfrage-Auswertung: Produziert die Grafikkarte ein hörbares Fiepen (2016)?

Eine Umfrage von Ende November widmete sich (erneut) der Frage zur Quote der fiependen Grafikkarten – gleichlautend zu früheren Umfragen vom Januar 2012 und November 2014. Im Vergleich zu den früheren Zahlen hat sich doch einiges verschoben – und leider meistens nicht in die richtige Richtung hin. Zwar gab es insgesamt gesehen eine leicht geringe Quote an fiependen Grafikkarte gegenüber dem Jahr 2014 (23,8% gegenüber 25,0%), aber dies kam nur durch eine deutliche Entlastung auf einem einzigen Teilgebiet zustande: Die HighEnd-Modelle von nVidia werden nunmehr weit weniger fieplastig als früher wahrgenommen (30,3% gegenüber 49,4%) – und beeinflußen durch den großen dort erreichten Unterschied alle anderen Auswertungen maßgeblich.

Denn ansonsten stieg die Fiepneigung der Grafikkarten durch die Bank weg – bei AMD in allen drei Marktsegmenten und bei nVidia in 2 von 3 Marktsegmenten. Bei AMDs HighEnd-Modellen ging die Fiepneigung sogar dramatisch von vorher 14,6% auf nunmehr satte 52,5% nach oben – die ist sicherlich eine Entwicklung, welche AMD im Auge haben sollte. Denn während AMD diese Umfragen anno 2012 und 2014 jeweils klar gewinnen konnte, liegt AMD nunmehr in der Insgesamtwertung mit 21,5% fiependen Grafikkarten nur noch knapp vor nVidia mit 26,0% fiependen Grafikkarten. Beide Werte sind im übrigen auch absolut zu hoch, im Jahr 2012 ging dieser Vergleich mit 12,5% zu 20,9% auf einem klar niedrigeren absoluten Level aus.

Fiepen: Ja Fiepen: Nein Umfrage von 2014 Umfrage von 2012
AMD Mainstream-Grafikkarten 9,3% 90,7% 6,7% zu 92,3% 9,1% zu 90,9%
AMD Midrange-Grafikkarten 17,8% 82,2% 10,6% zu 89,4% 11,3% zu 88,7%
AMD HighEnd-Grafikkarten 52,5% 47,5% 14,6% zu 85,4% 17,2% zu 82,8%
AMD-Grafikkarten insgesamt 21,5% 78,5% 11,4% zu 88,6% 12,5% zu 87,5%
nVidia Mainstream-Grafikkarten 17,4% 82,6% 15,9% zu 84,1% 23,1% zu 76,9%
nVidia Midrange-Grafikkarten 25,6% 74,4% 21,4% zu 78,6% 19,6% zu 80,4%
nVidia HighEnd-Grafikkarten 30,3% 69,7% 49,4% zu 50,6% 22,7% zu 77,3%
nVidia-Grafikkarten insgesamt 26,0% 74,0% 36,9% zu 63,1% 20,9% zu 79,1%
alle Grafikkarten 23,8% 76,2% 25,0% zu 75,0% 16,7% zu 83,3%

Zugleich bot die Umfrage auch ein aktuelles Bild der Grafikkarten-Verteilung im 3DCenter an. Zu beachten wäre hierbei insbesondere die über die Umfrage vorgenommene Einteilung in Mainstream-, Midrange- und HighEnd-Grafikkarten, welche zum einen nicht den üblichen Hersteller-Einteilungen folgt und zum anderen ältere Grafikkarten gemäß ihres aktuellen Performancebildes einordnet – sprich also ältere Grafikkarten entsprechend herabstuft. So kann es gut und gerne passieren, das sich ein älteres Spitzenmodell im Sinne dieser Umfrage im Mainstream-Segment wiederfindet – weil es eben nur so viel Performance bietet wie aktuelle Mainstream-Grafikkarten. Die Einteilung erfolgte also nicht star anhand früherer Marktpositionen, sondern flexibel anhand der aktuell angebotenen Beschleuniger und deren Performance als Referenz.

Somit ist es auch wenig verwunderlich, wenn hier im 3DCenter die Mainstream-Grafikkarten (inklusive der LowCost-Modelle) mit 28,8% die kleinste Gruppe stellen und die HighEnd-Grafikkarten (inklusive der Enthusiasten-Modelle) mit 33,6% einen respektablen zweiten Platz nur knapp hinter den Midrange-Grafikkarten mit 37,6% einnehmen. Dabei hat das HighEnd-Segment sogar klar abgebaut, anno 2016 erreichte jenes mit 50,4% der Stimmen eine absolute Mehrheit – in diesem Jahr fehlen dem HighEnd-Segment aber einfach die dafür passenden AMD-Grafikkarten, im Sinne der Umfrage waren nur die drei Modelle Radeon R9 295X2, Radeon R9 Fury X und Radeon Pro Duo als aktuelle HighEnd-Lösungen von AMD zugelassen. Trotz der (weitgehend) fehlenden Spitzenmodelle konnte sich AMD jedoch bei der insgesamten Verbreitung etwas berappeln und liegt derzeit bei 48,0% – und damit nur knapp von nVidia mit 52,0% Verbreitungsgrad entfernt.

Anno 2014 gab es hierzu mit 46,7% zu 53,3% schon einmal eine etwas stärkere nVidia-Neigung, anno 2012 war das Verhältnis mit 49,9% zu 50,1% sogar fast perfekt ausgeglichen. AMD hat derzeit seine Stärken im Midrange-Bereich (aktuelle Midrange-Modelle und frühere HighEnd-Lösungen) sowie Mainstream-Bereich (aktuelle Mainstream-Modelle und frühere Midrange-Modelle), während nVidia seine Stärken (ganz klar) im HighEnd-Bereich hat. AMDs aktuelle Schwäche im HighEnd-Segment (mangels aktuellem Angebot) ist derzeit noch kaum in der Insgesamt-Wertung zu sehen, dürfte sich aber langfristig dann durchaus noch zeigen, denn hier fehlt natürlich eine ganze Generation an HighEnd-Grafikkarten von AMD (die es dann erst ab Mitte 2017 geben wird).

28

Hardware- und Nachrichten-Links des 27./28. Dezember 2016

AMD teasert auf Twitter seine kommende Vega-Architektur (erneut) an – wobei man daraus nicht zu viel deuten sollte, ganz besonders keinen Hinweis auf einen baldigen Releasetermin. Derzeit ist die Vega-Generation in Richtung Mitte 2017 zu erwarten, alles vorher wäre eine Überraschung und hat angesichts der AMD-Historie bei der vorfristigen Erfüllung von Terminen eine eher geringe Chance. Genauso muß in eine (derzeit breit herumgereichte) Fudzilla-Meldung über eine ganze Grafikkarten-Serie basierend auf Vega nicht all zu viel hineininterpretiert werden: AMD hatte dieses Jahr auch schon aus nur zwei Grafikchips eine neue Grafikkarten-Serie gezimmert (wenngleich keine vollständige) – und Vega wird wie bekannt auch mindestens zwei Grafikchips aufbieten. Unter Hinzuziehung der Polaris-Chips wird AMD also ganz sicher nächstes Jahr eine sogar vollständige neue Grafikkarten-Serie (wahrscheinlich "Radeon RX 500" Serie) aufbieten. Genauso wenig ist aus der Fudzilla-Meldung eine definitive Aussage darüber abzuleiten, das es Vega auch mit GDDR5/X-Speicher geben würde – gerade da Fudzillas Quelle genau diese These nicht explizit bestätigen wollte.

Die DigiTimes berichtet aus den Kreisen der Mainboard-Hersteller über AMDs Ryzen-Releaseplanungen: Danach soll es eine offizielle Veröffentlichung erst Ende Februar 2017 geben, wobei die wirkliche Verfügbarkeit dann erst im März 2017 gegeben sein wird. Eine Veränderung der Marktverhältnisse auf dem Prozessoren-Markt ist demzufolge erst ab dem zweiten Quartal 2017 zu erwarten. Beide Terminlagen sind spät, kommen aber nicht gänzlich unerwartet – schon vorab gab es mahnende Stimmen, welche darauf hingewiesen haben, das die eigentliche Auslieferung erst zum Ende des ersten Quartals 2017 erfolgen könnte (nachdem AMD wenigstens das erste Quartal 2017 als Releasetermin versprochen hatte). Auffallend ist an dieser Stelle genauso, das Sockel-AM4-Mainboards noch nicht breit beworben werden – was eigentlich (da Sockel-Gleichheit zur schon verfügbaren Bristol-Ridge-APU existiert) immer schon vor dem eigentlichen Ryzen-Launch geplant war. Womöglich holt dies AMD mit der kommenden CES nach – welche sich auch als weiterer Ryzen-Teaser anbietet, genauso wie auch in den nächsten Wochen noch der eine oder andere (offizielle) Teaser und (inoffizieller) Vorabtest erwartet werden kann.

Laut Bits 'n' Chips forscht Intel derzeit an einer regelrecht neuen Prozessoren-Architektur in Ablösung der aktuellen Core-i-Architektur, welche uns seit der Nehalem-Generation aus dem Jahr 2008 begleitet. Jene soll nach der Tiger-Lake-Generation des Jahres 2019 antreten und wird daher derzeit (vorerst) auf den Zeitraum der Jahre 2019-2020 verortet. Einziger bekannter Ansatzpunkt von Intels bislang namensloser neuer Prozessoren-Architektur soll der Verzicht auf ältere SIMD-Einheiten sein – was auch bedeutet, das Intel damit untypischerweise ein Prozessoren-Design mit nicht vollständiger Abwärtskompatibilität herausbringen wird. In den heutigen Zeiten, wo Software die jeweils vorliegenden Hardware-Kapazitäten abfragt bzw. vieles auch schon mittels Virtualisierung gelöst wird, dürfte dies allerdings weit weniger eine Rolle spielen als in früheren Dekaden, wo die Hardware-Abwärtkompatiblität die Ausführung weit verbreiteter Software-Pakete zwingend absicherte. Alles weitere zu Intels neuer Prozessoren-Architektur dürfte sich mit der Zeit ergeben – wovon bis zu den Jahren 2019 und 2020 noch einigermaßen vorhanden ist.

The Bit Bag vermelden neue Hardware-Daten zur Nintendo Switch – welche aus dem chinesischen Baidu-Form entstammen, dort aber inzwischen schon wieder entschwunden sind. Danach soll die Konsole einen ARM Cortex-A73 Prozessor, 4 GB RAM und eine Pascal-basierte Grafiklösung auf 500 GFlops Rechenleistung besitzen. Bezüglich des Prozessors wäre dies eine positive Überraschung, nachdem man zuletzt eher von deutlich älteren und damit leistungsschwächeren ARM-Modellen ausgegangen war. Der (erneute) Wechsel auf die Pascal-Grafiklösung macht allerdings keinen großen Unterschied – bis vielleicht auf die Batterie-Laufzeit, aber dies natürlich nur bei einem entsprechend kleinem Fertigungsverfahren. Denn ob Maxwell- oder Pascal-Architektur macht bei der gleichen Rechenleistung kaum einen Unterschied, gerade die hohen mit Pascal möglichen Taktraten will Nintendo schließlich gerade nicht nutzen. Die 500 GFlops sind natürlich wiederum etwas mehr als zuletzt vermeldet wurde – machen das Kraut aber auch nicht fett, auf die Hardware-Klasse von Xbox One und Playstation 4 kommt die Nintendo Switch mit diesem Hardware-Ansatz nicht mehr.

Bei Semiconductor Engineering beschäftigt man sich mit der Halbleiterfertigung im 5nm- und 3nm-Prozeß, was also nach dem in den Chipfertiger-Roadmaps schon ziemlich festgezimmerten 7nm-Prozeß kommt. Anlaß hierzu ist die kürzliche Meldung, das Halbleiterfertiger TSMC satte 15,7 Milliarden Dollar in eine neue Chipfabrik für diese beiden genannten Fertigungsverfahren stecken will – wobei natürlich klar ist, daß sowohl 5nm als auch 3nm technisch allerhöchstens in der Vorentwicklung stecken und noch nicht wirklich sicher ist, wie jene technologisch erreicht werden können. Schon jetzt schätzt man das ganze allerdings wieder auf einen heftigen Kostensprung: Die Designkosten eines SoCs sollen sich gegenüber dem 7nm-Prozeß fast verdoppeln (gegenüber 28nm nahezu Faktor 9) – und erreichen mit 500 Mill. Dollar auch eine Größe, wo ein solcher Chip dann auch schon große Absatzmengen und nicht gerade Abgabepreise im einstelligen Dollar-Bereich zwingend benötigt, um noch wirtschaftlich zu sein.

Zumindest anfänglich dürften sich der 5nm- und gerade der 3nm-Prozeß somit kaum noch für einfache Smartphone-SoCs des Einsteiger- und Mittelklasse-Segments lohnen – gerade wenn der Performancebedarf bei Smartphone-SoCs nun nicht mehr wirklich gegeben ist. In jedem Fall dürften spätestens ab jetzt mit jedem weiteren neuen Fertigungsverfahren immer mehr Chips aus diesem eigentlich fest zementierten Kreislauf "neu = besser" aussteigen und lieber länger oder gleich dauerhaft auf einem "alten" Fertigungsverfahren bleiben – einfach, weil sich das besser rechnet und in vielen Fällen auch die Mehrperformance des neuen Fertigungsverfahrens nicht wirklich benötigt wird. Am Ende könnten sich die Auftragsfertiger sogar wieder vor der Situation sehen, die bekannten PC-Hersteller als mehr oder weniger einzige Kunden für superkleine Fertigungsnodes zu haben – weil nur noch PC-Prozessoren, PC-Grafikchips und Konsolen-SoCs wirklich jenen Performancebedarf generieren, unter welchem sich immer teurer werden neue Fertigungsverfahren noch lohnen.

Inhalt abgleichen