27

Vega/Navi-Roadmaps: Zwei verschiedene Zukunftsvarianten bei AMDs Grafikchips

Die kürzlichen Informationen zu AMDs Vega- und Navi-Chips haben einiges Echo nach sich gezogen – gab es schließlich erstmals Hinweise darauf, wie AMD demnächst im HighEnd-Segment wieder angreifen will bzw. wie die generelle AMD-Strategie über die nächsten Jahre wohl aussieht. Allerdings liegen zu diesem Themenfeld nunmehr zwei differerende Meldungen vor – eine von Videocardz, welche im Web weithin beachtet wurde, sowie eine von Fudzilla, welche weit weniger beachtet wurde. Beide Online-Magazine hatten augenscheinlich Zugang zur selben Quelle – und haben daraufhin erstaunlicherweise in ihren Einzelheiten durchaus deutlich voneinander abweichende Meldungen geschrieben. Dabei sind die Videocardz-Daten sehr viel detaillierter ausgelegt, wovon einige dieser Einzelheiten vom Fachpublikum durchaus als wenig sinnig eingeschätzt werden. Die Fudzilla-Daten sind zwar weniger mit Einzelheiten zu den einzelnen Grafikchips gespickt, ergeben dafür aber weitaus mehr Sinn, sind insgesamt einfach runder.

Der primäre Unterschied liegt in der Betrachtung des Vega-20-Chips: Bei Videocardz handelt es sich hierbei um einen 7nm-Chip schon im zweiten Halbjahr 2018 – bei Fudzilla hingegen um einen 14nm-Chip gegen Ende 2017. Da die Ansetzung einer 7nm-Fertigung schon im zweiten Halbjahr 2018 als sehr optimistisch gelten darf, ergibt die Fudzilla-Auslegung dieses wesentlichen Unterschiedes unserer Meinung nach viel mehr Sinn. Daß daneben Fudzilla den Vega-20-Chip nicht mit den gleichen 64 Shader-Clustern wie den Vega-10-Chip vermelden, ergibt zudem die Möglichkeit einer gänzlich anderen Betrachtungsweise bei Vega 20 – nicht als schnöden 7nm-Ersatz von Vega 10, sondern als der große Enthusiasten/HPC-Chip von AMD innerhalb der 14/16nm-Generation, mittels welchem AMD dann auch in Konkurrenz zu nVidias GP100- & GP102-Chip gehen sollte. Um diesen erheblichen Unterschied in der Auslegung der vorliegenden Daten besser zu illustrieren, haben wir einfach einmal eine zweite Version der (eigenerstellten) "AMD Grafikchips-Roadmap 2016-2019" aufgelegt.

AMD Grafikchips-Roadmap 2016-2019 No.1 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.1 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.2 (eigenerstellt)
AMD Grafikchips-Roadmap 2016-2019 No.2 (eigenerstellt)

Die ersterstellte dieser beiden Roadmaps bezog sich dabei alleinig auf die Daten von Videocardz – und die zweite bezieht ihre Daten primär von Fudzilla, nur die Lücken werden mit Daten von Videocardz bestückt, sofern sich jene nicht wiedersprechen. Unsere aktuelle Tendenz geht dabei eher in Richtung der Daten von Fudzilla, da jene mehr Sinn ergeben und auch die 7nm-Fertigung nicht derart zeitig wie bei Videocardz ins Spiel kommt. Aber weil die Videocardz-Meldung früher und in vollständigerer Form als die (verteilten) Fudzilla-Meldungen ins Web kam, geht man in vielen Forenspekulationen derzeit primär nur von den Videocardz-Daten aus – meistens wird dabei gar nicht beachtet, das mittels der Fudzilla-Daten eine andere Auslegung existiert, welche eben auch etwas für sich hat sowie einige Ungereihmtheiten der Videocardz-Daten besser erklären kann. Zu welcher dieser beiden Zukunftsvarianten es letztlich geht, läßt sich derzeit natürlich noch nicht beschwören – am Ende könnten sogar beide Roadmaps teilweise Recht haben oder auch beide komplett danebenliegen.

27

TSMC mit geringeren technischen Fortschritten bei der 10nm- und 7nm-Fertigung

Die EETimes berichten recht detailliert über die kommenden 10nm- & 7nm-Fertigungsverfahren von TSMC: Die 10nm-Fertigung wird TSMC zum Jahresende 2016 in die Massenfertigung überführen, bei der 7nm-Fertigung will man schon im ersten Quartal 2017 die Riskfertigung starten. Von letzterer dauert es natürlich noch lange bis zur Massenfertigung, auch lohnt sich die Riskfertigung heutzutage bei technisch grenzwertigen Chips wie großen Grafikchips oder aber bei in Millionenstückzahlen benötigen Smartphone-SoCs überhaupt nicht mehr für reguläre Chipprojekte. Kaufbare Produkte sind also jeweils erst deutlich später zu erwarten – bei Grafikchips dann zudem immer noch grob ein dreiviertel Jahr später als bei ersten Smartphone-SoCs. Erste 10nm-Grafikchips von TSMC sind also kaum vor Anfang 2018 zu erwarten (wahrscheinlich der Volta-Chip GV100), erste 7nm-Grafikchips von TSMC nicht vor dem Sommer 2019 (möglicherweise AMDs Navi-Serie).

Trotzdem sind TSMCs Zeitplanungen sehr aggressiv, faktisch kommt innerhalb von nur drei Jahren zuerst die 10nm- und nachfolgend die 7nm-Fertigung. Sowohl die 16nm- als auch die 10nm-Fertigung werden damit bei TSMC innerhalb von nur grob anderthalb Jahren abgelöst werden (wie dies bei der 7nm- zur 5nm-Fertigung wird, steht noch nicht fest). Jenen aggressiven Zeitplan erkauft sich TSMC allerdings durch einen etwas zurückgedrehten Technologie-Fortschritt: Während man für einen Vollnode üblicherweise eine Packdichte sowie einen Stromverbrauch von jeweils -50% annehmen kann (weil ohne -50% beim Stromverbrauch kann man -50% Packdichte bei größeren, stromfressenden Chips nicht voll ausnutzen), sind die 10nm- und 7nm-Fertigungen von TSMC in dieser Frage leicht abgespeckt: Bei TSMCs 10nm-Prozeß gibt es zwar eine Packdichte von -50% zu 16FF+, aber der Stromverbrauch liegt bei nur -40%. Dies wird Spitzen-Grafikchips behindern, welche dann die belegte Chipfläche etwas reduzieren müssen, um nicht beim Stromverbrauch über allgemein anerkannte Werte hinauszugehen (gerade für Profi-Lösungen relevant).

TSMCs 7nm-Prozeß ist sogar deutlich weniger fortschrittlich: Die Packdichte sinkt nur um -38,5%, dafür gibt es auch nur -35-40% weniger Stromverbrauch (jeweils zur 10nm-Fertigung). Dies entspricht sicherlich nicht mehr dem Status eines Vollnodes, sondern sieht gemäß der derzeit offerierten technischen Daten eher wie ein "Dreiviertel-Node" aus. Wie an dieser Stelle schon einmal prophezeit, erkauft sich TSMC seine sehr aggressive Fertigungsverfahren-Roadmap mit einem bewußt dafür abgeschwächten technischen Fortschritt. Dabei macht das angebotene Gesamtpaket immer noch Sinn, sind die Fortschritte ausreichend hoch für eine Benutzung des jeweils neueren Fertigungsverfahrens – nur Grafikchips mit glatt verdoppelter Performance lassen sich hieraus dann kaum noch (10nm-Fertigung) bzw. ganz sicher nicht mehr (7nm-Fertigung) ziehen. Im Smartphone-Segment existiert hingegen kein so großer Druck mehr, unbedingt so viel wie möglich Chipfläche zu belegen – damit führt der abgeschwächte technische Fortschritt von TSMC zukünftigen Fertigungsverfahren dort zu keinerlei Einbußen.

16FF+ 10nm 7nm
Packdichte -50% zu 28nm -50% zu 16FF+ -38,5% zu 10nm
Taktraten & Stromverbrauch +45% oder -80% zu 28nm +20% oder -40% zu 16FF+ +15-20% oder -35-40% zu 10nm
Status Massenfertigung laufend Massenfertigung ab Ende 2016 Riskfertigung ab Q1/2017
kaufbare Produkte Smartphone-SoCs ab Herbst 2015 (Apple A9)
Grafikchips ab Sommer 2016 (nVidia GP104)
Smartphone-SoCs ab Frühling/Sommer 2017 (Mediatek X30)
Grafikchips geschätzt ab Anfang 2018 (nVidia GV100)
Smartphone-SoCs geschätzt ab Herbst 2018
Grafikchips geschätzt ab Sommer 2019

Explizit bezogen auf nVidias zukünftige Grafikchips – welche aller Voraussicht nach weiterhin primär von TSMC kommen werden – lassen sich hieraus zwei Aussagen ableiten. Erstens einmal sind in der 10nm- und ganz besonders der 7nm-Generation damit nicht mehr (nahezu) Performance-Verdopplungen für im gleichen Marktsegment angebotene Grafiklösungen zur jeweiligen Vorhergänger-Generation zu erwarten. Dies dürfte nVidia im geschäftlichen Sinne allerdings weniger stören, denn es kommt trotzdem noch ein sehr großer Performancesprung heraus – und dafür kommen die jeweiligen TSMC-Fertigungsverfahren schneller hintereinander, kann nVidia also in schneller Folge neue Produkte anbieten. Rein geschäftlich ist es sogar sinnvoller, die Performancesprünge eher kleiner zu machen und dafür einfach mehr Produkt-Generationen anzubieten – dies belebt den Markt respektive die Geschäftszahlen der Hersteller, selbst wenn die Grafikkarten-Käufer natürlich lieber um so größere Performancesprünge sehen würden.

Und zweitens läßt sich aus den offerierten technischen Daten zur 10nm- und 7nm-Fertigung von TSMC nicht erkennen, das der 10nm-Prozeß in irgendeiner Form ein "ungeliebtes Kind" wäre, sowie jener Prozeß nur eine "Übergangslösung" mit kurzzeitiger Verwendung sei. Selbiges wird ganz gern einmal zu TSMCs 10nm-Prozeß geschrieben – auch resultierend aus dem Punkt, das GlobalFoundries diesen gleich gar nicht erst auflegen wird (dies allerdings eher aus Gründen einer bewussten Straffung der GlobalFoundries-Entwicklungsausgaben). Doch bei TSMC liegen zwischen 16nm und 10nm sowie zwischen 10nm und 7nm anscheinend dieselben Zeitspannen von jeweils grob anderthalb Jahren – und von den technischen Daten her ist der TSMC 10nm-Prozeß (im Vergleich zu 16FF+) sogar technologisch fortschrittlicher als der TSMC 7nm-Prozeß (im Vergleich zu 10nm). Es ist daher kein Grund zu sehen, wieso die Grafikchip-Entwickler nicht vollständige Grafikchip-Portfolios unter der 10nm-Fertigung von TSMC auflegen sollten. Nur AMD könnte hierbei wegen der Verbundelung mit GlobalFoundries eventuell ganz oder teilweise passen – aber nVidia sollte angesichts dieser technischen Daten TSMCs 10nm-Prozeß ganz problemlos und sogar durchgehend benutzen.

26

Hardware- und Nachrichten-Links des 26. September 2016

Nach dem ersten Test einer Bristol-Ridge-APU aus fernöstlicher Quelle legt die c't nun mittels des Tests eines in Deutschland schon verkauften Komplett-PCs von HP mit A10-9700 APU nach. Hierbei handelt es sich um die zweitschnellste Bristol-Ridge-APU, welche gegenüber dem Spitzenmodell A12-9800 nur etwas weniger CPU-Takt hat, dafür aber eine von 512 auf 384 Shader-Einheiten beschnitte integrierte Grafiklösung mitbringt. Verglichen mit dem nahezu gleich taktenden (und auf der gleichen TDP von 65 Watt antretenden) A10-7800 aus AMDs Kaveri-Generation kann man bei der c't faktisch keinen Fortschritt bei der CPU-Performance ermitteln – dies ist dann doch ein klarer Unterschied zum vorhergehenden Test des A12-9800. Andererseits hat die c't auch nur zwei CPU-Benchmarks angesetzt – sicherlich zu wenig für eine sinnvolle Bewertung. Somit sind auch im Vergleich zum Core i3 noch nicht alle Messen gelesen, selbst wenn ein Core i3-6300 aus Intels Skylake-Portfolio dem A10-9700 im Test der c't um gleich +37% im Cinebench davonrennt.

A10-9700 A10-7800 Core i3-6300
Generation AMD Bristol Ridge (Carrizo-basiert) AMD Kaveri Intel Skylake
Technik 4C, 3.5/3.8 GHz, Radeon R7 mit 384 SE @ ≤1029 MHz, (bis zu) DDR4/2400, 65W TDP 4C, 3.5/3.9 GHz, Radeon R7 mit 512 SE @ ≤720 MHz, (bis zu) DDR3/2133, 65W TDP 2C+HT, 3.8 GHz, HD Graphics 530 mit 24 EU @ 350/1150 MHz, (bis zu) DDR3L/1600 oder DDR4/2133, 51W TDP
Cinebench R15 (MultiThread) 305 302  (-1,0%) 418  (+37,0%)
3DMark13 FireStrike (insg.) 1714 1281  (-25,3%) 995  (-41,9%)

Wenigsten sieht die iGPU-Performance AMD-typisch exzellent aus: Auch wenn es hier nur den FireStrike-Test des 3DMark13 gab, liegt der A10-9700 in diesem um um satte +72% vor dem Core i3-6300 sowie um immerhin noch +34% vor dem A10-7800 – obwohl jener sogar die vollen 512 Shader-Einheiten zur Verfügung hat (allerdings auf deutlich niedrigen iGPU- und Speicher-Taktraten). Diese gute Leistung kann der A10-9700 natürlich nur im DualChannel-Modus erzielen – im SingleChannel-Modus (mit nur einem Speicherriegel) verliert man über ein Drittel an iGPU-Performance, welche dann nur noch knapp oberhalb des Niveaus des Core i3-6300 (im DualChannel-Modus) herauskommt. Idiotischerweise hat es HP tatsächlich geschafft, seinen Komplett-PC in dieser Konfiguration mit nur einem Speicherriegel und damit dem SingleChannel-Betrieb herauszubringen – dafür sollte man HP mit dem fehlenden Speicherriegel regelrecht prügeln. Wenn so etwas bei leistungslosen iGPUs oder dedizierten Arbeits-Maschinen gemacht wird, ist dies nicht weiter tragisch, aber eine APU mit leistungsstarker iGPU nur im SingleChannel-Modus auszuliefern, stellt ein Armutszeugnis für einen (vermeintlich) seriösen PC-Hersteller dar.

Die Analysten von Gardner sehen einen weiteren Bedeutungsverlust des PCs – festzumachen an einer zurückgehenden installierten Basis von weltweit derzeit 1,44 Mrd. Geräten auf im Jahr 2019 (prognostiziert) dann nur noch 1,33 Mrd. Geräte. Jener Rückgang bei der installierten Basis wird natürlich auch für die PC-Hersteller weiteres Ungemach aka niedrigere Stückzahlen-Absätze bedeuten – denn augenscheinlich wird nicht jedes außer Dienst gestellte Gerät durch einen Neukauf ersetzt, sondern werden im großen Maßstab (weltweit immerhin 109 Millionen PCs in drei Jahren) alte PCs gänzlich ersatzlos außer Dienst gestellt. Wobei es natürlich doch Ersatz gibt – nur wandert jener auf andere IT-Gerätschaften wie Smartphone und Tablets ab, sowie im Business-Bereich stark in Richtung ThinClients. Für die PC-Hersteller gleicht ihr Geschäft somit Don Quijote's Kampf gegen Windmühlen – in einem Markt mit derart zurückgehendem Bedarf reißen es dann auch Produkt- und Preisoffensiven nicht mehr heraus, da kann man als Anbieter noch so gut sein.

Etwas besser dastehen dürften dabei jene Hersteller, welche auch auf anderen Feldern aktiv sind – beispielsweise im Smartphone/Tablet-Geschäft oder auch im Geschäft mit Server-Ausrüstungen, denn die größer werdenden Cloud-Welten wollen natürlich auch betrieben werden. Insbesondere aus letzterem Punkt heraus ergibt sich auch weiterhin die Anforderung an die Chipentwickler hin zu neuen Produkten – deren DualUse-Nutzung sich allerdings in Zukunft immer mehr von Consumer- auf Server-Bedürfnisse verschieben dürfte. Gleichzeitig ergibt die Verschiebung der Hardware-Power von den Endanwendern in die Cloud auch immer ein Stückzahlen-Minus, da Server-Hardware in aller Regel deutlich leistungsfähiger ist – und man daher weniger in deren Anzahl benötigt. Jenes Stückzahlen-Minus muß aber noch nicht einmal zwingend ein Umsatzminus bedeuten, da Server-Hardware bekannterweise sehr teuer sein kann. Rein geschäftlich muß dieser Wandel der IT-Industrie für die Hersteller also nicht einmal im geschäftlichen Minus enden – alle Stückzahlen-orientierten Vergleiche sind in dieser Frage allerdings immer unter deutliche Vorbehalte zu stellen. (Forendiskussion zur Meldung)

WinFuture berichten über ein Microsoft-Patent, bei welchem man sich ein jegliche Nutzeraktivitäten analysierendes und nachfolgend mitdenkendes Betriebssystem vorstellt – dies vor allem über die Grenzen einzelner Anwendungen hinaus. Denn wenn das Betriebssystem erkennen kann, was der Nutzer inhaltlich gerade so treibt, dann kann es den dafür passenden Content automatisch und zielgerichtet zur Verfügung stellen. Sinn macht jenes Patent natürlich nur in einer Softwareumgebung, welche zumindest vorwiegend aus UWP-Apps besteht, welche also gemäß der Microsoft-Regularien zum Daten-"Austausch" verpflichtet werden können – für Microsoft ein Zusatznutzen der eigenen UWP-Anstrengungen. Je nach subjektiver Verfaßtheit dürfte dies dem einen revolutionär und dem anderen dystopisch anmuten – auf der einen Seite könnte ein erheblicher Produktivitätsgewinn stehen, auf der anderen Seite geben wir dem Systemanbieter damit natürlich nochmals viel mehr Daten über uns zur Verfügung. Die eigentliche Problematik liegt dabei sicherlich in eben jener Poison Pill – denn ein gleichartiges System, welches aber unter Kontrolle des Endanwenders steht und nicht alle dessen Daten mit dem Systemanbieter teilt, wäre überhaupt nicht abzulehnen. Leider gehen die allermeisten Software-Entwicklungen der letzten Zeit (inzwischen auch bei Microsoft) immer nur in die Richtung, das der Nutzer am Ende mit seinen Daten zahlt.

Shortcuts: Laut der ComputerBase könnte nVidia eventuell wieder verstärkt Grafikchips an Apple liefern – da nVidia derzeit nach dafür passenden Software-Entwicklern sucht. Zuletzt hatte Apple seine Grafikchips exklusiv bei AMD bezogen, hatte allerdings in der weiter zurückliegenden Vergangenheit auch schon genügend nVidia-Grafikchips abgenommen. Notebookcheck vermelden hingegen offizielle Informationen über kommende MediaTek-SoCs. Darunter befindet sich auch der X30, welcher ab Anfang 2017 in der 10nm-Fertigung erwartet wird – und damit möglicherweise das erste kaufbare 10nm-Produkt darstellt. Dies überrascht einigermaßen, denn bisher waren die SoCs von Apple und Samsung dafür prädestiniert, ein neues Fertigungsverfahren einzuläuten – aber eventuell hat es schlicht terminlich einfach nicht zusammengepasst. Mit einem anzunehmenden Termin von Frühjahr 2017 hätte Chipfertiger TSMC dann im übrigen nur 1,5 Jahre für den Sprung von der 16nm-Fertigung (erste kaufbare Produkte im Herbst 2015) benötigt.

26

Umfrage-Auswertung: Als wie relevant wird AMDs Vorteil unter DirectX 12 & Vulkan angesehen?

Eine Umfrage von Mitte September versuchte die Anwendermeinung zur praktischen Relevanz von AMDs Vorteilen bei Anwendungen unter den Grafik-APIs DirectX 12 und Vulkan einzufangen. Jene Vorteile sind in einem früheren Artikel gut dokumentiert und zeigen sich auch bei neu erscheinenden DirectX12/Vulkan-Titeln meistens – doch wie schnell wird diese Tendenz nun in eine breite Praxiswirkung umschlagen, und ist dies alles schnell genug für jetzt gekaufte und damit primär jetzt genutzte Grafikkarten? Hier kann man durchaus verschiedener Meinung sein, sicherlich auch betrachtend die persönliche Nutzungsdauer von Grafikkarten – für schnellentschlossene Umrüster ist das Thema sicherlich weit weniger relevant als für Nutzer mit vergleichsweise langer Nutzungsdauer einer Grafikkarte.

Dennoch votierten die Umfrageteilnehmer in der Mehrheit eher dafür, diesem Vorteil seine entsprechende Beachtung zu schenken. Die große Mehrheit mit 47,2% liegt dabei in der Mitte und sieht AMDs Vorteil unter DirectX 12 & Vulkan als gewichtigen Punkt an. Weitere 19,4% sehen es nur als kleineren Pluspunkt zugunsten von AMD an, nahezu gleiche 19,0% hingegen sogar als "Gamechanger", welcher das Kräfteverhältnis regelrecht zugunsten von AMD ändert. Nur für 14,4% liegt das ganze dann doch zu weit in der Zukunft, um für heutzutage gekaufte Grafikkarten eine Relevanz zu entwickeln. Die durchschnittliche Anwendermeinung läßt sich damit höchst einfach charakterisieren: Jener Vorteil unter DirectX 12 & Vulkan wird im Schnitt als ein mittlerer Pluspunkt zugunsten von AMD gesehen.

26

Die Systemanforderungen zu Civilization VI

Spielepublisher 2K Games hat auf Steam die offiziellen PC-Systemanforderungen für das am 21. Oktober 2016 erscheinende Civilization VI bekanntgegeben. Jene sehen insbesondere im Minimum äußerst Einsteiger-freundlich aus, da mittels Core i3 auf 2.6 GHz sowie Phenom II X4 auf 2.6 GHz faktisch jede halbwegs leistungsfähige CPU in dem Titel mitkommen müsste und als Minimum-Grafikkarten Radeon HD 5750 (Perf.Index 100%) bzw. GeForce GTS 450 GDDR5 (Perf.Index 95%) wahrlich keine Hürden darstellen (offiziell listet 2K Games eine "Radeon HD 5570", aber dies dürfte ein schlichter Zahlendreher sein, deren Performance passt überhaupt nicht zur GeForce GTS 450). Die Empfehlungen sehen dagegen einen gutklassigen Gamer-PC vor, wenn es CPU-seitig ein Core i5 auf 2.5 GHz oder ein FX-Prozessor auf 4 GHz sowie Grafikkarten-seitig eine Radeon HD 7970 (Perf.Index 360%) oder eine GeForce GTX 770 (Perf.Index 380%) sein sollen. Wirkliche Performance-Probleme sind unter Civilization VI somit jedoch nicht zu erwarten.

minimale Anforderungen empfohlene Anforderungen
Ziel-Auflösung keine Angabe keine Angabe
Betriebssystem Windows Vista *inoffiz.*     Windows 7     Windows 8.0 *inoffiz.*     Windows 8.1     Windows 10     Linux
32/64-Bit 32-Bit     64-Bit
Prozessor AMD K10 4C  (ab 2.6 GHz)
AMD K10 6C
AMD Bulldozer 4C
AMD Bulldozer 6C
AMD Bulldozer 8C
AMD Mainstream-APU 4C
Intel Core 2 Quad  (ab ~2.5 GHz)
Intel Core i3 (2C+HT)  (ab 2.5 GHz)
Intel Core i5 (4C)
Intel Core i7 (4C+HT)
Intel Core i7-E (6C/8C/10C)
AMD K10 4C
AMD K10 6C
AMD Bulldozer 4C
AMD Bulldozer 6C  (ab ~4.5 GHz)
AMD Bulldozer 8C  (ab 4 GHz)
AMD Mainstream-APU 4C
Intel Core 2 Quad  (ab ~4 GHz)
Intel Core i3 (2C+HT)  (ab ~3.5 GHz)
Intel Core i5 (4C)  (ab 2.5 GHz)
Intel Core i7 (4C+HT)
Intel Core i7-E (6C/8C/10C)
RAM 4 GB 8 GB
Festplatte 12 GB freier Festplattenplatz
Grafik-API DirectX 11     DirectX 12     OpenGL     Vulkan
Grafikkarte AMD Radeon HD 5000ab 5750
AMD Radeon HD 6000ab 6750 GDDR5
AMD Radeon HD 7000ab 7750 GDDR5
AMD Radeon R200ab 250 GDDR5
AMD Radeon R300ab 360
AMD Radeon R400ab 460
nVidia GeForce 400ab 450
nVidia GeForce 500ab 550 Ti
nVidia GeForce 600ab 650
nVidia GeForce 700ab 740 GDDR5
nVidia GeForce 900ab 950 SE
nVidia GeForce 1000ab 1050
AMD Radeon HD 5000
AMD Radeon HD 6000
AMD Radeon HD 7000ab 7970
AMD Radeon R200ab 280
AMD Radeon R300ab 380
AMD Radeon R400ab 470
nVidia GeForce 400
nVidia GeForce 500
nVidia GeForce 600ab 680
nVidia GeForce 700ab 770
nVidia GeForce 900ab 960
nVidia GeForce 1000ab 1060 3GB
Grafik-RAM 1 GB 2 GB
Anmerkung: Die angegebenen Anforderungen zu Prozessor und Grafikkarte stellen eine eigene Interpolation der offiziellen Anforderungen dar.
25

Hardware- und Nachrichten-Links des 24./25. September 2016

Nachdem GeForce GTX 1050 & 1050 Ti die Radeon RX 460 aller Voraussicht nach schlagen werden können, ist es um so unverständlicher, das AMD bei dieser Karte den zugrundeliegenden Polaris-11-Chip nicht voll ausgefahren hat. Gleichfalls schlägt sich AMD etwas selber durch den Umstand, bei der Radeon RX 460 zu viel Variationsbreite in ein und dieselbe Karte gelegt zu haben – nVidia hat dies speziell beim Speicher mit generell 2 GB bei der GeForce GTX 1050 sowie generell 4 GB bei der GeForce GTX 1050 Ti eleganter gelöst. Ein Ausweg aus beiden Problematiken würde in der Auflage einer (derzeit rein hypothetischen) "Radeon RX 465" liegen – eine solche Karte würde auch in AMDs aktuelles Namensschema passen. Jene "Radeon RX 465" würde dann im Vollausbau des Polaris-11-Chips antreten, zudem würde die Grenze von 75 Watt TDP und damit das entsprechende Power-Limit fallen, ergo könnten die Taktraten auch etwas überhalb von 1200 MHz Chiptakt liegen. Gute Werksübertaktungen zur Radeon RX 460 deuten schon an, das da einiges mehr möglich ist – und zusammen mit dem Sprung von 896 auf 1024 Shader-Einheiten (+14,3%) kann da ein guter Sprung herauskommen.

Radeon RX 460 "Radeon RX 465" GeForce GTX 1050 GeForce GTX 1050 Ti
Chipbasis AMD Polaris 11 AMD Polaris 11 nVidia GP107 nVidia GP107
Architektur GCN4, DirectX 12 Feature-Level 12_0 Pascal, DirectX 12 Feature-Level 12_1
Technik 2 Raster-Engines, 896 Shader-Einheiten, 56 TMUs, 16 ROPs, 128 Bit GDDR5-Interface (Salvage) angen. 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 16 ROPs, 128 Bit GDDR5-Interface (Vollausbau) angbl. 640 Shader-Einheiten, 40 TMUs, 32 ROPs (?), 128 Bit GDDR5-Interface (Salvage) angbl. 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit GDDR5-Interface (Vollausbau)
Taktraten 1090/1200/3500 MHz
(Ø-Chiptakt: ~1170 MHz)
angen. ~1250/3500 MHz angbl. 1354/1455/? MHz angbl. 1290/1382/3500 MHz
Speicherausbau 2/4 GB GDDR5 angen. 4 GB GDDR5 2 GB GDDR5 4 GB GDDR5
off. Verbrauch <75W (TBP) angen. 100W (TBP) 75W (GBP) 75W (GBP)
FHD Perf.Index 260% gesch. ~290-310% gesch. ~260-280% gesch. ~300-320%
Launch 8. August 2016 reine Hypothese angbl. Ende Oktober 2016 angbl. Mitte Oktober 2016

Zusammen mit der richtigen Taktrate (Richtung 1250 MHz) könnte eine solche "Radeon RX 465" durchaus die (prognostizierte) Performance der GeForce GTX 1050 Ti erreichen, damit also dann eine echte Konkurrenzsituation zwischen beiden Karten herstellen. Die Herstellerdesigns zur GeForce GTX 1050 Ti werden zwar immer noch etwas schneller sein, aber rein nominell kann AMD im besten Fall durchaus einen nominellen Gleichstand erreichen. Ob AMD eine solche Karte auflegt, bleibt natürlich abzuwarten – bislang ist das ganze nur eine hypothetische Überlegung, niemand zwingt AMD zu dieser Karte. Zudem gibt es auch noch die These zu beachten, das AMD angeblich den zugrundeliegenden Polaris-11-Chip in seinem Vollausbau primär für das Mobile-Segment benötigt – und nur daher die Radeon RX 460 im Desktop nicht als Vollausbau herausgekommen ist. Im mittelfristigen Verlauf sollte sich diese Problematik allerdings eher entschärfen – und dann könnte AMD in der Tat versucht sein, hier noch einmal mittels einer "Radeon RX 465" nachzulegen. Eventuell wird das ganze aber auch auf das nächste Jahr verschoben und in der nächsten Grafikkarten-Generation von AMD sehen wir dann erst den Vollausbau des Polaris-11-Chips im Desktop – dies würde dann wohl eine (genauso hypothetische) "Radeon RX 550" ergeben.

Bei Heise fordert man im Zuge der Meldung zu den per Firmware-Update nicht mehr mit Fremdpatronen zusammenarbeitenden HP-Druckern, den Fall doch einfach strafrechtlich anzugehen. Als Druckmittel hierfür sieht man das Strafgesetzbuch im Paragraph 303b, Absatz 1, Nummer 3 – welcher zumindest bei einer erheblichen Störung (wie im geschäftlichen Umfeld) durchaus zugkräftig für diesen Fall erscheint. Das hierzu häufig gebrachte Gegenargument, das der Betrieb mit Fremdpatronen keine zugesicherte Produkteigenschaft sei, zieht dabei nicht – diese Aussage trifft zwar in der Tat zu, spielt für diesen Paragraphen aber eben keine Rolle. Auch die vorherige Einwilligung des Käufers zu Firmware-Updates im Rahmen der AGB bzw. des Lizenzvertrages ergibt keine Fluchtmöglichkeit, gut von Heise anhand des Beispiels von Arzt und Spritze erklärt: Jeder invasive Eingriff kann eigentlich immer nur für den einzelnen konkreten Fall seitens des Kunden abgesegnet werden, nicht aber im Rahmen von AGBs bzw. eines Lizenzvertrags nur einmalig und dann für alle Zeiten gültig erteilt werden.

Allerdings würde die ernsthafte Anwendung dieses Paragraphen dann auch eine Schlangengrube öffnen: Jedes der neueren Betriebssystem-Updates von Apple, Google und Microsoft stände dann unter dessen Beobachtung – weil Funktionsreduzierungen bzw. andere gravierende Änderungen, welche vorher nutzbare Funktionen stören bzw. abschaffen, gibt es dabei immer mal wieder. Andererseits wäre es derart gedacht gar nicht einmal falsch, diesen Paragraphen auch durchzusetzen: Der Kunde schafft sich schließlich ein Produkt zum Ist-Zustand an – und hat nach deutschem Recht dann auch ein Nutzungsrecht zu exakt diesem Ist-Zustand. Nachträgliche Änderungen dessen sollten eine (jeweils einzelne) Zustimmung bedingen – ansonsten findet man sich bei Windows 10 wieder, wo Microsoft im laufenden Betrieb nach Gutdünken Funktionen abschaltet oder gravierend umarbeitet. In welchem Wahnsinn so etwas bei Microsoft enden kann, kann man sich gut anhand der Geschichte der verschiedenen Microsoft-eigenen Mailprogramme in den letzten Windows-Versionen ansehen (jede Windows-Version ein neues, inkompatibles Mail-Programm, Daten-Migration zumeist nur einmalig bei direktem Windows-Upgrade vorgesehen).

Nicht umsonst versuchen die Betriebssystem-Anbieter derzeit verstärkt, ihre Betriebssysteme als "Service" umzudefinieren – denn ein Service hat keinen für alle Ewigkeiten feststehenden Funktionsumfang, jener kann durchaus von Zeit zu Zeit anders aussehen. Doch ob es sinnvoll ist, den Lauf der IT-Welt mit nationalstaatlichem Recht aufhalten zu wollen, steht dann noch auf einem ganz anderen Blatt. Sinnvollerweise sollten die Konsumenten eher versuchen, den Lauf der Welt mit dem einzigen zu verändern, was in unserer Gesellschaftsform tatsächlich zu wirklichen Veränderungen in der Lage ist – mit ihrer Geldbörse (aka ihrer Kauf- bzw. Nutzungsentscheidung). Im Sinne von Betriebssystemen bedeutet dies, sich langfristig auf die Migration zu Linux vorzubereiten – und im Sinne von Druckern bedeutet dies, die Finger von derart unseriösen Angeboten zu lassen, egal wie günstig der Einstiegspreis sein mag. Wer jetzt konkret von dem HP-Problem betroffen ist, hat damit (im Wortsinn) Lehrgeld gezahlt – was jedoch bekannterweise besser wirkt als jede textliche Ermahnung.

Inhalt abgleichen