29 29

Wieviel Rechenkerne hat der eingesetzte Prozessor (2017)?

Diese Umfrage fragt (in Wiederholung einer 2014er Umfrage und um die Anwender-Situation kurz vor dem Markteintritt von Ryzen zu sehen) gleichzeitig nach den vorhandenen Rechenkernen und dann noch, ob diese von Intel oder AMD kommen. HyperThreading wird im Sinne dieser Umfrage nicht als extra Rechenkern gezählt (sondern ebenfalls extra abgefragt), AMDs Rechenkerne in Modul-Bauweise bei Bulldozer & Nachfolgern gehen jedoch im Sinne dieser Umfrage als vollwertige Rechenkerne durch. Durch den Hersteller deaktivierte Rechenkerne zählen natürlich nicht – es sei denn, jene wurden durch den Nutzer erfolgreich aktiviert. Bei HyperThreading zählt ebenfalls nicht das technische Vorhandensein, sondern allein, ob dieses Feature auch aktiv ist.

Bei dieser Umfrage gilt zudem, daß jene Geräte-gebunden ist: Auf einem anderem PC darf entsprechend der Ausstattung dieses PCs oder Notebooks neu gevotet werden, so das Anwender mit mehreren Geräten deren Daten auch entsprechend in diese Umfrage einbringen können.

AMD Einkern-CPU
0% (3 Stimmen)
AMD Zweikern-CPU
1% (25 Stimmen)
AMD Dreikern-CPU
1% (16 Stimmen)
AMD Vierkern-CPU
7% (211 Stimmen)
AMD Sechskern-CPU
5% (147 Stimmen)
AMD Achtkern-CPU
8% (224 Stimmen)
Intel Einkern-CPU
0% (2 Stimmen)
Intel Zweikern-CPU
2% (53 Stimmen)
Intel Vierkern-CPU
27% (812 Stimmen)
Intel Einkern-CPU mit HyperThreading
0% (4 Stimmen)
Intel Zweikern-CPU mit HyperThreading
4% (121 Stimmen)
Intel Vierkern-CPU mit HyperThreading
36% (1078 Stimmen)
Intel Sechskern-CPU mit HyperThreading
7% (219 Stimmen)
Intel Achtkern-CPU mit HyperThreading
1% (43 Stimmen)
Intel Zehnkern-CPU mit HyperThreading
1% (15 Stimmen)
Gesamte Stimmen: 2973
27

Hardware- und Nachrichten-Links des 27. Januar 2017

Die PC Games Hardware bietet ein paar erste Grafikkarten-Benchmarks zu "For Honor", aufgenommen unter der derzeit laufenden Closed Beta des Hack&Slay-Spiels. Dabei zeigt sich das Spiel maßvoll Hardware-fordernd, unter FullHD reichen für die maximale Bildqualität mit 40 fps schon Radeon R9 280X oder GeForce GTX 780 unter FullHD aus, selbst eine (stark ab Werk übertaktete) GeForce GTX 770 2GB kommt noch auf 38 fps. Unter WQHD wird es schon wesentlich knapper, hier sollte es für 40 fps schon eine Radeon R9 Nano oder GeForce GTX 980 Ti sein, während unter UltraHD dann nur noch die Titan X (Pascal) die 40-fps-Marke knackt. Bezüglich der Speichermenge gibt es unter "For Honor" wenig Sorgen, wie auch vorgenanntes Beispiel zeigt – Grafikkarten mit nur 2 GB oder 3 GB Grafikkartenspeicher kommen bis WQHD noch gut mit (und sind unter UltraHD sowieso zu langsam). Unsere eigenerstellten Systemanforderungen zu "For Honor" bestätigen sich mit diesen Benchmarks im übrigen als "gut geraten": Eine GeForce GTX 680 wird (angesichts einer werksübertakteten GeForce GTX 770 auf 38 fps @ "Max") so ziemlich sicher keine 60 fps unter 1920x1080 "High" schaffen (wie von Ubisoft propagiert) – dafür werden die von uns an dieser Stelle angesetzten GeForce GTX 970 (50 fps @ "Max") & GeForce GTX 1060 3GB (6-GB-Version 55 fps @ "Max") viel eher in der Lage sein, dies zu erfüllen.

Im Zuge der kürzlichen Meldung zum Ryzen-Portfolio wird in unserem Forum darüber diskutiert, inwiefern AMD aus dem Ryzen-Die überhaupt Sechskern-Prozessoren erzeugen kann. Schließlich spricht der grundsätliche Aufbau mit zwei Vierkern-Clustern und einem gemeinsamen Level3-Cache einigermaßen gegen eine solche Möglichkeit. Mit früheren AMD-Architekturen ist der Fall zudem auch nicht gerade gut vergleichbar, da mit Zen vieles neu bzw. anders gelöst wurde. Darunter fällt allerdings auch eine physikalische Vierfach-Unterteilung des Level3-Caches, womit theoretisch gesehen der Level3-Cache sehr zielgerichtet deaktiviert werden könnte. Auch haben heutige CPUs natürlich alle Möglichkeiten, einen CPU-Kern per Software oder Firmware derart glatt abzuschalten, das jener wirklich nichts mehr verbraucht – da ist der Weg zu einer generellen Deaktivierung selbst einzelner CPU-Kerne nicht mehr weit. Am Ende dürfte aber vor allem die Überlegung ziehen, das AMD natürlich klar sein dürfte, das die Möglichkeit zur möglichst feinteiligen Portfolio-Aufteilung elementar für einen breiten Markterfolg ist. Sprich: AMD sollte normalerweise schon in der Designphase an möglichst feine Unterteilungsmöglichkeiten gedacht haben – das ein Sechskerner aus dem bekannten Achtkern-Die nicht machbar sein soll, ist daher arg unwahrscheinlich.

Eher wahrscheinlich wäre es, wenn die Möglichkeiten noch viel größer sind als dann in der Praxis genutzt, das AMD also auch bei Bedarf einen Fünf- oder Siebenkerner aus dem Achtkern-Die ziehen könnte. Wie AMDs initiales Ryzen-Portfolio gestaltet wird, ist damit natürlich nicht gesagt – aber die Chance, das wir auch Ryzen-Sechskerner sehen, ist doch ziemlich hoch. Wahrscheinlich dürften die Ryzen-Vierkerner sowieso nicht besonders groß beachtet werden (denn dies bietet auch Intel bereits) und sich daher das Interesse der (potentiellen) Konsumenten sowie auf die Sechs- und Achtkerner von Ryzen richten. Gerade die Sechskerner dürften AMDs eigentliche Umsatz- & Gewinnträger werden: Wahrscheinlich schnell genug, um sich mit Intels Spitzenprozessoren des Consumer-Bereichs anzulegen, beim Preispunkt aber wohl niedriger als die Achtkern-Spitzenmodelle angesetzt, um somit hohe Stückzahlen und hierbei auch beachtbare Gewinnmargen zu kreiieren. Die Ryzen-Achtkerner werden eine höhere Marge, aber viel geringere Stückzahlen erreichen – die Ryzen-Vierkerner hingegen zwar größere Stückzahlen, aber viel kleinere Margen. AMD wäre wirklich mit dem Klammersack gepudert, würde man den Ryzen-Sechskerner als vermutlichen besten Mix aus Performance, Preis, Absatz und Marge nicht bringen bzw. wegen technischer Limitationen nicht bringen können.

Bei PC Gamer beschäftigt man sich mal wieder mit der Frage beschäftigt, wieviel fps das menschliche Auge überhaupt wahrnehmen kann. Einige der Einlassungen von Wissenschaftler-Seite her sind dabei ganz interessant, allerdings wurde dabei ein wenig die Differenz zwischen "Wahrnehmung vollständiger Bilder" und "subjektives Erkennen von Frameraten-Varianzen" außer acht gelassen – sprich, manchmal sprechen die Wissenschaftler auch von eigentlich ganz unterschiedlichen Dingen, der hierbei teilweise konstruierte Widerspruch ist in der Tat keiner. Die These von rund 20 voll wahrnehmbaren fps stimmt also immer noch – trotzdem sehen geübte Gamer durchaus noch reine Differenzen in der Flüssigkeitsdarstellung bis zu 60 fps, einzelne Personen auch noch darüber hinaus. Nicht umsonst bieten moderne VR-Brillen in aller Regel gleich 90 fps, hier bedingt natürlich auch durch die viel näher am Auge befindliche Projektsfläche. Am Ende haben sicherlich beide Wissenschaftler-Standpunkte recht – und aus Sicht des Konsumenten reicht sowieso der subjektive Eindruck, welcher mit 45-60 fps klar demjenigen mit nur 20 fps überlegen ist.

27

Das Zeitalter der 28nm-Grafikkarten ist zu Ende

Mit unserem aktuellen Grafikkarten-Marktüberblick listen wir erstmals die 28nm-basierten Grafikkarten durchgehend nicht mehr auf. Jene sind zum größeren Teil zwar noch verfügbar (bislang sind nur zwei Grafikkarten aus dem letzten Grafikkarten-Marktüberblick vom August 2016 absolut nicht mehr erhältlich), wurden aber inzwischen von den 14/16nm-basierten Grafikkarten beim Preis/Leistungs-Verhältnis glatt deklassiert. Dies geschah über zwei Effekte: Zum einen sanken die Preise der meisten 14/16nm-basierten Grafikkarten in den Monaten seit deren Markteinführung etwas ab, zum anderen stiegen die Preise der 28nm-basierten Grafikkarten teilweise deutlich an – zum einen liefen alle früheren Abverkaufsangebote aus, zum anderen führt die meistens schon schlechte Verfügbarkeit der 28nm-Modelle ganz automatisch zu steigenden Preisen (die guten Preisnotierungen verkaufen sich im Laufe der Zeit, somit verbleiben nur noch die teuren Preisnotierungen im Markt).

Konkret sind derzeit die früheren Abverkaufsangebote zu Radeon R9 Fury, Radeon R9 Fury X, GeForce GTX 980 und GeForce GTX 980 Ti entschwunden und diese Karte bis auf die Ausnahme der Radeon R9 Fury teils erheblich teurer als noch im August 2016. Die Radeon R9 Fury ist dabei auch die einzige Karte des 28nm-Portfolios, welche noch einen halbwegs konkurrenzfähigen Preis aufbietet – aber am Ende lohnt es sich jedoch trotzdem nicht, eine solche Karte noch zu erstehen, wenn man selbige gleichwertig durch ein Modell mit mehr Grafikkartenspeicher ersetzen kann (was dann auch besser zu den heutigen Spiele-Anforderungen passt). Bei den restlichen Karten des 28nm-Portfolios sind die Vorteile der 14/16nm-basierten Vergleichsangebote dann teilweise gravierend – meistens wird mittels der 14/16nm-Grafikkarten deutlich mehr Performance zum gleichen Preis oder eine vergleichbare Performance zum kleineren Preis geboten.

Perf. Aug. 2016 Jan. 2017 Verfügbk. 14/16nm-basierte Alternative
Radeon Pro Duo 2x4GB ~1080% 1330-1550€ 1250-1500€ schwach Titan X (Pascal) 12GB: ~1120% @ 1359€
GeForce GTX Titan X 12GB 780% 1140-1300€ ausgelaufen GeForce GTX 1070 8GB: 800% @ 400-440€
GeForce GTX 980 Ti 6GB 750% 399€ 580-720€ minimal GeForce GTX 1070 8GB: 800% @ 400-440€
Radeon R9 Fury X 4GB 680% 399€ 420-480€ schwach GeForce GTX 1070 8GB: 800% @ 400-440€
Radeon R9 Fury 4GB 630% 349€ 300-340€ schwach GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
Radeon R9 Nano 4GB 610% 450-500€ 400-460€ schwach GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
GeForce GTX 980 4GB 600% 299€ 370-450€ schwach GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
Radeon R9 390X 8GB 580% 320-370€ 370-430€ schwach GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
Radeon R9 390 8GB 540% 270-310€ 290-350€ vernünftig GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
GeForce GTX 970 3,5GB 510% 220-250€ 270-300€ schwach GeForce GTX 1060 6GB: 590% @ 260-280€ oder Radeon RX 480 8GB: 550% @ 240-270€
Radeon R9 380X 4GB 400% 190-220€ 220-280€ schwach Radeon RX 470 4GB: 480% @ 180-210€ oder GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
Radeon R9 380 4GB 370% 190-220€ 170-220€ schwach Radeon RX 470 4GB: 480% @ 180-210€ oder GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
Radeon R9 380 2GB 370% 150-190€ 190-230€ schwach Radeon RX 470 4GB: 480% @ 180-210€ oder GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
GeForce GTX 960 4GB 340% 200-220€ 210-270€ minimal Radeon RX 470 4GB: 480% @ 180-210€ oder GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
GeForce GTX 960 2GB 340% 170-190€ 200-230€ schwach Radeon RX 470 4GB: 480% @ 180-210€ oder GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
GeForce GTX 950 2GB 290% 140-160€ 145-160€ schwach GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
Radeon R7 370 4GB 260% 140-170€ 170-180€ schwach GeForce GTX 1050 Ti 4GB: 360% @ 145-165€
Radeon R7 370 2GB 260% 110-140€ 130-170€ schwach GeForce GTX 1050 Ti 4GB: 360% @ 145-165€ oder Radeon RX 460 4GB: 260% @ 120-135€
GeForce GTX 950 "SE" 2GB ~260% 150-160€ ausgelaufen GeForce GTX 1050 Ti 4GB: 360% @ 145-165€ oder Radeon RX 460 4GB: 260% @ 120-135€
GeForce GTX 750 Ti 4GB 210% 135-160€ 135-150€ schwach Radeon RX 460 4GB: 260% @ 120-135€
GeForce GTX 750 Ti 2GB 210% 110-120€ 115-130€ vernünftig Radeon RX 460 4GB: 260% @ 120-135€
GeForce GTX 750 2GB 185% 105-120€ 110-130€ minimal Radeon RX 460 4GB: 260% @ 120-135€
Radeon R7 360 2GB 185% 95-105€ 95-110€ vernünftig Radeon RX 460 2GB: 260% @ 105-115€

Ein Modell des 28nm-Portfolios, welche man derzeit ernsthaft noch in Erwägung ziehen könnte, ergibt sich nirgendwo. Manchmal gibt es kleinere Ansätze in diese Richtung hin, aber bei genauerer Überlegung (und auch der Beachtung der jeweils gebotenen Speichermengen) kann keine der 28nm-Grafikkarten noch wirklich punkten. Allenfalls, wenn die 100-Euro-Marke zwingend nicht durchbrochen werden soll, kommt die (14nm-basierte) Radeon RX 460 2GB derzeit gegenüber der (28nm-basierten) Radeon R7 360 2GB noch nicht ganz mit. Beim reinen Preis/Leistungs-Verhältnis führt (sogar mit deutlichem Vorteil) aber auch schon das 14nm-Modell – wie eigentlich durchgängig gegenüber dem letzten Aufgebot der 28nm-Ära. Bis auf Spezialfälle wie zwingend gleichen Ersatz oder aber das Aufrüsten auf CrossFire/SLI-Systeme kann man die derzeit noch angebotenen 28nm-Grafikkarten somit glatt vergessen. Jene werden nun mit zurückgehender Verfügbarkeit auch nicht mehr günstiger, sondern tendentiell wie gesagt sogar teurer – bis dann eines Tages auch das letzte Marktangebot verschwunden und der Auslaufstatus der 28nm-Generation vollendet ist.

Grafikkarten FullHD Performance/Preis-Index (Januar 2017)
Grafikkarten FullHD Performance/Preis-Index (Januar 2017)
(28nm) Grafikkarten FullHD Performance/Preis-Index (Januar 2017)
(28nm) Grafikkarten FullHD Performance/Preis-Index (Januar 2017)

Nachtrag vom 29. Januar 2017

Zur Untermauerung der kürzlichen Meldung über das Ende der Ära der 28nm-Grafikkarten sei nachfolgendes Diagramm dargereicht, welches den ganzen Sachverhalt plastischer darstellt. Eingezeichnet wurden alle 14/16nm-Grafikkarten als blaue Markierungen, alle 28nm-Grafikkarten als goldene Markierungen – mit dem aktuellen Straßenpreis als der horizontalen X-Achse und dem 3DCenter FullHD Performance-Index als der vertikalen X-Achse. Je höher eine Grafikkarte innerhalb derselben Positionierung auf der X-Achse steht, um so besser ist also deren Performance/Preis-Verhältnis. Die Werte-Verteilung zwischen beiden Grafikkarten-Gruppen sowie die beiden jeweiligen Mittelwertskurven zeigen es dann sehr deutlich an: Die 14/16nm-Grafikkarten haben ein grundsätzlich besseres Preis/Leistungs-Verhältnis erreicht. Zwar liegen die 28nm-Grafikkarten nicht weit weg vom Schuß, in manchen Fällen kommen einzelne 28nm-Exemplare auch vergleichsweise nahe an die Kurve der 14/16nm-Modelle heran (Radeon R9 Fury), aber die generelle Differenz wäre damit klar belegt.

Und dies ist vor allem auch ein gravierende Unterschied zur Situation im Sommer 2016, als die 14/16nm-Grafikkarten anfänglich mit (gegenüber heute) höheren Preisen in den Markt gingen, auch teilweise gute Abverkaufsangebote zu den 28nm-Grafikkarten existierten – und somit die Performance/Preis-Verhältnisse im August 2016 keinerlei besonderen Unterschiede zwischen beiden Grafikkarten-Gruppen aufzeigten. Seinerzeit wurden die 14/16nm-Grafikkarten eher wegen neuer Performance-Höhen, besserer Energieeffizienz oder auch des Mehrspeichers empfohlen, nicht aber wegen eines verbesserten Preis/Leistungs-Verhältnisses – diesen Vorteil haben die 14/16nm-Grafikkarten eben erst jetzt erreicht. Im Gegenzug verwundert es etwas, das AMD und nVidia ihre letzten 28nm-Grafikkarten nicht aggressiver aus dem Markt herausgedrückt haben, sprich Abverkaufsaktionen mit echtem Preisvorteil aufgelegt haben (die bisherigen Abverkaufspreise zu 28nm-Modellen ergaben nur ähnliche, aber nicht bessere Preis/Leistungs-Verhältnisse). Dies sah bei früheren Grafikkarten-Generationen noch ganz anders aus, hier konnte man sich bei deren Auslaufen regelmäßig auf Abverkaufsaktionen mit echten Knallerpreisen freuen.

Beim Auslaufen der 28nm-Generation scheint dies nun nicht mehr zu passieren, denn die dokumentierten Verfügbarkeiten sind inzwischen schon schlecht genug, sprich es dürfte kaum noch größere Mengen an abzuverkaufenden 28nm-Grafikchips und 28nm-Grafikkarten geben. Möglicherweise haben AMD und nVidia hierbei im Vorfeld der 14/16nm-Generation auch einfach sorgsamer kalkuliert und es somit zu keinen zu großen Lagerbeständen an "Altware" kommen lassen. Abgesehen von der Radeon R9 Fury gibt es in jedem Fall derzeit keine 28nm-Grafikkarte, welche noch eine nähere Betrachtung wert wäre – und selbst bei dieser Fiji-basierten AMD-Karte gilt letztendlich, das jene für die 7% Mehrperformance zur GeForce GTX 1060 6GB auch gleich wieder ~18% mehr kostet, ergo nicht wirklich preiseffizient ist (von der massiv zurückhängenden Energieeffizienz und den nur 4 GB Speicher ganz abgesehen). Schade ist allerhöchstens, das es keine explizite Abverkaufsaktion zur Radeon R9 Nano gab – für jene Karte gab es immer ein gutes Interesse, aber meistens war der Preispunkt der Karte zu hoch angesetzt, um aus jener einen richtigen Verkaufserfolg zu machen.

26

Hardware- und Nachrichten-Links des 26. Januar 2017

Die PC Games Hardware liefert erste (sinnvolle) Grafikkarten-Benchmarks zu Resident Evil 7 ab, welche recht interessante Ergebnisse auswerfen. So verlangt das Spiel nominell nach eher nur mittelprächtiger Grafik-Hardware, wenn beispielsweise eine GeForce GTX 960 4GB unter FullHD schon 58 fps erzielt (in der Spitze geht es auf 215 fps mit der Titan X hinauf). Dafür ist Grafikkartenspeicher aber auch schon unter FullHD absoluter Trumpf bei Resident Evil 7: Mit nur 2 GB Grafikkartenspeicher fällt die Performance massiv ab, eine Radeon R9 270X 2GB (nominell kaum langsamer als die vorgenannte GeForce GTX 960) erreicht nur noch 32 fps, die gegenüber der vorgenannten GeForce GTX 960 nominell sogar schnellere GeForce GTX 770 2GB kommt nur noch bei 23 fps (und damit weniger als der Hälfte) heraus. 3-GB-Modelle wie GeForce GTX 780 Ti und GeForce GTX 1060 3GB erzielen unter FullHD noch gute Benchmark-Resultate, haben in der Praxis dann aber mit (sporadischen) Nachladerrucklern zu kämpfen.

Unter WQHD verstärkt sich das Problem (die GeForce GTX 970 3,5GB sogar etwas langsamer als die GeForce GTX 960 4GB), während unter UltraHD die Performance dann derart drastisch abfällt, das sowieso nur noch wenige Spitzenmodelle mitkommen. Grundlage dieses Speicherhungers ist im Fall von Resident Evil 7 jedoch nicht die Texturenauflösung, sondern die Schattendarstellung: Mit aktivem Shadow-Cache wäre das Spiel nur auf 6-GB-Grafikkarten nutzbar, selbst 4-GB-Karten reichen hierfür ganz klar nicht aus. Die PCGH hatte daher für ihre Benchmark diesen Cache deaktiviert – welcher aber wohl auch keine bessere Bildqualität ermöglicht, sondern einfach nur diverse Schatten-Berechnungen zwischenspeichert. Reicht es dann immer noch nicht aus, wäre als erste Maßnahme die Qualität der Schattendarstellung zu reduzieren – hiermit kann man benötigten Grafikkartenspeicher sparen und somit näher an das eigentliche Leistungspotential der benutzten Grafikkarte herankommen. Daneben wäre noch zu erwähnen, das unter Resident Evil 7 AMD-Grafikkarten generell besser wegkommen – wohl eine Auswirkung der ursprünglich auf Spielekonsolen konzentrierten Entwicklung (äquivalent zum Speicherhunger).

Laut der DigiTimes will nVidia den Verkauf seiner "Founders Edition" Grafikkarten in Zukunft stärker promoten – woraus man einen Verlust zuungunsten der eigentlichen Grafikkarten-Hersteller herausliest. Dafür ist die Meldung allerdings nicht exakt genug formuliert, denn es gibt keine Unterscheidung zwischen den von den Grafikkarten-Herstellern selber vertriebenen "Founders Edition" Modellen und den von nVidia exklusiv vertriebenen Grafikkarten (derzeit nur die Titan X). Letzteres Geschäftsmodell ist natürlich für die Grafikkarten-Hersteller gefährlich, werden jene doch total ausgeschlossen. Doch so, wie nVidia dies derzeit aufsetzt, sind damit wirklich nur Spezialfälle wie eben die Titan X handelbar – in allen anderen Fällen würden die verschiedenen Grafikkarten-Variationen, welche die Grafikkarten-Hersteller immer wieder ersinnen und auflegen, doch schmerzhaft fehlen. Eine GeForce GTX 1080 Ti oder auch GeForce GTX 1080 ohne jede Herstellervarianten dürfte sicherlich bei weitem nicht so gut gehen, hiermit würde sich nVidia sein Geschäft selber verhageln.

So gesehen soll diese Meldung wohl darauf hindeuten, das nVidia seine "Founders Edition" im Wettstreit mit den Herstellervarianten stärken will. Der erste Weg dazu würde natürlich über den Preis führen – allein die Idee eines beachtbaren Preisaufschlags für das Referenzdesign war schon absurd, ist jenes doch unter Grafikkarten-Enthusiasten in der Mehrheit eher verpönt. nVidia könnte also zukünftig zu geringeren Preisunterschieden zwischen Hersteller- und Referenzdesign tendieren, vielleicht sogar wieder zu einem gemeinsamen Listenpreis finden. Wie dies dann bei den Straßenpreisen aussieht, dürfte aber eher davon abhängen, welche Konditionen nVidia den Grafikkarten-Herstellern für die "Founders Edition" gibt – je ungünstiger diese ausfallen, um so teurer wird die "Founders Edition" letztlich im Einzelhandel, egal der offiziellen Listenpreise. Die beiden Ziele nVidias, an der "Founders Edition" besonders zu verdienen und gleichzeitig jene stärker ins Marktgeschehen zu bekommen, sind somit wohl eher schwer unter einen Hut zu bekommen. Zugleich geht dies natürlich auch gegen die Zielsetzung der Grafikkarten-Hersteller selber – nVidia muß da arg aufpassen, es nicht zu weit zu treiben (ein typisches Problem, wenn man zu lange zu nah an der Sonne ist).

Golem und die PC Games Hardware führen aus, was sich hinter dem "Game-Mode" von Windows 10 verbirgt: Letztlich "nur" eine Priorisierung des Spiels zugunsten anderer Anwendungen – wobei die Priorisierung sehr weitreichend ist, beispielsweise soll ein gleichzeitiges Video-Kodieren im Game-Mode praktisch zum Erliegen kommen. Der Game-Mode muß manuell eingeschaltet werden, soll dann aber das Spiel – egal ob UWP-App oder gewöhnliche Win32-Anwendung – von alleine erkennen und diesem alle Ressourcen zuleiten. Primär geht es dabei in erster Linie um den Gewinn an subjektiver Flüssigkeit durch Vermeidung kleinerer Ruckler, welche durch kurzfristige Lasten anderer Programme hervorgerufen werden können – in der Praxis soll wohl auch ein kleiner genereller Performancegewinn im Bereich von 3-5% herauskommen. Derzeit ist der Game-Mode im aktuellen Insider-Build verfügbar, dürfte dann aber Teil des kommenden Creators-Updates für Windows 10 werden.

27

Umfrage-Auswertung: Welche neue Hardware wird im Jahr 2017 am meisten erwartet?

Die erste Umfrage des neuen Jahres drehte sich um die im Jahr 2017 am meisten erwartete neue Hardware – natürlich eine reine Beliebtheits- und Interesse-Umfrage, aber nichtsdestotrotz. Das Ergebnis gibt AMD schon wieder so viel Vorschußlorbeeren, das man schon wieder fast den Hypetrain bremsen mag: Denn nicht nur räumt AMDs Ryzen-Prozessoren den ersten Platz mit einem sagenhaften Ergebnis von 67,8% der abgegebenen Stimmen ab, gleichzeitig erringt AMD mit der Vega-Generation einen starken zweiten Platz mit noch 15,4% der Stimmen. In beiden Fällen liegt das Interesse im übrige inzwischen sogar auf einem höheren Interesse als in der vergleichbaren Situation letztes Jahr: Die seinerzeit angetretene Zen-Architektur lag im Jahr 2016 "nur" bei 45,2% (gegen starke Konkurrenz), AMDs Polaris-Generation dagegen nur bei 11,1% – heuer nun lauten die Werte wie gesagt auf 67,8% (Ryzen) und 15,4% (Vega).

Logischerweise bleibt für den Rest des Feldes damit nicht mehr viel übrig, wenn AMD mit den ersten beiden Positionen gleich 83,2% (!) der abgegebenen Stimmen blockiert. Eine breitere Aufteilung des Interesses wie letztes Jahr ist damit nicht mehr möglich, allenfalls können sich diverse Hardware-Projekte noch geradeso achtbar aus der Affäre ziehen. Dazu gehören nVidias GeForce GTX 1080 Ti sowie nVidias Pascal-Refresh und letztlich noch Nintendos Switch – welche immerhin für sich verbuchen kann, ein klar höheres Interesse (2,9%) zu generieren als Microsofts Xbox Scorpio (nur 1,5%). Der Rest ist wirklich nicht großartig beachtbar – und muß sich damit eingesehen, vielleicht einmal für gute Umsätze zu sorgen, aber keine echte Begeisterung seitens der Hardware-Käufer hervorzulocken (Stichwort Intel Kaby Lake).

25

Hardware- und Nachrichten-Links des 25. Januar 2017

Ausgehend von Fox Business geht derzeit das Gerücht um, nVidias Volta-Generation würde in TSMCs erst kürzlich offengelegtem 12nm-Prozeß daherkommen – nicht also als 16nm-Refresh oder aber bereits in der 10nm-Fertigung von TSMC. Ausgangspunkt des Gerüchts ist allerdings nur ein Posting im Beyond3D-Forum, welchem nun nicht gerade besonderes Vertrauen entgegengebracht wird. Für eine angeregte Diskussion sorgt der Fall nichtsdestotrotz – wobei das ganze schwer einzuschätzen ist, da die Spezifikationen von TSMCs 12nm-Prozeß nicht in diesem Maße genau genug bekannt sind, um daraus bereits belastbare Schlußfolgerungen ziehen zu können. Wir würden ja eher annehmen, das die Volta-Generation mittels der zumindest mit dem GV100-Chip nachweislich geplanten erheblichen Effizienzsteigerung (+62% GFlops/Watt) ganz sicher in der 10nm-Fertigung daherkommt (und da auch 12nm nicht wirklich weiterhelfen könnte auf diesem Weg).

Hinzu kommt der Punkt, das die angeblich schlechten Eigenschaften der 10nm-Fertigung auch nur auf der puren Annahme einer vergleichbaren Situation wie zwischen 28nm, 20nm und 14/16nm basieren – mit dem 20nm-Prozeß als für Grafikchips nicht verwendbarer Fertigung, weil zwar der Flächenvorteil gegeben wäre, aber kein Effizienzvorteil erreichbar ist. Die 10nm-Fertigung wird von TSMC allerdings nicht so drastisch spezifiziert – sicherlich nicht mit mit einer glatten Effizienzverdopplung, aber -40% weniger Stromverbrauch gegenüber 16FF+ soll es doch geben, das reicht (zusammen mit einer verdoppelten Packdichte) knapp für eine reguläre neue Grafikchip-Generation aus. Sofern TSMC seine eigenen Spezifikationen halbwegs einhält, sprichts vom technischen Standpunkt her nichts gegen die 10nm-Fertigung, ist das ganze keineswegs mit der Situation der 20nm-Fertigung vergleichbar. Sicherlich können weitere Argumente gegen die 10nm-Fertigung in Form der höheren Kosten als auch der vergleichsweise schnell nachfolgenden 7nm-Fertigung angebracht werden – wie gesagt ist das Bild noch lange nicht rund, sind am Ende doch noch alle Varianten für die Volta-Generation mit im Spiel.

Bei Tom's Hardware wärmt man derweil das Thema "GeForce 2000 Serie" erneut auf – allerdings mit der falschen Quelle in Form von WCCF Tech und damit dann auch den falschen Schlußfolgerungen. Denn WCCF Tech haben das ganze auch nur vom 3DCenter (unsererseits klar und mehrfach als "Spekulation" gekennzeichnet) übernommen, mit dem Übertragen des ganzen in andere Meldungen wird nun aber leider aus einer Spekulation ein Gerücht und irgendwann dann eben eine eigene Meldung – und so war das ganze sicherlich nicht beabsichtigt. Denn nach wie vor ist vollkommen offen, wie nVidia die mittelfristige Zukunft angeht, ob es überhaupt einen Pascal-Refresh geben wird (je später Volta kommt, um so wahrscheinlicher) bzw. wie jener konkret aussieht. Unsere seinerzeitige Meldung drehte sich eher darum, aufzuzeigen, wie solcherart Refresh-Generationen entstehen (deswegen wurden auch als Beispiele die GeForce 400/500 und GeForce 600/700 Serien aufgeführt) und was demzufolge von einem Pascal-Refresh erwartet werden kann, sofern nVidia mit einem solchen plant. Jegliche Bestätigung, das nVidia auch wirklich in diese Richtung denkt, ist aber immer noch ausstehend.

GeForce 1000 GeForce 2000 (Variante I) GeForce 2000 (Variante II)
Titan Titan X
GP102 – 4K-Perf: 173%
Titan Black
GP102 – 4K-Perf: ~195%
Titan Black
GP102 – 4K-Perf: ~205%
Enthusiast - GeForce GTX 2080 Ti
GP102 – 4K-Perf: ~190%
GeForce GTX 2080 Ti
GP102 – 4K-Perf: ~200%
HighEnd 1 GeForce GTX 1080
GP104 – 4K-Perf: 132%
GeForce GTX 2080
GP104 – 4K-Perf: ~150%
GeForce GTX 2080
GP102 – 4K-Perf: ~160%
HighEnd 2 GeForce GTX 1070
GP104 – 4K-Perf: 107%
GeForce GTX 2070
GP104 – 4K-Perf: ~125%
GeForce GTX 2070
GP104 – 4K-Perf: ~135%
Midrange 1 GeForce GTX 1060 6GB
GP106 – 4K-Perf: 76%
GeForce GTX 2060 Ti
GP106 – 4K-Perf: ~85%
GeForce GTX 2060 Ti
GP104 – 4K-Perf: ~110%
Alle Angaben zur "GeForce 2000 Serie" sind rein spekulativ.

Die thailändische Webseite Zolkorn (maschinelle Übersetzung ins Deutsche) will neue Informationen über die Gestaltung von AMDs Ryzen-Portfolio besitzen. Das ganze schließt an früheren Information über drei generelle Ryzen-Produktlinien – SR3, SR5 & SR7 – an, mittels welchen AMD augenscheinlich in Konkurrenz zu Intels Core i3, i5 & i7 gehen will. Als Top-Produktlinie "SR7" ist ein 8C/16T-Prozessor sicherlich gesetzt (8 CPU-Kerne mit 16 logischen CPU-Thread = SMT aktiv), bei den beiden kleineren Produktlinien ist man sich bislang noch unsicher. Gemäß Zolkorn soll nun die SR3-Linie von einem 4C/8T-Prozessor besetzt werden, die SR5-Linie von einem 8C/8T-Prozessor – sprich, ein Sechskerner würde glatt fehlen. Wir halten dies allerdings für arg unglaubwürdig – einmal abgesehen davon, das Zolkorn sich mit einem extra Die für einen Vierkern-Ryzen glatt ins Bockshorn hat jagen lassen, AMD wird die Vierkern-Modelle (sehr sicher) aus dem regulären Achtkern-Die ziehen.

Eben aus diesem Mißverständnis heraus dürfte auch die Ausgestaltung der einzelnen Produktlinie nicht korrekt sein – das aufgezeigte Portfolio würde nur wirklich Sinn ergeben, wenn AMD tatsächlich ein echtes Vierkern-Die auflegen würde. Trifft dies nicht zu, dann ergeben sich viele andere mögliche Portfolio-Gestaltungen – wobei die einfachste von 4C/8T = SR3, 6C/12T = SR5 und 8C/16T = SR7 auch gleichzeitig die wahrscheinlichste ist. Eine eventuelle Deaktivierung von SMT sollte seitens AMD (außerhalb von LowCost-Modellen) sowieso stark überdacht werden, denn dies raubt den Ryzen-Prozessoren eine ihrer Stärken und geht bei Intel auch nur aufgrund des stark abgestuften Preismodells durch – welches AMD aber durch den Ryzen-Launch nun höchstselbst unter Druck setzen wird. Nur bei wirklich heftigen Preisvorteilen wären Ryzen-Prozessoren ohne SMT wirklich interessant, ergo kann sich AMD jene (wie gesagt außerhalb von LowCost-Modellen) auch gleich sparen. Davon abgesehen ist im übrigen noch überhaupt nichts belegbares zum Ryzen-Produktportfolio bekannt – dafür, das der Ryzen-Launch in schon einem Monat über die Bühne gehen soll, ist die Gerüchteküche (noch) erstaunlich ruhig.

Inhalt abgleichen