14

Hardware- und Nachrichten-Links des 14. November 2016

Über unser Forum wurde eine Radeon Pro Duo mit allerdings augenscheinlich schon HBM2-Speicher entdeckt – die Karte meldete sich in der SiSoft Benchmark-Datenbank mit einem 2048 Bit Speicherinterface (regulär: 4096 Bit) und 2000 MHz Speichertakt (regulär liest SiSoft bei der Radeon Pro Duo 1000 MHz aus), was dem Speichertakt von HBM2 (nach DDR-Verdopplung) entspricht. Ergo scheint dies eine Karte zu sein, wo bereits HBM2-Speicher mit seinem höheren Takt benutzt wird, dafür dann aber nur ein halb so breites Speicherinterface – was im Endeffekt dieselbe Speicherbandbreite ergibt. Als Hintergrund der ganzen Aktion wird vermutet, das Speicherchip-Hersteller Hynix womöglich keinen HBM1-Speicher mehr herstellen will, weil es außer AMD hierfür kaum Abnehmer gibt und mit dem Aufkommen von HBM2-Speicher der Bedarf an HBM1 wohl in den unwirtschaftlichen Bereich zurückgeht. Für die Radeon Pro Duo dürfte das ganze keinen echten Unterschied ergeben, die Rohleistungen und augenscheinlich auch die Speichermenge sind schließlich identisch zur ursprünglichen Kartenvariante mit HBM1-Speicher.

Dabei wurde über die Möglichkeit, die Fiji-basierten Grafikkarten letztlich auch mit HBM2-Speicher zu bestücken, schon des längerem spekuliert – nur meistens eher in die Richtung gedacht, die Möglichkeiten von HBM2 bei diesen Grafikkarten auszunutzen. Dabei geht es primär um die größeren Speichermengen, weniger um mehr Speicherbandbreite – konkret um Nano- und Fury-Karten mit gleich 8 GB Speicher anstatt der bislang verbauten 4 GB Speicher. Insofern AMD die Radeon Pro Duo tatsächlich nunmehr mit HBM2 ausrüstet, sollte diese höhere Speichermenge bei Radeon R9 Nano & Fury tatsächlich möglich sein – nur das AMD jenen Weg wohl in Anbetracht der kommenden Vega-Generation nun nicht mehr gehen wird. Dies ist etwas schade, denn AMD fehlt derzeit jede Lösung im HighEnd-Bereich – und der Fiji-Chip ist nun einmal schneller als der Polaris-10-Chip, wäre also durchaus verwendungsfähig. Nur braucht der Fiji-Chip für seine Paradedisziplin der höheren Auflösungen heutzutage eben 8 GB Speicher, was die originalen Fiji-Grafikkarten nicht bieten. Nochmals schade ist in diesem Zusammenhang ist, das sich AMD da zu sehr auf Vega festgelegt sowie zu wenig an der Möglichkeit gearbeitet hat, Fiji rein für dieses Jahr mit 8 GB Speicher noch einmal neu aufzulegen.

Die PC Games Hardware hat sich in zwei Meldungen – No.1 & No.2. zur Hardware der Nintendo Switch Hybrid-Konsole geäußert. Noch ist diesbezüglich nicht all zu viel bekannt oder gar sicher feststehend, allerdings passen die genannten 4 GB Hauptspeicher zum allgemeinen Bild: Die Nintendo Switch wird nicht wirklich dasselbe Hardware-Niveau wie von Playstation 4 und Xbox One her bekannt erreichen – sondern vermutlich sogar deutlich darunter herauskommen. Denn letztlich wird vieles von der Handheld-Funktionalität der neuen Nintendo-Konsole begrenzt, wo ohne aktive Kühlung und auf geringem Platz eine größere Wärmeentwicklung gar nicht sein darf, weil es sich eben um ein Handgerät handelt. Selbst wenn das Developer-Kit mit Maxwell-basierter Grafiklösung mit 256 Shader-Einheiten auf maximal 1 GHz Takt nur für die Handheld-Leistungsfähigkeit steht, im stationären Modus wird man vermutlich einfach nur mehr Takt zugeben können, deswegen aber nicht gleich mehr Hardware-Einheiten verbauen.

Ergo kann es durchaus passieren, das Nintendo am Ende mit einer Pascal-basierten Grafiklösung mit wirklich nur 256 Shader-Einheiten antritt – was trotz höherer Taktraten und mehr Recheneffizienz nichts ist, was auch nur in die Nähe der Rechenleistungen von Playstation 4 und Xbox One geht. Deren Spieletitel sollten sich trotzdem auf die Switch umsetzen lassen, da jene auf der Switch dann einfach mit geringeren Renderauflösungen arbeiten dürften. In dieser Frage wird wohl eher der kleinere Hauptspeicher stören, dies ergibt in jedem Fall zusätzliche Anpassungsarbeit bei der Portierung von PS4- und XBO-Titeln auf die Switch-Konsole. Insgesamt ist die Switch aller Wahrscheinlichkeit nach die kleinste dieser drei Konsolen, kann aber Hardware-technisch dennoch (knapp) noch der PS4/XBO-Generation zugeschlagen werden. Im Konsolen-Bereich sind letztlich auch Differenzen wie die einer doppelten Rechenleistung noch gut überbrückbar (auf 1300 MHz GPU-Takt würde man die Hälfte der Rechenleistung der Xbox One erreichen), die Differenzen zwischen zwei echten Konsolen-Generationen liegen schließlich eher im Bereich vom 5fachen bis 7fachen der Rechenleistung.

14

nVidia-Geschäftsergebnisse Q3/2016: Deutlich gebrochene Rekorde katapultieren nVidia in eine neue Umsatzregion

Grafikchip-Entwickler nVidia hat seine neuesten Geschäftszahlen vorgelegt, welche (wie üblich) abweichend vom Kalenderquartal für den Zeitraum August bis Oktober 2016 gelten und bei nVidia das dritte Finanzquartal des Finanzjahres 2017 darstellen. In diesem hat nVidia die Rekorde des zweiten Geschäftsquartals 2016 nochmals überboten – und zwar nicht um ein paar Prozent, sondern regelrecht massiv und durchgehend. So stieg der Umsatz gegenüber dem Vorquartal um +40,3% an, gegenüber dem Vorjahresquartal gar um +53,6%. Der nominelle Gewinn stieg gegenüber dem Vorquartal um +114,2% sowie gegenüber dem Vorjahresquartal um +120,3%, während der operative Gewinn gegenüber dem Vorquartal um +101,6% zunahm sowie gegenüber dem Vorjahresquartal sogar um +160,8% regelrecht explodierte.

Alle im dritten Geschäftsquartal 2016 aufgestellten Werte sind für nVidia einsame Rekordwerte – bisher lag man beim Umsatz eigentlich in Regionen von bis zu 1,4 Mrd. Dollar pro Quartal, die nun aufgestellte gleich 2 Mrd. Dollar Quartalsumsatz stellen also eine extreme Steigerung der bisherigen Rekordmarke dar. Gleiches gilt auch für die Gewinnwerte, welche bisher im Rahmen von üblicherweise bis zu 250 Mill. Dollar lagen und nun mit 542 bzw. 639 Mill. Dollar völlig aus dem Rahmen fallen. Für eine Firma, welche bereits gut im Markt steht und nun nicht gerade eine allesheilende Pille auf den Markt gebracht hat, sind dies wirklich überragende Steigerungen, welche in dieser Form nicht zu erwarten waren. Das nVidia somit ein Rekordjahr 2016 hinlegen wird, ist nach dem dritten Geschäftsquartal bereits keine Frage mehr – jetzt geht es "nur" noch darum, wie hoch die neuen Jahresrekorde ausfallen werden (beim Gewinn liegt man schon jetzt auf einem Jahresrekord, beim Umsatz fehlt nur noch ein kleines Stück).

Q3/2015 Q4/2015 Q1/2016 Q2/2016 Q3/2016
Umsatz 1305 Mio. $ 1401 Mio. $ 1305 Mio. $ 1428 Mio. $ 2004 Mio. $
Gewinn 246 Mio. $ 207 Mio. $ 196 Mio. $ 253 Mio. $ 542 Mio. $
operativer Gewinn 245 Mio. $ 252 Mio. $ 245 Mio. $ 317 Mio. $ 639 Mio. $
Für Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Hauptumsatzträger war wie bisher die Grafikchip-Sparte, welche mit 1,7 Mrd. Dollar selbstredend einen neuen eigenen Rekord aufstellte. Ganz augenscheinlich hat nVidia der schnelle und prinzipiell reibungslose Pascal-Start sehr gut getan – und sicherlich dürften auch die höheren Preislagen bei Pascal sowie das Ausbleiben von Wettbewerb in einigen Marktsegment mit zum erstklassigen Ergebnis beigetragen haben. Jenes Ergebnis deutet dann auch an, das nVidia wohl kaum durch AMDs Polaris-Serie größere Marktanteile verloren haben wird – was aber natürlich prinzipbedingt schwierig ist, wenn Polaris nur einen Teil des Grafikkarten-Geschäfts abdecken kann.

nVidias Tegra-Sparte ist hingegen mit 241 Mill. Dollar Quartalsumsatz vernünftig dabei, kommt aber trotz guten Steigerungsraten immer noch nicht auf einen beachtbaren Anteil an nVidias Gesamtgeschäft (derzeit bei 12%). Tegra teilt sich grob hälftig in das Autoelektronik-Geschäft und die eigentlichen Tegra-SoCs auf, womit letztere bei 114 Mill. Dollar Quartalsumsatz weit weg davon sind, irgendeine größere Marktbedeutung zu erlangen. Das Feld der Autoelektronik könnte über kurz oder lang dann sogar zum primären Anwendungszweck der Tegra-Entwicklung werden, denn hier sind im Gegensatz zum regulären SoC-Geschäft noch größere Wachstumsraten für nVidia denkbar – während nVidia-SoCs für Smartphones & Tablets in letzter Zeit eher immer seltener gesehen wurden.

Für das laufende vierte Geschäftsquartal erwartet nVidia minimal bessere Geschäfte – wobei bei nVidia natürlich der kommende Januar 2017 mit zum Geschäftsquartal gehört, welcher üblicherweise einen gewissen geschäftlichen Abfall mit sich bringt. Große geschäftliche Impulse sind sowieso außerhalb des Weihnachtsgeschäfts nicht zu erwarten, da die Pascal-Generation nahezu vollständig im Markt steht und nun einfach verkauft wird – sicherlich auch mit besserer Verfügbarkeit, mehr Auswahl und gleichzeitig tendentiell fallenden Herstellungspreisen, insofern wäre eine weitere leichte Aufwärtsbewegung nicht überraschend. Die kommenden Quartale dürfte es dann ähnlich weitergehen bei nVidia, da erst die (derzeit rein spekulative) GeForce 2000 Serie im Sommer 2017 wieder für echte neue Impulse sorgen kann. AMDs zwischenzeitlich zu erwartende Vega-Serie muß nVidia angesichts der erarbeiteten erstklassigen Position hingegen kaum kümmern.

Nachtrag vom 15. November 2016

Bei der kürzlichen Auswertung von nVidias Geschäftsergebnissen fehlte sicherlich noch die Nennung des Großauftrags für Nintendo zur Lieferung des Switch-SoCs. Jener dürfte wohl in der Tegra-Sparte von nVidia verbucht werden, auch wenn dies – ähnlich wie bei AMDs Konsolenchips – keine Standardware ist, sondern ein auftragsspezifisch erstellter Chip. Allerdings dürften angesichts des Verkaufsstarts der Nintendo Switch erst im März 2017 die ersten Aufträge für die Vorproduktion der Konsole erst jetzt abgearbeitet werden, das abgelaufene dritte Finanzquartal ist da wohl noch zu früh, um bereits größere geschäftliche Effekte durch diesen Konsole-Auftrag vermelden zu können. Für die kommenden Quartale dürfte es hingegen ein gewisses Plus in nVidias Tegra-Sparte durch Nintendo Switch ergeben – sicherlich aber nicht so ausgeprägt wie bei AMD, welche mehr als einen Konsolen-Deal aufzuweisen haben und wo die Konsolen-SoCs auch leistungsfähiger sind, also auch deutlich mehr kosten. Im allerbesten Fall wäre ein Plus von grob 100 Mill. Dollar Quartalsumsatz zugunsten von nVidia denkbar – was ironischerweise angesichts der neuen Höhen des nVidia-Umsätze gar nicht mehr so groß auffallen würde.

13

Hardware- und Nachrichten-Links des 12./13. November 2016

Fudzilla vermelden eine erste Radeon RX 480 4GB für unter 200 Dollar – die "PowerColor Radeon RX 480 Red Dragon" wird in den USA sogar für gleich 190 Dollar angeboten, deutlich niedriger als andere Radeon RX 480 4GB Karten. Interessanterweise ergibt sich in Euroland eine ganz ähnliche Situation: Hierzulande wird diese PowerColor-Karte ab 199 Euro angeboten – und damit gut 25 Euro besser als andere Radeon RX 480 4GB Karten. Mit diesem Preispunkt setzt man dann natürlich nicht nur die anderen Anbieter dieserart Karten unter Druck, sondern auch die Radeon RX 470, welche in Euroland normalerweise bei ab 190 Euro steht – nur eine einzelne PowerColor-Karte gibt es ab 180 Euro. Am Dollar/Euro-Kurs kann es kaum liegen, denn jener sprang nach der US-Wahl nur sehr kurzzeitig auf ein anderes Niveau, liegt nun aber wieder genau da, wo jener schon vor der Wahl stand. Ergo scheint hier speziell PowerColor eine gewisse Preisoffensive bei Radeon RX 470 und Radeon RX 480 4GB zu fahren – womöglich auch mit einem neuen Platinendesign, welches diesen Preisnachlaß ermöglicht. Interessant wäre natürlich noch, ob die anderen Grafikkartenhersteller hier in absehbarer Zeit nachziehen werden, dann könnte sich auch eine veränderte allgemeine Preissituation bei diesen Karten ergeben.

In Bezug auf das kürzliche Blenchmark-Ergebnis von AMDs Zen kommt von Dresdenboy der Hinweis, das es noch weitere bislang nicht entdeckt, jedoch schon öffentlich einsehbare Benchmark-Ergebnisse zu Zen geben soll – sprich, in irgendwelchen Benchmark-Datenbanken im Netz versteckt. Ein erstes dieser Ergebnisse muß wohl kurzzeitig in der SiSoft Benchmark-Datenbank zu sehen gewesen sein und kann noch in unserem Forum oder in Dresdenboys Blog nachgeschlagen werden: Hierbei kam ein 16-Kern-System auf Zen-Basis mit einer Taktrate von nur 1.44 GHz auf einen gleichen Wert im "Processor Financial Analysis" Benchmark von SiSoft wie ein 16-Kern-System auf K10-Basis (Opteron 8393 SE) mit 3.09 GHz Takt. Beide Systeme waren etwas anders aufgebaut (8x4C vs. 4x8C), aber der Hauptunterschied liegt bei der glatt doppelt so hohen Taktrate des alten K10-Systems, gegenüber welcher das Zen-System trotzdem dieselbe Performance aufbot. So gesehen sieht dieser Benchmark exzellent und nach einem wirklich sehr bedeutsamen Fortschritt in der Pro-MHz-Performance mit Zen aus (natürlich auch begünstigt durch das SMT bei Zen). Einschränkenderweise gilt anzumerken, das die Auslesefunktion von SiSoft bekannterweise nicht zuverlässig arbeitet, ergo die genannten Systemdaten unkorrekt sein könnten – und damit die komplette Aussage in sich zusammenfallen könnte.

Während TweakPC über steigende Speicherpreise berichten, vermelden Fudzilla eher fallende Speicherpreise – wobei beide Meldungen zur Preisentwicklung bei DDR3/DDR4-Speichern sich nicht wirklich grundsätzlich widersprechen, schaut man sich die Details an. Denn TweakPC berichten über reale Straßenpreise, welche absolut nachweislich nach oben gegangen sind. Fudzilla vermelden hingegen fallende Händlerpreise für DDR3-Speicherchips – ein Effekt also, welcher erst in einigen Wochen (oder auch gar nicht) in den Straßenpreisen für Endverbraucher zu sehen sein wird. Generell gesprochen hat es somit die vor einiger Zeit prognostizierte Speicherpreis-Erhöhung zum Jahresende gegeben, während für alle Zeitpunkte nach dem Jahreswechsel der Bedarf logischerweise etwas geringer wird und daher ein gewisser Rückgang der Speicherpreise vollkommen normal ist. Allerdings dürften kurz nach Jahresanfang die neu erscheinenden CPU-Plattformen AMD Summit Ridge (Zen) und Intel Kaby Lake den Bedarf erneut antreiben, insbesondere deren mehr oder weniger zeitgleiche Start könnte potentiell viel Interesse anziehen und damit einen guten Jahresstart für das PC-Business erbringen.

13 13

Welche Monitor-Pixeldichten werden im Windows-Betrieb genutzt?

Mit dem absehbar zu Ende gehenden Zeitalter von FullHD-Monitoren und dem anbrechenden Zeitalter von UltraHD-Monitoren steigen die Pixeldichten sehr erheblich an – teilweise nutzt man die UltraHD-Auflösung schon auf Monitorgrößen, welche bisher für reine FullHD-Monitore in Benutzung sind (24/27-Zoll-Geräte). Dennoch gibt es zu dieser Entwicklung auch gegenteilige Meinungen: Vielen werden die Schriftarten im Desktop-Betrieb zu klein, sind auch die Windows-Mittel zu deren Nachregulierung nicht ausgereift genug. Damit stellt diese Umfrage nicht die Frage, was der benutzte Monitor maximal kann – sondern mit welcher Pixeldichte (Auflösung zu Bildschirmgröße) jener im Windows-Betrieb (oder auch Linux/MacOS-Betrieb) wirklich genutzt wird.

Die konkret genutzte Pixeldichte (PPI = Pixel per Inch) läßt sich mittels verschiedener im Internet zu findender Pixeldichten-Rechner kalkulieren, die nachfolgende Tabelle gibt bereits kalkulierte Pixeldichten für häufige Anwendungsfälle vor. Als Monitorauflösung ist für alle Rechnungen natürlich immer die real im Windows-Betrieb genutzte Auflösung anzusetzen – und nicht das, was der Monitor könnte, sondern nur das, was praktisch anliegt. Normale, bisher übliche Pixeldichten liegen dann im Bereich von 90-130 PPI – alle darüber liegenden Pixeldichten kann man als "hochauflösend" einordnen.

PS: Diese Umfrage ist logischerweise Geräte-spezifisch. Anwender mit mehreren genutzten PCs und Notebooks können also von jedem dieser Geräte aus extra abstimmen.

1366x768 1600x900 1920x1080 2560x1440 3840x2160
13,3 Zoll 118 138 166 221 331
14,1 Zoll 111 130 156 208 313
15,6 Zoll 101 118 141 188 282
17,3 Zoll 91 106 127 170 255
19,5 Zoll 80 94 113 - -
21,5 Zoll 73 85 103 - -
23,5 Zoll 67 78 94 125 188
27 Zoll - - 82 109 163
30 Zoll - - 73 98 147
32 Zoll - - 69 92 138
40 Zoll - - 55 73 110
grob auflösende Pixeldichte (unter 90 PPI) - zufrieden damit
11% (182 Stimmen)
grob auflösende Pixeldichte (unter 90 PPI) - Wunsch nach mehr
8% (125 Stimmen)
normal auflösende Pixeldichte (90-130 PPI) - zufrieden damit
40% (662 Stimmen)
normal auflösende Pixeldichte (90-130 PPI) - Wunsch nach mehr
26% (421 Stimmen)
hochauflösende Pixeldichte (130-170 PPI) - zufrieden damit
9% (146 Stimmen)
hochauflösende Pixeldichte (130-170 PPI) - Wunsch nach mehr
3% (48 Stimmen)
extrem hochauflösende Pixeldichte (über 170 PPI) - zufrieden damit
2% (40 Stimmen)
extrem hochauflösende Pixeldichte (über 170 PPI) - Wunsch nach mehr
1% (23 Stimmen)
Gesamte Stimmen: 1647
13

nVidia bereitet wohl eine GeForce GTX 1080 Ti mit 10 GB Speicher vor

Wie Videocardz in der Zauba Import/Export-Datenbank entdecken konnten, bereitet nVidia augenscheinlich eine neue Pascal-Grafikkarte vor. Wie üblich sind der Zauba-Datenbank keine vollständigen Daten, sondern nur leichte Hinweise zu entnehmen, was sich unter dem neuen Modell verbirgt: Doch die Kennung "PG611" sowie der hohe Preis von umgerechnet 1010 Dollar weisen ziemlich klar auf die Verwendung des GP102-Chips hin. Hierbei dürfte es sich also um die lange prognostizierte GeForce GTX 1080 Ti handeln – der ersten wirklichen Gamer-Lösung auf Basis des GP102-Chips, nachdem die Titan X (Pascal) seitens nVidia eher im semi-professionellen Segment gesehen wird. Hierzu passt natürlich auch die Nennung eines 384 Bit DDR breiten Speicherinterfaces, so wie vom GP102-Chip her gewohnt.

Was nicht passt, sind die dagegen genannten 10 GB Speicher – dafür würde man bei normalen Speichermodulen (mit 1 GB pro Speicherchip) ein 320 Bit breites Speicherinterface benötigen (10 Speicherchips an 10 32-Bit-Interfaces). Selbst bei der Verwendung der mit GDDR5X erstmals möglichen "krummen" Speicherchips mit 0,75 GB pro Speicherchip passt das ganze nicht, dann würde ein 384 Bit breites Speicherinterface aufgeteilt in 12 32-Bit-Interfaces exakt auf 9 GB Speicher kommen, nicht aber 10 GB Speicher. Aber eventuell ist diese Angabe "384-Bit" auch nur ein Schreibfehler oder einfach bezogen auf die Fähigkeiten des Grafikchips oder der Platine (unter Verwendung eines Boards, was eigentlich für die Titan X ausgelegt ist). Die Angabe "10240MB" ist hingegen der unwahrscheinlichere Schreibfehler – und nimmt man jene als wahr an, ergibt sich das 320 Bit breite Speicherinterface von selbst.

Eine Seitenchance verbleibt natürlich dahingehend, das nVidia auch 10 GB Speicher an ein 384 Bit Speicherinterface anbinden könnte – dann aber ergibt sich eine ungleiche Speicherbandbreite zu verschiedenen Speicherchips, ähnlich wie bei GeForce GTX 660 oder GeForce GTX 970. Abgesehen von dem medialen Ärger eines solchen Aufbaus ist darin auch kein besonderer Sinn zu sehen: Wenn nVidia wirklich eine GeForce GTX 1080 Ti auflegen will, dann braucht jene Karte nicht die volle Speicherbandbreite einer Titan X (Pascal), ist ein diesbezüglicher Unterschied sogar eher willkommen. Schließlich deuten auch die 10 GB Speicher schon an, das nVidia diese neue GP1002-Karte beachtbar unterhalb der Titan X (Pascal) positionieren will.

GeForce GTX 1080 GeForce GTX 1080 Ti Titan X (Pascal)
Chipbasis nVidia GP104 nVidia GP102 nVidia GP102
Architektur Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Technik 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 256 Bit GDDR5X-Interface, 2 MB Level2-Cache (Vollausbau) Hardware-Einheiten: unbekannt
Speicherinterface: 320 Bit GDDR5X
6 Raster-Engines, 3584 Shader-Einheiten, 224 TMUs, 96 ROPs, 384 Bit GDDR5X-Interface, 3 MB Level2-Cache (Salvage)
Taktraten 1607/1733/2500 MHz
(Ø-Chiptakt: 1694 MHz)
unbekannt 1417/1531/2500 MHz
(Ø-Chiptakt: ~1580 MHz)
Speicherausbau 8 GB GDDR5X 10 GB GDDR5X 12 GB GDDR5X
4K Perf.Index 132% gesch. ~160-165% 173%
Listenpreis 599$/699$ gesch. 899-999$ 1200$
Release 17. Mai 2016 vmtl. Ende 2016 / Anfang 2017 2. August 2016

Aufgrund der unbekannten Hardware-Einheiten zur Karte kann man deren Performance derzeit natürlich nur eher grob schätzen – und zwar besser an der Maßgabe, um wieviel die Karte hinter der Titan X (Pascal) sowie vor der GeForce GTX 1080 liegen sollte, um sinnvoll zu sein. Zum bekannten Speicherinterface kann nVidia letztlich mittels der Anzahl der freigeschalteten Hardware-Einheiten sowie der konkret anliegenden Taktraten immer exakt diese Performance generieren, welche man gerne sehen will. Etwas mehr als 5% Differenz zur Titan X (Pascal) können es schon sein, mehr als 20% auf die GeForce GTX 1080 oben drauf müssen allerdings gewahrt bleiben – womit das mögliche Performancefeld der GeForce GTX 1080 Ti schon ziemlich eng umrissen wäre, die ergibt in unserem UltraHD Performance-Index (geschätzte) ~160-165%, knapp hinter der Titan X (Pascal) bei 173% sowie ausreicht weit vor der GeForce GTX 1080 bei 132%.

Bezüglich des Preispunktes hierfür gibt es mit den umgerechnet 1010 Dollar schon eine vernünftige Maßgabe, selbst wenn Zollwerte zu noch nicht offiziell vorgestellter Hardware natürlich frei manipulierbar sind. Aber jene Preisnotierung erscheint so oder so sinnvoll – beachtbar unterhalb der Titan X (Pascal), beachtbar oberhalb der GeForce GTX 1080. Man kann an dieser Stelle gut und gerne vermuten, das der Listenpreis für die Founders Edition bei 999 Dollar liegen wird, der Listenpreis für die Herstellerdesigns dann bei 899 Dollar. Die Grafikkartenhersteller dürften dann sicherlich auch Platinen designen, welche rein auf ein 320-Bit-Speicherinterface ausgelegt sind, sprich nicht gerade Platinen für ein 384-Bit-Design weiterverwenden (wie dies nVidia augenscheinlich so handhabt).

Aufgrund des Auftauchens dieser Testlieferung kann man durchaus von einem absehbaren Releasetermin jener neuen GP102-Karte ausgehen – sprich Jahresende 2016 oder Jahresanfang 2017. Damit dürfte jene auch ziemlich sicher noch im Rahmen der GeForce 1000 Serie und nicht erst im Rahmen der GeForce 2000 Serie erscheinen. Jener Pascal-Refresh ist sicherlich nicht vor dem Sommer 2017 zu erwarten, womit die GeForce GTX 1080 Ti wenigstens noch etwas Zeit hat zu glänzen. Das nVidia innerhalb der GeForce 1000 Serie nun bereits eine zweite GP102-Variante auflegt, erhöht natürlich auch die Chance, das es innerhalb der GeForce 2000 Serie nicht einfach nur mehr Takt gibt, sondern das die Pascal-Grafikchips sogar jeweils eine Stufe nach unten rücken – sprich eine "GeForce GTX 2080" dann vielleicht schon GP102-basiert antritt und eine "GeForce GTX 2060 Ti" dann schon GP104-basiert.

11

Hardware- und Nachrichten-Links des 10./11. November 2016

Die PC Games Hardware hat sich die DirectX-12-Performance von "The Division" angesehen, nachdem das Spiel mit dem Patch 1.5 auch einen DirectX-12-Renderpfad spendiert bekommen hat. Da es bei diesem neuen Renderpfad nicht um weitere Grafikeffekte ging, sollte der Haupteffekt schlicht mehr Performance bedeuten – was jedoch nur selten zutrifft. In Grafikkarten-limitierten Szenarien bewegt sich entweder gar nichts oder ist DirectX 11 minimal schneller – und in CPU-limitierten Szenarien braucht es einen AMD FX-Prozessor, um gewisse Vorteile (mittels einer klar höheren Minimum-Framerate sowie einer leicht höheren durchschnittlichen Framerate) finden zu können. Richtig überzeugen will dieser DirectX-12-Renderpfad also nicht – aber wenigstens gibt es mit jenem keine größeren Probleme, was wie bekannt auch nicht immer so der Fall ist. Die PCGH vermutet hierzu sicherlich nicht zu Unrecht, das jener DirectX-12-Renderpfad bei "The Division" eher nur eingefügt wurde, um die zugrundeliegende Snowdrop-Engine einfach breiter aufzustellen und zukünftig eventuell für noch mehr Ubisoft-Spiele einsetzen zu können. Insofern ist das ganze auch vielleicht nur der erste Versuch seitens Ubisoft und unter zukünftigen Spielen, die wirklich auch für DirectX 12 gedacht sind, kommen dann möglicherweise bessere Resultate heraus.

Von Coolaler (maschinelle Übersetzung ins Deutsche) kommt das Gerücht, Intel würde mit der kommenden Kaby-Lake-Generation auch einen ungelockten Core i3 bringen. Dies wäre im Gegensatz zu Pentium G3258 mal wirklich etwas interessantes – denn diesem Zweikerner fehlte als Pentium natürlich das HyperThreading sehr schmerzlich, womit die CPU nur für einfachste Office-Rechner tauglich ist, dessen Übertaktungsmöglichkeit also eher zwecklos war. Ein regulärer Core i3 mit HyperThreadung und Übertaktungsmöglichkeit wäre dagegen eine ganz andere Sache, hier könnte man mit viel Takt manchem Vierkerner auf dessen Normaltakt nahekommen. Im Sinne der Langlebigkeit könnte der Vierkerner dann doch wieder die bessere Wahl sein – aber zumindest in preissensitiven Märkten wie China und Co. sollte sich eine solch ungelockte Core-i3-CPU gut verkaufen bzw. sich dafür viele Sympathien beim Anwender erringen lassen. Und selbiges kann Intel angesichts der drohenden Zen-Prozessoren von AMD sicherlich gut gebrauchen – noch dazu, wo sich bei Intel das Zeitalter der alleinigen Zwei- und Vierkerner im normalen Consumer-Portfolio dem Ende entgegen neigt, schon mit Coffee Lake wird es dann erste Sechskerner im normalen Consumer-Portfolio geben.

Damit spielt es auch keine Rolle, diese letzten Zweikerner noch einmal (mittels Übertaktungsfunktion) aufzuhübschen, denn in mittelfristiger Zukunft dürften jene bei Intel ins Billigsegment abrutschen, irgendwann einmal auch die Core-i3-Linie dann mit vierkernigen Prozessoren laufen. Diese CPU-Zukunft wird es sicherlich noch nicht bei der faktisch gemeinsamen Generation von "Coffee Lake" und "Cannon Lake" geben, sondern erst später. Die vermutlich zum Jahreswechsel 2018/19 anstehenden "Tiger Lake" Generation könnte hierfür benutzt werden, deren 10nm-Fertigung macht den Verbau weiterer CPU-Rechenkerne ohne größere Auswirkungen auf die Chipfläche und damit Intels Kostenlage sicherlich möglich. Ob Intel gleich in Richtung Achtkerner im normalen Consumer-Portfolio geht (wie bei AMD), ist dabei eine der großen offenen Fragen – sofern Intel einen Vorsprung bei IPC und Taktrate halten kann, würde auch ein Sechskerner reichen. Aber eventuell muß Intel nach dem Zen-Launch dann auch mal wieder etwas richtig aufregendes zeigen (Wettbewerb belebt halt das Geschäft) und könnte daher versucht sein, bei Tiger Lake gleich mit Achtkernern anzurücken. Und um damit zum ursprünglichen Gedankengang zurückzukehren: Zweikerner dürften damit (zumindest auf dem Desktop) derart unmodern werden, das auch das K-Modell eines früheren Core-i3-Prozessors dann zum alten Eisen zählt – und nicht, wie es immer die Befürchtung der CPU-Entwickler ist, ganze Ewigkeiten von den Anwendern durchgeschleppt wird.

Zu AMDs Zen-Prozessoren der Summit-Ridge-Generation ("Summit Ridge" = Plattform der Consumer-Prozessen auf Zen-Basis, "Raven Ridge" = Plattform der Zen-basierten APUs, "Zen" = grundsätzliche Prozessoren-Architektur, verwendet für CPUs und APUs im Consumer- und Server-Bereich) diskutiert unser Forum derweil über ein paar Aussagen aus dem SemiAccurate-Forum eines angeblichen Insiders, welcher einiges an Neuigkeiten und Details zu Zen zu sagen wusste. Problematischerweise kann man die Quelle allerdings als "umstritten" bezeichnen – im dümmsten Fall hat sich das jemand in Troll-Manier aus den Finger gezogen, ist also kein Sterbenswörtchen davon wahr. Insofern ist derzeit nichts davon all zu Ernst zu nehmen – dies trifft insbesondere auf die Aussage zu, AMD hätte in die CPU selbst ein BIOS eingebaut sowie daß Übertaktungen nur über die Overdrive-Software möglich sind, nicht mehr im BIOS. Selbst wenn dies alles wahr wäre, wäre zu einzubedenken, das es bei Gerüchten zumeist nur die Hälfte der Information gibt und sich das ganze System und die Idee dahinter immer erst gut erklären lassen, wenn man eben die vollständige Information besitzt (vorab betrachtet hört es sich nämlich ziemlich daneben an).

Hoffnungsvolle Kunde hat der Leak dann zu Performance (hochklassig, selbst unter CPU-limitierten Spielen gleichwertig zu Intel) und Preislage zu verkünden. So soll ein Zen-basierter "6850K" (Name nicht final, könnte zudem auch nur auf die gedachte Konkurrenz zum Core i7-6850K hindeuten) mit 8 CPU-Rechenkernen samt SMU (AMDs Name für das Simultaneous Multithreading, sprich den HyperThreading-Ersatz) als zweitbestes Angebot des Zen-Portfolios bei rund 300 Dollar Listenpreis landen. Dies wäre preislich mit Intel verglichen in der Mitte der K-Modelle von Core i5 und Core i7, was als ein sehr vernünftiger Preispunkt erscheint. Hinzu soll ein Premium-Modell oberhalb jenes "6850K" kommen, welches sich noch besser übertakten läßt – möglicherweise also speziell selektierte CPUs mit besseren Übertaktungseigenschaften. Der Preispunkt jenes Premium-Modells wird dabei unterhalb einer Preisverdopplung zum "6850K" eingeschätzt, sprich annahmsweise bei grob 500 Dollar. All dies wären jetzt durchaus gute Nachrichten – mit leider dem Störpunkt, das die Quelle wie gesagt überhaupt nicht belastbar ist und das ganze es damit keineswegs verdient, sich darauf zu verlassen.

Die DigiTimes berichten aus Kreisen der taiwanesischen Mainboard-Hersteller über Planungen Intels, in die 300er Chipsatz-Serie einen nativen Support für USB 3.1 und WLAN zu integrieren. Dies dürfte zuerst die Hersteller entsprechender Zusatzchips ärgern – allerdings gehört es bei denen zum Lauf der Welt, bei jeder neuen Technologie für eine Zeitlang diese Zusatzchips liefern zu dürfen, ehe das ganze dann bei entsprechendem Erfolg direkt in die Mainboard-Chipsätze integriert wird. Intels 300er Chipsatz-Serie wird laut der DigiTimes für Ende 2017 erwartet und wird damit den Mainboard-Unterbau für die (zeitgleich erscheinenden) Intel-Generationen "Coffee Lake" und "Cannon Lake" bilden. Eine der großen offenen Fragen hierzu ist noch, ob Intel für diese Prozessoren einen neuen Sockel auflegt – bezogen auf die 300er Chipsatz-Serie würden entsprechende Mainboards somit obligatorisch werden. Nach zwei Generationen im Sockel 1151 (Skylake & Kaby Lake) wäre ein neuer Sockel durchaus an der Reihe, zudem könnte dies über den mit Coffee Lake erstmals im normalen Consumer-Segment aufgelegten Sechskerner sogar technisch vonnöten sein. Aber da bei Intel derzeit reihenweise frühere Planungen umgestoßen werden, müssen diese bisherigen Regeln nicht zwingend auch auf diesen Fall zutreffen.

Inhalt abgleichen