27

Hardware- und Nachrichten-Links des 27. Juli 2015

Als Folge der kürzlichen Meldung über (angeblich) 17 Milliarden Transistoren bei nVidias GP100-Chip der Pascal-Architektur wird in unserem Forum intensiv darüber diskutiert, was man in diese große Transistorenanzahl alles packen könnte bzw. ob jene überhaupt realistisch ist. In der Tat kommt eine Modellrechnung mit der bekannt um den Faktor 2 verbesserten Packdichte von TSMCs 16FF+ Fertigung auf eine Chipfläche von eher ~640mm² für den GP100-Chip – was eigentlich als (minimal) zu groß gilt, um überhaupt noch sinnvoll hergestellt werden zu können. Andererseits könnte nVidia natürlich noch weitere kleine Fortschritte in der designspezifischen Packdichte erzielen und so das endgültige GP100-Design wieder auf die bekannten ~600mm² drücken, eventuell sind ja auch jene bis zu 640mm² doch noch irgendwie herstellbar. Dennoch drohen auch noch andere Probleme, welche an der für mehr Shader-Einheiten nutzbaren Transistoren-Anzahl zehren werden: Nach dem reinen Gamer-Chip GM200 wird nVidia beim GP100 wieder alle für das professionelle Segment notwendigen Features bieten müssen, darunter vor allem eine hohe DoublePrecision-Power.

Beim GM200-Chip hat man sich dies zugunsten der reinen Anzahl der Shader-Einheiten gespart, beim GP100 kommt dieses Feature-Set nun wieder hinzu – und begrenzt damit auch die Anzahl der Shader-Einheiten etwas, zumindest funktioniert eine pure Hochrechnung ausgehend von der um den Faktor 2,2 höheren Transistoren-Anzahl nun nicht mehr. Eine glatte Verdopplung der Anzahl der Shader-Einheiten auf 6144 Stück beim GP100 wäre also nur das alleroberste Ende der Möglichkeiten – und keinesfalls die wahrscheinlichste Auflösung. Eher anzunehmen wäre irgendetwas zwischen 5000 und 5500 Shader-Einheiten – was zusammen mit vielleicht auch etwas mehr Taktrate und der viel höheren Speicherbandbreite des HBM-Speichers trotzdem für einen Performance-Boost um knapp den Faktor 2 im Gaming-Bereich sorgen könnte. Dies gilt allerdings nur für den voll ausgefahrenen GP100-Chip – und zu vermuten ist natürlich, daß nVidia jenen anfänglich überhaupt nicht voll ausfährt, weil erst einmal die Produktionsausbeute niedrig sein wird und das Fertigungsverfahren noch nicht ausoptimiert genug ist, um die allerhöchsten Taktraten zu erreichen. Einen gehörigen Performance-Sprung gegenüber den aktuellen 28nm-Chips wird es jedoch in jedem Fall geben, dafür sorgt allein der sehr deutliche Unterschied zwischen 28nm und 16FF+.

Laut WinFuture empfiehlt Microsoft höchstselbst seinen Unternehmenskunden, erst im Herbst auf Windows 10 umzusteigen – konkret nach dem für den Herbst 2015 geplanten ersten größeren Update, welches Microsoft-intern "Threshold Wave 2" genannt wird ("Threshold" ist der Codename von Windows 10 selber). Da von diesem ersten größeren Update aufgrund der Kürze der Zeit nach dem schon am mittwöchlichen 29. Juli anstehenden Release von Windows 10 kaum größere inhaltliche Änderungen zu erwarten sind, dürfte sich jenes Herbst-Update in erster Linie der Fehlerbereinigung und Systemstabilität widmen. Was dann im Umkehrschluß durchaus auch für Normalanwender die Frage aufwirft, ob man nicht lieber auf dieses Herbst-Update warten sollte: Microsoft hat sogar bis zuletzt an inhaltlichen Änderungen und diversen Feinheiten gearbeitet, empfiehlt seinen Unternehmenskunden offiziell das Abwarten – und am Ende läuft die Kostenlos-Umstiegs-Aktion ein ganzes Jahr ab Release, könnte man diesen Schritt schließlich auch noch im ersten Halbjahr 2016 gehen. Die Gaming-Enthusiasten werden natürlich auf die Vorteile von DirectX 12 scharf sein und demzufolge Windows 10 kaum abwarten können – aber für Produktivsysteme kann man ruhig bleiben und auf anderen Maschinen erst einmal ein wenig Windows-10-Erfahrung sammeln.

Die PC Games Hardware zeigt den neuesten "Beweis" für das kommende "Ende des PCs" – eine Grafik zu Stückzahlenabsätzen, nach welcher iOS-Geräte inzwischen genauso häufig wie Windows-Geräte verkauft werden, mit zudem klar steigender Tendenz zugunsten von iOS. Was vor einigen Jahren noch wenigstens lustig war, geht nun eher in Richtung "peinlich", wenn sich erklärte Marktexperten zu solcherart Äpfel-zu-Birnen-Vergleichen hinreißen lassen. Schließlich handelt es sich bei dem einen um ein Betriebsystem für Smartphones und Tablets, bei dem anderen um ein Betriebssystem für Desktop-PCs und Notebook mit bislang eher geringem Anklag im Smartphone/Tablet-Segment. Insbesondere da Smartphones mittlerweile um den Faktor 3 häufiger verkauft werden als PCs (zusammen mit Tablets um den Faktor 4), verbietet sich eigentlich jeder Vergleich anhand absoluter Zahlen – das wäre wie wenn man Antilopen und Tiger schlicht anhand ihrer Anzahl vergleicht. Die hohen Verkaufszahlen von iOS und Android im Smartphone/Tablet-Segment haben bislang wenig an der Bedeutung von Windows für den PC gerüttelt – die inzwischen erreichten Nutzungsmöglichkeiten von Smartphones & Tablets haben zwar dem PC insgesamt zugesetzt, aber dies war und ist keine Frage des Betriebssystems.

Die PC Games Hardware berichtet über die Aussage eines Spieleentwicklers zu einem ungefähren Hardware-Gleichstand der aktuellen Spielekonsolen – weil die bekannt stärkere Grafikeinheit der Playstation 4 durch eine stärkere CPU auf der Xbox One ausgeglichen werden soll. Ob dies wirklich derart funktioniert, sei allerdings bezweifelt: Die Differenz beim Grafikchip ist schon ziemlich heftig, da sprechen 50% mehr Rechenleistung und 100% mehr nomineller Speicherbandbreite (ohne Berücksichtigung des eDRAMs) sehr deutlich für Sonys Ansatz. Dies mit der etwas höheren CPU-Leistung der Xbox One ausgleichen zu wollen, erscheint ein wenig vermessen – immerhin gibt es auf Basis derselben CPU-Architektur nur etwas mehr CPU-Takt (1.75 GHz anstatt 1.6 GHz) und Microsoft erlaubt mittlerweile die Nutzung von maximal sieben anstatt nur sechs CPU-Kernen für Spieleentwickler. Hieraus ergibt sich ein nomineller CPU-Unterschied von 28% – was im Sinne einer CPU nicht wahnwitzig viel ist, da jene (beispielsweise im Sinne der Minimum-Frameraten) sowieso kaum vollständig ausgelastet werden darf. Zudem läßt sich eine höhere CPU-Performance nicht in höhere Auflösungen umwandeln, wie dies dagegen bei der höheren GPU-Performance der PS4 möglich ist. Wenn man es auf einen Wert herunterbrechen muß, liegt hardwaretechnisch tatsächlich die PS4 vorn – was durch die vielen Fälle, wo die Sony-Konsole die höheren Auflösungen gegenüber der Xbox One bietet, auch aus der Praxis bestätigt wird.

27

nVidia legt der GeForce-900-Serie "Metal Gear Solid V" bei

Grafikchip-Entwickler nVidia hat Ende letzter Woche ein neues Spielebundle für die GeForce-900-Serie aufgelegt, welches die drei früheren Spielebundles unter Beteiligung von GeForce-900-Karten ersetzt, die GeForce GTX Titan X allerdings erneut spezifizisch ausschließt. Somit erhalten nur Käufer von GeForce GTX 960, 970, 980 & 980 Ti sowie von Notebooks mit GeForce GTX 970M & 980M bei teilnehmenden Händlern eine Lizenz für das allerdings erst am 15. September herauskommende "Metal Gear Solid V: The Phantom Pain". Alle früheren nVidia-Spielebundle sind dagegen inzwischen offensichtlich ausgelaufen – allerdings ist die Gutschein-Einlösung für diese alten nVidia-Bundles nach wie vor noch möglich. Im Gegensatz dazu wird AMDs letztes Never-Settle-Spielebundle inzwischen sowohl nicht mehr angeboten als auch ist eine Gutschein-Einlösung hierfür nicht mehr möglich. Auffallend ist etwas, daß AMDs eigentlich sehr beliebte (und klar besser bewertete) Spielebundle inzwischen keine Nachfolger mehr gefunden haben, während nVidia weiterhin an dieser Marketingaktion festhält.

Wie üblich bei Spielebundle-Aktionen gilt auch hier, daß den genannten nVidia-Grafikkarten – gekauft bei einem an der Aktion teilnehmenden Händler – entsprechende Coupons beiliegen, welche auf einer speziellen nVidia-Webseite dann in Download-Codes eingelöst werden können. Die neue Spielebundle-Aktion von nVidia läuft nach bisherigem Kenntnisstand bis zum 1. September 2015 (oder bis die von nVidia eingekauften Spiellizenzen aufgebraucht sind). Bei der Bestellung ist auf das Vorhandensein eines entsprechenden nVidia-Coupons in der Angebotsbeschreibung zu kontrollieren, da nicht jeder Händler an dieser Aktion teilnimmt und selbst bei den teilnehmenden Händler nicht jedes Produktangebot Teil dieser Aktion sein muß.

Inhalt des Spielebundles
GeForce GTX 660 bis 690 & Titan
GeForce GTX 760 bis 780 Ti
ab Aktionsstart 12. März 2014: Spiel "Daylight"  (Einlöse-Webseite)
GeForce GTX 660 bis 690
GeForce GTX 760 bis Titan Black
ab Aktionsstart 29. April 2014: Spiel "Watch Dogs"  (Einlöse-Webseite)
GeForce GTX 770 bis Titan Black ab Aktionsstart 13. August 2014: Spiel "Borderlands: The Pre-Sequel"  (Einlöse-Webseite)
GeForce GTX 780 & 780 Ti
GeForce GTX 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 4. November 2014: "Pick your Path" Spielebundle mit einem von drei Ubisoft-Spielen: "Assassin’s Creed: Unity", "Far Cry 4" oder "The Crew"  (Einlöse-Webseite)
GeForce GTX 960, 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 10. März 2015: Spiel "The Witcher 3: Wild Hunt"  (Einlöse-Webseite)
GeForce GTX 970 & 980 ab Aktionsstart 5. Mai 2015: Spiele "The Witcher 3: Wild Hunt" und "Batman: Arkham Knight"  (Einlöse-Webseite)
GeForce GTX Titan X für jegliche verkaufte Karte (keine Coupons etc. notwendig): Spiel "The Witcher 3: Wild Hunt"  (Einlöse-Webseite)
GeForce GTX 960, 970, 980 & 980 Ti
GeForce GTX 970M & 980M
ab Aktionsstart 23. Juli 2015: Spiel "Metal Gear Solid V: The Phantom Pain"  (Einlöse-Webseite)
26

Hardware- und Nachrichten-Links des 25./26. Juli 2015

Etwas einschränkend zu den kürzlich genannten guten Overclocking-Ergebnissen von Skylake muß ergänzt werden, daß die gemeldeten luftgekühlten 5.2 GHz nicht wirklich stabil waren – Stabilität wurde in diesem Overclocking-Versuch erst auf 5.0 GHz Takt unter gleichzeitiger Deaktivierung von HyperThreading erreicht. Wirklich beeindruckend ist das dann auch nicht mehr – so daß sich in der Skylake-Diskussion in unserem Forum schon eine gewisse Enttäuschung über die Skylake-Architektur niederschlägt: Immer noch kein echter Taktraten-Gewinn durch die 14nm-Fertigung, laut den letzten Tests auch keine wirklich überzeugende IPC-Steigerung – eine "neue Architektur" hat bei Intel früher durchaus einmal anders ausgesehen. Andererseits steht für viele Nutzer älterer PC-Systeme endlich einmal wieder eine Aufrüstung an – wofür sich im Sinne des neuen Sockels 1151 und der neuen Mainboard-Plattform die kommende Skylake-Architektur eben stark anbietet.

Für jene Nutzer älterer PC-Systeme ist eine mittelprächtige IPC-Steigerung zwischen Haswell und Skylake dann auch kein Beinbruch, da zurückgerechnet auf Nehalem oder Sandy Bridge dennoch gute Steigerungen herauskommen: Angenommen eine 10%ige IPC-Steigerung zwischen Haswell und Skylake, würde Skylake (auf gleichem Takt) grob 45% schneller als Nehalem herauskommen, gegenüber Sandy Bridge wären es noch grob 25% Mehrperformance auf gleichem Takt. Eingerechnet die höheren Taktraten von Skylake könnte die insgesamte Performance sogar grob 75% schneller als Nehalem bzw. grob 40% schneller als Sandy Bridge ausfallen – keine schlechten Zahlen, insbesondere für Nehalem-Besitzer würde sich dieser Wechsel nominell lohnen (je nach Nutzerprofil natürlich). Unter typischem Overclocking dürfte der Performance-Abstand zu Nehalem in etwa gleich bleiben – bei Sandy Bridge jedoch eher geringer ausfallen, da Skylake kein so guter relativer Overclocker wie Sandy Bridge zu werden scheint. Jene Zahlen sind jedoch derzeit eher nur grobe Prognosen, auf welche man nicht all zu viel geben sollte, da es hierzu schon Anfang August echte Zahlen und Benchmarks geben wird.

Weil aber Intels Skylake den wirklich performancedurstigen und umstiegswilligen Anwendern auf schon vorhandenen Systemen mit Ivy-Bridge- oder Haswell-Unterbau bislang wenig Ansatzpunkt für einen sofortigen Umstieg zu geben scheint, gibt es auch genügend Stimmen, die nunmehr eher auf AMDs Zen-Architektur warten wollen. Passend hierzu wird über deren Marktverfügbarkeit spekuliert – viele wollen Zen natürlich eher schon Anfang 2016 sehen, gerade da AMD kürzlich die Tape-Outs mehrerer 14nm-Chips bekanntgegeben hat. Doch unabhängig, daß das erste Zen-Silizium da sicherlich darunter ist (große CPUs samt neuer Architektur benötigen Vorlaufzeiten von deutlich mehr als einem Jahr), existiert eigentlich eine klare AMD-Unterlage, nach welcher mit kaufbaren Zen-Prozessoren erst zum Jahresende 2016 zu rechnen ist. Sofern AMD bereits über den Sommer 2016 erste 14nm-Grafikchips ins Rennen schickt, hängt dies auch weniger an der Reife der 14nm-Fertigung von GlobalFoundries – sondern wohl eher daran, daß das Zen-Design erst jetzt fertig geworden ist, erst jetzt seinen Tape-Out hatte und dann in die für CPUs üblicherweise sehr lange Phase der intensiven Vorserientests, Fehlerbereinigung, weiteren Samplefertigung und letztlich Produktionsvorbereitung geht. Es wäre schön, wenn AMD überhaupt diesen angegebenen Termin halten – vor Ende 2016 wird aber sicherlich nichts bei Zen passieren.

Nebenbei wurde in unserem Forum auch eine erste Testlieferung von AMDs "Stoney Ridge" APU entdeckt: Hierbei handelt es sich um eine Carrizo-Abspeckung, welche aber nicht über Teildeaktivierung des Chips erreicht wird, sondern welche abgespeckt regelrecht in Silizium gegossen wird: Nur 2 anstatt 4 Excavator-Rechenkerne, nur 3 anstatt 8 GCN-Shader-Cluster, nur ein SingleChannel- anstatt eines DualChannel-Speicherinterfaces. AMD wird mittels "Stoney Ridge" seine bisher als extra Architektur ausgeführten LowPower-Prozessoren der "Cats-Serie" (Bobcat, Januar, Puma) komplett ablösen – mit wohl weniger Entwicklungsaufwand, weil man schließlich nur das bestehende Carrizo-Design erneut melkt. Interessant ist, daß die gelieferten Stoney-Ridge-Mainboards teilweise auch DDR3 beherrschen sollen – bislang wurde "Stoney Ridge" als rein für DDR4-Speicher gedacht beschrieben. In dem Preisbereich, wo "Stoney Ridge" hineingeht, könnte es je nach Entwicklung der Speicherpreise aber notwendig sein, auch auf günstigeren DDR3-Speicher zu setzen – AMD fährt hier also zweigleisig wie auch schon bei Carrizo, welches zwei Speicherinterfaces für DDR3 und für DDR4 trägt (derzeit ist nur das DDR3-Interface aktiv). "Stoney Ridge" wird regulär im Sommer 2016 erwartet – zusammen mit dem Carrizo-Refresh "Bristol Ridge" im gemeinsamen Sockel AM4.

In diesem Zusammenhang ist es natürlich auch diskutabel, wieso AMD die eigentlich immer gut bewertete "Cats-Serie" mittels "Stoney Ridge" auslaufen lassen wird – gerade bei diesen LowPower-Prozessoren war man konkurrenzfähig und es gab auch viele entsprechende Notebooks, am Ende basieren sogar die Konsolen-SoCs von XBox One und Playstation 4 auf diesen CPU-Architekturen. Dafür gibt es neben der extra notwendigen Architektur-Entwicklung für die Cats-Serie jedoch handfeste Gründe: Die damit erzielbaren CPU-Preise machen die extra Entwicklung wenig lukrativ – und kürzlich kam AMD auf diesem Geschäftsfeld durch Intels neue 14nm Braswell-Prozessoren stärker unter Druck, weil sich jene gut passiv kühlen lassen (was niedrigere Gesamtkosten für die PC-Hersteller und damit einen hohen Wettbewerbsvorteil für Intel ergibt). Leider stand die Cats-Serie mit ihren TDPs von 10 bis 25 Watt gerade zuletzt immer mehr im Niemandland: Für einen echten LowPower-Ansatz im Jahr 2015 sind dies zu hohe TPDs – die Leistungsfähigkeit konnte sich aber nicht mit auf 15 Watt TDP heruntergebrochenen Notebook-Prozessoren (Intels U-Serien) messen.

Hier liegt wohl der Hauptgrund dafür, daß AMD von diesem Modell einer extra LowPower-Architektur abgeht und zukünftig dieses Segment mit Abwandlungen seiner normalen Mainstream-APUs bedienen wird: Jene normalen Mainstream-APUs müssen heutzutage schon gut im 15-Watt-Segment funktionieren, werden gerade wie bei Carrizo zu sehen inzwischen auch von AMD explizit auf diese Anforderung hin optimiert. Eine extra LowPower-Architektur (im Sinne einer eigenen Architektur) für dieselbe TDP-Klasse lohnt da überhaupt nicht mehr, gerade wenn jene am Ende nur die gleiche oder gar weniger Performance bietet. Etwas schade ist es, daß AMD über die Cats-Serie nicht Ausflüge ins Feld der Tablet-SoCs unternimmt – mit der 14nm-Fertigung müsste sich der Stromverbrauch von Beema bzw. Carrizo-L eigentlich in einen dafür passenden Bereich drücken lassen. Doch AMD steht momentan derart mit dem Rücken an die Wand, daß alles abgesägt wird, was nicht direkt Geld bringt oder aber durch andere Entwicklungen irgendwie ersetzbar ist – wie nunmehr bei der eigentlich erfolgreichen und beliebten Cats-Serie zu sehen.

26 26

Welches PC-Betriebssystem ist im Einsatz?

Diese Umfrage soll vor dem offiziellen Launch von Windows 10 feststellen, wie die Betriebssystem-Verteilung im 3DCenter liegt. Da dies eine gerätespezifische und keine nutzerspezifische Fragestellung ist, kann natürlich von mehreren PC-Geräten (Desktop-PC, Notebook, Zweit- und Drittgeräte) jeweils extra abgestimmt werden. Als Nebenfrage ist angesetzt, ob die Absicht für einen Wechsel zu Windows 10 in absehbarer Zeit existiert.

Windows XP
2% (90 Stimmen)
Windows XP - doch werde in absehbarer Zeit auf Windows 10 wechseln
0% (11 Stimmen)
Windows Vista
1% (22 Stimmen)
Windows Vista - doch werde in absehbarer Zeit auf Windows 10 wechseln
0% (8 Stimmen)
Windows 7
30% (1110 Stimmen)
Windows 7 - doch werde in absehbarer Zeit auf Windows 10 wechseln
24% (892 Stimmen)
Windows 8/8.1
5% (174 Stimmen)
Windows 8/8.1 - doch werde in absehbarer Zeit auf Windows 10 wechseln
22% (816 Stimmen)
Windows 10
5% (200 Stimmen)
Linux
8% (281 Stimmen)
ein anderes Betriebssystem
1% (51 Stimmen)
Gesamte Stimmen: 3655
26

Umfrage-Auswertung: Wie ist der Ersteindruck zur Radeon R9 Fury?

Die Umfrage der vorletzten Woche direkt nach dem Launch der Radeon R9 Fury bezog sich natürlich auf den Ersteindruck zu dieser zweiten Fiji-basierten Grafikkarten. Mit jener scheint AMD sehr viel mehr richtiger gemacht zu haben als mit der vorhergehenden Radeon R9 Fury X, welche eher nur mittelmäßig bewertet wurde. Die Radeon R9 Fury zeigt hingegen, wie man einen erfolgreichen Launch hinlegt: 62,3% positiver Ersteindruck liegen im Rahmen früherer erfolgreicher AMD-Launches – etwas bessere Wertungen erreichten bislang regelmäßig nur Karten etwas niedrigerer Preisbereiche. Für eine preislich derart hoch angesetzte Karte ist dieser Wert also regelrecht gut und sogar bemerkbar besser als bei der GeForce GTX 980 Ti (52,2% positiver Ersteindruck). Nur 23,3% durchschnittlicher Ersteindruck sowie nur 14,4% negativer Ersteindruck untermauern diese im Schnitt der abgegebenen Usermeinung vergleichsweise gute Wertung zur Radeon R9 Fury.

Die genannten Problemfelder der Karten verteilen sich dann zwischen den zwei Polen "zumeist geringe Mehrperformance zur GeForce GTX 980" mit 29,5% der Stimmen der Umfrage-Teilnehmer mit durchschnittlichem oder negativem Ersteindruck sowie "nicht ganz passender Preispunkt" mit 44,3% – während die nur 4 GB Speicher der Karte in dieser Disziplin mit 14,4% (sehr) deutlich weniger genannt wurden. Da gerade der Preispunkt eine variable Größe ist, welche sich im Laufe des Lebenszyklus der Karte ändern kann (und wird), ist sogar eine zukünftig noch bessere Bewertung der Karte möglich. Für den Augenblick stellt die Radeon R9 Fury mit einem potentiellen Kaufinteresse von 18,5% schon einmal einen erstklassigen Wert auf – andere Karten hatten teilweise höhere Werte in dieser Disziplin, aber im Bereich der Grafikkarten mit Preispunkten von 600 Euro und mehr ist dies sogar der (klare) Spitzenwert.

In der Summe der Dinge hat AMD mit der Radeon R9 Fury also in den Augen der Grafikkarten-Enthusiasten einen sehr erfolgreichen Launch hingelegt – nicht in allen Dingen vollens überzeugend, aber mit an der Spitze der Dinge gemessen am Preis- und Performanceprofil der Karte. Auffallend ist dabei der heftige Unterschied zur auf dem gleichen Chip basierenden Radeon R9 Fury X, welche schließlich auch beim Preis und der Performance gar nicht weit weg liegt – hier sieht man in krasser Form den Unterschied zwischen erfolgreichem und nicht erfolgreichem Launch. AMDs Produktentwicklung und Marketing sollten sich an dieser Stelle die Zeit nehmen, zu analysieren, wieso sich hierbei so ein riesiger Unterschied in den Bewertungen ergab – und daraus diverse Lehren für die Zukunft ziehen. Schließlich ist auch dem Grafikkarten-Käufer nicht geholfen, wenn Hersteller ihre eigentlich interessanten Ansätze beim Launch erst einmal danebensetzen – das Urteil über neue Hardware wird maßgeblich über den Ersteindruck beim Launch bestimmt, bei der breiten Masse der Hardware-Käufer sogar noch viel mehr als beim Enthusiasten.

  positiv durchschn. negativ Kaufint.
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz Edition" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
24

Hardware- und Nachrichten-Links des 24. Juli 2015

Wie Fudzilla in Erfahrung gebracht haben wollen, bringt nVidias Pascal-Chip GP100 mit 17 Milliarden Transistoren in der 16FF+ Fertigung von TSMC einiges auf die Waage – gegenüber dem GM200-Chip der Maxwell-Generation (~8 Mrd. Transistoren) wäre dies sogar etwas mehr als eine Verdopplung der Transistorenanzahl. Wirklich kleiner als jener GM200-Chip dürfte der GP100-Chips damit kaum werden können, da Chipfertiger TSMC eine Platzersparnis zwischen 28nm und 16FF+ von -50% angibt. Eingerechnet die typischerweise zwischen zwei Chipgenerationen gesteigerte Packdichte von ein paar Prozentpunkten sollte der GP100-Chip gemäß dieser Angabe gleich wieder grob 600mm² groß werden – und damit keineswegs kleiner als der GM200-Chip (601mm² Chipfläche). Bislang war man eher fest davon ausgegangen, daß die Grafikchip-Entwickler aufgrund der deutlich höheren Kosten der 14/16nm-Fertigung (Meldung No.1 & No.2) die erste 14/16nm-Generation mit etwas kleineren Chipgrößen beginnen – dieser Hinweis auf die Transistorenanzahl des GP100-Chips entkräftet diese These etwas und deutet darauf hin, daß die Chipentwickler auch unter der 14/16nm-Fertigung erneut am oberen Ende des technisch herstellbaren operieren werden.

Eventuell wird diese Entscheidung nVidias durch den Umstand getragen, daß es bei nVidia vielleicht gar keine zweite (echte) 16nm-Generation geben wird – die Maxwell-Generation wurde schließlich auch nur auf 28nm eingeschoben, ursprünglich war keine zweite echte Chip-Generation unter der 28nm-Fertigung geplant. Wenn nVidia für 2018 tatsächlich mit der 10nm-Fertigung und dort dementsprechend einer neuen Chip-Generation rechnet, könnte man ausgehend vom Pascal-Start im Jahr 2016 diese zwei Jahre bis zur 10nm-Fertigung mit derselben Chip-Generation überbrücken. Dies kann durchaus in zwei Grafikkarten-Generationen resultieren, aber es würden trotzdem die gleichen Chips verwendet – wie von nVidia bei den früheren Fermi- und Kepler-Generationen bereits vorexerziert. In einem solchen Fall, wo also nur einmalig 16nm-Chips aufgelegt werden, muß nVidia natürlich chiptechnisch dann gleich in die Vollen gehen, da es eben keinen zweiten Versuch geben wird. Im Verkauf könnten daher die allerersten Pascal-Grafikkarten durchaus beschnitten in den Hardware-Einheiten und mit eher zahen Taktraten antreten – auch hier gibt es mit der originalen GeForce GTX Titan ein gutes Beispiel aus der Vergangenheit. Erst in der zweiten Grafikkarten-Generation würde dann die Technik voll ausgefahren werden – wie gesagt ein bei nVidia eigentlich bewährtes Prinzip zur Portfolio-Bildung und daher auch nicht wirklich unwahrscheinlich für die kommende Pascal-Generation.

Fanlesstech breiten drei Marketing-Folien zu Intels Skylake-Architektur aus, welche derzeit viel beachtet bzw. zitiert werden, da hiermit einige größere Vorteile bei Skylake versprochen werden. Interessant sind insbesondere die 30% mehr Batterielaufzeit, welche Intel bei Skylake gegenüber Broadwell erreicht haben will – was allerdings erst durch Tests in der Praxis zu belegen sein wird, dieser Fortschritt erscheint auf Basis derselben Fertigung ungewöhnlich hoch. Bei der reinen Performance werden für die Desktop-Modelle (bis zu) 11% mehr Performance (wohl gegenüber Haswell) in einem theoretischen Test versprochen – was eingedenk dessen, daß diese Angabe nicht taktnormiert ist, als eher wenig erscheint. Da auch die letzten Vorab-Benchmarks in eine ähnliche Richtung gingen, muß man leider nunmehr die Möglichkeit einkalkulieren, daß Skylake nicht mit einer wenigstens mittelmäßigen Performance-Steigerung antritt – sondern vielmehr eingedenk des doppelten Sprungs von Haswell über Broadwell zu Skylake sogar eine eher unterdurchschnittliche Performance-Steigerung von nur knapp unter 10% hinlegt.

Notebookcheck bieten erste Benchmarks zur Carrizo-L APU – mittels welcher AMD mal den LowPower-Markt aufmischen wollte, welche sich dann jedoch nur als deutlich zu spät gekommener und kaum besserer Beema-Refresh herausstellte. Aller Wahrscheinlichkeit nach gibt es nicht einmal wirklich intere Veränderungen, sondern nur ein neues Chip-Stepping, welches etwas höhere Taktraten erlaubt – und eine andere Plattform, die zu den großen Carrizo-APUs kompatibel ist. Die Anzahl der von Notebookcheck bislang getätigten Benchmarks erlaubt noch kein endgültiges Urteil, aber es läßt sich schon der minimale Abstand zum Beema-Vorgänger erkennen – gleichfalls aber auch der generelle Vorsprung, welchen AMDs LowPower-Prozessoren gegenüber Intels Silvermont-basierten BayTrail-Prozessoren aufweisen. Unter den die integrierte Grafiklösung belastenden Benchmarks war dies in etwa zu erwarten, aber auch bei der CPU-Performance ist AMD in diesem Feld entweder auf Augenhöhe oder minimal vorn – wobei eine einzelne Cinebench-Messung hierzu natürlich noch keine abschließende Aussagekraft besitzt, aber wenigstens schon erst einmal eine gewisse Tendenz vorgibt.

Golem vermelden die deutschen Preise für Retail-Versionen von Windows 10: Ein Windows 10 Home soll 135 Euro kosten – ein Windows 10 Pro allerdings gleich 280 Euro – was allerdings in etwa den Preisen für Windows 7/8 entspricht, die Home-Version war früher nur etwas günstiger (120 Euro). Aufgrund Microsofts Kostenlos-Angebot zum Umstieg von Windows 7/8.1 sowie deutlich günstigerer OEM-Preise für PC-Hersteller haben diese Retail-Preise sicherlich auch nicht mehr eine so große Bedeutung. Zudem kommt für Deutschland hinzu, daß es hierzulande legal ist, OEM-Versionen ohne Bindung an einen PC zu verkaufen. Demzufolge finden sich im deutschen Einzelhandel dann üblicherweise reichlich Angebote zu OEM-Versionen mit klar günstigeren Preislagen – bei Windows 8.1 bewegt sich dies derzeit bei ca. 90 Euro für eine Home-Version sowie ca. 120 Euro für eine Pro-Version. Die derzeit bekannten Unterschiede zwischen Windows 10 Home und Windows 10 Pro legen auch nicht zwingend den Erwerb der Pro-Version nahe, insofern kann man sich wohl an die günstigere Home-Version halten.

Inhalt abgleichen