6

Hardware- und Nachrichten-Links des 5./6. Mai 2016

Nachdem der Countdown der allerhöchstwahrscheinlich nVidia zuzuordnenden Webseite Order of 10 am Freitag um 19 Uhr deutscher Zeit ausläuft, bleibt immer noch offen, was genau danach passiert – womöglich werden nur weitere Inhalte auf dieser Webseite offengelegt. All zu viel darf man sich nicht erwarten, denn wenn dann dürfte nVidia mehr erst in einem Livestream von der Dreamhack sagen, welcher allerdings erst um 3 Uhr morgens in der Nacht zwischen Freitag und Sonnabend startet. Die Optimisten erwarten hierbei die Offenlegung der kompletten Pascal-basierten GeForce-Serie, die Pessimisten sehen kaum mehr als einen lauen Teaser zum weiterhin offiziell zur Computex erwartenden Launch von GeForce GTX 1070 & 1080. Wenigstens läßt sich zu diesen beiden Grafikkarten nunmehr das Referenz-Kühlerdesign bestätigen, nachdem Videocardz eine nVidia-Webseite gefunden haben, welche eben jenes Kühlerdesign als Hintergrundbild benutzt. Zur Computex sind wie bekannt erst einmal nur Referenzdesigns seitens der Grafikkartenhersteller zu erwarten, welche allerdings schon zwei Wochen später dann auch Eigendesigns an den Start bringen wollen. Als weiteres Appetithäppchen weist unser Forum zudem darauf hin, das die zur GeForce GTX 1080 vermeldeten hohen Taktraten auch durchaus auf Auslesefehlern basieren können – auch andere Benchmarks lesen nämlich manchmal nur den allerhöchsten im Treiber hinterlegten Boosttakt aus, nicht aber die real anliegende Taktrate.

Davon abgesehen diskutiert unser Forum schon darüber, wie es nach dem GP104-Chip bei nVidia weitergehen mag: Zur Auswahl stehen hierbei natürlich der GP100-Chip dann doch im Gaming-Einsatz – oder halt der GP102 als reiner Gaming-Chip neben dem dann reinen HPC-Chip GP100. Auch wenn nVidia ein solches Vorgehen (zwei Spitzenchips, einer davon rein für HPC) bislang noch nie praktizierte und zum GP102 nicht mehr als eine frühere Treibereintragung existiert, geht die Tendenz inzwischen stark in Richtung dieser zweiten Lösung. Und auch jene unterteilt sich noch in mehrere Unterlösungen, welche sich um die Zielrichtung des GP102-Chips drehen: Der GP102 nur als kostengünstigere Lösung mit zum GP100 ähnlicher Performance, aber geringerer Chipfläche durch Verzicht auf die Profi-Features – oder gar mit mehr Gaming-Power durch Ausnutzung einer ähnlich großen Chipfläche zugunsten von mehr Shader-Einheiten? Letzteres würde den Enthusiasten freuen und ist nebenbei auch der Weg, welche nVidia beim GM200-Chip ging – und gegen erstere Variante spricht zudem, das eine gleiche Performance wie beim GP100 letztlich ja auch über den GP100-Chip selber erreichbar ist. Dessen höherer Kostenpunkt könnte sich über die Massenfertigung egalisieren, wenn der GP100 eben auch für Gaming-Zwecke verwendet würde.

Da es aber eben doch zwei getrennte Lösungen in diesem Bereich geben soll, ist es für uns derzeit die wahrscheinlichste Auflösung, das nVidia beim GP102 eine höhere Gaming-Performance anstrebt, als mit dem GP100 möglich wäre – dies ist jedenfalls der beste Beweggrund, einen extra Chip aufzulegen. Da nVidia das GP100-Design vorsätzlich mit Profi-Feature zugekleistert hat, kann im Fall eines reinen Gaming-Chips (GP102) sehr viel hiervon wegfallen, womit auch genügend Platz frei würde für mehr Shader-Einheiten trotz gleicher oder sogar leicht kleinerer Chipfläche. Die Frage ist nur, mit wievielen Shader-Einheiten (oberhalb des GP100-Niveaus von maximal 3840 Shader-Einheiten) uns nVidia beglücken will – unsere letzte Schätzung zum GP102-Chip ging von bis zu 4608 Shader-Einheiten auf nur ~500mm² Chipfläche aus. Hier wäre sogar Platz für noch mehr, wenn man das Fertigungslimit von ~650mm² ausnutzen wollte – was nVidia in der teuren 16nm-Fertigung sicherlich nicht ausreizen wird, aber etwas mehr als 500mm² sind dennoch im Rahmen der Möglichkeiten. Eventuell gibt ja die Anzahl der Shader-Einheiten beim GP104-Chip einen gewissen Hinweis zum GP102-Chip – denn mehr als das Doppelte der Hardware-Möglichkeiten des GP104 sind vom GP102 sicherlich nicht anzunehmen.

Die Jubelmeldungen von Auftragsfertiger TSMC zur 10nm-Fertigung kommen nicht ganz von ungefähr, denn laut der DigiTimes beginnt man dort nun mit dem Tape-Out des Apple A11-SoCs in eben jener 10nm-Fertigung. Hiermit ist offensichtlich noch nicht der Abschluß des Tape-Out-Vorgangs gemeint (eigentlich bezeichnet "Tape-Out" jenen Zeitpunkt, wo ein erstes funktionsfähiges Silizium zum Chipdesigner zurückgeliefert werden kann), sondern vielmehr den Anfang dieser Aufgabe – was aber in Bezug auf die 10nm-Fertigungstechnologie auch bedeutet, das sich TSMC bei dieser schon so weit sieht. DigiTimes nennen dann auch den weiteren Ablauf: Produktionszertifizierung im Q4/2016, Sampleproduktion im Q1/2017, Kleinserienproduktion im Q2/2017 und Massenfertigung im Q3/2017. Letztlich kann man für die alles entscheidende Frage, wann TSMCs 10nm-Fertigung spruchreif für "echte" CPUs & GPUs ist, sich schlicht den Ablauf bei der 16nm-Generation ins Gedächtnis rufen: Erste 16nm-SoCs wurden bei TSMC seit Mitte 2015 produziert, kaufbare Serienprodukte gab es im Herbst 2015 – und erste (auf kaufbaren Grafikkarten befindliche) 16nm-Grafikchips wird es dennoch erst im Sommer 2016 geben. Für die 10nm-Fertigung könnte derselbe Ablauf gelten – nur alles um zwei Jahre verschoben.

6

Weitere Benchmarks zum Core i7-6850K klaren das Bild zu Broadwell-E auf

In Ergänzung der bisherigen Benchmarks zum Core i7-6850K aus Intels Broadwell-E-Portfolio kommen aus dem Overclock.net-Forum noch zwei weitere Benchmarks derselben Quelle. Hierbei wurden im Cinebench R11.5 sowie im HWBot-Prime-Benchmarks jeweils knapp oberhalb 7% Performancegewinn vermessen – was einen guten Mittelwert gegenüber den bisherigen Benchmarks (+2%, +10% und +15%) darstellt. In der Summe der bisherigen Benchmarks ergibt sich somit ein Performancegewinn von gemittelt +8,3% zugunsten von Broadwell-E – unter Übertaktung wohlgemerkt. Denn nach wie vor gilt als hauptsächliche Erklärung für diesen (unerwartet hohen) Performancegewinn seitens Broadwell-E unter gleichen nominellen Taktraten, das Broadwell-E diese hohen Taktraten in der Praxis besser halten kann, sprich seltener (oder gar nicht) auf seinen Basistakt zurückgehen muß. Das jener Basistakt in diesem Vergleich zudem um 300 MHz höher liegt (verglichen wurde das kleinere Sechskern-Modell von Haswell-E mit dem größeren Sechskern-Modell von Broadwell-E), lenkt zudem diesen Vergleich ganz automatisch zugunsten von Broadwell-E – seriöser wäre der Vergleich Core i7-6850K (3.6/3.8 GHz) gegen Core i7-5930K (3.5/3.7 GHz) gewesen, nicht gegen den Core i7-5820K (3.3/3.6 GHz).

Core i7-5820K Core i7-6850K Differenz
Technik Haswell-E, 6C+HT, 15 MB L3-Cache, regulär 3.3/3.6 GHz, 140W TDP Broadwell-E, 6C+HT, 15 MB L3-Cache, regulär 3.6/3.8 GHz, 140W TDP -
Taktraten beiderseits auf 4.2 GHz laufend -
3DMark13 FS-E (Physics) 16598 19065 +14,9%
Cinebench R11.5 13,40 14,37 +7,2%
Cinebench R15 1191 1311 +10,1%
HWBot Prime 7046,95 7558,04 +7,3%
SuperPI 32M 518,886 sec 507,854 sec +2,2%

Dies hat dann zwei Auswirkungen: Unter weniger CPU-fordernden Benchmarks aus dem Anwendungs- und Spielebereich dürfte sich der Performancegewinn von Broadwell-E eher dem 2prozentigen IPC-Gewinn annähern, welchen SuperPI aufzeigt. Und gleichzeitig dürften die Prozessoren unübertaktet wohl auch unter stark CPU-lastigen Benchmarks näher zusammenrücken – das Problem in diesem Vergleich war primär, daß das benutzte Haswell-E-Modell mit 4.2 GHz Takt schon eher am Ende war (und daher auch eher zum Drosseln unter hohen CPU-Lasten neigt). Dies bedeutet, das unübertaktet Broadwell-E wahrscheinlich keinerlei beachtbaren Sprung bringt, schließlich gibt es kaum Mehrtakt und nur in einem einzigen Fall mehr CPU-Rechenkerne (Core i7-6950K mit 10 CPU-Rechenkernen). Die Unterschiede werden dann erst unter Übertaktung zu Tage treten: Broadwell-E erscheint sowohl taktfreudiger als kann auch diese hohen Taktraten besser unter starker Last halten, damit also unter Übertaktung (selbst auf gleichem nominellen Takt) die besseren Benchmark-Ergebnisse erzielen. Genaueres hierzu dürften dann sicherlich die entsprechenden Testberichte zu Broadwell-E aufzeigen, welche ab der Computex zu erwarten sind.

5

Erste Benchmarks zur GeForce GTX 1080 zeigen auf (bis zu) 30-36% Performance-Gewinn zur GeForce GTX 980 Ti

Videocardz haben die ersten zwei Benchmarks einer GeForce GTX 1080 anzubieten, der größten der demnächst antretenden GP104-Lösung auf Basis von nVidias Pascal-Architektur. Geboten werden zwei 3DMark-Benchmarksets – einmal im 3DMark11 Performance-Test, welcher allerdings mit einer Auflösung von nur 1280x720 kaum geeignet ist, die Performance einer HighEnd-Grafikkarte des Jahres 2016 korrekt abzubilden. Und einmal im 3DMark13 FireStrike Extreme-Test, welcher mit einer Auflösung von 2560x1440 hierfür viel besser geeignet ist. Zwar funktioniert der 3DMark13 kaum für Hersteller-übergreifende Vergleiche und auch Effekte wie zu kleine Speichermengen oder zu wenig Speicherbandbreite werden von diesem nur unzureichend abgebildet, aber für einen allerersten, rein Hersteller-internen Vergleich von neuer nVidia-Lösung zu "alter" nVidia-Lösung ist dies wohl noch ausreichend. Nachfolgend sind daher die vorliegenden Messungen zur GeForce GTX 1080 in Vergleich gestellt zu bekannten Benchmarks von GeForce GTX 980 und 980 Ti, letztere auch angereichert um Benchmarks zu übertakteten Versionen.

Denn die GeForce GTX 1080 überrascht – zumindest nach der Auslesung von 3DMark13 – mit einem Boosttakt von satten 1860 MHz, was einen monströsen Sprung zumindest gegenüber den offiziellen Taktraten der Maxwell-Generation ergibt. Jener Takt ist sogar so hoch, das nicht sicher gesagt ist, das hierbei nicht vielleicht doch ein Auslesefehler vorliegt – oder das die benutzte Grafikkarte bewußt hochgetaktet wurde. Diese beiden Möglichkeiten sind bitte mit einzukalkulieren, wenn man sich das platte Ergebnis anschaut, das jene GeForce GTX 1080 um zwischen 30-36% gegenüber auf Referenz-Takt laufenden GeForce GTX 980 Ti Karten davonzieht. Dies liegt klar am obersten Ende der Erwartungen – normalerweise hätten wir die GeForce GTX 1080 auf nicht besser als +15% gegenüber der GeForce GTX 980 Ti eingeschätzt. Dies kann sich allerdings trotz dieser 3DMark13-Ergebnisse noch ergeben – zum einen wie gesagt ist die ausgelesene Taktrate vakant, zum anderen werden echte Spielebenchmarks womöglich anders skalieren als der 3DMark13. Als Bremsschuh könnte sich für die GeForce GTX 1080 hierbei auswirken, das jene auf 2500 MHz Speichertakt an einem 256 Bit GDDR5X-Speicherinterface nur 95% der Speicherbandbreite einer GeForce GTX 980 Ti mitbringt – gut genug für dieselbe Performance (und für gute 3DMark-Werte), aber ungünstig, wenn es darum geht, deutlich mehr Performance unter echten Spielen zu erzielen.

Boosttakt 3DM11 Perf. (GPU) 3DM13 FS Extr. (ges.) 3DM13 FS Extr. (GPU) (Quelle)
benutzte Auflösung - 1280x720 (einfaches HD) 2560x1440 (WQHD) -
GeForce GTX 1080 angebl. 1860 MHz 27683 8959 10102 (Videocardz)
GeForce GTX 980 Ti (Eigen-OC #1) 1886 MHz - 14432 15121 (FutureMark)
GeForce GTX 980 Ti (Eigen-OC #2) off. 1311 MHz - 8690 9201 (Legit Reviews)
GeForce GTX 980 Ti (Werks-OC) off. 1355 MHz 25079 8138 8538 (TweakPC)
GeForce GTX 980 Ti (Ref. #1) off. 1070 MHz - 7489 7779 (Legit Reviews)
GeForce GTX 980 Ti (Ref. #2) off. 1070 MHz 20971 7164 7399 (TweakPC)
GeForce GTX 980 (Ref. #1) off. 1216 MHz - 5853 6022 (Legit Reviews)
GeForce GTX 980 (Ref. #2) off. 1216 MHz 16739 5633 5808 (TweakPC)

Daneben ergibt sich aus diesem 3DMark13-Wert auch, das der GP104-Chip mit klar weniger Shader-Einheiten als der GM200-Chip antreten wird: Selbst wenn das von Videocardz hierzu herangezogenen Vergleichsergebnis einer extrem übertakteten GeForce GTX 980 Ti auf 1886 MHz Chiptakt nicht passend ist, weil hierzu eine ebenso extreme CPU-Lösung zur Verfügung stand (man schaue sich den monströsen Unterschied beim Overall-Wert an), zeigen die Werte anderer übertakteter GeForce GTX 980 Ti Karten durchaus in die Richtung, als das eine GeForce GTX 980 Ti auf OC-Takt Richtung 1400-1500 MHz sich mit einer GeForce GTX 1080 auf ihrem hohen Takt von 1860 MHz anlegen kann. Anders formuliert: Die GeForce GTX 1080 braucht ihren hohen Takt, weil deutlich weniger Shader-Einheiten vorhanden sind, ansonsten kann sie nicht an der GeForce GTX 980 Ti vorbeikommen. Bisher schon hat man den GP104-Chip auf 2560 Shader-Einheiten geschätzt (die GeForce GTX 980 Ti hat 2816 aktive Shader-Einheiten), denkbar wäre angesichts dieses großen Unterschieds aber auch, das es nur 2304 Shader-Einheiten sind oder bei der GeForce GTX 1080 nur 2304 Shader-Einheiten aktiv sind. Rein rechnerisch ergibt der Vergleich mit der extrem übertakteten GeForce GTX 980 Ti auf 1886 MHz Chiptakt auch die Möglichkeit, das es nur 2048 Shader-Einheiten (wie beim GM204-Chip) sind – aber da wir die Werte dieser Karte für nicht vergleichbar halten, dürfte diese Auslegung wohl zu extrem sein.

Der beste Vergleich, welcher sich hier ergibt, sind wie gesagt die +30-36% gegenüber einer GeForce GTX 980 Ti auf Referenz-Taktraten, hierzu liegt einfach viel mehr an solidem Zahlenmaterial vor. Allein dieser Vergleich bedingt allerdings auch schon, das die Benchmark-Werte zu dieser GeForce GTX 1080 auch wirklich ohne Übertaktung zustandegekommen sind (kann derzeit nicht bestätigt werden) – trifft dies nicht zu, ist der ganze Vergleich und damit auch die Performance-Hochrechnung zur GeForce GTX 1080 umgehend hinfällig. Gleichfalls ist zu erwarten, das ein solider Hardware-Test über eine Vielzahl an Benchmarks ein anderes, niedrigeres Ergebnis als jene +30-36% auswerfen wird, der 3DMark13 (gerade im GPU-Score) skaliert halt extrem gut und schließt bekanntermaßen solche Faktoren wie Speichermenge und Speicherbandbreite weitgehend aus – was im Spielealltag dann eben nicht mehr der Fall ist. Vielleicht kann man angesichts dieser Benchmarks die bisher genannte Performance-Schätzung von "+10-15% zur GeForce GTX 980 Ti" etwas nach oben setzen (auf "+15-25% zur GeForce GTX 980 Ti") – alternativ kann man auch abwarten, bis sich hierzu irgendetwas bestätigen läßt, einzelne 3DMark-Werte haben schließlich noch nie einen Sommer gemacht.

4

Hardware- und Nachrichten-Links des 4. Mai 2016

Laut Bits 'n' Chips wird AMD innerhalb der kommenden Zen-Architektur (für Consumer-Bedürfnisse) zumindest anfänglich nur 8-Kern-Dies auflegen – weder 2-Kern-Dies noch 4-Kern-Dies noch 6-Kern-Dies. Dies ist nicht zu verwechseln mit 2/4/6/8-Kern-CPUs (der Meldungstitel bei Bits 'n' Chips ist in dieser Frage ungünstig gewählt), denn natürlich kann AMD solcherart Prozessoren durch Kern-Deaktivierung dennoch anbieten – ausgehend von ein und demselben 8-Kern-Die. Zweikern-Modelle darauf basierend sind natürlich eher unwahrscheinlich (weil arg verschwenderisch), aber Sechskerner durchaus im Rahmen des zu erwartenden und auch Vierkerner nicht unmöglich. Die Frage ist nur, ob AMD am Ende noch einen so großen Markt an Vierkernern sieht (oder diesen vorfindet), das es sich lohnt, einen Vierkerner später noch einmal als extra Die aufzulegen. Gut möglich, das man sich dies jedoch sparen kann, weil die Prozessoren-Strategie von AMD sowieso lautet, Intel bei der Anzahl der CPU-Rechenkerne anzugreifen – und die Prozessoren-Käufer inzwischen durchaus bereit dafür sind, über den derzeit noch dominierenden Vierkerner hinauszugehen. Insofern kann man derzeit davon ausgehen, das AMD als Zen-Dies nur den Achtkerner für Consumer-Bedürfnisse sowie dem 16-Kerner für Server-Bedürfnisse herstellen wird.

Der italienische EuroGamer (maschinelle Übersetzung ins Deutsche) hat einen (angeblichen) Insider an der Hand, welche über die nächste Xbox Bescheid wissen will. So soll Microsoft im Gegensatz zu Sony nicht seine aktuelle Konsole aufbohren, sondern vielmehr eine echte Neuentwicklung mit einem viel höheren Leistungsansatz anstreben. Dabei soll es allerdings eine Rückwärtskompatibilität zur Xbox One geben – was nun nicht besonders schwierig zu realisieren sein wird, angesichts wieder von AMD stammender CPU- und GPU-Hardware. In dieser Frage passt dieses Gerücht zur Meldung, AMD würde an drei neuen SoCs für das Jahr 2017 arbeiten (die beiden anderen sind durch Sonys PS4K und Nintendos NX bereits gesetzt). Die nächste Xbox soll passend dazu im Frühling 2017 erscheinen, mit einer offiziellen Ankündung allerdings schon auf der E3 im Juni 2016. Letzteres erscheint allerdings eher unwahrscheinlich, denn bei einem derartigen Leistungssprung – und weit vor Auslieferung der Konkurrenz-Produkte – muß Microsoft gar nichts ankündigen, damit zerstört man sich nur die Verkäufe der aktuellen Xbox One.

Der größte Problempunkt dieses Gerüchts lauert dann allerdings bei den Hardware-Daten zur verbauten GPU, welche 5-6x schneller als die PS4K sein soll, bei ca. 10 TFlops theoretischer Rechenleistung. Beide Daten passen schon einmal nicht zusammen, denn 10 TFlops sind ca. 5-6x so viel wie bei der originalen PS4, gegenüber der PS4K sind es (voraussichtlich) nur ~2,5x so viel Rechenleistung. Aber gesetzt den Fall, das hier vielleicht einfach nur ein Schreibfehler vorliegt und es "5-6x schneller als die PS4 (nicht PS4K)" sein sollen – auch dies würde eine geradezu extreme Hardware herausfordern: Eingerechnet eines kleinen Taktratenvorteils bei der neuen Konsole und nur betrachtend die reine Rechenleistung (und nicht damit erzielte Performance), sind hierfür ca. 5x so viele Shader-Einheiten wie bei der PS4 (1152 SE) erforderlich – sprich grobe 5500 Shader-Einheiten. Das man für 5-6x so viel Schnelligkeit eigentlich mehr benötigt als eine 5-6x so dicke Hardware, ist hierbei noch gar nicht eingerechnet. Und doch ergibt dies selbst unter der 14/16nm-Fertigung schon einen sehr großen Chip – und eingedenk der für eine APU noch notwendigen CPU- und Chipsatz-Komponenten geht dies schnell in eine Richtung von 500-550mm² Chipfläche.

Ob Microsoft in der teuren 14/16nm-Fertigung wirklich einen derartigen HighEnd-Ansatz herausbringen will, wäre dann arg zu bezweifeln – eine solche Konsole müsste außergewöhnlich hoch subventioniert werden, wobei unklar ist, ob Microsoft seinen Einsatz hierfür jemals zurückbekommen würde. Sicherlich kann man sagen, das wenn man sich von Nintendo NX und Sony PS4K wirklich abheben wollte, dies genau der richtige Hardware-Ansatz wäre. Die Frage ist nur, ob sich dies rechnet, sprich ob Microsoft dafür jemals entsprechend viel mehr Marktanteile erringt. Eher wäre zu erwarten, das sich auch bei einem klaren Performance-Sieger (mit aber dementsprechend höheren Preispunkt) nicht wahnwitzig viel am Käuferzuspruch ändert, der Gewinn der ganzen Aktion also mager ausfällt – bei allerdings horrenden Kosten. Am Ende spricht auch der von AMD genannte Umsatz für alle drei SoC-Aufträge von nur 1,5 Mrd. Dollar über 3-4 Jahre nicht dafür, das Microsoft wirklich zu so einem hohen Hardware-Einsatz greift – weil wenn doch, dann müsste sich dies auch finanziell stärker bei AMD bemerkbar machen. Insofern ist dies mit gewisser Wahrscheinlichkeit nach nur ein aus dem Ärmel gezogenes Gerücht ohne reale Grundlage.

Laut Gulli geht Epic-Chef Tim Sweeney davon aus, das Microsoft mit seiner "Universal Windows Platform" aus Windows langfristig ein abgekapseltes Ökosystem machen will, in welchem dann alle Software-Anbieter zugunsten von Microsoft arbeiten (müssen). Jenes Statement kommt nicht ganz uneigennützig, denn schließlich ist Epic selber Teilnehmer am Markt für Windows-Software – inhaltlich ist das ganze aber dennoch eine passende Beschreibung der aktuell anlaufenden Entwicklung, an deren Ende Microsoft eine ebensolche Kontrolle über den Windows-Markt erreichen will wie ihn Apple über iOS/Mac-Gerätschaften und Google über Android-Geräte innehaben. Die Kontrolle ist dabei natürlich nur Mittel zum Zweck, um an Software-Verkäufen anderer Anbieter partizipieren zu können, ganz wie es Apple und Google vormachen. Microsoft hat hierbei schlicht erkannt, das die Zeiten von Windows & Office als Cashcow vorbei sind – und es einfacher ist, an der Masse der insgesamten Software-Verkäufe ein paar Prozente zu verdienen, als denn darauf zu hoffen, das die Konsumenten aller paar Jahre immer wieder ein nur leicht verändertes Windows & Office neu kaufen.

Nebenbei ergibt sich aus dieser erkennbaren Strategie auch, wie es demnächst bei den Microsoft-Betriebssystemen weitergehen wird: Windows 10 wird ja von Microsoft als "letztes Windows" ausgegeben – und dies passt sogar, wenn auch anders als ursprünglich gedacht. Denn nach Windows 10 dürfte Microsoft den großen Schnitt wagen – ein "OS Next", welches dann ausschließlich nur noch UWP-Apps versteht. Windows 10 könnte für diesen Zweck womöglich länger laufen als andere Windows-Betriebssystem vorher, aber das von Anfang an genannte Supportende (14. Oktober 2025) sagt klar aus, das Windows 10 wohl das letzte Windows-Betriebssystem ist, nicht aber das letzte Microsoft-Betriebssystem. Gerade auch Microsofts Drang danach, so viele Nutzer wie möglich frühzeitig auf Windows 10 zu bringen, basiert wohl nicht nur dem Anspruchsdenken gegenüber Börsenanalysten, sondern auch der langfristig wirksamen Zielsetzung, UWP so früh wie möglich unter den Nutzern zu etablieren. Damit schafft man sich letztlich die Basis dafür, irgendwann den Weg zu gewöhnlicher Software zu versperren – umgesetzt wie gesagt dann mittels des Windows-10-Nachfolgers. Alle Nutzer von Windows 10 und insbesondere von UWP sollten sich dessen Gewahr sein, das sie hierbei indirekt daran mitwirken, das Microsoft dies als Sprungbrett zur Beerdigung der freien Windows-Plattform nutzen wird – bei großem Nutzerfolg früher als später.

4

Erste Benchmarks zum Core i7-6850K aus Intels Broadwell-E-Portfolio sehen vielversprechend aus

Aus dem Forum von Overclocker.net kommen erste Benchmarks eines Broadwell-E-Prozessors in Form des Core i7-6850K, dem höheren der beiden Sechskern-Modelle im Broadwell-E-Portfolio. Jener Prozessor wurde gleich mit einem Core i7-5820K aus der Haswell-E-Riege verglichen – technisch haben beide Prozessoren dieselben Eckdaten (6 CPU-Rechenkerne plus HyperThreading mit 15 MB Level3-Cache), die Taktrate wurde zudem einheitlich auf 4.2 GHz gebracht. Damit ergibt sich ein feiner taktnormierter Vergleich, welcher trotz der angetretenen nur drei Benchmarks gewisse Aussagen mitbringt: Die nur 2,2% Zugewinn unter SuperPI deuten den recht geringen Pro/MHz-Leistungsgewinn auf nur einem Rechenkern an, welchen die Broadwell-Generation gegenüber der Haswell-Generation bekannterweise aufweist – der interessanteste Teil von Broadwell in Form des eDRAM fehlt bei den Broadwell-E-Modellen, womit nur noch wenige Architektur-bezogene Verbesserungen übrig bleiben.

Core i7-5820K Core i7-6850K Differenz
Technik Haswell-E, 6C+HT, 15 MB L3-Cache, regulär 3.3/3.6 GHz, 140W TDP Broadwell-E, 6C+HT, 15 MB L3-Cache, regulär 3.6/3.8 GHz, 140W TDP -
Taktraten beiderseits auf 4.2 GHz laufend -
3DMark13 FS-E (Physics) 16598 19065 +14,9%
Cinebench R15 1191 1311 +10,1%
SuperPI 32M 518,886 sec 507,854 sec +2,2%

Die erzielten Performancegewinne unter dem 3DMark13 Firestrike Extreme Physics-Test von +14,9% sowie dem Cinebench R15 von +10,1% deuten hingegen das generelle Potential von Broadwell-E an. Da diese vergleichsweise hohen Leistungsgewinne nicht aus Architekturverbesserungen stammen können, greift hier anscheinend die verbesserte 14nm-Fertigung (gegenüber der 22nm-Fertigung von Haswell-E) im Zusammenhang mit dem veränderten Boost-Mechanismus bei Broadwell. Gänzlich erklärbar sind diese hohen Zahlen allerdings nicht, denn wie gesagt teilen beide Test-Prozessoren dieselben Grunddaten und sind auf den selben Taktraten unterwegs. Insofern kann derzeit nicht beschworen werden, das sich diese Performancegewinne dann auch in vollständigen Tests dieser Prozessoren nach deren Launch (wahrscheinlich zur Computex) zeigen. Die jetzigen Benchmarks mögen "vielversprechend" aussehen – mehr ist aber noch nicht passiert, diese guten Zahlen müssen sich erst noch bestätigen.

4

Die Grafikkarten-Performance unter Dark Souls III

Mittels entsprechender Testberichte seitens TechSpot, WCCF Tech, TweakTown & GameGPU stehen inzwischen ausreichend Zahlen für eine zusammenfassende Einschätzung der Grafikkarten-Performance zu Dark Souls III zur Verfügung. Der RPG-Titel verlangt (nominell) keinen übermäßigen Hardware-Einsatz, was auch der etwas zurückhängenden Optik geschuldet ist – welche aber dennoch die passende Stimmung zum bekannt erstklassigen Gameplay bieten kann. Auch auf dem PC hantiert Dark Souls III leider mit einem fps-Lock von 60 fps, in welchen unter reinem FullHD trotz bestmöglicher Bildqualität jede Menge Grafikkarten hineinlaufen:

Dark Souls III – FullHD @ MaxQuality  (Quellen: TechSpot, WCCF Tech, TweakTown & GameGPU)
AMD HD7000 AMD R200 AMD R300 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7790-2GB 260X-2GB 360 750-2GB
750Ti
30-35 fps 7850-2GB 245 650Ti-Boost
660
35-39 fps 7870 270 370 660Ti 950SE
40-49 fps 7870-Boost
7950
7950-Boost
270X
280
285
670 760 950
960
50-59 fps 7970
7970-GHz
280X 380
380X
680 770
780
60 fps 290
290X
390
390X
Nano
Fury
Fury X
Titan Titan Black
780Ti
970
980
980Ti
Titan X

Zudem werden auch die niedrigeren fps-Bereiche mal richtig gut gefüllt, faktisch darf sich das komplette Portfolio der Gamer-Grafikkarten von Radeon HD 7000 & GeForce 600 Serien hier nochmals (letztmals?) zeigen. Großartige Ausschläge in die eine oder andere Richtung sind zudem nicht zu sehen – alles ordnet sich ziemlich gut dort ein, wo man es erwarten darf. Allenfalls kann man nunmehr die (unsinnige) Notierung einer Radeon HD 7950 als minimale Anforderung bei den offiziellen Systemanforderungen zurückweisen – hier sollte eher eine Radeon R7 260X stehen, dies wäre der passende Gegenpart zur an dieser Stelle ebenfalls notierten GeForce GTX 750 Ti. Ein sich gemäß der offiziellen Systemanforderungen andeutende AMD-Schwäche hat das Spiel keineswegs.

Dark Souls III – WQHD @ MaxQuality  (Quellen: TechSpot, WCCF Tech, TweakTown & GameGPU)
AMD HD7000 AMD R200 AMD R300 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870
7870-Boost
7950
270
270X
370 660Ti
670
760 950
30-35 fps 7950-Boost
7970
280
285
380 680 770 960
35-39 fps 7970-GHz 280X 380X 780
40-49 fps 290
290X
390 Titan Titan Black
780Ti
970
50-59 fps 390X
Nano
Fury
980
ab 60 fps Fury X 980Ti
Titan X

Unter WQHD zeigt der Titel dann aber doch seine Zähne – die Performance bricht derart bemerkenswert ein, das dies fast nach einer expliziten Optimierung auf FullHD aussieht, welche dann unter höheren Auflösungen entsprechend wirkungslos wird. In jedem Fall kommt nunmehr ein weitaus gewohnteres Bild bei der Anzahl der notierten Grafikkarten heraus – wobei in der Frage des Zweikampfs zwischen AMD und nVidia weiterhin alles beim alten bleibt, keiner der Grafikchip-Entwickler oder deren Grafikchip-Architekturen irgendeinen beachtbaren Vorteil erringen kann. Das der Titel wirklich nicht gut auf höhere Auflösungen als FullHD reagiert, zeigen dann auch die weiterführenden Benchmarks aller vier Testartikel unter der UltraHD-Auflösung: Mit Glück schaffen es hier Radeon R9 Fury X und GeForce GTX 980 Ti auf nahezu 40 fps, alle anderen Grafikkarten kommen weitaus schlechter heraus. Dafür, das unter FullHD eine solche Framerate schon mit klaren Mainstream-Beschleunigern á Radeon R7 270X und GeForce GTX 950 erreicht wird, ergibt dies schon eine heftige Auflösungs-Skalierung unter Dark Souls III.

Inhalt abgleichen