4

Intel bringt die Desktop-Modelle von Broadwell und Skylake zeitgleich im Sommer 2015

Von der chinesischen VR-Zone (maschinelle Übersetzung ins Deutsche) kommt eine neue Intel Desktop-Roadmap, welche bestätigt, daß Intel in der Tat plant, im Sommer 2015 zeitgleich Broadwell- und Skylake-Prozessoren ins Desktop-Segment zu bringen. Mit den Plänen zu den jeweiligen Tablet-, Ultrabook- und Notebook-Modellen müssen diese Pläne für Desktop-Prozessoren natürlich nichts zu tun haben, diese können völlig abweichend hiervon sein. So ist zu Broadwell schon ein stark abgestufter Launchplan bekannt, welcher voraussichtlich im Oktober 2014 mit den Tablet-Modellen beginnt und erst im Juni 2015 mit den Desktop-Modellen endet – genauso wie jetzt auch auf dieser neuen Intel-Roadmap zu sehen.

Wirklich überraschend ist allerdings, daß Intel daraufhin die nachfolgende Skylake-Architektur nicht auf einen späteren Zeitpunkt verschoben hat, sondern nunmehr zum einstmals (vor allem Broadwell-Verschiebungen) geplanten Zeitpunkt ebenfalls noch im Juni 2015 herausbringen will. Damit wird Intel zumindest im Desktop-Bereich im voraussichtlich selben Monat gleich zwei Architekturen für dasselbe Performance-Feld vorstellen – sehr ungewöhnlich und im eigentlichen auch unverständlich. Denn natürlich werden sich sowohl Hardware-Käufer als auch PC-Hersteller am Ende für eine vorzuziehende Architektur entscheiden. Insbesondere die PC-Hersteller werden zudem kaum versuchen, Hardware-Entwicklungen für gleich zwei neue Prozessor-Architekturen zum selben Zeitpunkt aufzunehmen. Speziell aus diesem Grund sind wir bisher immer davon ausgegangen, daß Intel die Skylake-Architektur doch noch verschiebt – was nunmehr augenscheinlich nicht passieren wird (und wir uns demzufolge großartig verkalkuliert haben).

Richtig glücklich wird mit der Situation aber vermutlich niemand sein. Denn Intel wird von Skylake zumindest anfänglich keine K-Modelle herausbringen – dagegen kommen von Broadwell keine normalen Modelle (jene wären angesichts von Skylake auch überflüssig), sondern eben nur K-Modelle. Die eingefleischten Übertakter müssen also die ältere Architektur kaufen, während die Käufer der neuen Architektur nicht übertakten können. Vermutlich wird Intel diese Strategie aber kaum gegenüber den Hardware-Enthusiasten durchbringen können: Jene werden kaum auf die ungelockten Broadwell-Prozessoren setzen, wenn jene die ältere Architektur darstellen und vor allem im Sockel 1150 daherkommen, welcher nach Broadwell nicht mehr bedient wird (Skylake kommt im neuen Sockel 1151). Die an ungelockten Prozessoren interessierten Käufer dürften Broadwell-K wohl eher glatt überspringen und auf ungelockte Skylake-Prozessoren warten.

Wie Intel seinen Architektur-Mischmasch im Mobile-Segment herauszubringen gedenkt, ergibt sich aus der vorliegenden Roadmap natürlich noch nicht – aber auch hier dürfte es interessant werden. Insbesondere die Notebook-Hersteller dürften den gleichzeitigen Launch zweier Architekturen nicht tolerieren, hier kann es sich Intel trotz seiner großen Marktmacht bei zu eng aneinanderliegenden Launch-Plänen durchaus sogar mit den großen Notebook-Herstellern maßgeblich verscherzen. Aller Vermutung nach wird Intel daher versucht sein, im Mobile-Segment ein wenig mehr Abstand zwischen Broadwell & Skylake zu bringen, möglicherweise durch einen auf den Herbst 2015 verzögerten Start der Mobile-Ausführungen von Skylake.

4

Intels Skylake-Architektur kommt mit DDR3/DDR4 Kombi-Speicherinterface

Daß die "Broadwell" nachfolgende Intel Prozessoren-Architektur "Skylake" neben dem bekannten DDR4-Support auch Support für DDR3-Speicher bieten wird, war gerüchteweise schon bekannt, CPU-World bringen nun allerdings in Form einiger Details zu den verschiedenen Skylake-Varianten eine klare Bestätigung hierfür. Gleichzeitig ist an diesen Skylake-Details auch zu erkennen, daß Intel nicht für verschiedene Skylake-Bauformen (Zweikerner und Vierkerner mit verschiedenen Grafiklösungen) möglicherweise jeweils verschiedene Speicherinterfaces auflegt, sondern daß anscheinend in allen Skylake-Bauformen jeweils ein DDR3/DDR4 Kombi-Speicherinterface verbaut ist. Darauf deuten die Ausführungen zu den Desktop-Modellen (Skylake "S") eindeutig hin, welche laut CPU-World allesamt DDR3/1600 und DDR4/2133 unterstützen sollen.

Rechenkerne iGPU Speicherinterface TDP
Skylake "Y"
(Tablet-SoC)
2 Kerne GT2 DDR3/1600 4W
Skylake "U"
(Ultrabook-SoC)
2 Kerne GT2 oder GT3e (64 MB eDRAM) DDR3/1600 15W & 28W
Skylake "H"
(Notebook)
4 Kerne GT2 oder GT4e (128 MB eDRAM) DDR4/2133 35W & 45W
Skylake "S"
(Desktop)
2 oder 4 Kerne GT2 oder GT4e (64 MB eDRAM) DDR3/1600 und DDR4/2133 35W, 65W & 95W

Ein Kombi-Speicherinterface ist nicht ganz so einfach zu realisieren und belegt natürlich auch zusätzlich Chipfläche – aber gerade mit letzterem Punkt dürfte Intel angesichts seiner überlegenen Fertigungsverfahren die wenigsten Probleme haben. In jedem Fall sichert sich Intel damit bestmöglich ab, weil man somit je nach Marktanforderungen reagieren kann: Bei zu hohem Preis für DDR4-Speicher (oder eventuelle Lieferschwierigkeiten) kann man jederzeit auf das DDR3-Speicherinterface zurückgreifen. Ein klein wenig irritierend ist allerhöchstens, daß ausgerechnet jene Skylake-Ausführungen mit den niedrigsten TDPs jenes DDR4-Speicherinterface noch nicht nutzen sollen. Aber womöglich ist der Stromverbrauchs-Vorteil von DDR4 (1.2V) gegenüber DDR3L (1.35V) gar nicht so großartig, muß man hierfür auf das (spätere) Erscheinen von DDR4L (1.0V) warten. Sowfern wirklich in allen Skylake-Prozessoren ein Kombi-Speicherinterface existiert, könnte Intel auch später noch Tablet- und Ultrabook-Modelle von Skylake für den Einsatz von DDR4L-Speicher herausbringen.

3

Die Grafikkarten-Performance unter GRID Autosport

Ausarbeitungen sowohl seitens der PC Games Hardware als auch der ComputerBase haben sich mit der Grafikkarten-Performance unter GRID Autosport beschäftigt und liefern in der Summe alle notwendigen Daten, um für uns eine entsprechende Performance-Übersichtsliste zu erstellen. GRID Autosport verwendet die Ego-Engine von Codemasters, welche schon für einige Vorgänger-Spiele Benutzung fand, inzwischen aufgebohrt wurde, trotzdem aber natürlich nichts mit "NextGen" zu tun hat. Als Minimum wird eine DirectX-10-Grafikkarte gefordert, DirectX 11 wird allerdings trotzdem unterstützt und teilweise für einige Grafikeffekte sogar ausgenutzt, so daß die maximale Grafikpracht erst unter DirectX 11 zur Verfügung steht. Wir benutzen nachfolgend primär die (neueren) Benchmarks der ComputerBase, und für die dort nicht notierten Grafikkarten dann eine Interpolation der Ergebnisse der PCGH:

GRID Autosport – 1920x1080 MaxQuality + HighRes-Texturen + 4x MSAA
AMD HD5000 AMD HD6000 AMD HD7000 AMD R200 nVidia GF400 nVidia GF500 nVidia GF600 nVidia GF700
20-24 fps 5830 6790
6850
7750-GDDR5 250-GDDR5 460SE-1GB
460-768MB
560SE 650 740-GDDR5
25-29 fps 5850 6870 7770 250X 460-1GB
465
560
30-39 fps 5870 6950
6970
7790 260
260X
470
480
560Ti
560Ti-448
570
650Ti 750
40-49 fps 7850 265 580 650Ti-Boost
660
750Ti
ab 50 fps 7870
7870-Boost
7950
7950-Boost
7970
7970-GHz
270
270X
280
280X
290
290X
660Ti
670
680
Titan
760
770
780
Titan Black
780 Ti

Sicherlich haben neuere Karten der Performance- und HighEnd-Gefilde kein Problem mit GRID Autosport, die vielen mit niedrigen Frameraten notierten Mainstream-Grafikkarten oder älteren Modelle sind allerdings nicht besonders beachtenswert – als typisches Autorennspiel benötigt GRID Autosport durchgehend anständige Frameraten und wird daher unterhalb von 30 fps nicht wirklich gut spielbar laufen. Daher kann man sagen: Es sollte schon eine moderne, leistungsfähige Mainstream-Grafikkarte sein, von den älteren Generationen halten nur noch die HighEnd-Ausführungen vernünftig mit. Denn GRID Autosport läuft augenscheinlich auf den Grafikkarten der jeweils aktuellen Architekturen klar schneller, dies ist sowohl bei AMD als auch bei nVidia klar sichtbar.

Zwischen den beiden Grafikchip-Entwicklern sieht die Sache für nVidia etwas besser aus – dies allerdings primär bei den schnellen Grafikkarten, welche sowieso fix über 50 fps erzeugen. Bei jenen Grafikkarten, wo die Performance-Unterschiede eher zählen würden – beispielsweise im Duell Radeon R7 260X gegen GeForce GTX 750 Ti – ergibt sich dagegen kaum ein echter Unterschied zwischen den beiden Grafikchip-Entwicklern (außer dem nominellen 5%igem Vorsprung der nVidia-Grafikkarte in diesem Beispiel). Grundsätzlich werden die GRID-Titel zwar gern als "nVidia-Spielwiese" beschrieben, aber zumindest unter dieser Auflösung und diesen Anforderungen schlägt dies noch nicht so durch, als daß es wirklich Relevanz erhalten würde.

Für die Auflösung von 2560x1600 liegen leider zu wenige Benchmarks für eine vollständige Bewertung vor, generell kann man von einem gut dreizigprozentigem Einbruch der Frameraten ausgehen. Die Messungen unter 3840x2160 erfordern dann derart erheblich an Grafikkarten-Rohpower, daß nur noch wenige Grafikkarten mitkommen. Mit nur 1 GB Grafikkarten-Speicher liefern viele Grafikkarten entweder keine Bilder oder aber nur unterirdische Performance-Werte von 5 fps und weniger, ab 2 GB Grafikkarten-Speicher verschwindet diese Limitierung allerdings vollständig. Dann sind aber dennoch klare HighEnd-Grafikkarten erforderlich, um überhaupt mehr als 30 fps zu erreichen. Die eigentlich für ein Autorennspiel mindestens anzustrebende Marke von 40 fps erreichen hier nur noch Radeon R9 290X, GeForce GTX 780 Ti, Titan und Titan Black.

2

Hardware- und Nachrichten-Links des 2. Juli 2014

Laut den SweClockers (maschinelle Übersetzung ins Deutsche) soll es schon nächste Woche eine kleine Preissenkungs-Runde zur Radeon R9 280 & 280X geben, in deren Folge diese Karten um ca. 10% günstiger angeboten werden sollen. Dies wird begründet mit der benötigten Lagerbereinigung vor dem kommenden Launch des Tonga-Chips – welche offenbar stark genug ist, um sowohl Radeon R9 280 (erwartet) als auch Radeon R9 280X (nicht überall so erwartet) ablösen zu können. Der Tonga-Chip wurde kürzlich für einen Launch-Termin schon im August vermeldet, insofern ist dies ein ziemlich passendes Gerücht mit demzufolge hoher Wahrscheinlichkeit auf Korrektheit. Die Preissenkungen schon vor dem Launch deuten zudem an, daß der Tonga-Chip zwar keine neuen Performance-Offensive mit sich bringen wird, aber wahrscheinlich dieselbe Performance zu einem besseren Preispunkt anbietet – höchste Zeit also, die Läger an Radeon R9 280 & 280X Grafikkarten zu leeren.

Laut der neuesten Betriebssystem-Statistik von Netmarketshare gab es im Juni 2014 kaum große, dafür aber eher unerwartete Entwicklungen bei den weltweit für den Internet-Zugriff verwendeten Desktop-Betriebssystemen (nicht ans Internet angeschlossene PCs können bei dieser Statistik nicht gezählt werden): So verlor Windows 8/8.1 minimal um 0,1%, während Windows XP minimal um 0,04% und Windows 7 gut um 0,5% zulegen konnten. Windows 7 liegt bei Netmarketshare im übrigen seit dem Mai oberhalb der magischen 50-Prozent-Marke, während Windows XP derzeit immer noch die 25-Prozent-Marke halten kann. Nach dem Umstiegs-Schwung zum Jahresanfang ist nunmehr der Abstieg von Windows XP sowie der Aufstieg von Windows 8/8.1 wieder deutlich gebremst – und bei Windows 8/8.1 darf angesichts dieser Zahlen (derzeit nur 12,54% Anteil an der installierten Basis) sogar die Frage aufgestellt werden, ob das aktuelle Microsoft-Betriebssystem überhaupt jemals den besten Wert von Windows Vista (~25% zum Release von Windows 7) erreichen kann.

Die neueste Browser-Statistik von Netmarketshare zeigt hingegen für den Juni 2014 gegenüber dem Mai 2014 einen unerwartet großen Zuwachs für Chrome und zugleich einen erstaunlich großen Abfall zuungunsten von Firefox an, während sich beim Internet Explorer sowie den anderen Browsern kaum etwas ändert. Im großen Maßstab ändert sich allerdings recht wenig: Der IE tänzelt bei oberhalb 55%, Chrome und Firefox jeweils zwischen 15% und 20%. Diese weltweit geltenden Zahlen dürften im Firefox-Land Deutschland allerdings maßgeblich anders aussehen: Auf der 3DCenter-Hauptseite waren es im Juni 2014 im übrigen 41,5% für Firefox, 19,6% für Chrome und nur 12,6% für den Internet Explorer, im 3DCenter-Forum dagegen im gleichen Zeitraum wiederum 41,5% für Firefox, dafür aber 28,5% für Chrome und nur noch 8,8% für den Internet Explorer.

Heise Security berichten über neue Sicherheitsrisiken von Smartphones bzw. deren hochauflösender Kameras: Insbesondere die rückseitigen Kameras einiger Modelle sind inzwischen hochauflösend genug, um selbst Fingerabdrücke erfassen zu können – was die gerade erst aufkommenden Biometrie-Sicherheitsverfahren entscheidend angereift. Noch gefährlicher sind aber die Angriffe über die üblicherweise nur mit 2 oder 3 MPixel aufgelösten Frontkameras: Über Reflexionen des Smartphone-Displays in den Augen oder Brillen der Benutzer konnte man recht problemlos Passwort-Eingaben mitschneiden. Da viele Apps Kamera-Zugriff verlangen, würde eine solche Attacke auch nicht unbedingt sofort auffallen. Hier liegt sicherlich ein gewaltiges Mißbrauchs-Potential – welches allerdings auch durch den eher sorglosen Umgang vieler Nutzer mit Smartphones provoziert wird. Denn normalerweise sollte man einem per default nicht wirklich unter eigener Kontrolle stehendem System mit dazu hohem Diebstahlrisiko niemals irgendwelche kritischen Daten & Passwörter anvertrauen.

Die Tagesschau hatte teilweisen Zugriff auf den Code von XKeyscore – die Daten-Suchmaschine der NSA. Aus dem Quellcode ergibt sich, daß die NSA offenbar alle Nutzer von TOR und ähnlichen Verschlüsselungs-Diensten sowie auch alle, welche im Internet nach solchen per Suchmaschine suchen, als "Extremist" kennzeichnet und demzufolge weiterer Beobachtung aussetzt. Dabei ist die politische Ansicht des Überwachten völlig egal, das Kennzeichen "Extremist" leitet sich allein aus dem Interesse an Verschlüsselungs-Diensten ab. Nicht völlig unerwartet zeigt sich hier ganz praktisch, daß sich die Totalüberwachung eben nicht nur auf (vermeintliche & echte) Missetäter konzentriert, sondern immer auch auf Gegner der Überwachung. Dabei ist dies nur der Lauf der Welt angesichts der zur Verfügung stehenden Mittel: Wenn man ein totalitäres Machtinstrument in der Hand hält, wäre man auch schön blöd, jenes nicht auch als erstes gegen die Gegner dieses Totalitarismus einzusetzen.

2

nVidia GM204-Chip: Chipfläche von ~430mm² ermöglicht bis zu 3072 Shader-Einheiten

Auf der chinesischen Seite GamerSky (maschinelle Übersetzung ins Deutsche) sind Bilder eines Sampleboards zu einer neuen HighEnd-Grafikkarte seitens nVidia aufgetaucht, welche in der Folge natürlich im Web und in unserem Forum ausführlich begutachtet und kommentiert wurden. Nicht alles ist klar an diesen Fotos – und da zudem ein augenscheinlich sehr frühes Sample fotographiert wurde, darf auch nicht alles auf die Goldwaage gelegt werden, kann sich bei finalen Produkten noch einiges ändern. Dies trifft zum einen auf die zu sehenden SLI-Konnektoren zu, genauso aber auch auf die Stromzufuhr, welche sich derzeit auf zwei 6polige und einen 8poligen Stromstecker beläuft. Damit wäre eine TDP von 375 Watt möglich, was auf eine absolute HighEnd-Grafikkarte hindeutet. Allerdings kann hier der Vorserien-Status des Sample-Boards täuschen, kann diese hohe Stromversorgung nur zu Testzwecken so gebaut worden sein – ohne daß es also bei den Serienboards ähnlich umfangreich wird.

Denn eigentlich deutet der Rest nicht auf den Enthusiasten-Chip GM200, sondern eher den HighEnd-Chip GM204 hin. Dafür spricht zum einen klar das nur 256 Bit DDR breite Speicherinterface – nVidia wird den Enthusiasten-Chip GM200 kaum mit einem solchen Speicherinterface ausrüsten, das wäre völlig unpassend für die geplanten professionellen Einsatzzwecke. Auch die Chipgröße, welche laut unserem Forum bei rund 430mm² liegt, spricht eher für den GM204 als den GM200 – letzterer sollte unter der 28nm-Fertigung in ähnliche Regionen wie der GK110 mit seinen 561mm² Chipgröße gelangen. Und letztlich spricht das Fertigungsdatum des Grafikchips von Mitte Mai sehr klar für den GM204-Chip, da der GM200-Chip zu diesem Zeitpunkt noch nicht einmal seinen Tape-Out gehabt haben dürfte.

Bezüglich der Chipgröße des auf den Bildern zu sehenden Chips gibt es im übrigen reichlich Irritationen durch herumschwirrende falsch skalierte Package-Bilder anderer nVidia-Grafikchips. Auch erscheinen die errechneten 430mm² als recht viel angesichts der nur 294mm² des Vorgänger-Chips GK104 von GeForce GTX 660 Ti, 670, 680, 760 & 770. Andererseits kann man gut und gerne behaupten, daß sich die Grafikchip-Entwickler nunmehr gegen Ende der 28nm-Fertigung diesen hohen Silizium-Aufwand sicherlich eher leisten können als vor zweieinhalb Jahren zum Start der 28nm-Fertigung. Mangels Verfügbarkeit der eigentlich für den jetzigen Zeitpunkt geplanten 20nm-Fertigung scheint nVidia nunmehr alles aus der 28nm-Fertigung herauszuholen, was noch irgendwie möglich ist – und dafür mit dem GM204 einen wirklich mächtigen reinen Gamer-Chip herauszubringen.

Denn auf ~430mm² Chipfläche dürfte man nicht knausrig bezüglich der Anzahl an verbauten Shader-Einheiten sein, die alte Kalkulation von 1920 bis 2560 Shader-Einheiten beim GM204-Chip auf Basis von angenommen 370mm² Chipfläche stellt nunmehr eher das untere Ende der Möglichkeiten dar. Auf 430mm² Chipfläche ist doch einiges mehr möglich, aber zumindest scheinen die 2560 Shader-Einheiten als Minimum in trockenen Tüchern. Eine konservative Rechnung schätzt den GM204-Chip auf ~430mm² Chipfläche daher auf 2560 bis 3072 Shader-Einheiten ein, das Performance-Potential liegt dann trotz des nur 256 Bit DDR breiten Speicherinterfaces sehr klar oberhalb des GK110-Chips von GeForce GTX 780, 780 Ti, Titan & Titan Black.

GM204 @ ~370mm² GM204 @ ~430mm²
Technik 1920 bis 2560 Shader-Einheiten
256 Bit DDR Speicherinterface
2560 bis 3072 Shader-Einheiten
256 Bit DDR Speicherinterface
(grobe) Performance-Prognose ~500% bis ~600% ~600% bis ~650%
Radeon R9 290X = 480%, GeForce GTX Titan Black = 500%, GeForce GTX 780 Ti = 530%

Derweil wollen wir die Idee, der GM204-Chip könnte tatsächlich rund 430mm² schwer sein und damit bis zu 3072 Shader-Einheiten tragen, als noch nicht vollständig gegeben ansehen – dafür waren die früheren Meldungen, welche sich für eine Chipfläche eher näher an 350mm² als 400mm² aussprachen, zu glaubwürdig. Auch das nur 256 Bit DDR breite Speicherinterface spricht etwas dagegen, daran eine so hohe Anzahl an Shader-Einheiten zu hängen – immerhin doppelt so viel wie beim Vorgänger-Chip GK104. Außerdem spricht gegen einen zu großen GM204-Chip auch der Punkt, daß nVidia dann Schwierigkeiten haben dürfte, den GM200-Chip nochmals schneller werden zu lassen. Beim GM200-Chip steht zwar deutlich mehr Chipfläche – bis zu 600mm² – zur Verfügung, dafür muß nVidia aber auch alle die für professionelle Bedürfnisse benötigten Transistoren verbauen und kommt wegen Chipfläche & Stromverbrauch daher schnell zu dem Punkt, Taktraten reduzieren zu müssen. Für den Augenblick kann man erst einmal beide Thesen – GM204 auf ~370mm² sowie GM204 auf ~430mm² – nebeneinander stehen lassen und kommende, klärende Informationen hierzu abwarten. Für den Augenblick werden GM204-basierte Grafikkarten für die Herbst/Winter-Saison 2014 erwartet, frühestens zum Oktober.

1

Hardware- und Nachrichten-Links des 1. Juli 2014

AMD hat mit dem neuen Monat nun auch den gestern erst erwähnten FX-9590 mit Wasserkühlung ab Werk offiziell gemacht bzw. auf der Produkt-Webseite für eine Auslieferung "in Kürze" notiert. Hierfür verwendet AMD eine Coolermaster Seidon 120V All-in-One-Wasserkühlung und verlangt nach früheren Angaben einen Aufpreis von 40 Dollar, kommt also bei einem Listenpreis von 359 Dollar heraus. Wirklich günstig ist dies nicht, denn Intels Core i7-4790K steht für 339 Dollar in der Preisliste – zwar ohne Wasserkühlung ab Werk, aber genauso ungelockt und mit deutlich mehr Overclocking-Potential wie auch Nominal-Performance. Nachdem AMD allerdings seine Bulldozer/Vishera-Prozessoren mit den Centurion-Modellen auf 5 GHz Takt gehieft hat, ist alles Pulver seitens AMD bereits verschossen und man kann – mangels Nachfolger mit neuen Architekturen oder/und in neuen Fertigungsverfahren – nichts mehr wirklich neues bieten.

WinFuture präzisieren die Erkenntnislage zu Windows "Threshold" nochmals: Danach soll die Desktop-Version von Windows "Threshold" keinen Startscreen mehr bieten, sondern nur noch ein Startmenü. Dafür allerdings wird das Threshold-Startmenü eher wie der Startscreen von Windows 8 funktionieren – nicht also wie die von Windows 95 bis 7 bekannten Startmenüs. Andererseits ist bis zum Release von Windows "Threshold" noch jede Menge Zeit – je nach Gerüchtequelle werden Frühjahr 2015 oder Herbst/Winter 2015 genannt – in welcher sich Microsoft noch dreimal umentscheiden kann. Interessant ist eher, wieviel Entwicklungsarbeit für diesen eher sinnlosen Versuch verschwendet wird, das Rad neu zu erfinden – dabei liegen nun inzwischen jahrzehntelange Erfahrung mit Startmenüs vor, selbst die Erfahrungen von Microsoft-fremden Oberflächen wie MacOS oder verschiedenen Linux-Distributionen werden Microsoft offenstehen.

Daß man es angesichts dieser geballten Entwicklungs- und Erfahrungsmacht nicht schafft, endlich einmal ein funktionierendes System zu schaffen, sondern sich mit den verschiedenen Ausführungen von Windows 8 samt Nachfolgern nur einmal komplett im Kreis gedreht hat, dürfte eine der größten Merkwürdigkeiten der jüngeren Softwareentwicklungs-Geschichte darstellen. In dieser Zeit, wo Microsoft den Desktop einmal komplett neu erfunden und nachfolgend Schritt für Schritt wieder zum vorherigen System zurückrudert, haben andere (Apple & Google) ganze Betriebssysteme (iOS & Android) aus dem Boden gestampft und groß gemacht. Zudem darf durchaus die Frage gestellt werden, inwiefern durch die umfangreiche Arbeit an der Oberfläche andere Punkte eines Betriebssystems bei Microsoft eventuell zu kurz kommen. Außer dem wenig geliebten Cloud-Ansatz ist bislang wenig zu hören davon, was Microsoft zukünftig wirklich verbessern will – das Zurückrudern bei der Oberfläche kann schließlich kaum als "Verbesserung" bezeichnet werden.

Inhalt abgleichen