5

Neuer 3DTester-Report: Toshibas "Wireless and Wearables 2014" zeigt TransferJet

Sprichwörtlich im Herzen von München im Heart, hat Toshiba zu einem Presse-Event geladen. Wie man der Einladung entnehmen kann, geht es um Toshibas Visionen der Zukunft. Dass klingt zwar etwas hochtrabend, aber wenn ein solch großer Hersteller bereitwillig über zukünftigen Produkte und Entwicklungen sprechen will, dann lässt man sich diese Gelegenheit nicht entgehen ... zum Report.

Toshibas "Wireless and Wearables 2014" zeigt TransferJet Toshibas "Wireless and Wearables 2014" zeigt TransferJet
3

Hardware- und Nachrichten-Links des 2./3. Oktober 2014

Gemäß Microsoft wird Windows 10 DirectX 12 mit sich bringen. Weitere Aussagen zum DirectX-12-Support früherer Microsoft-Betriebssysteme sowie was mit DirectX 11.3 sein wird, wurden leider nicht gemacht. Im Endeffekt deutet sich allerdings an, daß DirectX 12 als Zugpferd für das neue Microsoft-Betriebssystem mißbraucht werden und damit nur unter Windows 10 zur Verfügung stehen wird. DirectX 11.3 wird wahrscheinlich dagegen die Kompromißlösung gegenüber den Grafikchip-Entwicklern darstellen: Es enthält all die neuen Hardware-Features von DirectX 12, aber nicht die Mantle-artige CPU-Beschleuniger von DirectX 12. Übertragenerweise ist DirectX 11.3 einfach eine etwas langsamere Ausführung von DirectX 12, wird aber dafür auch unter älteren Microsoft-Betriebssystemen zur Verfügung stehen. Sicher dürfte es DirectX-11.3-Support für Windows 8.1 geben – ob Microsoft sich auch zu einem Support von Windows 7 herabläßt, bliebe abzuwarten.

Wieder einmal sehr schwankende Werte zur Betriebssystem-Verbreitung kommen von Netmarketshare: Denn nach einem kurzen Hoch zum vorletzten Monat ist Windows 8/8.1 im September erneut gefallen im Nutzerzuspruch – von 13,4% auf nur 12,3%. Selbst Windows Vista lief seinerzeit nicht so schlecht, sondern konnte bis zu seiner Ablösung durch Windows 7 jeden Monat leicht hinzugewinnen. Da alle neuen PCs automatisch mit Windows 8 ausgeliefert werden, kann diese Statistik – welche ja auch durch den langmonatigen Trend unterstützt wird – nur damit erklärt werden, daß jeden Monat eine ernsthafte Zahl von Nutzern ihr Windows 8 gegen ein Windows 7 eintauscht. Wäre es nicht so, müsste Windows 8 allein durch die Anzahl an neu gekauften PCs jeden Monat geringfügig, aber langfristig klar meßbar zulegen können. Windows XP blieb hingegen im September stabil bei weiterhin 23,9%, während Windows 7 das hinzugewann, was Windows 8 verlor – von 51,2% auf 52,7% hinauf.

Vom Elektroniknet kommt ein sehr interessanter Artikel zur Arbeit der Chiphersteller an FinFET-Transistoren, sprich 3D-Transistoren. Bei Intel werden jene ab der 22nm-Fertigung eingesetzt, bei TSMC ab der kommenden 16nm-Fertigung und bei GlobalFoundries sowie Samsung ab der kommenden 14nm-Fertigung. Dabei sind die ersten Ergebnisse bezüglich höheren Taktfrequenzen oder aber niedrigerem Stromverbrauch vielversprechend – allerdings sinkt bei den Chipdesigns von GlobalFoundries und TSMC nicht, wie ansonsten üblich, die Chipfläche erheblich ab. Für viele Anwendungszwecke ist dies vernachlässigbar (wenngleich es natürlich trotzdem eine wirtschaftliche Größe bleibt), aber für die Ansprüche der Grafikchip-Entwickler war dies bisher unverzichtbar: Da die Grafikchip-Entwickler mit der Chipfläche ihrer Spitzen-Produkten regelmäßig an der Grenze des Herstellbaren lagen, konnte eine (wirkliche) neue Generation immer nur dann erscheinen, wenn ein neues Fertigungsverfahren diesen Platzbedarf reduziert und damit Platz für mehr Hardware-Einheiten schuf.

Dies scheint nun aber mit 14/16nm nicht mehr zu gelingen – wenigstens von 20nm ausgesehen. Gegenüber 28nm liegt allerdings nach wie vor ein großer Sprung vor – nur entspricht jener eher nur einer Fertigungsstufe, nicht zweien, wie man es zwischen 28nm und 14/16nm ansonsten vermuten würde. Im Endeffekt wird es im Grafikchip-Bereich wohl so werden, als wäre 20nm nicht existent und nach 28nm käme ganz natürlich die 14/16nm-Fertigung. Selbst warum 20nm von den Grafikchip-Entwicklern augenscheinlich ausgelassen wird, erklärt sich über den Artikel: Der einzige große Vorteil von 20nm liegt im (geringeren) Flächenbedarf, nicht aber in bemerkbar mehr Performance pro Watt. Jenen Flächenbedarfs-Vorteil kann man jedoch kaum umsetzen, da durch die höheren Fertigungskosten von 20nm das ganze letztlich nicht günstiger kommt als die größeren 28nm-Chips. Eventuell ist der eine oder andere Monsterchip unter 20nm drin, welcher unter 28nm von der Fläche her einfach nicht herstellbar wäre – aber ein komplettes Portfolio von Grafikchips ist unter 28nm weiterhin besser aufgehoben als unter 20nm.

In einem Nebensatz vermeldet das ZDNet beiläufig, daß zu den Abnehmern von Samsungs 14nm-Fertigung auch AMD gehören wird – eine überraschende Meldung, denn AMD hat mit GlobalFoundries (samt Mindestabnahme-Abkommen) und TSMC eigentlich schon zwei Fertigungspartner. Gerade das Wafermindestabnahme-Abkommen mit GlobalFoundries, welches AMD letztes Jahr nicht einhalten konnte und daher Strafzahlungen in dreistelliger Millionenhöhe leisten musste, sollte eigentlich effektiv weitere Fertigungspartern bei AMD verhindern. Aber möglicherweise ist dies alles auch nur in den falschen Hals geraten und die eigentliche Meldung lautet, daß AMD Produkte in Samsungs 14nm-Fertigungstechnologie herstellen lassen wird – allerdings nicht bei Samsung selber, sondern bei GlobalFoundries, welche die 14nm-Fertigung von Samsung zugunsten eigener 14nm-Anstrengungen lizenziert haben. Vor einer Bestätigung seitens AMD ist diese Meldung sicherlich sehr vorsichtig zu behandeln.

Mit ähnlicher Zurückhaltung ist zudem eine Meldung von Business Wire über eine Vereinbarung zwischen TSMC und ARM zur 10nm-Fertigung zu sehen. Die Vereinbarung selber ist natürlich nicht zweifelhaft, aber die indirekten Terminversprechungen zur 10nm-Fertigung sind es schon: So will TSMC bereits im vierten Quartal 2015 erste Tape-Outs von 10nm-Chips ermöglichen. Dies ist ein extrem ambitionierter Termin, denn wahrscheinlich dürfte TSMC derzeit intern noch nicht einmal wissen, wie man 10nm außerhalb des Labor-Betriebs herstellen kann. Andererseits sind die Terminangaben der Auftragsfertiger immer auch eine Mischung aus purem Optimimus, Marketing-Versprechungen und vor allem der Negierung der zeitlichen Differenz zwischen Risk-Fertigung für Kleinserien und der regulären Massenfertigung. Im Fall von TSMCs 10nm-Fertigung gehen wir derzeit weiterhin von kaufbaren Produkten mit 10nm-Chips nicht vor dem Jahr 2018 aus.

3

Nachträge zu GeForce GTX 970 & 980: Reale Taktraten und Power-Limits

Es hat etwas gedauert, aber das Warten lohnt sich immer auf den HT4U Testbericht zu den neuen Maxwell-Grafikkarten GeForce GTX 970 & 980. Verschiedene Messungen und Vorgehensweisen findet man (leider) nur bei HT4U, gerade was die Beurteilung von realer Leistungsaufnahme, realen Taktraten sowie BIOS-Limits für Temperatur und Stromverbrauch angeht. Als erstes konnten so die bisherigen Aussagen zur real anliegenden Taktrate bei der GeForce GTX 980 im Referenzdesign bestätigt werden: Die ComputerBase kam hierbei auf Ø 1144 MHz im geschlossenen Gehäuse nach Aufwärmphase, Hardwareluxx ohne solche Maßnahmen auf Ø 1186 MHz – und HT4U nunmehr auf Ø 1130 MHz, ebenfalls im geschlossenen Gehäuse nach Aufwärmphase.

GeForce GTX 980
Referenz-Takt 1126/1216/3500 MHz
realer Takt laut ComputerBase Ø 1144 MHz geschlossenes Gehäuse, Takt nach 20 Minuten, Schnitt aus 16 Spielen
realer Takt laut Hardwareluxx Ø 1186 MHz Schnitt aus 8 Spielen
realer Takt laut HT4U Ø 1130 MHz geschlossenes Gehäuse, Takt nach 5 Minuten, Schnitt aus 11 Spielen

Diesbezügliche Angaben zur GeForce GTX 970 sind nach wie vor Mangelware, da es faktisch kein frei verkäufliches Referenzdesign dieser Karte gibt und die Hersteller-Varianten in aller Regel ab Werk mit anderen Stromverbrauchs-Limits antreten. Allerdings scheint es fast so, als würden die "halbwegs normalen" Herstellervarianten zur GeForce GTX 970 irgendwo den von nVidia angegebenen Boost-Takt (von 1178 MHz) erreichen – dies wäre dann sogar etwas mehr als bei der GeForce GTX 980. Die vielen gut übertakteten Hersteller-Varianten zur GeForce GTX 970 erreichen dagegen bekannterweise spielend reale Taktraten von 1200 MHz und mehr.

Die zweite wichtige Information aus dem HT4U-Testbericht bezieht sich auf die realen Power-Limits der beiden neuen nVidia-Karten – ein Punkt, der extrem interessant ist zur Beurteilung von ab Werk übertakteten Varianten (höheres Power-Limit bedeutet in den Zeiten von Boost-Taktraten bessere Übertaktungsfähigkeiten), von den meisten Testberichten jedoch unverständlicherweise nicht beantwortet wird. Die GeForce GTX 980 im Referenzdesign riegelt dabei bei 180 Watt ab und besitzt ein Erhöhungspotential von +25%, die GeForce GTX 970 im (wie gesagt recht zahmen) Inno3D-Design riegelt bei 160 Watt ab und besitzt ein Erhöhungspotential von nur +6%. Ganz nebenbei gesagt liegen diese Abriegelungspunkte im übrigen klar oberhalb der TDP-Angaben von 165W bzw. 145W, an dieser Stelle versucht nVidia (unverständlicherweise) zu schummeln. Dies erscheint angesichts der trotzdem hervorragenden Energieeffizienz von GeForce GTX 970 & 980 als vollkommen unnötig.

GeForce GTX 970 GeForce GTX 980
Referenz Hersteller Referenz Hersteller
Taktraten 1050/1178/3500 MHz je nach Modell 1088/1228/3500 bis 1216/1367/3500 MHz 1126/1216/3500 MHz je nach Modell 1178/1279/3500 bis 1291/1393/3600 MHz
realer Takt ~1178 MHz die Hersteller-Karten halten in aller Regel ihren Boost-Takt ~1144 MHz die Hersteller-Karten halten in aller Regel ihren Boost-Takt
Power-Limit 150W je nach Modell bis zu ~250W 180W je nach Modell bis zu ~300W
Power-Erhöhung +6% je nach Modell bis zu +20% +25% ?
Spiele-Stromverbrauch ~150W je nach Modell bis zu ~185 Watt ~180W je nach Modell bis zu ~200 Watt
TDP 145 Watt 165 Watt

Wenn irgendwo Stromverbrauchsmessungen von Hersteller-Varianten einen deutlich höheren Stromverbrauch aufzeigen, so dürften bei den dort gemessenen Karten dann das Power-Limit seitens des Herstellers entsprechend erhöht worden sein. Darüber erklären sich auch die teilweise monströs hohen Stromverbrauchs-Messungen bei Tom's Hardware, wo eine GeForce GTX 980 im Gigabyte-Design in einem GPGPU-Test auch mal bei satten 280 Watt Leistungsaufnahme herauskam. Die Karte dürfte schlicht ab Werk über ein deutlich nach oben gesetztes Power-Limit verfügen – im konkreten Fall ein Power-Limit Richtung 300 Watt, was erneut wenig zur von nVidia angegebenen TDP passt. In jedem Fall ergeben sich zwischen Referenz- und Herstellerdesigns erhebliche Differenzen beim Stromverbrauch und auch den Power-Limits. Gerade für echte Übertakter sind die Hersteller-Karten somit sehr sinnvoll – weniger wegen der höheren Taktraten ab Werk, sondern wegen des automatisch höheren Power-Limits sowie des sich damit auftuenden größeren Stromverbrauchs-Spielraums. Eine gut übertaktete GeForce GTX 980 wird dann aber natürlich kaum noch unter 200 Watt laufen, der ganz große Energieeffizienz-Vorteil geht da schnell flöten.

2

Was man mit High Bandwith Memory anfangen kann

Da man sich zum Fall "High Bandwith Memory" (HBM) immer noch mehrheitlich an den eher technischen Angaben der Hynix-Präsentation aufhält, welche zwar viel über Bandbreiten per Speicherchip und ähnliches sagt, aber wenig zu den Realitäten eines Grafikchips, sei hiermit die nachfolgende Modellrechnung aufgemacht: Für eine Grafikkarte mit 4 GB Speicher benötigt man in der ersten HBM-Generation vier HBM-Stacks mit jeweils 1 GB Speicher und jeweils 1024 Bit DDR Speicherinterface. Auf dem Grafikchip selber würde dann ein 4096 Bit DDR Speicherinterface arbeiten, welches mit 500 MHz DDR betrieben wird und somit auf eine Speicherbandbreite von 512 GB/sec kommt.

Will man dagegen gleich 8 GB Speicher haben, gibt es mehrere Wege: Zum einen ermöglicht die zweite HBM-Generation eine höhere Speicherdichte pro Stack, dies wäre die einfachste Lösung: Benutzt werden hierbei zwei HBM-Stacks der zweiten HBM-Generation mit jeweils 4 GB Speicher und jeweils 1024 Bit DDR Speicherinterface. Auf dem Grafikchip selber würde dann ein 2048 Bit DDR Speicherinterface existieren, welches allerdings mit 1000 MHz DDR betrieben wird und somit wieder auf eine Speicherbandbreite von 512 GB/sec kommt. Da in der zweiten HBM-Generation auch 8 GB pro HBM-Stack möglich sein werden, wäre auch eine Lösung mit nur einem HBM-Stack mit gleich 8 GB Speicher anwendbar. Durch das kleinere Interfaces des Grafikchips (1024 Bit DDR, da nur ein HBM-Stack) sänke in diesem Modell die Speicherbandbreite aber auf 256 GB/sec ab.

Man kann für 8 GB Speicher allerdings auch noch völlig anders herangehen, gerade wenn die zweite HBM-Generation noch nicht zur Verfügung stehen würde: In diesem Fall benutzt man einfach acht HBM-Stacks der ersten HBM-Generation. Dies würde auf Seiten des Grafikchips zu einem imposanten 8192 Bit DDR Speicherinterface zwingen und damit natürlich die Speicherbandbreite ebenfalls verdoppeln – auf dann 1024 GB/sec schon in der ersten HBM-Generation. Trotzdem bliebe jenes große Speicherinterface immer noch im Flächenbedarf sowie im Stromverbrauch weit unterhalb der Werte eines herkömmlichen GDDR5-Speicherinterfaces.

GDDR5 erste HBM-Generation zweite HBM-Generation
4/8 GB 4 GB 8 GB 4/8 GB 8/16 GB 16/32 GB
HBM-Stacks - 4 8 1 2 4
Speichertakt 2750 MHz 500 MHz DDR 1000 MHz DDR
GPU-Interface 512 Bit DDR 4096 Bit DDR 8192 Bit DDR 1024 Bit DDR 2048 Bit DDR 4096 Bit DDR
Speicherbandbreite 320 GB/sec 512 GB/sec 1024 GB/sec 256 GB/sec 512 GB/sec 1024 GB/sec
Platzbedarf GPU-Interface ~55mm²
(AMD Hawaii)
~15mm² ~30mm² ~5mm² ~10mm² ~15mm²
Stromverbrauch bei HBM verbrauchen GPU-Interface und Speicherchips zusammen ca. 50-80 Watt weniger als bei GDDR5

Allerdings ergibt sich hieraus auch schon eine gewisse Problematik: Zumindest die erste HBM-Generation ist sehr unflexibel bezüglich der verbauten Speichermengen – zu einer bestimmten Speichergröße gehört immer ein entsprechend großes Interface und damit eine festgelegte Speicherbandbreite. Aus heutiger Sicht mögen sich 512 GB/sec Speicherbandbreite für 4 GB Speicher großartig anhören, doch wenn HBM wohl erst mit einer neuen Grafikchip-Generation im Jahr 2016 antritt, werden 4 GB Speicher wohl deutlich zu wenig sein – und 8 GB Speicher erfordern in der ersten HBM-Generation größere Interfaces. Damit verdoppelt man nochmals die Speicherbandbreite – aber es ist fraglich, ob 1024 GB/sec Speicherbandbreite schon im Jahr 2016 gewollt bzw. seitens der Grafikchip überhaupt sinnvoll ausnutzbar sind.

HBM scheint erst mit der zweiten Generation richtig praktikabel zu werden, wo deutlich weniger HBM-Stacks benötigt werden, dafür eine gewisse Flexibilität bezüglich der Speichermenge existiert und durch die höheren Taktraten auch kleinere Interfaces gute Speicherbandbreiten ergeben. Erst mit der zweiten HBM-Generation wird jene Abstufung an Speicherbandbreite und Speicherkapazität möglich, welche für ein komplettes Portfolio an HBM-unterstützenden Grafikkarten notwendig ist. Dies muß die Grafikchip-Entwickler natürlich nicht davon abhalten, im Jahr 2015 vielleicht einen einzelnen HBM-unterstützenden Grafikchip für das HighEnd-Segment vorzuschicken, dafür ist die erste HBM-Generation durchaus verwendbar. Aber der große Schwung an HBM-unterstützenden Grafikkarten kommt wohl erst mit der zweiten HBM-Generation.

1

Hardware- und Nachrichten-Links des 1. Oktober 2014

Golem berichten über TSMCs 16nm-Fertigung, bei welcher die ARM-Cortex-Prozessoren etwas höhere Taktfrequenzen erreichen können sowie teilweise weniger Strom verbrauchen als bei der 20nm-Fertigung. Allerdings handelt es sich bei TSMC 16nm-Fertigung aktuell immer noch um eine Vorserienfertigung, die Serienfertigung soll erst Anfang 2015 starten. Da sich der normale "16FF" Prozeß von TSMC jedoch nicht als so schlagkräftig gegenüber anderen Angeboten erwiesen hat, arbeitet TSMC auch an der optimierten Ausgabe "16FF+" mit deutlich verbessertem Stromverbrauchs-Verhalten. Bei "16FF+" soll die Vorserienfertigung allerdings erst Anfang 2015 starten – gemessen an der Zeitspanne, welche bei "16FF" von Vorserienfertigung bis zur Serienfertigung benötigen wird, wäre mit einer Serienfertigung von "16FF+" dann erst Mitte 2016 zu rechnen.

Für die erste Grafikkarten-Generation, die in der 16nm-Fertigung geplant ist – was zumindest von nVidias Pascal-Generation bekannt ist, bei AMD liegen alle mittel- und langfristigen Zukunftspläne im Dunklen – könnte dies sogar knapp passend sein. Sofern verfügbar, werden sich die Grafikchip-Entwickler natürlich lieber "16FF+" annehmen, da "16FF" wohl zu geringe Vorteile gegenüber der ebenfalls ungeliebten 20nm-Fertigung hat. Wenn dabei tatsächlich die 20nm-Fertigung übersprungen wird, sollte mit der 16nm-Fertigung dann wieder ein sehr erheblicher Performance-Sprung möglich sein, selbst schon in der ersten 16nm-Generation bei einer noch nicht ausgereiften Fertigung. Für die kurz- und mittelfristige Zukunft sieht es dagegen so aus, als würde 28nm das Maß der Dinge für die Grafikkarten des Jahres 2015 bleiben – es gibt nur minimale Chancen, daß AMD doch schon mit einzelnen 20nm-Chips im neuen Jahr antritt, mehr aber wohl nicht.

Die PC Games Hardware hat sich "Mittelerde: Mordors Schatten" angesehen – jenes Spiel, welches für die Ultra-Texturen gleich 6 GB Grafikkartenspeicher haben will. Und tatsächlich war diese Aussage nicht übertrieben, mit einer Radeon R9 290X mit 4 GB Grafikkartenspeicher kam es zu ständigen Nachladerucklern, welche dann mit einer GeForce GTX Titan mit 6 GB Grafikkartenspeicher verschwanden. Die Grafikkartenspeicher-Auslastung lag dabei bei 5,3 GB unter FullHD, beim Wechsel zur 4K-Auflösung ging es wenigstens nur auf 5,8 GB hinauf – der Grafikkartenspeicher wird also weniger durch steigende Auflösungen verbraucht, sondern primär durch die Texturen. Abhilfe für viele Nutzer kann hierbei die High-Texturenqualität bringen, welche eine Grafikkartenspeicher-Auslastung von 3,5 GB hat und nur geringfügig schlechter als die Ultra-Texturenqualität aussieht. Trotzdem werden viele Grafikkarten von "Mittelerde: Mordors Schatten" ausgeschlossen bleiben oder aber bieten nur ein schlecht spielbares Ergebnis an, denn selbst die bemerkbar schwächeren Medium-Texturenqualität kam schon auf 2,5 GB Grafikkartenspeicher-Auslastung. Das Spiel ist also ein hörbarer Schrei nach (viel) mehr Grafikkartenspeicher als derzeit üblich ist.

Auf HWbot gibt es eine Bastelanleitung für Extrem-Übertakter, welche die Änderungen von Asus' Overclocking-Sockel für Haswell-E nachvollzieht und auf allen Mainboards möglich macht. Dabei wird zwischen dem "Lazy-Mod" unterschieden, wo nur zwei Pins miteinander zu verlöten sind – und dem "Plus-Mod", welcher einen umfangreicheren Umbau inklusive zusätzlicher Stromversorgung erfordert. Normalerweise ist letzteres nicht wirklich zu empfehlen, die bisher durch den Umbau erreichten Taktgewinne sprechen allerdings durchaus für den "Plus-Mod" – bei allerdings extremen Spannungszuführung von mehr als 1.5V. Für Neukäufer ist es sicherlich einfacher, schlicht die entsprechenden Asus- oder Gigabyte-Mainboards zu benutzen – allerdings wird es hier und da auch Haswell-E-Nutzer geben, welche ihr bereits bestehendes Mainboard nicht abgeben wollen und welche mit diesem Guide dann auch ins extreme Übertakten einsteigen können. Fast überflüssig zu erwähnen, daß das ganze natürlich überhaupt nichts für den Normalnutzer ist.

1

Microsoft stellt die Windows 10 "Technical Preview" zur Verfügung

Wie angekündigt, hat Microsoft die "Technical Preview" für Windows 10 sowie für Windows 10 Server zum Download zur Verfügung gestellt, entsprechende Mirrors finden sich bei WinFuture. Für beide Preview-Versionen gilt, daß sich jene im (tiefen) Beta-Status befinden und damit keinesfalls auf Produktivsystemen eingesetzt werden sollten. Selbst der Einsatz als Zweitinstallation ist nur erfahrenen Nutzern empfohlen, da bei der Installation der originale Bootloader durch Windows 10 überschrieben wird und ohne manuelle Änderungen ein anderes Betriebssystem auf der Festplatte dann nicht mehr bootbar wäre. Die Empfehlung von Microsoft liegt bei der Nutzung auf einem extra Computer, selbst virtuelle Maschinen sind laut Microsoft "nicht optimal" für diese Preview-Versionen. Die System-Anforderungen sind gleich zu denjenigen von Windows 8 und sollten daher mit aller halbwegs aktuellen Hardware abzuleisten sein:

  • Prozessor: 1 GHz oder schneller mit Support von PAE, NX und SSE2 (ab AMD Athlon 64 & Intel Pentium 4)
  • Arbeitsspeicher: 1 GB für 32-bit bzw. 2 GB für 64-bit
  • Festplatte: 16 GB für 32-bit bzw. 20 GB für 64-bit
  • Grafikkarte: DirectX-9-fähig mit WDDM 1.0 oder besser

Bei der Installation versucht sich Windows 10 wie von Windows 8 her bekannt mit einem Microsoft-Onlinekonto zu verbinden – wer dies nicht wünscht, sollte die Internetverbindung während der Installation kappen, dann wird Windows 10 mit einem herkömmlichen Offline-Konto eingerichtet. Als Produktkey gibt Microsoft "NKJFK-GPHP7-G8C3J-P6JXR-HQRJR" für die Normal-Version an, für die Server-Version ist augenscheinlich kein Produktkey vonnöten. Lauffähig ist die "Technical Preview" derzeit bis zum 15. April 2015. Als Installationssprachen stehen derzeit allerdings nur Englisch, Chinesisch und Portugiesisch zur Verfügung.

Wichtiger Punkt zu dieser Windows 10 Preview sind die außerordentlich hohen Datenübertragungsrechte, welche sich Microsoft mit seiner Lizenz einräumt: Nicht nur Browser-, Such-, Datei- und Anwendungsverlauf sowie Informationen zu Telefonanrufen, SMS und PC-Konfiguration werden an Microsoft übertragen, sondern auch Spracheingaben und teilweise auch eingetippter Text. Hintergrund ist ausnahmsweise nicht ein neuer Schnüffelansatz, sondern die Verbesserung des Betriebssystems vor dem eigentlichen Release – sprich, die finale Version wird diese umfangreichen Rechte dann wohl nicht mehr enthalten. Für die Preview gilt dagegen, daß man bei dieser davon ausgehen muß, daß alle eingegebenen Daten unter Umständen live bei Microsoft landen.

Weiter geht es bei Windows 10 dann augenscheinlich eher langsam: Da die aktuelle "Technical Preview" angeblich nur runde 10% der (geplanten) neuen Funktionen enthalten soll, hat Microsoft noch viel Arbeit vor sich. Die "Technical Preview" soll wohl eher den PC-Herstellern und PC-Käufern zeigen, daß man an etwas neuem arbeitet und daß es sich daher lohnt, Microsoft die Stange zu halten. So ist erst Anfang 2015 eine "Consumer Preview" geplant, welche den Großteil der für den Endanwender geplanten Features enthalten und damit viel eher mit den früheren Preview-Versionen zu Windows 8 vergleichbar sein dürfte. Davon ausgehend ist es kaum vorstellbar, daß Windows 10 schon im Frühjahr 2015 antritt und ein Termin im Herbst 2015 wird immer wahrscheinlicher – bei Windows 8 wurde schließlich exakt derselbe Zeitraum benötigt.

Inhalt abgleichen