1

Microsoft stellt die Windows 10 "Technical Preview" zur Verfügung

Wie angekündigt, hat Microsoft die "Technical Preview" für Windows 10 sowie für Windows 10 Server zum Download zur Verfügung gestellt, entsprechende Mirrors finden sich bei WinFuture. Für beide Preview-Versionen gilt, daß sich jene im (tiefen) Beta-Status befinden und damit keinesfalls auf Produktivsystemen eingesetzt werden sollten. Selbst der Einsatz als Zweitinstallation ist nur erfahrenen Nutzern empfohlen, da bei der Installation der originale Bootloader durch Windows 10 überschrieben wird und ohne manuelle Änderungen ein anderes Betriebssystem auf der Festplatte dann nicht mehr bootbar wäre. Die Empfehlung von Microsoft liegt bei der Nutzung auf einem extra Computer, selbst virtuelle Maschinen sind laut Microsoft "nicht optimal" für diese Preview-Versionen. Die System-Anforderungen sind gleich zu denjenigen von Windows 8 und sollten daher mit aller halbwegs aktuellen Hardware abzuleisten sein:

  • Prozessor: 1 GHz oder schneller mit Support von PAE, NX und SSE2 (ab AMD Athlon 64 & Intel Pentium 4)
  • Arbeitsspeicher: 1 GB für 32-bit bzw. 2 GB für 64-bit
  • Festplatte: 16 GB für 32-bit bzw. 20 GB für 64-bit
  • Grafikkarte: DirectX-9-fähig mit WDDM 1.0 oder besser

Bei der Installation versucht sich Windows 10 wie von Windows 8 her bekannt mit einem Microsoft-Onlinekonto zu verbinden – wer dies nicht wünscht, sollte die Internetverbindung während der Installation kappen, dann wird Windows 10 mit einem herkömmlichen Offline-Konto eingerichtet. Als Produktkey gibt Microsoft "NKJFK-GPHP7-G8C3J-P6JXR-HQRJR" für die Normal-Version an, für die Server-Version ist augenscheinlich kein Produktkey vonnöten. Lauffähig ist die "Technical Preview" derzeit bis zum 15. April 2015. Als Installationssprachen stehen derzeit allerdings nur Englisch, Chinesisch und Portugiesisch zur Verfügung.

Wichtiger Punkt zu dieser Windows 10 Preview sind die außerordentlich hohen Datenübertragungsrechte, welche sich Microsoft mit seiner Lizenz einräumt: Nicht nur Browser-, Such-, Datei- und Anwendungsverlauf sowie Informationen zu Telefonanrufen, SMS und PC-Konfiguration werden an Microsoft übertragen, sondern auch Spracheingaben und teilweise auch eingetippter Text. Hintergrund ist ausnahmsweise nicht ein neuer Schnüffelansatz, sondern die Verbesserung des Betriebssystems vor dem eigentlichen Release – sprich, die finale Version wird diese umfangreichen Rechte dann wohl nicht mehr enthalten. Für die Preview gilt dagegen, daß man bei dieser davon ausgehen muß, daß alle eingegebenen Daten unter Umständen live bei Microsoft landen.

Weiter geht es bei Windows 10 dann augenscheinlich eher langsam: Da die aktuelle "Technical Preview" angeblich nur runde 10% der (geplanten) neuen Funktionen enthalten soll, hat Microsoft noch viel Arbeit vor sich. Die "Technical Preview" soll wohl eher den PC-Herstellern und PC-Käufern zeigen, daß man an etwas neuem arbeitet und daß es sich daher lohnt, Microsoft die Stange zu halten. So ist erst Anfang 2015 eine "Consumer Preview" geplant, welche den Großteil der für den Endanwender geplanten Features enthalten und damit viel eher mit den früheren Preview-Versionen zu Windows 8 vergleichbar sein dürfte. Davon ausgehend ist es kaum vorstellbar, daß Windows 10 schon im Frühjahr 2015 antritt und ein Termin im Herbst 2015 wird immer wahrscheinlicher – bei Windows 8 wurde schließlich exakt derselbe Zeitraum benötigt.

30

Hardware- und Nachrichten-Links des 30. September 2014

Videocardz zeigen eine "High Bandwidth Memory" Präsentation seitens Speicherchiphersteller Hynix, mittels welcher jener Werbung für diesen zukünfigen Grafikkarten-Speicher machen will. Die Präsentation ist vom Juli 2014 und gibt Ende 2014 als Marktstart für HBM an – aber dies ist natürlich nur der Zeitpunkt, wo Hynix liefern könnte, nicht der Zeitpunkt, wo entsprechend ausgerüstete Grafikkarten in den Markt kommen. Denn wie schon vor einiger Zeit an dieser Stelle dargelegt, bedingt HBM ein völlig neues Speicherinterface im Grafikchip – ergo wird es HBM auch nur bei neu designten Grafikchips geben, was dann üblicherweise seine Zeit braucht. Die Präsentation von Hynix sowie die Ausführungen von Videocardz sind im übrigen nicht wirklich klar bezüglich der eigentlichen Vorteile von HBM, auch hier ist unsere frühere Meldung zu empfehlen: Ein HBM-Interface verbraucht für die gleiche Speicherbandbreite einfach viel weniger Platz auf dem Grafikchip und spart auch noch maßgeblich an Strom – dies können durchaus 50 bis 80 Watt weniger sein, die man dann an anderer Stelle verbraten kann.

Zudem ergibt sich natürlich auch die Möglichkeit, mit demselben Flächenbedarf zukünftigen Grafikkarten-Generationen wesentlich mehr Speicherbandbreite zu spendieren als es derzeit üblich ist – dies wäre mit GDDR5-Speicher nur mit extrem platz- und stromfressenden Speicherinterfaces möglich, was dann irgendwo limitiert ist. HBM ist also nicht wirklich bezüglich der Speichersorte interessant, sondern eigentlich nur wegen der wesentlich effizienteren Interfaces. Der Speicher selber könnte zudem wegen seiner relativ niedrigen Taktraten (erste Ausbaustufe 500 MHz, derzeit sind Taktraten bis 1000 MHz in Arbeit) wohl auch nicht all zu teuer kommen, möglicherweise sogar günstiger ausfallen als GDDR5-Speicher, welcher immerhin Taktraten von bis zu 3500 MHz aufbringen muß. Speziell für die Grafikchip-Entwickler ist das ganze auch deswegen interessant, weil HBM natürlich nahe dem Grafikchip auf demselben Trägermaterial untergebracht wird, damit also im ganzen an die Grafikkarten-Hersteller geliefert wird und somit auch im ganzen durch die Bücher geht (aka den Wert der Grafikchips erhöht und damit ein Umsatzplus ergibt).

Die ComputerBase hat 19 LowCost-Grafikkarten von 20 bis 90 Euro einem Test unterzogen – darunter haufenweise selten getesteten Exemplare, womit sich dieser Artikel sehr gut dazu eignet, die Performance jener LowCost-Karten wenigstens einmal halbwegs solide einschätzen zu können. Als Bonus wurde zudem auch noch gegen ein paar aktuelle AMD-APUs verglichen, damit man sehen kann, welche der LowCost-Grafikkarten überhaupt deren Niveau schlägt. Und letztlich sind sogar ein paar ältere LowCost-Modelle zum Vergleich mit dabei – insofern ein überaus nützlicher Artikel. Natürlich sieht man dabei auch in einigen Fällen in echte Performance-Abgründe – beispielsweise die monströsen Differenzen zwischen DDR3- und GDDR5-Speicherbestückung wie bei der Radeon R7 250 (+65%) oder auch der GeForce GT 740 (+40%).

Die hierbei erzielten Performance-Unterschiede sind nunmehr sogar noch größer als bei den letzten entsprechenden Untersuchungen (von vor einigen Jahren) – man kann nunmehr klar sagen, daß die DDR3-Version einer Grafikkarte jene nicht einfach nur um eine Stufe abwertet, sondern fast völlig entwertet. Oder auch eine andere Faustregel: Die Performance der "schnellsten" DDR3-bestückten Grafikkarten wird auch von Spitzen-APUs erreicht. DDR3-Speicher auf Grafikkarten ist ergo inzwischen zu dem geworden, was früher DDR2-Speicher war – und solcherart Grafikkarten galten seinerzeit als sichere Performancebremsen. Lohnenswert ist DDR3-Speicher wohl nur noch dann, wenn die Gaming-Performance eigentlich keine Rolle spielt – was die Grafikkarten-Hersteller nicht davon abhalten wird, im LowCost-Segment solcherart "Schnäppchen" weiterhin in Hülle und Fülle anzubieten.

Bei der PC Games Hardware hat man mal wieder untersucht, welchen Performance-Unterschied verschiedene PCI-Express-Konfigurationen bei SLI-Systemen aufweisen. Heutzutage ist die CPU/Grafikkarten-Verbindung dank PCI Express 3.0 kein großes Thema mehr und nur unter CrossFire und SLI lassen sich hierbei noch Differenzen erzeugen. Jene sind mit 5,5% Performance-Unterschied zwischen einer x8/x8-Konfiguration und einer regulären x16/x16-Konfiguration aber auch nicht weltbewegend – zumindest lohnt es dafür kaum, sich den teuren Haswell-E-Prozessoren zuzuwenden. Das kleinste Haswell-E-Modell Core i7-5820K, welches Intel künstlich auf ein x16/x8-Konfiguration limitiert hat, kommt allerdings auch nicht besser weg, der Performance-Abstand zu x16/x16 beträgt auch noch 5,1%, gegenüber x8/x8 ist also so gut wie nichts gewonnen. Allerdings deuten diese 5%igen Performance-Unterschiede schon bei einer ZweiChip-Lösung an, daß es im Extrem-Bereich bei drei oder vier Grafikchips wohl deutlich mehr werden wird, dann die beiden größeren Haswell-E-Prozessoren aufgrund ihrer überlegenen Anzahl an PCI Express Lanes vorzuziehen sind.

Wie erwartet hat Microsoft sein nächstes Betriebssystem in einer "Technical Preview" gezeigt, welche allerdings einem noch sehr frühen Stand des Betriebssystem entspricht. Jenes wird sich im Verkauf "Windows 10" nennen und im kommenden Jahr erscheinen – das wird die Hardware-Hersteller nicht freuen, aber jene werden womöglich schon im Weihnachtsgeschäft Gutscheine für Windows 10 ihren Geräten beilegen, das Update von Windows 8 auf Windows 10 soll ohne Neuinstallation lösbar sein. Ob Windows 10 allerdings schon im Frühjahr 2015 erscheint, darf angesichts dessen, was laut Microsoft noch alles im Entwicklungsstadium ist, eher bezweifelt werden – und wenn Microsoft am Ende auch noch das ganze User-Feedback beachten will, erscheint ein Launchtermin im Sommer/Herbst 2015 als angeraten und demzufolge wahrscheinlicher. Wer sich das ganze selber anschauen will, dem wird Microsoft am 1. Oktober ab 18 Uhr deutscher Zeit eine Vorab-Version von Windows 10 zum Download zur Verfügung stellen.

30

Vergleich der energieeffizienten S- und T-Modelle von Intels Core i5

Die X-bit Labs haben den seltenen Vergleich der energieeffizienten Haswell-Prozessoren Core i5-4670T (65W TDP) und Core i5-4670T (45W TDP) gegen den eher üblichen Core i5-4670 (84W TDP) angetreten – und damit jede Menge Fragen bezüglich dieser Stromspar-Prozessoren beantworten können. So werden die hohen TDP-Unterschiede unter einem die CPU komplett auslastenden Benchmark wie LinX in jedem Fall bestätigt: Hier verbraucht das System mit dem S-Modell (65W TDP, 119W Systemverbrauch) immerhin 21 Watt weniger als das Normalmodell (84W TDP, 140W Systemverbrauch), das T-Modell (45W TDP, 100W Systemverbrauch) liegt dann nochmals 19 Watt unterhalb des S-Modells (65W TDP, 119W Systemverbrauch).

Andere Messungen mit ebenfalls hohen, aber eher gebräuchlichen Lasten zeigen jedoch teilweise weit geringere Unterschiede auf genauso auch ingesamt viel niedrigere Stromverbrauchswerten. Selbst mit einem ständig ausgelasteten System kann man in der Praxis für das S-Modell bestenfalls 10 Watt weniger rechnen, für das T-Modell nochmals bestenfalls 10 Watt weniger. Rechnet man dann auch noch Ruhephasen hinzu, lohnt sich das ganze aus Sicht des Stromsparens eigentlich überhaupt nicht mehr. Hinzu kommt, daß man teils ordentlich an Performance verliert: Beim S-Modell sind es unter Anwendungen -4%, beim T-Modell immerhin -16% gegenüber dem Normalmodell. Die iGPU-Performance ist dagegen mit -1% bzw. -3% weit weniger betroffen.

Core i5-4670T Core i5-4670S Core i5-4670
Technik Haswell-Architektur, 4 Rechenkerne, 6 MB Level3-Cache, offizieller Speichersupport bis DDR3/1600, Intel HD Graphics 4600 Grafiklösung mit 20 AE auf 300/1200 MHz
Taktraten 2.3/3.3 GHz
(Turbo: 3.3/3.2/3.0/2.9 GHz)
3.1/3.8 GHz
(Turbo: 3.8/3.7/3.5/3.4 GHz)
3.4/3.8 GHz
(Turbo: 3.8/3.8/3.7/3.6 GHz)
TDP 45W 65W 84W
Temperatur-Limit 85°C 92°C 100°C
Listenpreis 213$ 213$ 213$
System-Stromverbrauch (LinX) 100W 119W 140W
System-Stromverbrauch (x264) 65W 73W 88W
Anwendungs-Performance 84,3% 96,4% 100%
iGPU-Performance 97,0% 99,1% 100%

Interessanter Punkt der Ausführungen der X-bit Labs ist zudem, daß man mittels Taktraten- und Spannungs-Absenkung des Normalmodells die S- und T-Modelle problemlos bezüglich deren Leistungsaufnahme simulieren kann. Angesichts der identischen Listenpreise lohnt sich dies natürlich nicht wirklich. In der Summe der Dinge sind die S- und T-Modelle wohl nur dafür da, um in Ausschreibungen mit festen Vorschriften zur Prozessoren-TDP eingesetzt zu werden, ein praktikabler Stromspareffekt kommt hierbei allerdings nicht heraus. Wer eine geringere Leistungsaufnahme wünscht, kann genauso die niedriger getakteten Normalmodelle einsetzen, dies kommt am Ende günstiger und dürfte in etwa dieselben Auswirkungen auf Performance und Leistungsaufnahme haben.

30

Umfrage-Auswertung: Welche Monitorauflösung steht für den Spielerechner zur Verfügung?

Eine Umfrage von Mitte September stellte die Frage nach den benutzten Monitor-Auflösungen beim Spielerechner, unterteilt nach den typischen Leistungssegmenten "Mainstream", "Performance" und "HighEnd". Dies ist im Hinblick auf die derzeit verstärkt in den Markt kommenden 4K-Monitore besonders wichtig zur Kalkulation neuer Grafikkarten-Generationen – sprich der Frage, mit welchen Monitor-Auflösungen eine neue Grafikkarte sich heutzutage üblicherweise konfrontiert sehen wird. Das Gesamtbild zeigt hierzu schon die erste große Veränderung gegenüber den früheren Umfragen von anno 2013, 2010 und 2008 an: Heuer nun ist die Gruppe der Nutzer oberhalb von FullHD erstmals größer als die Gruppe der Nutzer unterhalb von FullHD. Gerade die verschiedenen 1600er Auflösungen haben inzwischen maßgeblich nachgegeben, in Kürze dürfte dann wohl schon FullHD selber den Minimum-Standard im PC-Bereich stellen.

Noch deutlicher werden die Differenzen, wenn man die Umfrage nach den vorgenannten Nutzergruppen bzw. Grafikkarten-Leistungssegmenten unterteilt: So sind Auflösungen oberhalb von FullHD bei den Mainstream-Nutzern noch absolut unüblich, haben kleinere Auflösungen als FullHD noch beachtbare Prozentanteile. Bei den Performance-Usern ist das ganze dann ähnlich des Gesamtbilds ziemlich ausgeglichen, während HighEnd-Nutzer Auflösungen unterhalb von FullHD nur höchst selten nutzen, dagegen mit 24,2% schon einen großen Anteil an den 2560er Auflösungen sowie mit 11,0% einen beachtbaren Anteil an den 4K-Auflösungen halten. Noch ist FullHD aber auch bei den HighEnd-Nutzern das Maß aller Dinge mit einem Prozentanteil von 59,4% – wenngleich die Spitze hier überschritten scheint, letztes Jahr waren es in dieser Gruppe noch 66,0% FullHD-Nutzer.

Oktober 2008 April 2010 September 2013 September 2014
1400x900 oder kleiner
(Mainstr. – Perfm. – HighEnd)
~32% 17,9%
29,7% – 18,9% – 9,8%
4,9%
13,0% – 3,7% – 2,4%
2,6%
7,2% – 1,4% – 0,3%
1680x1050 und 1600x900/1200
(Mainstr. – Perfm. – HighEnd)
~41% 36,4%
38,0% – 42,0% – 28,6%
14,6%
23,0% – 17,3% – 8,6%
12,5%
21,9% – 12,1% – 5,1%
1920x1080/1200
(Mainstr. – Perfm. – HighEnd)
~25% 42,4%
30,9% – 38,1% – 54,4%
66,9%
59,2% – 71,7% – 66,0%
66,3%
63,6% – 74,1% – 59,4%
2560x1440/1600
(Mainstr. – Perfm. – HighEnd)
~2% 3,3%
1,4% – 1,0% – 7,2%
11,2%
4,5% – 6,1% – 18,6%
14,0%
6,3% – 10,7% – 24,2%
3840/4096x2160
(Mainstr. – Perfm. – HighEnd)
- - 2,4%
0,3% – 1,2% – 4,4%
4,6%
1,0% – 1,7% – 11,0%

In Bezug auf jene Auflösungen, welche man in Grafikkarten-Tests ansetzen sollte, ergeben sich mittels dieser Umfrage eindeutige Ratschläge: Für Mainstream-Grafikkarten sollten es 1680x1050 sowie 1920x1080 sein, für Performance-Grafikkarten reicht eigentlich 1920x1080 aus (auch weil die meisten Grafikkarten dieses Segments letztlich zu langsam für 2560x1440 sind) – und für HighEnd-Grafikkarten sollten es 1920x1080, 2560x1440 und 3840x2160 sein. Jene 4K-Auflösung hat zwar noch keinen wirklich bedeutsamen Zuspruch in der aktuellen Praxis, wächst aber sehr schnell und wird daher jenen bedeutsamen Zuspruch wohl schon in der näheren Zukunft erlangen.

29

Hardware- und Nachrichten-Links des 29. September 2014

Nach der chinesischen VR-Zone (maschinelle Übersetzung ins Deutsche) wird AMDs Tonga-Chip nicht mehr für eine weitere Gamer-Grafikkarte Verwendung finden, sondern zukünftig nur noch im professionellen Bereich eingesetzt werden. Solche Gerüchte gab es schon einmal – und irgendwann muß man selbige dann auch ernst nehmen – doch normalerweise erscheint es als Unsinn, einen existierenden Grafikchip nicht auch für alle Produktsegmente auszuschlachten, gerade da AMD bei Tonga ja noch nicht einmal dessen Vollausbau wirklich gezeigt hat. Gut möglich, daß der Hintergrund der Gerüchte nur dahingehend lautet, daß AMD dieses Jahr und damit innerhalb der Radeon R200 keine Tonga-Grafikkarten mehr auflegen wird – was überhaupt nichts mit den AMD-Plänen für 2015 und die Radeon R300 Serie zu tun haben muß. Sofern AMD nicht gerade etwas noch besseres in der Pipeline hat, ist nächstes Jahr also doch mit weiteren Tonga-basierten Grafikkarten zu rechnen.

Zu diesen 2015er AMD-Grafikkarten spricht die VR-Zone auch über den kommenden Enthusiasten-Chip "Fiji", welcher wohl schon der "Pirate Islands" Generation angehören soll – aber Generations-Namen sind bei AMD ziemlich beliebig bzw. existiert hierbei ein Deutungsunterschied zwischen Marketing- und Technik-Abteilung. Einzige neue Information hierzu ist, daß jene neue Generation im besten Fall schon im ersten Quartal 2015 antritt – was so gelesen werden kann, daß das zweite Quartal 2015 den eigentlich wahrscheinlichen Launchtermin darstellt. Die restlichen Informationen zu Pirate Islands – neben "Fiji" kommt noch der HighEnd-Chip "Bermuda" sowie der Midrange-Chip "Treasure Islands", zudem wird die Serie schon in 20nm hergestellt – nimmt die VR-Zone aus früheren Gerüchte, ausdrücklich nicht aus neuen Quellen, wie derzeit im Web teilweise falsch dargestellt. Insbesondere die Codenamen sind damit mehr als vakant, weil frühere Meldungen noch keine Zuordnung zu den Marktsegmenten zuliessen. Die Frage, ob die 2015er AMD-Grafikchips bereits in 20nm hergestellt werden, ist zudem eher philosophischer Natur – man kann daran glauben, muß es aber nicht. Echte Hinweise hierfür liegen nicht vor, die einzige Meldung mit Bezug hierzu klassifiziert allerdings Fiji augenscheinlich als 28nm-Produkt.

Laut der DigiTimes stellen die meisten Notebook-Hersteller ihre Weiterentwicklungen für Touchscreen-Notebooks ein, zumindest die Schiene klassischer Notebooks sowie Gaming-Notebooks betreffend. Touchscreens wird es allerdings weiterhin im Hybrid-Bereich geben, dort ist dies wegen der alternativen Nutzung als Tablet aber natürlich auch obligatorisch. Grundlage für die Entscheidung ist die überaus schwache Nachfrage für Touchscreen-Modelle, deren höhere Preislagen wird hierbei sicherlich nicht förderlich gewesen sein. Letztlich haben allerdings die Notebook-Besitzer weiterhin die Maus/Tastatur-Steuerung vorgezogen – und Aufgaben, welche sich besser mit einer Touchscreen-Steuerung vornehmen lassen, werden heutzutage einfach Tablets und Smartphones übertragen, anstatt damit ein Notebook oder einen Desktop-PC zu belästigen. Auch in letzterem Feld sind Touchscreen-Geräte nach wie vor eher selten anzutreffen, nur im All-in-One-Segment scheint eine kleine Nische zugunsten der Touch-Steuerung zu existieren.

Heise hat sich mit den geschäftlichen Veränderungen beschäftigt, welche Microsoft mit der kommenden nächsten Windows-Version angehen wird. Denn wahrscheinlich wird Windows "Threshold" die "letzte" Windows-Version werden, Microsoft danach nur noch Fortentwicklungen dieser Windows-Version anbieten. Sowohl Sicherheits- als auch funktionelle Updates werden dann wohl kostenlos zur Verfügung gestellt werden, so daß Windows sich mit der Zeit auch völlig von dem fortentwickeln könnte, wie es zum Launch der nächsten Windows-Version präsentiert werden wird. Faktisch wird hiermit das Entwicklungs-System von Android und iOS übernommen – nur mit dem Unterschied, daß bei Windows nicht die Gerätehersteller das Sagen haben und somit Updates verhindern können, sondern das Microsoft das direkt mit dem Nutzer abhandelt. Dies sollte normalerweise auch Auswirkungen auf den Verkaufsnamen haben, so gesehen erscheint (ausnahmsweise) ein schlichtes "Windows" sinnvoller als ein nummerischer Anhang in Form von "Windows 9".

Genaueres zum Geschäftsmodell in Bezug auf das, was kostenlos ist und das, was dann Geld kostet, ist allerdings noch nicht bekannt. Nicht unmöglich wäre der für den Normalverbraucher natürlich ideale Fall, daß ein einmal mit einem Komplett-Gerät gekauftes Betriebssystem somit so lange mit Updates versorgt wird, wie die Hardware eben durchhält. Größeren Änderungen wird es dagegen für Microsofts Geschäftskunden geben, welche nun nicht mehr darauf vertrauen können, daß eine einmal für das eigene Unternehmen und die eigenen Software-Landschaft geprüfte Windows-Version ständig featuregleich bleibt. Hierfür wird Microsoft – ähnlich wie bei Linux üblich – "Long Time Support" (LTS) Versionen anbieten, welche also nur mit Sicherheitsupdates versorgt werden, beim Featurestand allerdings eingefroren werden. Unter Umständen ist dies selbst für einige Normalnutzer eine Option, um dem bisher zu sehenden "Hü und Hott" bei Microsofts K(r)ampf mit dem Windows-Design aus dem Weg zu gehen.

WinFuture melden sich hingegen zum Upgrademodell von "Windows Threshold" zu Wort: So wird der kostenlose Umstieg nur von einer Retail-Version von Windows 8.1 aus möglich sein – was auch fair ist, denn wer den vollen Retail-Preis für Windows 8/8.1 bezahlt hat, sollte diese Möglichkeit schon offeriert bekommen. Bei den weitaus stärker verbreiteten OEM-Versionen von Windows 8/8.1 wird man hingegen einen gewissen Obolus für den Umstieg hinlegen müssen. Dessen Höhe ist noch nicht bekannt, dürfte sich allerdings am Upgrade-Angebot für Windows-7-Nutzer bemessen, welche für angeblich nur 30 Dollar auf "Windows Threshold" umsteigen können. Offen bleibt angesichts der zuvorstehenden Meldung derzeit noch ein wenig, was man letztlich hierfür erhält – sprich, wie lange das erworbene neue Windows-Betriebssystem dann mit Sicherheits- und Feature-Updates versorgt wird.

29

Aktualisierte AMD & nVidia Grafikkarten-Roadmap für die Herbst/Winter-Saison 2014/2015

Nach dem Launch von AMDs Tonga-Chip sowie nVidias GM204-Chip klart sich das Bild der zukünftigen Grafikkarten-Portfolios von AMD und nVidia weiter auf, selbst wenn doch noch einige entscheidende Fragen offenbleiben müssen. In jedem Fall konnten der entsprechenden AMD & nVidia Grafikkarten-Roadmap nunmehr die Daten von AMD Tonga und nVidia GM204 hinzugefügt werden, nebst den Performance-Werten der damit erschienenen neuen Grafikkarten. Zugleich wurden natürlich auch die noch kommenden Grafikchips mit neu hinzugekommenen Informationen hinterlegt respektive die Gesamtsituation neu bewertet. Folgende Änderungen gibt es somit gegenüber dem letzten Stand:

  • AMD Tonga
    Hier wurden die bekannten Daten sowie die Radeon R9 285 hinzugetragen. Bei den Hardware-Daten haben wir uns vorerst an die semi-offiziellen 2048 Shader-Einheiten an einem 384 Bit DDR Speicherinterface gehalten, auch wenn dies natürlich noch nicht gänzlich sicher ist. So oder so sollte AMD den Tonga-Chip im kommenden Jahr dann für die Radeon R9 380 Serie weiterverwenden und kann mit den passenden Taktraten in Form der Radeon R9 380X sicherlich in die Nähe der Performance der Radeon R9 290 vorstoßen – womit der Hawaii-Chip dann spätestens mit Fiji-Erscheinen überflüssig werden würde. Die kleinere Salvage-Lösung Radeon R9 380 dürfte dann etwas schneller als die bisherige Radeon R9 285 werden und jene letztlich ablösen.
     
  • AMD Fiji
    Zu diesem Chip wurde das Erscheinungstermin auf "erstes Halbjahr 2015" angepasst, zugleich wurde die Schätzung für die Anzahl der Shader-Einheiten auf ~3200 revidiert. Angesichts der Transistoren-Verschwendung beim Tonga-Chip ist es wenig wahrscheinlich, daß AMD viel mehr Shader-Einheiten aufbietet, 3500 Shader-Einheiten bei Fiji erscheinen nunmehr als der alleroberster Rand und nicht mehr als solide Schätzung. Wahrscheinlich dürfte sich AMD sowieso – wie bei Tonga – darauf konzentrieren, den Chip effizienter zu machen, sprich mehr aus der selben Anzahl an Shader-Einheiten herauszuholen. Die Performance-Prognose für den Fiji-Chip wurde im Zuge dieser Änderungen ebenfalls leicht nach unten hin angepasst – derzeit ist diese Prognose aber wirklich nur ins Blaue hinein geschossen.
     
  • nVidia GM206
    Die letzten Daten sprechen wieder von einem etwas kleinerem Chip – was gar nicht einmal so unwahrscheinlich ist, nVidia versucht seine Performance-Chip immer eher niedriger anzusetzen. Daher kann es durchaus passieren, daß es beim GM206-Chip nur 10 Shader-Cluster aka 1024 Shader-Einheiten gibt. Damit dürfte die Top-Lösung GeForce GTX 960 in etwa die GeForce GTX 760 ablösen, die Salvage-Lösung GeForce GTX 950 Ti sich in den Zwischenraum zwischen GeForce GTX 750 Ti und GeForce GTX 960 setzen.
     
  • nVidia GM204
    Hier wurden ebenfalls die bekannten Daten sowie die GeForce GTX 970 & 980 hinzugetragen. Im Zuge dessen, daß der GM206-Chip wahrscheinlich kleiner wird als vorher gedacht, scheint zudem noch eine dritte, noch kleinere GM204-Version plausibel, wahrscheinlich "GeForce GTX 960 Ti" genannt. Jene dürfte den großen Performance-Abstand zwischen GeForce GTX 960 und GeForce GTX 970 füllen müssen, dafür wird nVidia den GM204-Chip entsprechend deutlich abspecken müssen: 10 bis 11 Shader-Cluster an einem 192 Bit DDR Speicherinterface samt einer Performance etwas oberhalb der GeForce GTX 770 sind hierfür wahrscheinliche Werte.
     
  • nVidia GM200
    Der Launch des GM204-Chips macht es (angesichts der gezeigten Maxwell-Effizienz auch im HighEnd-Bereich) etwas klarer, wohin es mit dem GM200-Chip gehen dürfte. An den angenommenen Hardware-Daten ändert sich nicht viel, da viel mehr als ~3000 Shader-Einheiten nicht in die begrenzte Chipfläche von ~600mm² quetschbar sein werden. Bei vernünftigen Taktraten kann jedoch sogar ein Performance-Index knapp oberhalb von 700% für die angeblich "GeForce GTX Titan X" genannte GM200-Karte herauskommen. Allerdings ist weiterhin unsicher, ob nVidia den GM200-Chip so schnell ins Gamer-Segment bringt – oder aber ob man dies auf das nächste Jahr verschiebt.

PS: Eine alternative Grafikkarten-Roadmap findet sich bei der PC Games Hardware.

Inhalt abgleichen