22

Hardware- und Nachrichten-Links des 21./22. Mai 2016

Die PC Games Hardware hat sich mit der Grafikkarten-Performance unter Battleborn beschäftigt. Der Shooter im Comic-Style auf Basis der Unreal Engine 3 braucht üblicherweise "nur" eine mittelkräftige Hardware, um auf Touren zu kommen – je nach Frameratenansprüchen sind auch Grafikkarten älterer Baureihen noch ganz vernünftig mit dabei. Auffallend ist das schwache Abschneiden fast aller AMD-Grafikkarten – außer den Fiji-basierten Radeon R9 Nano, Fury & Fury X. Die Erklärung hierfür muß irgendwo in den Unterschieden der einzelnen GCN-Level liegen, denn auch die Radeon R9 380 & 380X (gleiches GCN-Level wie die Fiji-basierten Karten) laufen zwar nicht besonders schnell, aber dafür auffallend schneller als die normalerweise ähnlich potente Radeon R9 280X. Allerdings sollten bei derart großen Unterschieden in aller Regel angepasste Grafikkarten-Treiber erhebliche Besserung bringen können. Das Spiel verlangt der heutigen Hardware aber wie gesagt nicht so viel ab, als das dieser Nachteil derzeit so bedeutsam wäre. Unter UltraHD reicht es dann für Radeon R9 Nano und GeForce GTX 980 sowie besser sogar dafür aus, Frameraten von 50 fps (und mehr) mit der besten Spielgrafik zu sehen.

Das neue Citavia-Blog hat sich aus einer aktuellen AMD Investoren-Präsentation einen (halben) Zen-Dieshot herausgebastelt. In jener Präsentation wird auf einer Präsentationsseite mit reinem Bezug auf Zen ein Wafer-Foto gezeigt – selbiges ist allerdings unbeschriftet und dient eher nur der optischen Auflockerung, könnte also auch ein reines Dummy-Foto sein. Gemäß der Vergrößerung und Beschriftung lassen sich auf einem halben Die jedoch schon gewisse Elemente erkennen, darunter vier CPU-Rechenkerne, Level3-Cache und ein Speicherinterface – eine APU dürfte dies also nicht zu sein, da würde noch eine (flächenmäßig große) integrierte Grafiklösung fehlen. Da nur ein halbes Die vergrößert wurde, hat AMD letztlich also ein Wafer-Foto mit einem Achtkern-Prozessor gezeigt – mit einem zu Bulldozer augenscheinlich veränderten Aufbau, also am Ende doch Zen (in seiner Consumer-Form). Viel mehr läßt sich aus diesem Wafer-Bild leider noch nicht herauslesen – und das AMD über ein solche verfügt, ist auch nicht weiter verwunderlich, CPU-Projekte haben einen viel höheren Zeitbedarf für Produktions- und Marktvorbereitung als bei anderen Chips üblich.

Die GameZone berichtet über Gerüchte, wonach die Playstation 4K (oder Playstation Neo) eventuell gar nicht auf Sonys Plan gestanden haben mag, sondern letztlich eine Folge der ungünstigen Kostenlage beim eigentlich geplanten Die-Shrink gewesen sein soll. Regulär hätte Sony den PS4-SoC einfach nur auf die 14nm-Fertigung adaptieren wollen und dafür dann die entsprechenden Anpassungskosten bezahlt. Da aber Sony der einzige Chipabnehmer von Jaguar-basierten CPU-Rechenkernen unter 14nm wäre (da AMD diese CPU-Architektur komplett einstellt), wären die Anpassungskosten in diesem Fall unvergleichlich hoch gewesen und hätte man sich daher lieber für die Verwendung der Zen-Architektur als CPU-Unterbau entschieden. Ehrlicherweise klingt das ganze jedoch kaum schlüssig, denn derart hohe Anpassungskosten, das gleich lieber die Verwendung einer ganz neuen Architektur günstiger erscheinen, sind irgendwie nicht vorstellbar – solch ein Hexenwerk ist Chipherstellung nun doch nicht, gerade wenn man als Großauftraggeber üblicherweise fürstlich behandelt wird.

Zudem erklärt diese Geschichte nicht die Verwendung einer wesentlich vergrößerten Grafikeinheit – wenn es nur um den Kostenpunkt gehen würde, kann man ja Zen-Rechenkerne und auch eine neue Grafiklösung auf GCN 2.0 Niveau verwenden, muß aber eben nicht deutlich mehr Shader-Einheiten verbauen. Gerade letzteres widerspricht ja am Ende dem ursprünglichen Zweck des ganzen Die-Shrinks, womit üblicherweise nur Kosten gespart werden sollen – ein neuer Die mit faktisch selber Größe (weil sich Flächenreduktion und mehr Shader-Einheiten egalisieren) und unter der neuen 14nm-Fertigung wird auch abgesehen von den (einmaligen) Designkosten rein bei den Herstellungskosten deutlich teurer kommen. Wenn es Sony rein um Wirtschaftlichkeit gegangen wäre und der Die-Shrink auf die 14nm-Fertigung dies nicht hätte bieten können – dann hätte man den PS4-SoC auch weiterhin in der 28nm-Fertigung oder notfalls der 20nm-Fertigung herstellen lassen können. Stimmen die Gerüchte zum höheren Hardware-Ansatz der PS4K, dann handelt es sich hierbei aber eben nicht um eine Kostensenkungsmaßnahme – sondern um eine Konsole mit deutlich mehr Rechenkraft unter geradeso denselben Hardware-Kosten.

21 21

Wie ist der Ersteindruck zur GeForce GTX 1080?

Alle Entscheidungsgrundlagen zu dieser Frage findet man in der Launch-Analyse zur GeForce GTX 1080 sowie natürlich im entsprechenden Diskussions-Thread zum Launch der neuen nVidia-Grafikkarte. Preislich ist natürlich noch nichts wirklich konkret festmachbar, aber man kann inzwischen davon ausgehen, das die von nVidia genannten Preise sich ungefähr so halten lassen werden – darunter auch der günstigere Preis von ab 599 Dollar (in Euroland vielleicht 650 Euro) für die Herstellerkarten.

Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
3% (104 Stimmen)
Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung.
12% (380 Stimmen)
Positiver Ersteindruck, aber preislich außerhalb meiner Interessenlage.
30% (949 Stimmen)
Durchschnittlicher Ersteindruck, primär wegen der hohen Preislage.
22% (678 Stimmen)
Durchschnittlicher Ersteindruck, primär wegen des nicht ausreichenden Performancesprungs.
6% (173 Stimmen)
Durchschnittlicher Ersteindruck, primär aus anderem Grund.
1% (41 Stimmen)
Negativer Ersteindruck, primär wegen der hohen Preislage.
19% (606 Stimmen)
Negativer Ersteindruck, primär wegen des nicht ausreichenden Performancesprungs.
4% (131 Stimmen)
Negativer Ersteindruck, primär aus anderem Grund.
2% (59 Stimmen)
Gesamte Stimmen: 3121
20

Hardware- und Nachrichten-Links des 20. Mai 2016

Die PC Games Hardware hat sich von nVidia bestätigen lassen, das das Speicher-Subsystem der GeForce GTX 1070 in keiner Form beschnitten ist – bis auf die Nutzung von GDDR5-Speicher anstatt von GDDR5X-Speicher natürlich. Hierzu hat man sich die explizite Bestätigung eingeholt, das es auch in den Details – Anzahl der Raster Operation Units, Menge des Level2-Caches, Level der Farbkomprimierung – keine Unterschiede zur GeForce GTX 1080 geben wird. Dies war schon vermutet worden (und zwar auch allein deswegen, weil nVidia nicht noch einmal so ein Ärgernis wie bei der GeForce GTX 970 erleben will) – aber eine offizielle Bestätigung ist natürlich viel besser als wohlfeile Annahmen. nVidia braucht bei der GeForce GTX 1070 auch keine derartigen Abspeckungen, weil allein der Wechsel von GDDR5X auf GDDR5 (trotz deutlich höheren Speichertakts) die Speicherbandbreite in diesem konkreten Fall um 20% reduziert. Zusammen mit dem 25%igen Verlust an Shader-Einheiten von GeForce GTX 1080 zu 1070 wird sich immer ein vergleichsweise hoher Performance-Abstand zwischen beiden Karten ergeben, da braucht es keine zusätzlichen Abspeckungen an Nebenpunkten.

In unserem Forum wird ein neues Polaris-10-Benchmarkresultat in SiSofts Benchmark-Datenbank notiert – wobei hier die Höhe des Benchmark-Resultats eher nebensächlich ist, interessant sind die Taktraten der Polaris-10-Karte von immerhin 1266/3800 MHz. Dies sieht sowohl bei Chip- als auch Speichertakt eher nach einem Overclocking-Testresultat aus, zum vorhergehenden Fiji-Chip der Radeon R9 Nano/Fury Karten gab es vorab ähnliche Einträge in der SiSoft Benchmark-Datenbank. AMDs Polaris-Grafikkarten werden allgemein mit deutlich gemächlicheren Taktraten als nVidias Pascal-Beschleuniger erwartet – wohl etwas höher als die Taktraten der bisherigen AMD-Grafikkarten, aber keineswegs in Richtung von 1500 MHz und mehr wie bei nVidia. AMD folgt bei seinen 14nm-Grafikchips auch einem ganz anderen Designansatz als nVidia bei seinen 16nm-Grafikchips: Während bei nVidia recht wenige Ausführungseinheiten hingekommen sind, dafür aber die Taktraten deutlich stiegen, scheint AMD eher viel mehr Ausführungseinheiten auf eine vergleichsweise kleine Chipflächen zu packen, welche dann mit eher üblichen Taktraten betrieben werden.

Da es für das herauskommende Ziel ziemlich egal ist, wie man die benötigte Rechenleistung erreicht, ist keiner der beiden Ansätze als generell im Vorteil zu sehen – nVidia braucht für seine taktschnellen Chips mit weniger Recheneinheiten nominell weniger Transistoren, wird diese aber kaum so dicht packen können wie AMD mit seinen niedrigeren Polaris-Taktraten. Im Idealfall nehmen sich Polaris und Pascal nichts, wenn man die herauskommene Performance auf die jeweils dafür verbrauchte Chipfläche normiert. Gut läßt sich dies jetzt schon im Verhältnis von AMDs Polaris 10 und nVidias GP104 aufzeigen: Beiderseits mit 2560 Shader-Einheiten ausgerüstet (bei Polaris 10 voraussichtlich, wobei auch die vorgenannte Karte in der SiSoft Benchmark-Datenbank wieder nur mit 2304 Shader-Einheiten lief), aber die nVidia-Lösung mit deutlich mehr Dampf wegen der viel höheren Taktraten – und dafür die AMD-Lösung auch deutlich kleiner bei der Chipfläche (232mm² zu 314mm²) und damit von der Kostenseite her in einem ganz anderen Preissegment ansiedelbar. AMD muß halt die bisherigen Limitationen der GCN-Architektur lösen, sprich die hohe IPC-Steigerung von nVidias Maxwell-Generation wenigstens teilweise ausgleichen – dann werden da gut zu nVidia vergleichbare Angebot herauskommen können.

Hartware vermelden neue Zahlen zum Grafikchip-Absatz seitens Mercury Research für das erste Quartal 2016, welche ziemlich positiv für AMD aussehen: Bei Desktop-Grafikkarten soll AMD nunmehr bei 22,7% liegen (+1,6% gegenüber dem vierten Quartal 2015), bei Mobile-Lösungen bei 38,7% (+7,3) und insgesamt bei 29,4% (+3,2%). Leider weisen diese Zahlen nicht unerhebliche Unterschiede zu den Zahlen von Jon Peddie Research auf, da lag AMD im vierten Quartal 2015 bei gerade einmal 21,1% – und nicht bei 26,2% wie bei Mercury Research. Wer hier richtig liegt, können wir natürlich nicht beurteilen – allein, von Jon Peddie Research werden regelmäßig entsprechende Zahlen veröffentlicht, ergibt sich inzwischen eine feine Marktanteils-Statistik zurück bis ins Jahr 2002. Andererseits lohnt der Streit über die exakte Höhe der Zahlen auch wieder nicht, aller Vermutung nach dürften die nächsten Zahlen von Jon Peddie Research eine ähnliche Steigerung zugunsten von AMD sehen, welche dann endlich einmal wieder in Richtung der 30-Prozent-Marke bei dedizierten Grafiklösungen wandern und sich damit aus ihrem (tiefen) Loch von zwei Quartalen unterhalb von 20% Marktanteil Stück für Stück herausarbeiten. Von einem sinnvollen Markt kann hier trotzdem natürlich noch lange nicht gesprochen werden, da sollte bei nur zwei Anbietern der kleinere immer bei mindestens 40% Marktanteil herauskommen.

Golem berichten über einen ARM-Testchip in der 10nm-Fertigung von TSMC, welcher sein Tape-Out nun augenscheinlich erfolgreich hinter sich gebracht hat. Mit diesem Testchip testet ARM nicht nur die 10nm-Fertigung aus (welche zur Massenfertigung von SoCs allerdings erst in Richtung Frühling/Jahresmitte 2017 zur Verfügung stehen wird), sondern primär auch seine neue Artemis-Prozessorenarchitektur. Zu jener wurde wohlweislich nicht viel gesagt, diese Daten dürfte ARM noch möglichst lange unter Verschluß halten – so das derzeit nur klar wird, was TSMCs 10nm-Fertigung hierzu beitragen kann: 2,1fach höhere Packdichte (was im Prozessoren-Bereich aber schon lange nicht mehr ausgenutzt wird) zuzüglich 30% weniger Stromverbrauch auf gleicher Taktrate oder 11-12% höhere Taktrate bei gleichem Stromverbrauch. Für die Hauptabnehmer von ARM-Designs dürfte der Takratengewinn eher weniger interessant sein, die höhere Energieeffizienz viel stärker – und mehr Performance wird die neue Architektur sowieso mit sich bringen, könnte man jederzeit auch mit (noch) mehr CPU-Kernen herstellen und braucht man am Ende bei Smartphone/Tablet-SoCs sowieso nicht mehr wirklich.

20

AMDs Polaris-Webinar bringt gewisse Daten zur neuen Display- und Multimedia-Engine

Ein wenig untergegangen im Launch der GeForce GTX 1080 sowie der Bekanntgabe der offiziellen Spezifikationen zur GeForce GTX 1070 ist AMDs am 18. Mai abgelaufenes Webinar zur Polaris-Architektur. AMD hatte jenes vorab nicht groß promotet und auch keine genauere Einblicke in kommende Produkte versprochen, sondern nur einen Überblick über die Polaris-Architektur – und genau dies ist es dann auch geworden. Eventuell kann man aus der Richtung, wie Polaris seitens AMD promotet wird, dessen Designschwerpunkte erahnen – hierzu ritt AMD deutlich auf dem Punkt von "Asynchronous Compute" herum, welches man als Schlüsselfeature der vierten GCN-Iteration bezeichnete. Am Ende ist das ganze ohne Daten & Zahlen jedoch nur (höchst) ungenauer Spekulatius und kann man sich nur zielsicher mit den wenigen von AMD genannten Polaris-Fakten auseinandersetzen. Jene versprechen – aber auch kein Wunder in einer neuen Chip-Generation – eine neue, modernere Display- und Multimedia-Engine:

AMD Polaris Architektur-Features
AMD Polaris Architektur-Features
AMD Polaris Display-Engine
AMD Polaris Display-Engine
AMD Polaris Multimedia-Engine
AMD Polaris Multimedia-Engine

Dies müsste allerdings trotzdem noch in eine konkrete Featureliste gegossen werden, um es wirklich mit nVidias neuen Fähigkeiten beim GP104-Chip vergleichen zu können. Andererseits gilt auch hier und vor allem, das Polaris nun einmal kein GP104-Kontrahent ist, jegliche GP104-Fähigkeiten eigentlich für den Vergleich zu Polaris keine Rolle spielen. Nach wie vor wird der größere Polaris-10-Chip im Bereich von 300-350 Dollar Listenpreis erwartet, der kleinere Polaris-11-Chip hingegen im Bereich von 150-200 Dollar Listenpreis (jeweils bezogen auf die größte angebotene Chipvariante). AMD hat sich hierzu natürlich nicht offiziell geäußert, dies ergibt sich aber recht automatisch aus allen herumschwirrenden Hardwaredaten, AMDs eigener Roadmap (mit zwei noch schnelleren Vega-Chips im Herbst 2016 sowie Anfang/Mitte 2017) sowie auch AMDs zwischen den Zeilen stehenden Andeutungen.

Klar bestätigt wurden hingegen beim Polaris-Webinar die beiden Polaris-Chips Polaris 10 (Performance-Segment) und Polaris 11 (Mainstream-Segment), welche beiderseits in mehreren Varianten sowohl für Desktop- als auch Mobile-Bedürfnisse erscheinen sollen. Als weitere Bestätigung hierfür gibt es in unserem Forum eine Liste mit bekannten Device-IDs für die beiden Polaris-Chip, welche immerhin 11 Device-IDs für Polaris 11 sowie 9 Device-IDs für Polaris 10 ausweist. Da für das Desktop-Segment hierfür nur 2-3 Stück gebraucht werden, scheint AMD schon sehr aktiv im Mobile-Segment zu sein – was ja auch erwartet wurde für diesen lange vorbereiteten und schon zum Jahresanfang angekündigten Launch. Für die Desktop-Modelle versprach AMD hingegen eine größere Vielfalt an verschiedenen Modellen der Grafikkarten-Hersteller, welchen keine Beschränkungen beim Erreichen besonders hoher Taktraten (zuungunsten dann natürlich der Energieeffizienz) auferlegt werden sollen. Sollte dies eintreffen, könnte sich nachfolgend auch bei AMD ein guter Wettbewerb der Grafikkarten-Hersteller in Richtung besonders interessanter ab-Werk-Übertaktungen entwickeln – wie jener schon den aktuellen Markt an nVidia-Grafikkarten prägt.

20

AMD legt das "Total War: Warhammer" Spielebundle für Radeon R9 390 & 390X sowie FX-Prozessoren auf

Nach dem Auslaufen des Hitman (2016) Spielebundles bekommen die Radeon R9 390 & 390X Grafikkarten von AMD ein neues Spielebundle spendiert, in welchem es diesesmal den ab 24. Mai verfügbaren Rundenstrategietitel "Total War: Warhammer" kostenlos oben drauf gibt. Wie schon beim letzten Spielebundle für Radeon R9 390 & 390X werden auch hier die Käufer von FX-Prozessoren mit bedacht, das neue AMD-Spielebundle gilt somit auch für Käufer von AMDs Achtkern-Prozessoren der FX-Baureihe, sofern in der Boxed-Version erworben. Das neue Spielebundle soll bis zum 15. August laufen – oder bis die von AMD eingekauften Lizenzschlüssel alle weggegangen sind, je nachdem was zuerst eintrifft.

Wie üblich bei Spielebundle-Aktionen gilt auch hier, daß den genannten AMD-Grafikkarten & AMD-Prozessoren – gekauft bei einem an der Aktion teilnehmenden Händler – entsprechende Coupons beiliegen, welche auf einer speziellen AMD-Webseite dann in Download-Codes eingelöst werden können. Bei der Hardware-Bestellung ist auf das Vorhandensein eines entsprechenden AMD-Coupons in der Angebotsbeschreibung zu kontrollieren, da nicht jeder Händler an dieser Aktion teilnimmt und selbst bei den teilnehmenden Händler nicht jedes Produktangebot Teil dieser Aktion sein muß.

Aktionszeitraum Inhalt des Spielebundles
Radeon R9 390 & 390X 1. November 2015 bis spätestens 31. Dezember 2015 Spiel "DiRT Rally"  (Einlöse-Webseite)
Radeon R9 Fury 17. November 2015 bis spätestens 31. Januar 2016 (verlängert bis zum 31. März 2016) Spiel "Star Wars Battlefront"  (Einlöse-Webseite)
Radeon R9 Fury X 14. Dezember bis spätestens 31. Januar 2016 (verlängert bis zum 31. März 2016) Spiel "Star Wars Battlefront"  (Einlöse-Webseite)
Radeon R9 390 & 390X
FX-6xxx & FX-8xxx Prozessoren
16. Februar 2016 bis spätestens 30. April 2016 Spiel "Hitman (2016)"  (Einlöse-Webseite)
Radeon R9 390 & 390X
FX-8xxx Prozessoren (boxed)
17. Mai 2016 bis spätestens 15. August 2016 Spiel "Total War: Warhammer"  (Einlöse-Webseite)
19

Hardware- und Nachrichten-Links des 18./19. Mai 2016

Zur aktualisierten Performance-Prognose zur GeForce GTX 1070 wäre noch der Gedanke hinzuzutragen, das sich an dieser Karte wohl noch viel besser zeigt, das der GP104-Chip kein Upgrade für GM200-Besitzer darstellen kann. Die GeForce GTX 1070 wird laut dieser Prognose ziemlich exakt in das Performance-Feld der GM200-basierten GeForce GTX 980 Ti & Titan X hineingehen. Die größere GeForce GTX 1080 ist zwar wiederum schneller, aber nicht schnell genug, um jene GM200-basierten Karten klar hinter sich zu lassen. Ausgehend vom GM204-Chip wird hingegen ein Schuh draus: Die GeForce GTX 1070 kommt ca. 40-65% vor der GeForce GTX 970 heraus (je nach benutzer Auflösung), die GeForce GTX 1080 hingegen ca. 60-70% vor der GeForce GTX 980. Dies sind sinnvolle Aufrüstungen (selbst wenn eine glatte Performance-Verdopplung natürlich besser wäre), welche nur im Fall der GeForce GTX 1080 etwas durch den hohen Preispunkt ausgebremst werden. Hier hat nVidia einer letztlich nur für das HighEnd-Segment gedachten Karte (welches nach dem Enthusiasten-Segment nur das zweithöchste Preis- und Performance-Segment darstellt) einen Enthusiasten-Preis mit auf die Reise gegeben, was den hohen gegenüber der GeForce GTX 980 erreichbaren Performancegewinn maßgeblich eintrübt.

Die Diskussion über den Preispunkt der GeForce GTX 1080 bestimmte dann auch (seitenlang) die Forendiskussion zum Launch dieser Karte. Die Meinungen und Argumente hierzu gehen durchaus weit auseinander, eine klare Linie ist noch nicht erkennbar – was natürlich auch gar nicht sein muß, die Karte ist zu dieser Preislage halt generell diskussionswürdig. Warum sich der hohe Preispunkt eventuell technisch rechtfertigen läßt, wurde im übrigen in einer Liste festgehalten. Ein weiterer Diskussionsschwerpunkt ist die Übertaktungseignung der neuen nVidia-Karte, zu welcher es widersprüchliche Aussagen gibt. Die These, das es bis auf 2500 MHz Chiptakt hinaufgeht, scheint inzwischen etwas beerdigt zu sein – aber dennoch geht man weiterhin davon aus, das (dauerhaft) über 2000 MHz machbar sein sollten, gute Übertaktungen wohl 2200 MHz erreichen könnten. Die bislang beste Übertaktung liegt bei 2164/2800 MHz, erreicht (weiterhin im Referenzdesign) mit einem Hybrid-Kühler bei Gamers Nexus. Hier ist allerdings noch sehr viel in der Schwebe, weil eben die Herstellerdesigns zur GeForce GTX 1080 noch nicht vorliegen.

Jene müssen augenscheinlich vor allem bei den Power- und Temperatur-Limits kräftig zulegen, um wirklich viel aus der GeForce GTX 1080 herauszukitzeln – höhere Chipspannungen reichen nicht aus, da selbst bei exzellenter Kühlung auf der jetzigen Founders Editions umgehend das Power-Limit greift. Interessant hierzu auch: Eine Speicherübertaktung hilft der Karte exzellent weiter – augenscheinlich hat jene für ihr Performance-Segment nur arg knapp an Speicherbandbreite. Dabei gilt allerdings zu beachten, das bei zu hohen Speichertakten die Karte sogar langsamer wird, man sich hier also manuell nicht an die höchste erreichbare, sondern die höchste sinnvolle Speicherübertaktung herantasten muß. Davon abweichend wäre zur Technik noch wichtig der Hinweis, das "Fast Sync" faktisch wie TripleBuffering wirkt – nur das nVidia nunmehr nicht auf dessen Vorhandensein im Rahmen von DirectX oder OpenGL angewiesen ist, sondern jenes mittels des Treibers selbsttätig anbietet. Und abschließend sei noch auf die Statements zweier ausgewiesener Grafikkarten-Experten hingewiesen: aths zur GeForce GTX 1080 (langjähriger früherer 3DCenter-Mitarbeiter) und FormatC zur GeForce GTX 1080 (Hardwaretester bei Tom's Hardware).

Bezüglich der Lieferbarkeit und Preislage der GeForce GTX 1080 gibt es hingegen (zumeist) erfreuliches zu vermelden: Zwar werden vereinzelt Vorbesteller-Abzockpreise (1073 Euro bei BA-Computer sowie Haym) gelistet, dafür aber berichten HardOCP, das am 27. Mai nicht nur die Founders Edition, sondern bereits sogar erste Herstellerdesigns in den Handel gehen sollen. Dies wäre dann deutlich vor der nVidia-Ankündigung, welche Herstellerdesigns erst zwei Wochen nach Verfügbarkeit der Founders Edition genannt hatte. An den zur Verfügung stehenden GP104-Chips liegt es augenscheinlich nicht – nVidia hatte jene nur zurückgehalten, aber in ausreichender Menge produziert sind jene wohl durchaus. Die wichtigste Information dürfte aber jene sein, das laut einer Aussage in einem Stream von PC Perspective Grafikkartenhersteller EVGA tatsächlich ein Herstellerdesign für 599 Dollar vorbereitet. Sollte sich die Preislage der GeForce GTX 1080 an diesem Punkt einpendeln, dann müsste man jene noch einmal neu betrachten – was aber bereits angekündigt worden war.

Ausgehend von NeoWin frisst sich derzeit die Nachricht durchs Web, das neue Windows-10-Geräte mit dem für diesen Sommer angekündigten "Anniversary Update" dann auch einen vorhandenen und aktivierten TPM 2.0 Baustein auf dem Mainboard voraussetzen. Dies kommt allerdings auch nicht wirklich überraschend, sondern wurde von Microsoft schon vor dem Launch von Windows 10 derart kommuniziert. Das unglückselige Kapitel TCPA & Trusted Computing findet damit seinen vorläufigen Höhepunkt – den Abschluß wird wohl bilden, das der Windows-10-Nachfolger gleich vom Start weg auf aktive TPM-Module aufsetzt. Einschränkenderweise sei zu erwähnen, das es sich hierbei nicht um eine Hardware-Anforderung von Windows 10 handelt, sondern um eine Microsoft-Anforderung für das "Designed for Windows" Siegel. Komplett-PCs und Notebooks ohne ein solches Siegel sind jedoch arg selten, wahrscheinlich bindet Microsoft an dieses Siegel diverse Lizenz-Rabatte, was es für die OEM-Hersteller damit auch wirtschaftlich interessant macht.

Eine gewisse Ausweichmöglichkeit besteht weiterhin in den Produkten für den Selbstbau-PC – hierbei müsste man beim Mainboard seiner Wahl auf ein Modell ganz ohne TPM (hat dann aber auch keine Microsoft-Zertifizierung) oder mit einer Abschaltmöglichkeit im BIOS achten. Windows 10 wird dies nicht stören, da das ganze wie gesagt keine Anforderung des Betriebssystems selber ist, jenes das TPM nicht zum Funktionieren benötigt (später könnten allerdings Anwendungen auftauchen, die ein aktives TPM voraussetzen). Mit Wink an die Mainboard-Hersteller sei hierbei auf eine frühere Umfrage verwiesen, welche einen erheblichen Bedarf an solcherart Mainboards unter den 3DCenter-Lesern aufzeigt. Dabei könnte man ironischerweise Trusted Computing und somit auch ein TPM durchaus zu nutzvollen Dingen einsetzen – allein, davon wird seit über 10 Jahren geredet, irgendein Nutzwert für den Endanwender hat sich noch nicht eingefunden. Vielmehr bestehen angesichts der jüngsten Tendenzen eher große Bedenken, daß das ganze vielmehr zum klaren Nachteil der Endanwender ausgenutzt wird. Zu beachten ist hierzu auch die Warnung des BSI, das solcherart Computer (normalerweise) keine Zulassung für den Behördeneinsatz erhalten können.

Inhalt abgleichen