11

GeForce GTX Titan X scheint ~30-35% schneller gegenüber der GeForce GTX 980 zu werden

Von Videocardz und aus dem Forum von Chiphell kommen erste Benchmarks zur GeForce GTX Titan X auf Basis von nVidias GM200-Chip. Dabei wurde der Grundtakt der neuen nVidia-Karte seitens Videocardz mit 1002 MHz angegeben, der Speichertakt bleibt bei 3500 MHz wie bei GeForce GTX 780 Ti & 980. Der Boost-Takt ist noch unbekannt, dürfte aber in Richtung 1100 bis 1150 MHz liegen – darauf deutet die erreichte Übertaktung von 1222 MHz Chiptakt hin, nVidia dürfte sich ausgehend vom Boost-Takt natürlich noch ein paar Übertaktungsreserven lassen. Die beim GM200-Chip erreichbaren Taktraten scheinen damit generell etwas niedriger als beim GM204-Chip zu liegen, was angesichts der Größe des GM200-Chips aber kein großes Wunder ist, allerdings die Schlagkraft des GM200-Chips etwas limitiert. Angenommen 10% weniger realen Chiptakt bedeutet dies eben auch, daß von den nominell 50% mehr Shader-Einheiten dann nur 36% mehr Rohleistung übrig bleibt. Aus dieser Warte betrachtet sehen die ersten Benchmarks zur GeForce GTX Titan X sogar ziemlich gut aus:

(Videocardz) 3DMark11 Perf (GPU) 3DMark11 Extr. (GPU) 3DMark13 FS (GPU) 3DMark13 FS Extr. (GPU)
GeForce GTX Titan X 22903 7427 17470 7989
GeForce GTX 980 16988 5309 12845 5873
GeForce GTX 780 Ti 14282 4752 11142 5130
Radeon R9 290X 8GB (ab-Werk-OC) 15323 4206 11404 5091

Videocardz zeigen einige Benchmarks-Zahlen unter dem 3DMark11 & 3DMark13, welche der GeForce GTX Titan X einen Vorsprung von immerhin 36,7% gegenüber der GeForce GTX 980 bescheinigen – welcher zudem über alle Einzeltests ziemlich konstant nur zwischen 35-40% schwankt. Gegenüber der GeForce GTX 780 Ti liegt die Mehrperformance hingegen bei immerhin 57,3%, was ein guter Sprung für eine neue Grafikkarten-Generation darstellt, welche ohne eine neue Fertigungstechnologie auskommen muß.

(Chiphell-Forum) 3DMark13 FS Extr. (GPU) Perf. 22 Spiele 2560x1440 Stromverbrauch BF4
GeForce GTX Titan X 7825 153,6% 258W
GeForce GTX 980 5862 116,2% 185W
GeForce GTX 780 Ti 5115 101,3% 264W

Aus dem Chiphell-Forum kommen hingegen weitere 3DMark13-Werte (im übrigen nahezu deckungsgleich zu den Werten von Videocardz) sowie ein Performance-Rating von 22 Spielen unter 2560x1440 (mit der GeForce GTX 970 auf 100%) sowie einige Stromverbrauchsmessungen der reinen Grafikkarte. Letztere sehen die vermuteten grob 250 Watt realen Stromverbrauch bei der GeForce GTX Titan X bestätigt – die neue nVidia-Grafikkarte wird diesbezüglich kein Leisetreter, scheint aber auch keine neuen Rekordmarken aufstellen zu wollen. Bei der Performance in den 22 getesteten Spielen liegt man um 32,2% vor der GeForce GTX 980 und um 51,6% vor der GeForce GTX 780 Ti – beide Werte sind etwas niedriger als bei Videocardz, aber dort kamen schließlich auch nur zwei synthetische Benchmarks zum Einsatz und nicht der Schnitt von gleich 22 Spielen.

Trotzdem deuten alle diese Werte am Ende in dieselbe Richtung: Die GeForce GTX Titan X scheint wohl ~30-35% schneller gegenüber der GeForce GTX 980 herauskommen zu können. Dies ist etwas weniger, als was man sich bestenfalls hat vorstellen können – aber immer noch klar im Rahmen der Erwartungen, welche zuletzt auf zwischen 30-40% Performanceplus zur GeForce GTX 980 lagen. In unserem Performance-Index ist die GeForce GTX Titan X damit auf einem Wert von ~740-770% zu erwarten – knapp unterhalb der GeForce GTX Titan Z (Perf.Index ~840%), aber durchaus in Schlagweite zu dieser DualChip-Lösung und aufgrund der prinzipiellen Vorteile von SingleChip-Lösungen selbst abgesehen des astronomischen Preispunkts der GeForce GTX Titan Z immer vorzuziehen. Allerdings könnte es damit knapp werden gegenüber AMDs Radeon R9 390X, denn jene Fiji-basierte Grafikkarte wird nach den letzten Vorab-Benchmarks auf einen Performance-Index von leicht besseren ~760-780% eingeschätzt.

Nachtrag vom 11. März 2015

Zu diesen Benchmark-Werten zur GeForce GTX Titan X gab es dagegen die (zutreffende) Anmerkung, daß die GeForce GTX Titan X maximal vermessen unter der Aufösung von 2560x1440 natürlich nicht das an Performance zeigt, was deren potentielle Käufer interessiert – da geht es entweder um 4K oder aber um FullHD mit Downsampling auf das Niveau von 4K. Gerade weil nVidia nun beim GM200-Chip das gleiche Speicherinterface wie beim vorhergehenden GK110-Chip benutzt, AMD in dieser Frage derzeit schon vorn ist und mit dem Fiji-Chip und dessen HBM-Speicherinterface noch viel weiter vorangehen wird, interessiert der Punkt der 4K-Performance besonders. Man vermutet hier nicht zu Unrecht, daß der GM200-Chip hier erhebliche Nachteile gegenüber dem Fiji-Chip haben könnte, einfach weil ein Speicherbandbreiten-Unterschied von (je nach konkreter Taktrate) 50-80% zugunsten von Fiji irgendwo seine deutlichen Auswirkungen haben muß. Insofern kann es gut und gerne passieren, daß Fiji dem GM200 unter 4K eventuell sehr viel deutlicher davonzieht als dies durch die wenigen derzeit vorliegenden Benchmarks ausgedrückt wird.

11

nVidia legt GeForce 900 & 900M Grafiklösungen "Witcher 3" bei

Wie erwartet worden war, hat nVidia für die Grafikkarten der GeForce 900 & 900M Serien ein neues Spielebundle namens "Undeniably Epic" aufgelegt – welches zwar nur ein Spiel enthält, jenes in Form von "The Witcher 3: The Wild Hunt" auf breites Interesse stoßen dürfte. Ein entsprechender Download-Coupon wird von den an der Aktion teilnehmenden Händlern bei GeForce GTX 960, 970 und 980 sowie bei Notebooks mit GeForce GTX 970M & 980M Grafiklösungen ab dem 10. März beigelegt werden. Derzeit werden als teilnehmende Händler Atelco, Alternate, Art, Agando, Caseking, Mindfactory und One genannt – in der Praxis hat sich immer wieder die Situation ergeben, daß letztlich noch mehr Händler an solchen Aktionen teilgenommen haben. Generell gilt auch bei dieser Aktion der Hinweis, vor allem Bestellungen die Angebote der Einzelhändler genau zu checken bzw. sich die Beilage des Coupons sich notfalls manuell bestätigen zu lassen.

Die früheren nVidia-Spielebundles scheinen unabhängig davon weiterzulaufen, jene betreffen aber natürlich nur die Grafikkarten der GeForce 600 & 700 Serien. Für die GeForce 900 Serie bedeutet dies, daß unter Umständen zwei verschiedene Bundles gleichzeitig angeboten werden könnten, denn das "Pick your Path" Spielebundle mit einem von drei Ubisoft-Spielen gibt (gab?) es schließlich auch für die GeForce 900 & 900M Serien. Ob für die früheren Spielebundles von nVidia aber wirklich noch entsprechende Angebote mit Download-Coupon angeboten werden, ist ungewiß – nVidia nimmt allerdings derzeit immer noch Gutschein-Einlösungen für diese früheren Spielebundles an. Allein das frühere "Free-to-Play" Bundle ist nunmehr wirklich abgelaufen, für jenes nimmt nVidia keine Gutschein-Einlösungen mehr an. Auf AMD-Seite ist dagegen weiterhin das mit der Radeon R9 285 eingeführte "Never Settle: Space Edition" Spielebundle aktuell.

Inhalt des Spielebundles
GeForce GTX 660 bis 690 & Titan
GeForce GTX 760 bis 780 Ti
ab Aktionsstart 12. März 2014: Spiel "Daylight"  (Einlöse-Webseite)
GeForce GTX 660 bis 690
GeForce GTX 760 bis Titan Black
ab Aktionsstart 29. April 2014: Spiel "Watch Dogs"  (Einlöse-Webseite)
GeForce GTX 770 bis Titan Black ab Aktionsstart 13. August 2014: Spiel "Borderlands: The Pre-Sequel"  (Einlöse-Webseite)
GeForce GTX 780 & 780 Ti
GeForce GTX 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 4. November 2014: "Pick your Path" Spielebundle mit einem von drei Ubisoft-Spielen: "Assassin’s Creed: Unity", "Far Cry 4" oder "The Crew"  (Einlöse-Webseite)
GeForce GTX 960, 970 & 980
GeForce GTX 970M & 980M
ab Aktionsstart 10. März 2015: Spiel "The Witcher 3: Wild Hunt"  (Einlöse-Webseite)

Nachtrag vom 11. März 2015

Zum neuen nVidia-Spielebundle gab es die wichtige Anmerkung, daß auf AMD-Seite derzeit von AMD keine Coupon-Einlösungen mehr entgegengenommen werden, das "Never Settle: Space Edition" Spielebundle damit faktisch ausgelaufen ist. Da auch von nVidias älteren Spielebundles kaum noch etwas im Handel verfügbar sein dürfte (egal ob nVidia noch Coupon-Einlösungen ermöglicht), steht derzeit erstaunlicherweise nVidias neues Spielebundle allein auf weiter Flur. Das Zünglein an der Waage bei einer Kaufentscheidung pro AMD oder pro nVidia dürfte die Beilage eines einzelnen Spiels jedoch kaum ausmachen – dafür waren die AMD-Bundles mit ihren vielen Wahlmöglichkeiten schon viel eher geeignet. AMD dürfte in dieser Frage aber nun auch nichts mehr zugunsten der aktuellen AMD-Beschleuniger unternehmen – sondern viel eher nur noch an das Erscheinen der Radeon R300 Serie denken, für welche dann womöglich ein neues AMD-Spielebundle aufgelegt wird.

10

Hardware- und Nachrichten-Links des 10. März 2015

Obwohl eigentlich für den 10. März vorgesehen und mittels einer weiteren Vorstellung einer entsprechenden MSI-Grafikkarte sowie entsprechenden Händler-Notierungen auch gewissermaßen bestätigt, hat es die GeForce GTX 960 4GB augenscheinlich nicht zu einem großen Launch geschafft – was schade ist, muß somit doch die interessante Betrachtung von 2 GB vs. 4 GB Grafikkartenspeicher auf einer modernen Grafikkarte nunmehr etwas verschoben werden. Rein preislich überzeugen die ersten Händler-Angebote zudem auch noch überhaupt nicht: Das meiste fängt bei 260 bis 270 Euro an, nur ein einzelnes Angebot geht auf 250 Euro herunter – und ist auch damit gute 60 Euro von den besten Preisen der regulären 2-GB-Ausführung entfernt. Bei diesen Preisen muß wirklich niemand die 4-GB-Version erstehen, da lohnt sich bei nVidia viel eher der Blick zur GeForce GTX 970 bzw. eher der Schwenk herüber zu den viel attraktiveren Mittelklasse-Angeboten von AMD. Erst ab einem Preis von 220 Euro lohnt die GeForce GTX 960 4GB eine Überlegung – und ist selbst dann noch stark unter Druck durch die gleichpreisige, schnellere und mit mehr Speicher ausgestattete Radeon R9 280X.

Bei den Grafikchip-Entwicklern scheint derzeit VR-Gaming hoch im Kurs zu stehen, wie auch AMDs neues VR-SDK "Liquid VR" beweist. Dabei sollte man laut Golem für eine optimale Performance auf gleich zwei Grafikkarten zurückgreifen, welche dann jeweils das Bild für ein Auge alleine berechnen. Aus dieser Warte gesehen kann VR-Gaming für die Grafikchip-Entwickler natürlich nicht früh genug kommen – ist schließlich alles willkommen, was mehr Leistung verbrät und demzufolge leistungsfähigere Hardware erfordert. Ob es der Markt annimmt, wenn neben dem VR-Spielzeug dann noch der halbe Computer umgerüstet werden muß, bliebe abzuwarten bzw. lieber gleich zu bezweifeln. Andererseits befindet sich VR ohne leistungsfähige Hardware sicherlich in einer gewissen Falle: Nur allein die blanke Technik mit aber schwachen Frameraten wird nicht überzeugen – während hingegen eine aus Performance-Sicht optimale Lösung (mit am besten zwei GeForce GTX Titan X Karten) wegen der Seitenwirkung auf benötigte Prozessoren-Power, auf Netzteil und Gehäuse einfach zu teuer erscheint, um VR-Gaming all zu schnell eine Chance zu geben. Vermutlich wird das Thema in absehbarer Zeit technisch spruchreif werden – bis es dann einen erträglichen Preis hat, wird dagegen noch dauern.

Zum kürzlich gemeldeten Benchmark-Wert zu Skylake gibt es Stimmen, welchen der 20%ige (taktnormierte) Performancesprung als zu wenig erscheint. Rein vom Prinzip her stimmt dies sogar – 20% Mehrperformance dürften eigentlich niemand hinterm warmen Ofen hervorholen. Das Gegenargument hierzu lautet, daß dieser Performancegewinn in der jüngeren Intel-Historie wohl einen Spitzenwert ergeben dürfte, selbst wenn sich hier Broadwell noch ein paar Prozentpunkte abknöpft (die 20% beziehen sich auf den Sprung von Haswell direkt zu Skylake). Die letzten Pro/MHz-Steigerungen bei Intel waren schließlich allesamt ziemlich mager, die letzten größeren Schübe gab es mit Nehalem und Sandy Bridge – dies waren die Jahre 2008 und 2011. Offen bleibt an dieser Stelle natürlich, ob Skylake nicht eventuell noch Taktraten-Offensiven oder aber eine bessere Übertaktungsfähigkeit als Haswell mit sich bringt, dies könnte natürlich auch noch für weitere Mehrperformance sorgen.

Gemäß der ComputerBase soll USB 3.1 bzw. der damit einhergehende Stecker "Typ C" sogar in der Lage sein, Thunderbolt-Signale durchleiten zu können – von der Geschwindigkeit her zwar nur Thunderbolt in der Version 1 (10 Gbit/sec wie bei USB 3.1), aber immerhin. Mit einer zukünftigen USB-Norm mit mehr Geschwindigkeit wäre es sicherlich auch möglich, Thunderbolt 2 (20 GBit/sec) über USB durchzuleiten. Damit kann man letztlich alle vorhandenen Thunderbolt-Gerätschaften (mittels Adaptersteckern) weiterbetreiben, könnte die Thunderbolt-Schnittstelle aber irgendwann einmal aussterben lassen. Apple als einziger wirklich bedeutsamer Thunderbolt-Anwender scheint jedenfalls in diese Richtung hin zu denken, denn angeblich soll zukünftige Apple-Hardware ohne Thunderbolt-Stecker daherkommen. Interessante Seitennote: Jener neue Stecker "Typ C" ist (im Gegensatz zu Kabeln und Schnittstelle) bereits auf die doppelte USB 3.1 Geschwindigkeit ausgelegt, könnte also auch bei einer kommenden weiteren USB-Norm weiterverwendet werden.

Shortcuts: Die PC Games Hardware hat ein Special aufgelegt, welches sich mit verschiedenen Spielevideos-Aufzeichnungslösungen beschäftigt. Nachdem es hierzu jahrelang fast nur Fraps gab, sind die Möglichkeiten gerade durch Hersteller-spezifische Tools in letzter Zeit sehr viel vielfältiger geworden – da dürfte sich sicher für jeden Geschmack etwas finden lassen. Overclocking.Guide haben eine Anleitung verfasst, wie man auf nVidia-Grafikkarten ab der Kepler-Architektur das Power Target mittels Hardware-Modifikation nach oben verschiebt. Dazu sind drei Löt-Eingriffe auf der Grafikkarte samt Ausmessen des konkret anliegenden Widerstands vonnöten – das ganze ist also nur etwas für erfahrene Hardware-Bastler (und zudem natürlich außerhalb jeder Garantie). Noch im alten Jahr hat sich die ComputerBase mit der Treiber-Optimierung von AMD und nVidia auf Early-Access-Spielen beschäftigt. Dabei zeigte sich ein klarer Vorteil von nVidia in einigen Spielen, wo nVidia entweder schon rechtzeitig optimiert hatte oder aber welche auf AMD-Hardware ohne Optimierung einfach schlecht laufen – durchaus ein kleiner Pluspunkt für nVidia in einem bislang kaum beachteten Themenfeld.

10

AMDs Radeon R9 370 Serie kommt womöglich Anfang April

Videocardz haben zwei interne Unterlagen von XFX aufgetrieben, welche von einer "XFX Radeon R9 370 Core Edition 2GB" Grafikkarte sprechen, die für Anfang April geplant ist. Natürlich können diese Unterlagen auch alt und damit in Detailfragen überholt sein – aber da gerade für die Radeon R9 370 Serie kaum andere Informationen vorliegen, muß man notgedrungen damit arbeiten. Denn bisher war nur bekannt, daß AMD in diesem Marktsegment mit "Trinidad" einen neuen Grafikchip mit 256 Bit DDR Speicherinterface und einer Speicherbestückung von 2 GB bringen wollte. Dies hört sich natürlich verdächtig danach an, daß es sich bei Trinidad eventuell rein um eine (erneute) Wiederauflage des Pitcairn-Chips der Radeon HD 7800 Serie handeln könnte, welcher mittels des Curacao-Chips der Radeon R9 270 Serie bereits einmal eine glatte Wiederauflage feierte.

    AMD Trinidad (Radeon R9 370 Serie)

  • 28nm-Fertigung von TSMC
  • unsicher, ob echter neuer Grafikchip oder aber ein Rebranding des Pitcairn-Chips der Radeon HD 7800 Serie
  • sicher:  256 Bit DDR Speicherinterface
  • sicher:  2 GB GDDR5 übliche Speicherausstattung
  • sicher:  110-130 Watt Boardpower bei der Radeon R9 370
  • sicher:  1x 6poliger Stromstecker bei der Radeon R9 370
  • benutzt für:  Radeon R9 370 & Radeon R9 370X, möglicherweise Radeon R7 365
  • Terminlage:  angeblich Anfang April 2015

Mit den nun vorliegenden Daten zu dieser XFX-Grafikkarte läßt sich diese Annahme weder bestätigen noch wiederlegen – aber die Tendenz geht doch durchaus in diese Richtung, als daß Trinidad letztlich Pitcairn sein wird. Neben der Breite des Speicherinterfaces und der Grafikkartenspeicher-Bestückung spricht dafür nun auch noch die Boardpower, welche bei der Radeon R9 370 mit 110-130 Watt grob dort liegt, wo ähnlich leistungsfähige Curacao-Beschleuniger (aka Radeon R7 265 & Radeon R9 270 mit jeweils 150 Watt TDP und realer Leistungsaufnahme bei 108W bzw. 130W) bisher schon herausgekommen sind. Die Möglichkeit, daß Trinidad doch ein extra Grafikchip ist, bleibt dennoch vorhanden – und es würde sich eigentlich lohnen, Pitcairn abzulösen, denn die GCN 1.0 Architektur von Pitcairn hat einige Feature-Nachteile bei den Themen VSR Anti-Aliasing sowie (echtem) FreeSync-Support.

Nachtrag vom 11. März 2015

Bei dieser Meldung zur Radeon R9 370 auf Trinidad-Basis fehlt noch eine Betrachtung des Umstands, daß der Trinidad-Chip gemäß unserer eigenen früheren Einschätzung eigentlich für die Radeon R7 360 Serie geplant gewesen sein sollte – und nicht für die 370er Serie, was die Frage aufwirft, wie dann noch Tonga und Hawaii im R300-Lineup unterzubringen sind, wenn man die Radeon R9 390 Serie dem Fiji-Chip zuordnet. Die ehrliche Antwort auf diese Frage lautet, daß es derzeit hierauf keine zufriedenstellende Antwort gibt – daß entweder die frühere Lineup-Zusammenstellung leicht verändert wurde oder AMD uns mit völlig abweichendem überrascht. Denkbar wäre beispielsweise, daß der Tonga-Chip ganz aus dem Lineup herausfällt oder wieder nur für eine einzelne Grafikkarte benutzt wird – dies bleibt erhellende neue Informationen abzuwarten. Aber letztlich ist ja noch nicht einmal klar, ob Trinidad nun ein eigener Chip darstellt oder nicht: Wir hatten zuletzt eher von der Möglichkeit gesprochen, daß es sich um einen Pitcairn-Rebrand handelt.

Nach genauer Betrachtung der Stromverbrauchswerte erscheint aber die Variante, daß es sich um einen wirklich neuen Grafikchip handelt, immer mehr wahrscheinlich: Denn die für die Radeon R9 370 angegebene Boardpower von 110-130 Watt ist einfach zu niedrig für den Pitcairn-Chip, welcher selbst in abgespeckter Form immer eine Boardpower von 150 Watt und mehr aufgewiesen hatte (selbst wenn der reale Stromverbrauch meist niedriger lag). Insbesondere die notierten "ab 110 Watt" deuten eher auf einen anderen Grafikchip als Pitcairn hin – und eine total abgespeckte Pitcairn-Variante (mit entsprechend niedrigem Stromverbrauch) wird AMD kaum als "Radeon R9 370" in den Handel schicken können, jene wäre dann schließlich langsamer als eine aktuelle Radeon R9 270. Gut möglich also, daß mit Trinidad dann doch ein neuer Grafikchip kommt – mittels welchem AMD dann aber die hohe Aufgabe angeht, unter derselben Fertigungsgröße mehr Performance zu einem geringeren Stromverbrauch herauszuholen: Denn schließlich scheint zwischen Radeon R9 270 und 370 ein etwas niedrigerer Stromverbrauch schon offensichtlich, während man wenigstens etwas Mehrperformance zugunsten der neueren Generation genauso annehmen darf.

9

Hardware- und Nachrichten-Links des 9. März 2015

HT4U thematisieren die Problematik, daß auf den aktuellen Spielekonsolen einfach zu viele wichtige Spieletitel die eigentlich angestrebte FullHD-Auflösung nicht erreichen. Mit Battlefield: Hardline kommt hier ein weiterer Titel hinzu (Xbox One: 1280x720, PS4: 1600x900), es wird aber sicherlich nicht der letzte bleiben – sondern vielmehr kann man eher davon ausgehen, daß jene Auflösungs-Absenkung in Zukunft zum Standard werden wird. Schließlich haben beide akuellen Spielekonsolen keine komplizierte Hardware, in welche man sich in jahrelanger Kleinarbeit mühsam einarbeitet, um dann aber noch sehr erstaunliches herauszuholen. Dieser Optimierungsgewinn dürfte bei Xbox One und Playstation 4 durch die PC-Verwandtschaft der verbauten Hardware derart gering sein, daß jener durch die steigenden Anforderungen neuer Spiele immer wieder aufgefressen wird. Es wird also wenn dann nicht mehr besser bezüglich der durch die Konsolen erreichbaren Auflösungen werden – sondern eher nur noch schlechter. Echtes FullHD in jeder Situation dürfte damit erst ein Thema der nachfolgenden Spielekonsolen-Generation sein – wobei jene natürlich auf jeden Fall noch ein anderes Thema braucht (4K, VR oder 3D), denn mit "FullHD" kann man nicht noch einmal werben.

Netzpolitik berichten über die Abstimmung zum TPM 2.0 Standard, bei welcher sich allein Deutschland und China konsequent gegen die derzeit vorliegende Spezifikation gewandt haben. China ging es dabei aber wohl nur um die Hinzunahme einer chinesischen Besonderheit, während allein Deutschland den Finger in die Wunde legte: Wenn schon TPM, dann muß es vollständig ausgeschaltet verkauft werden und darf nur durch eine "ausdrückliche, bewusste und informierte Entscheidung des jeweiligen Besitzers" eingeschaltet werden können. Inwiefern diese Ablehnung Deutschlands die Standardisierung behindert, ist leider unklar, ansonsten ergab sich jedenfalls eine klare Mehrheit zugunsten des neuen Standards. Dabei lauert das dicke Ende noch wo ganz anders, denn laut Netzpolitk soll bei TPM 2.0 jener TPM-Chip von Werk aus aktiv und auch nicht mehr vollständig deaktivierbar sein. Genauer wird dies leider nicht ausgeführt (wobei die deutsche Ablehnung aus dieser Sicht um so mehr Sinn ergibt), so daß man derzeit daraus noch keinen großen Aufstand machen kann. Aber dies wäre schon eine große Enttäuschung, wenn die an der Trusted Computing Group beteiligten Hardware-Hersteller einen derart enttäuschen würden – gerade nachdem man früher noch genau das versprochen hat, was Deutschland derzeit (als einsamer Rufer in der Wüste) einfordert.

Beim Neunetz beschäftigt sich mit der Zukunft der Heimvernetzung, welche über die automatisch vom Hersteller angebotenen vernetzten Geräte so oder so kommen wird – genauso wie man heutzutage kaum noch einen Fernseher ohne Smart-Funktionalität kaufen kann, wird hier einfach das Angebot den Markt machen. Als gewichtige fehlende Komponente wird dabei eine zentrale, private Steuereinheit vermisst – denn die Steuerung aller Geräte einer Heimvernetzung allein über das Internet wird auch in Zukunft viel zu fehleranfällig sein, von Datenschutz- und Hacker-Problematik ganz zu schweigen. Genau aus denselben Beweggründen hatten wir vor einiger Zeit an dieser Stelle schon einmal den PC (in Form eines "persönlichen Supercomputers") als zentrale Steuereinheit für die zukünftige Heimvernetzung ins Spiel gebracht – Neunetz sehen dies aus einem anderen Blickwinkel und sprechen daher gänzlich andere Geräte für diese Funktionalität an: Fritzbox, NAS-Systeme, FireTV und generell Smartphones & Tablets könnten diese Aufgabe natürlich auch übernehmen.

Es ist wohl eher eine Frage, welcher Hersteller hier zum richtigen Zeitpunkt mit einem funktionierenden Produkt vorangeht – und damit vielleicht einen generationenübergreifenden Standard kreiiert. Und obwohl der PC als die technologisch hochwertigste dieser vorhandenen Möglichkeiten eigentlich am besten dafür prädestiniert erscheint, kann es durchaus passieren, daß auch dieser Zug verschlafen wird – einfach, weil die einzelnen PC-Hersteller sich eher untereinander beharken und nicht auf das Gesamtbild schauen. Einzig Intel scheint in der Lage zu sein, hier etwas entscheidendes zu bewirken – aber um es auch wirklich gut zu machen, müsste Intel ausnahmesweise auf seine übliche Intel-Verdongelung verzichten und das Projekt zugunsten des gesamten PC-Sektors so frei wie möglich gestalten. Einer wird in jedem Fall das Rennen machen in der Frage, wer die Kontrolle über die Heimvernetzung der Zukunft übernimmt – und es ist nun an den großen Firmen, ihre Angebote vorzubereiten und dann zu präsentieren.

Heise berichten über einen Fall aus den USA, wo ein britischer Blogger den Mut hatte, gegen eine augenscheinlich unberechtigte Urheberrechts-Beschwerde mittels des DMCA-Gesetzeswerks gerichtlich vorzugehen. Dabei hatte der betroffene Blogger glücklicherweise sogar Unterstützung durch den Betreiber seiner Bloging-Plattform (was wohl eher selten der Fall sein dürfte), welcher auch den Rechtsstreit finanziert hat, der nun gewonnen wurde – wenngleich nur durch einen Pyrrhussieg, denn der Urheberrechts-Anwärter ließ sich nicht ausfindig machen bzw. wollte diesen Rechtsstreit augenscheinlich auch gar nicht antreten. Nichtsdestotrotz kann dieser klar gewonnene Fall als Mahnung stehenbleiben, es mit DMCA-Beschwerden nicht zu übertreiben bzw. – wie in diesem Fall – jene zur platten Meinungszensur einsetzen zu wollen. Daneben offenbart der Fall auch die Schwächen des DMCA-Gesetzwerks: Eine DMCA-Beschwerde erzeugte Gerichts- und Anwaltskosten von 24.000 Dollar – für welche aber die zu Unrecht Beschuldigten aufkommen müssen, weil das Beschwerdeverfahren letztlich eine anonyme DMCA-Beschwerde ermöglichte (zu zahlen eigentlich aus der Privatkasse derjenigen, die für dieses Gesetz gestimmt haben).

Shortcuts: Laut Fudzilla hat SoC-Entwickler Mediatek eine Grafik-Lizenz bei AMD eingekauft – womit man dann in Zukunft Mediatek-Prozessoren mit GCN-Grafikparts kombinieren könnte. Für AMD ist dies ein netter kleiner Erfolg in einem Markt an (wirklich) günstigen Smartphone-Prozessoren, wo man derzeit sowieso nicht mitspielen könnte und mit der Lizenzierung einfach ein wenig Geld in die Kasse kommt, ohne daß hierbei Kosten und Risiken entstehen. Laut Hartware könnte ein Release Candidate von Windows 10 schon am 4. Mai zur Verfügung stehen – was aber wohl kaum etwas an den eigentlichen Launch-Plänen für den Sommer ändert. Maßgeblich für Microsoft dürfte hierbei in erster Linie sein, den PC-Herstellern das neue Betriebssystem rechtzeitig für die Back-to-School-Verkaufssaison zu liefern, welche Mitte August anfängt und sich primär auf den September konzentriert. Der ideale Termin lautet somit auf Ende Juli bei den PC-Herstellern – welchen offiziellen Launch-Termin man dann nimmt, ist dagegen fast beliebig.

9

DirectX 12 kommt als "DirectX 12.0" und "DirectX 12.1"

Nach einigen News- und Foren-Beiträgen scheinen sich nunmehr einige Details von DirectX 12 herauszukristallisieren: Die mit Windows 10 kommende Microsoft-API wird neben ihrem LowLevel-Part auch noch einen (allerdings eher geringfügigen) Hardware-Part mitbringen, womit es weiterhin bei der Unterteilung in Software- und Hardware-Support von DirectX 12 bleibt. Sprich: DirectX-12-Treiber wird es zwar für jede moderne Hardware geben und jene kann dann auch DirectX-12-Spiele ausführen – aber nur auf ihrem Hardware-Featurelevel, welches bei älterer Hardware weiterhin auf das Level "DirectX 11.x" bleibt. Neuere Hardware kann hingegen durchaus Glück haben: Die für "DirectX 12.0" neu hinzugekommenden Hardware-Anforderungen sind derart geringfügig, daß es durchaus möglich ist, daß schon aktuell verfügbare GCN- und Maxwell-basierte Beschleuniger am Ende auf dieses Hardware-Level angehoben werden können. Beschwören kann man dies derzeit natürlich noch lange nicht, dies müssen die Grafikchip-Entwickler dann schon höchstselbst bestätigen (und man achte immer auf den Unterschied von "DirectX-12-Treibern" und "DirectX-12-Hardwarelevel").

Die Formulierung "DirectX 12.0" deutet es daneben schon an: Es wird daneben auch noch ein "DirectX 12.1" geben, welches erweiterte Hardware-Anforderungen mit sich bringt – praktisch alles, was es bei DirectX 12 an neuen Hardware-Features geben wird, kommt erst mit DirectX 12.1. Welche der kommenden Grafikchips nun 12.0 oder 12.1 unterstützt, ist eine interessante Frage – genauso auch, wie die Spieleentwickler sich hierzu positionieren werden. Die Erfahrung lehrt, daß an dieser Stelle regelmäßig die breitestmögliche Hardware-Basis der besseren Technologie vorgezogen wird. Da aber derzeit noch überhaupt nicht klar ist, welche Hardware DirectX 12.0 und welche 12.1 unterstützt, erübrigt sich für den Augenblick diese Diskussion (noch). Bisher für sich in Anspruch genommen haben DirectX-12-Funktionalität im übrigen bereits Intel mit der iGPU der Skylake-Architektur sowie nVidia mit den Maxwell-2-Grafikchips GM206 & GM204 – wobei in beiden Fällen abzuwarten bleibt, ob da das Marketing nicht wieder einmal mehr versprochen hat als am Ende wirklich zu halten ist.

DirectX 12 – Neue Feature-Levels
DirectX 12: Neue Feature-Levels
DirectX 12 – Neue Rendering-Features
DirectX 12: Neue Rendering-Features

Noch viel verwirrender werden die Hardware-Featurelevel von DirectX 12 dann durch die Information, daß sich einige der Hardware-Features von DirectX 12.0 & 12.1 notfalls auch per Treiber emulieren lassen. Dies kostet zwar in jedem Fall mehr Performance als beim Vorhandensein entsprechender Hardware-Einheiten, würde aber zumindest das Feature generell zur Verfügung stellen. Interessant wäre eine solches Vorgehen dann, wenn beispielsweise nur ein einzelnes Hardware-Features fehlt, um einen bestimmten Grafikchip als "Hardware-Level 12.0 oder 12.1" bezeichnen zu können – dann würde eine Treiber-Emulation eines einzelnen Features das ganze Hardware-Leveles dieses Grafikchips nach oben verschieben können. Ob diese Möglichkeit in der Praxis so klappt und dann auch von den Grafikchip-Entwicklern wirklich genutzt, kann natürlich derzeit noch niemand vorhersagen.

Am Ende bleiben vielleicht mehr Ungewißheiten als Gewißheiten – nicht unüblich im Vorfeld einer neuen Microsoft-API, welche immer erst in relativer Nähe zum wirklichen Release dann genauer beschrieben wird. Mitnehmen kann man derzeit, daß es zwar DirectX-12-Treiber für jede DirectX-11-Hardware geben wird, daß damit das Featurelevel "DirectX 12" aber nicht erreicht wird, sondern daß dies auch bei dieser API entsprechende Hardware voraussetzt. Hardware-technisch unterteilt sich DirectX 12 zudem in die Featurelevel "DirectX 12.0" und "DirectX 12.1", während die oftmals an dieser Stelle ausgebreiteten "Resource Binding" Levels ("Tier 1", "Tier 2" und "Tier 3") kaum eine Aussagekraft haben, da es sich hierbei nur um die Unterteilung eines der Teilfeatures von DirectX 12 handelt.

Inhalt abgleichen