1

Hardware- und Nachrichten-Links des 1. Februar 2016

Die derzeit herumschwirrenden Gerüchte über eine neue nVidia-Grafklösung bereits im April dürften primär mit der (nicht von nVidia stammenden) Grafikchip-Roadmap von letzter Woche zusammenhängen, werden aber auch ohne Nennung dieser Roadmap weiterhin hartnäckig verbreitet. Unter Umständen steckt dann am Ende doch ein Körnchen Wahrheit drin – aber jene lautet anders als man es derzeit auslegt: Womöglich handelt es sich bei dieser April-Neuvorstellung nicht um eine erste Pascal-basierte Grafiklösung, sondern schlicht um die "GeForce GTX Titan X2" – sprich eine DualChip-Lösung auf Basis des GM200-Chips der Maxwell-Architektur. Auch wenn nVidia derzeit noch kein Wort zu DualChip-Lösungen auf Maxwell-Basis verloren hat, könnte sich nVidia am Ende durch das klar angekündigte AMD-Projekt einer Radeon R9 Fury X2 dazu gezwungen sehen, ähnliches bieten zu müssen. Eventuell gibt es sogar Firmen aus der VR-Szene, welche nVidia dann dazu drängen – ausgeschlossen werden kann eine solche DualChip-Karte in jedem Fall nicht und wahrscheinlicher als eine Pascal-Lösung bereits im April ist diese Auflösung allemal.

Dabei muß man nicht einmal den Gedankengang von SemiAccurate mitgehen, nachdem nVidia (angeblich) bei seiner Pascal-Architektur weit zurückliegen würde. Jene Argumentation verrennt sich etwas in der Vermischung von Daten zum GP100- und GP104-Chip (hier aufgeklärt) – bringt aber dennoch einen gewissen Punkt an, daß letztlich vieles von dem, was wir zu nVidias realen Pascal-Aktivitäten zu wissen glauben, auf einzelnen Quellen basiert. Dabei handelt es sich sogar primär um Meldungen hier im 3DCenter – Sachen, die wir in unserem oder anderen Foren aufgeschnappt und für die 3DCenter-News aufbereitet haben (GP100-TapeOut, GP100-Testphase & GP104-Testphase). Dies wurde nachfolgend dann von anderen Webseiten breit aufgegriffen und weiterverbreitet, teils auch ohne jede Quellenangaben (und damit nicht ersichtlich, daß diese Meldungen allesamt auf ein und derselben Quelle basieren). An so einer Sache kann man sich dann eben auch gewaltig irren, wenn alles auf nur einer Quelle basiert – dies ist wie gesagt der absolut wahre Punkt an der SemiAccurate-Geschichte. Ob unsere bisherige Interpretation zur Lage der Pascal-Architektur – erste Profi-Lösungen auf GP100-Basis im Sommer, erste Gamer-Lösungen auf GP104-Basis im Herbst, neue Enthusiasten-Lösungen auf GP100- oder GP102-Basis erst Anfang 2017 – passt, wird sich erst noch erweisen müssen.

Das neue Citavia-Blog hat verschiedene Hinweise darauf gefunden, daß die Server-Varianten von AMDs Zen gleich mit bis zu 32 Rechenkernen (auf einem einzelnen Die) antreten werden. Dies erscheint auf den ersten Blick als ziemlich viel – aber angesichts dessen, daß CPU-Kerne unter der 14nm-Fertigung von Intel auf knapp unter 10mm² Chipfläche zu schätzen sind (hinzu kommen dann allerdings noch Interfaces und Level3-Cache), sind 32 CPU-Rechenkerne auf den üblicherweise großvolumigen Server-Chips durchaus machbar. Selbst Intel wird bei den kommenden Skylake-Servermodellen auf bis zu 28 CPU-Rechenkerne unter der 14nm-Fertigung auf einem einzelnen Die hochgehen. In dieser Steigerung der Anzahl der CPU-Rechenkerne auf einem einzelnen Prozessoren-Die lebt "Moores's Law" im übrigen immer noch fort, denn hier können die Fortschritte der Halbleiterfertigung noch sinnvoll in Mehrperformance (für den Server-Bereich) umgesetzt werden.

Intel hingegen zieht sich Kritik seitens Sicherheitsforscher an seiner "Software Guard Extensions" (SGX) Technologie zu, welche ab der Skylake-Architektur in den Intel-Prozessoren steckt. Erster Stein des Anstosses ist hierbei die Möglichkeit für Intel, mittels der nur von Intel selbst herausgegebenen Lizenzen und Schlüssel für SGX den Software-Markt zu bestimmen – sprich festzulegen, wer Zugang zu SGX hat und wer nicht. Hinzu kommt der generelle Punkt, daß sich SGX-Software nur von Intel selber verifizieren lassen muß, vor dem Nutzer und damit jeglicher unabhängiger Kontrolle aber technisch verborgen bleibt. Dummerweise wirken solcherart CPU-Befehlssatzerweiterungen immer erst nach Ablauf vieler Jahre, so daß die sich ergebende Endsituation vorab eher schwer abzuschätzen ist – manche solcher Prognosen treffen ein, andere werden von neueren technischen Entwicklungen überrollt und erledigen sich dann von selbst. Besondere Pluspunkte erwirbt sich Intel allerdings nicht mit einem Konzept, welches primär Intel und anderen Herstellern nützt, dessen Nutzwert für den Anwender (und Käufer) derzeit aber eher nur die Klasse von Marketing-Versprechungen hat.

Früher als erwartet beginnt Microsoft laut WinFuture ab sofort mit der Auslieferung von Windows 10 als "empfohlenes Update" für Nutzer von Windows 7 & 8.1. Wer den standardmäßigen Update-Prozeß aktiviert hat, wird also unbemerkt den 7-GB-Klotz herunterladen, ehe Windows dann unvermittelt fragt, ob man das Upgrade auf Windows 10 denn jetzt sofort oder erst später installieren will (die Option des "Abbrechens" ist aber wohl doch noch vorhanden). Wer hier natürlich ausversehen daneben klickt, hat dann die Brille auf – weil dann läuft schon das direkte Upgrade los (der Download ist schließlich schon auf dem Rechner), welches man eher nicht mehr unterbrechen sollte. Wer dies verhindern will, sollte umgehend die automatische Installation von "empfohlenen Updates" deaktivieren, wie hier gezeigt. Da die empfohlenen Updates keinerlei Sicherheits-Updates enthalten, verliert man damit auch nicht all zu viel – und kann die betreffenden Updates schließlich auch später noch nachholen, wenn der ganze Microsoft-Zirkus um Windows 10 sich etwas gelegt hat.