30

Hardware- und Nachrichten-Links des 29./30. November 2017

Von AnandTech kommt das Gerücht über eine weitere Nutzung von AMD-Grafik bei Intel-Prozessoren: Angeblich soll die nächste Xeon-Einstiegsserie in Form von "Intel Xeon E3-1200 v7" oder auch "Xeon Entry" mit einer solchen AMD-Grafiklösung aufwarten können. Allerdings deuten die hierzu dargereichten technischen Spezifikationen in Form eines "6+2" Coffee-Lake-Dies sowie von 24 "Compute Units" eher auf eine typische Intel-Grafiklösung – die GT2-Klasse erreicht schließlich bei Intel derzeit 24 Ausführungseinheiten aka "Execute Units", dies kann man eben nicht zwingend auf die 24 Shader-Cluster des bekannten Intel/AMD-Kombichips hin auslegen. Insofern dürfte hierbei die Chance auf eine Fehlauslegung der Faktenlage größer sein als die umgekehrte Variante. Unmöglich ist die Weiterverwendung des von Intel vorgestellten Packages selbst hinein bis in professionelle Bereiche jedoch mitnichten – das gezeigte Package ist sowieso derart groß, das es besser im Desktop- als im Mobile-Bereich aufgehoben ist, und mittels des Hochsetzens der TDP erreicht man auch schnell dem Desktop angemessene Taktraten bzw. eine entsprechende Performance.

In diesem Zusammenhang kann man durchaus noch auf eine interessante These aus unserem Forum hinweisen, welche davon ausgeht, das der AMD/Intel-Deal sowie auch der Wechsel von Raja Koduri Teil einer größeren Vereinbarung zwischen AMD und Intel sein könnte. Die These hierzu lautet, das sich beide Firmen in gewissen Teilbereichen zukünftig keine Konkurrenz mehr machen wollen, weil die dafür notwendigen extra Entwicklungen nicht lohnen. Als Grundlage hierfür dient der Punkt, das nVidia inzwischen faktisch zwei Grafikchip-Architekturen pflegt – eine für den HPC-Bereich und eine für den Consumer/Gaming-Bereich. nVidia mag sich dies leisten können, für AMD und Intel wäre dies aber jeweils zu viel der notwendigen Investitionen. Somit könnten beide Hersteller auf die Idee gekommen sein, sich das ganze aufzuteilen und dann gegenseitig zu lizensieren – AMD entwickelt reine Consumer/Gaming-Chips, Intel hingegen reine HPC-Chips, basierend auf dem Know-How, welches Raja Koduri mitgebracht hat.

Diese Aufteilung der Entwicklung müsste dann nichts über die angebotenen Produkte aussagen, beide Hersteller könnten also in beiden Märkten weiterhin aktiv bleiben, nur die technologische Basis wäre dann dieselbe. Beispielsweise müsste Intel dann in seine zukünftigen Consumer-Prozessoren eine echte AMD-Grafikeinheitintegrieren – alternativ kann man natürlich auch das Schema der extra Chips (CPU & GPU getrennt) weiterbetreiben, allerdings passt jenes eher schlecht zu wirklich kleinen Chips wie die von Intels LowPower-Serie. Der Aufwand, dort hin zu kommen, wäre sicherlich gerade für Intel ziemlich enorm – während AMD kaum etwas verliert, derzeit ist man im HPC-Geschäft nicht wirklich vertreten. In jedem Fall ist das ganze aber auch nur eine These über die zukünftige Entwicklung, nichts davon hat derzeit einen belastbaren Hintergrund. Aber nachdenkenswert ist jene These durchaus, könnte sich Intel schließlich auf seine hauptsächliche Zielsetzung konzentrieren (dem Halten der Stellung im Profi-Segment gegenüber dem Ansturm nVidias) und würde AMD damit seine Grafikeinheiten extrem weit im PC-Markt verbreiten, von der soliden geschäftlichen Grundlage eines Dauerabnahme-Auftrags seitens Intel ganz abgesehen.

Man kann diese Problematik der Aufteilung der Grafikchip-Entwicklung in die auseinanderdriftenden Bereiche "HPC" und "Consumer/Gaming" aber auch anders angehen: Theoretisch bräuchten alle Hersteller sicherlich zwei Entwicklungsstränge mit jeweils eigenem Finanzbedarf, während eine Mittellösungs-Strategie gerade in Zukunft zu immer stärkeren Nachteilen führen wird. Allerdings ist dies nur Lehrbuch-Theorie und in der Praxis dürften die meisten Hersteller eher nach vorhandenem Bedarf, dem zu erwartenden Nutzen und der vorhandenen Konkurrenzsituation gehen. nVidia beispielsweise könnte sich zwar eine parallele Entwicklung am ehesten leisten – muß dies derzeit aber gar nicht tun, da man bei den Consumer/Gaming-Produkten extrem stark im Markt steht bzw. AMD auch technologisch ziemlich weit enteilt ist. Für nVidia reicht es derzeit aus, die Consumer/Gaming-Architektur mehr oder weniger als "Abfallprodukt" der HPC-Entwicklung zu behandeln, selbst wenn der Consumer/Gaming-Bereich viel mehr Geld einbringt als der HPC-Bereich. Erste Anzeichen dafür sieht man schon, schließlich hat nVidia jetzt zweimal in Folge den (großen) HPC-Chip noch vor den jeweiligen Gaming-Chips vorgestellt.

AMD hingegen hängt im Consumer/Gaming-Bereich zurück, braucht dieses aber zwingend, um überhaupt noch Gaming-Chips zu verkaufen bzw. Aufträge für zukünftige Konsole-SoCs an Land zu ziehen – während der HPC-Bereich für AMD zwar ebenfalls lukrativ erscheinen sollte, derzeit aber einfach nur Zubrot wäre. Für AMD macht es daher eher Sinn, die eigene Grafikchip-Entwicklung nicht mehr als Mittellösungs-Strategie auszulegen oder aber sogar eine extra HPC-Architektur anzuleiern – sondern sich ganz und gar auf Consumer/Gaming-Chips zu konzentrieren, andere Märkte kann man später immer noch ansprechen. Und Intel wiederum bräuchte, wenn man wirklich wieder eine eigene Grafik-Architektur mit Augenmerk auf zukünftige HPC-Geschäfte auflegen will, ebenfalls nicht dem Mittellösungs-Ansatz folgen, sondern sollte sich gänzlich auf HPC-Chips konzentrieren. Das, was Intel für eigene integrierte Grafik benötigt (sofern man diese nicht bei AMD lizenzieren wollte), fällt da ganz automatisch mit ab – und ob dies eigentlich ineffektiv ist, hat bisher keine Rolle gespielt und wird es daher auch weiterhin nicht. Die wechselseitigen Konkurrenzsituationen zwingen derzeit also keinen der drei Grafikchip-Entwickler, beide Entwicklungssträge jeweils gleich stark zu gewichten – womit eigentlich der Weg offen ist für AMD, Intel und nVidia, einen bestimmten Entwicklungsstrang zu priorisieren (und somit Entwicklungskosten zu sparen).

WinFuture berichten über die verschiedenen neuen Sicherheitsfunktionen für Windows 10 mit dem "Fall Creators Update" aka der Windows-10-Version 1709. Sehr interessant hieran ist der "kontrollierte Ordnerzugriff", welches als Schutzmaßnahme gegenüber Verschlüsselungs-Trojanern eingesetzt werden kann. Hierbei können im Windows Defender diverse Ordner als besonders schützenswert definiert werden – und Anwendungssoftware, welche Änderungen in diesen Ordnern vornehmen will, müsste dafür dann extra freigeschaltet werden. Standardmäßig sind bereits die üblichen Speicherorte "Dokumente", "Bilder", "Videos" und "Desktop" entsprechend als besonders schützenswert definiert. Standardmäßig haben zudem bereits Apps auch weiterhin einen schreibenden Zugriff auf diese Ordner, welche der Windows Defender identifiert und als "sicher" deklariert hat – sofern sich der Windows Defender dabei nicht irrt, wäre man also sogar schon vollautomatisch auf der sicheren Seite (nach manueller Aktivierung dieses neuen Features). Ein auf dem System aktiv werdender Verschlüsselungs-Trojanern müsste dann also eine Warnmeldung seitens des Windows Defenders generieren, das jene Software auf die besonders geschützten Ordner schreibend zugreifen will – was zumindest für erfahrene Windows-Anwender ein wertvoller Hinweis wäre bzw. (bei korrekter Anwender-Reaktion) die Verschlüsselung von Nutzerdateien verhindern würde.

Zugegebenermaßen fällt die Schutzwirkung beim normalen Windows-Anwender deutlich geringer aus, denn dort hat sich erfahrungsgemäß das System etabliert, auf alle Nachfragen des Betriebssystems generell mit "Ja, weitermachen" zu antworten. Auch dürfte es schwer werden, einen sich als reguläre App tarnenden Verschlüsselungs-Trojaner damit zu erkennen, da reguläre Software natürlich üblicherweise auch schreibend auf diese üblichen Speicherorte zugreift. Der übliche Verschlüsselungs-Trojaner, der als Mail-Anhang oder Makro-Code daherkommt, sollte allerdings mittels dieser Methode erkannt werden können (jedenfalls dann, wenn jener von Windows Defender korrekt als eigene Anwendung benannt wird – und nicht als Erweiterung des Mailprogramms bzw. der Officesuite). An dieser Stelle wäre mal ein Praxistest seitens der c't oder anderer renomierter IT-Experten hilfreich, um die Schlagkraft dieser Methode in der Praxis zu eruieren. Es ist allerdings zu noch erwähnen, daß das ganze technisch gesehen keine Schutzfunktion von Windows 10 ist, sondern eine des Windows Defenders für Windows 10 – Nutzer anderer Antiviren-Software schauen also in die Röhre. Besser wäre sicherlich gewesen, wenn Microsoft jenes potentiell sehr machtvolle Feature für alle Nutzer bereitstellen würde – aber bei Microsofts üblicher Vermischung von Features mit Geschäftspolitik ist dies natürlich nur ein frommer Wunsch.