11

Hardware- und Nachrichten-Links des 10./11. Oktober 2015

Lebhaft wird derzeit in unserem Forum über die VISC-Prozessorenarchitektur diskutiert, mittels welcher das Startup "Soft Machines" Prozessoren mit besonders hoher IPC verspricht. Der Clou an VISC ist die virtuelle Verschiebbarkeit von Ausführungseinheiten, hierbei kann man extrem leistungsfähige Rechenkerne erzeugen – sprich eine Art von "Reverse Hyper-Threading". Gegen dieses Prinzip spricht allerdings, daß in heutigen CPU-Architekturen mehr Ausführungseinheit pro Rechenkern – egal ob nun physikalisch oder nur logisch vorhanden – zumindest in Consumer-Bereichen, aber auch in vielen Server-Anwendungsfällen eigentlich nichts bringen. Intels CPU-Architekturen boten bis zu Ivy Bridge "nur" drei Integer-Einheiten pro Rechenkern – und daß es ab Haswell dann vier Integer-Einheiten pro Rechenkern wurden, ist performancemäßig unter den anderen Haswell-Änderungen eher untergegangen (und auch bis jetzt nicht offensichtlich geworden). Mit Ausführungseinheiten sind heutige Prozessoren einfach sehr gut ausgerüstet, zu den 3-4 Integer-Einheiten kommt noch die Fließkomma-Einheit sowie grob ein Dutzend Spezialeinheiten hinzu. Da mit "Brute Force" – und nichts anderes ist das Hinzufügen weiterer Ausführungseinheiten – noch etwas erreichen zu wollen, erscheint als reichlich gewagt.

Eventuell kann es gewisse Vorteile bringen, wenn speziell selten genutzte Ausführungseinheiten virtuell jeweils anderen Rechenkernen zugeschlagen werden – aber dieser Vorteil würde eher denn im gesparten Silizium-Aufwand liegen, was angesichts heutiger CPU-Größen (ein kompletter Haswell CPU-Kern unter 14nm bei ~10mm² Chipfläche) kaum noch eine große Relevanz haben wird. Bei Server-CPUs mit sehr vielen Rechenkernen (und demzufolge wesentlich höheren insgesamten Chipflächen) kann dies anders aussehen, aber dafür muß dann auch der VISC-Effizienzgewinn entsprechend hoch sein. Zudem stehen all diesen Ansätzen grundsätzliche Probleme entgegen, welche primär in einem deutlich steigendem Verwaltungsaufwand bestehen und hier ziemlich gut dargelegt wurden. Der erste reale, jetzt vorgestellte VISC-Chip geht da eher in eine ganz andere Richtung: Nur zwei CPU-Kerne mit virtuell verteilbaren Ressourcen – so beschleunigt man aber in erster Linie nur klare SingleThread-Anwendungen. Damit kommt man dann allerdings um gut 10 Jahre zu spät, selbst im Consumer-Segment werden nicht auf MultiThreading optimierten Anwendungen inzwischen selten.

Eine Reihe von Artikeln wendet sich nunmehr den praktischen Seiten des Safe-Harbor-Urteils zu: Während Technically Legal noch einmal den Weg der Verhandlung und des Urteils genau nachzeichnen, beschäftigt man sich im Blog eines Datenschutzsachverständigen mit dessen Bedeutung im Rechtsalltag sowie beim Datenschutzbeauftragten konkret mit den Auswirkungen auf Microsoft-Produkte. Beide Artikel fahren hierzu allerdings eher unterschiedliche Standpunkte auf – was wohl bedeutet, daß die Diskussion hierzu selbst unter den Datenschützern selber noch nicht wirklich entschieden ist. Wichtig auch am Ende der Hinweis von Internet-Law, daß das Urteils allein kaum größere praktische Auswirkungen haben wird, sondern allerhöchstens die (unauflösbaren) Widersprüche zwischen europäischem Datenschutzdenken und US-amerikanischem Überwachungswünschen offenbart. In der Tat scheint es derzeit einfach mal so weiter zu gehen, konkrete Handlungen oder Handlungsverbote müssten wohl erst explizit gerichtlich erstritten werden – das Safe-Harbor-Urteil bietet hierfür nur die Rechtsgrundlage, ist aber selber kein Verbots- oder Gebotsspruch.