17

Wartungsarbeiten am Server

In der Nacht von Mittwoch, den 19.11.2014, auf Donnerstag, den 20.11.2014, wird unser Hoster zwischen 23:00 Uhr und 04:00 Uhr Wartungsarbeiten am Hauptseiten-Server durchführen. Der Server muss dafür im Vorfeld abgeschaltet werden, was wir ca. 22:45 Uhr durchführen werden. Sofern alles regulär läuft, sollte der Server und die 3DCenter-Webseite nach diesem Zeitraum wieder zur Verfügung stehen.

Nachtrag: Bereits um 0:41 waren wir online, die Wartungsarbeiten verliefen fehlerfrei.

16

Hardware- und Nachrichten-Links des 15./16. November 2014

Sascha Lobo spricht beim Spiegel über die kommenden Jahre als die "Ära des Datenstroms" – und bezieht sich dabei auf die zukünftig wahrscheinlich noch viel extremere Verdonglung des Menschen mit Sensoren und weiteren Datenerhebungs-Hubs. Dies wird natürlich immer Beführworter und Kritiker hervorrufen – doch viel interessanter ist eigentlich, daß hierbei nicht an eine Alternative gedacht wird, welche alle zufriedenstellen kann: Schaut man in frühere Zukunftsliteratur zurück, so wurden allwissende, weil über alle Daten verfügende Supercomputer schon vorhergesagt – während man sich die totale Vernetzung, die Cloud-Idee sowie Daten als Geschäftsmodell zumeist nicht vorstellen konnte. Und dies geschah unter Umständen auch deswegen, weil man sich gerade bei einer Zukunftsfantasie üblicherweise nicht vorsätzlich gegen den Menschen bzw. die menschliche Zivilisation agierende Systeme vorstellt kann oder will. Dafür kam man in der Zukunftsliteratur wie gesagt meistens mit einer einfachen wie eleganten Lösung daher – dem privaten Supercomputer.

All die Datenschutz-Probleme der Neuzeit fallen in sich zusammen, wenn die persönliche benutzten Sensoren sowie die persönlichen Daten nur im eigenen Supercomputer enden – und nach draußen nur das weitergegeben wird, was zwingend notwendig ist. Das eigentliche Problem der schon laufenden und noch kommenden Datenflut ist also weniger die Datenflut an sich, sondern daß jene an das Geschäftmodell "Dienste gegen Daten" gekoppelt ist. Bislang erscheint dies für die Hersteller als der sinnvollere Weg, um zum geringstmöglichen Kostenpunkt so viele Marktanteile wie möglich zu erlangen. Aus Sicht der Konsumenten wäre der private Supercomputer dagegen sinnvoller, welcher beispielsweise die Intelligenz der Google-Suchmaschine in den eigenen vier Wänden und ohne NSA-Backdoor liefert. Einem solchen privaten Supercomputer könnte man dann auch wirklich private bzw. sensible Daten anvertrauen. Ob sich so etwas in der Zukunft realisieren läßt, bliebe allerdings abzuwarten – technologisch dürfte dies kein Problem sein, aber derzeit rennen die Hersteller natürlich zuerst dem einfacher zu erreichenden Konsumenten hinterher.

WBS-Law berichten nochmals zum Fall "Boerse.bz": Danach scheint es nunmehr als gesichert, daß die staatlichen Ermittler tatsächlich Zugriff auf das laufenden Forum gehabt haben, bevor die Hausdurchsuchungs-Welle anlief. So wurden Foren-Nutzer nicht nur anhand der hinterlegten eMail-Adresse, sondern auch anhand von IP-Adressen ermittelt. Scheinbar wurde zudem alles an Foren-Nutzern mit Links zu neuen Downloads abgefischt, was man bekommen konnte – unabhängig der Anzahl der Links oder weiteren Hintergründen. Dies dürfte in den kommenden Gerichtsverfahren vermutlich noch diffizil für die staatlichen Ermittler werden, denn wenn keine der (angeblichen) Geldflüße an die eigentlichen Uploader nachgewiesen werden können, dann handelt es sich bei der reinen Linksetzung auf eine geringe Anzahl an urheberrechtlich geschützten Dateien nicht mehr um eine "gewerbliche Handlung" und damit nicht mehr um eine verfolgenswerte Straftat. Die Strafverfolgung könnte in diesen Fällen komplett eingestellt werden und "nur" noch zivilrechtliche Ansprüche folgen (jene dürften allerdings teuer werden).

Daß reine Nutzer von Boerse.bz noch angegangen werden, kann zudem aus jetziger Sicht inzwischen als nahezu ausgeschlossen betrachtet werden – wenn, dann hätte man dies sofort getan, um das "Verschwinden" von Beweismitteln zu verhindern. Nun aber dürften die staatlichen Ermittler davon ausgehen, daß die ehemaligen Nutzer von Boerse.bz sich derart organisiert haben, daß sowieso keinerlei weitere Beweismittel mehr zu finden sind – womit es zwecklos wäre, noch weitere Hausdurchsuchungen durchzuführen. Diese könnten aufgrund der extrem hohen Anzahl an Nutzern auch nur bei klaren Vielnutzern stattfinden, irgendwo hat dann auch die deutsche Polizei ein personelles Limit. Viel interessanter im Sinne der Ordnungsmacht (als auch der Rechteinhaber) ist aber sowieso die große mediale Berichterstattung über diesen Fall, welche manchem Filesharing-Sünder das Herz in Hose hat rutschen lassen – in der Hoffnung, jene Nutzer in Zukunft wieder auf den Pfad der Tugend zurückführen zu können. Und wenn nicht in manchen Fällen das Angebot der Medienindustrie immer noch teilweise an Raubritter-Methoden erinnert, wäre dies angesichts der Energie, welche die Strafverfolger in diesen strafrechtlich wie auch gesellschaftspolitisch nahezu unrelevanten Fall gesteckt haben, auch vorbehaltlos zu empfehlen.

16 16

4K-Monitor oder Downsampling?

Enorm viel Leistung erfordert beides: Entweder ein 4K-Monitor – oder Downsampling Anti-Aliasing auf einem gewöhnlichen Monitor. Doch welches zieht man eher in Betracht?

Bin schon auf 4K-Monitor.
4% (86 Stimmen)
Tendiere für die Zukunft eher zum 4K-Monitor.
36% (873 Stimmen)
Bin unentschieden zwischen 4K-Monitor oder Downsampling.
6% (135 Stimmen)
Tendiere für die Zukunft eher zu Downsampling.
12% (284 Stimmen)
Bin schon auf Downsampling.
8% (192 Stimmen)
Halte beides derzeit für nicht interessant.
35% (828 Stimmen)
Gesamte Stimmen: 2398
14

Hardware- und Nachrichten-Links des 14. November 2014

Bei Heise versucht man Microsoft ein wenig ins Gewissen zu reden ob der Entscheidung, DirectX 12 nicht für Windows 7 anbieten zu wollen – was natürlich reichlich hoffnunglos ist, Microsoft benutzt DirectX schon seit einigen Versionsnummern nur noch zum Puschen des jeweils neuesten Microsoft-Betriebssystems. Eher sollte man den Wettbewerbshütern ins Gewissen reden, diesen Fall bislang sträflich übersehen zu haben – ein großer Hersteller benutzt eine allgemein wichtige API wahlweise dazu, andere APIs auszusperren oder aber den Absatz von diversen Produkten durch künstliche Verknappung anzukurbeln. Aber wahrscheinlich wird dies erst das Thema von Wettbewerbsuntersuchungen werden, wenn dieser Zustand entweder durch Konkurrenz oder durch technische Neuentwicklungen schon wieder vor seinem Ende steht (vergleiche die viel zu spät gelaufenen Wettbewerbsverfahren wegen des zwangsintegrierten Internet Explorers).

Daneben wäre zum Fall DirectX 11.3 noch etwas nachzutragen, was sich aus der Meldung ergibt, daß es kein DirectX 12 mehr für Windows 7 geben wird. Ein solches DirectX 11.3 als kleinere Ausführung von DirectX 12 macht natürlich nur Sinn, wenn es DirectX 12 exklusiv nur für Windows 10 geben wird – und damit nicht mehr für Windows 8.1. Denn nur bei dieser Auflösung wird ein DirectX 11.3 überhaupt notwendig – daß es ein solches für Windows 7 geben wird, bleibt dagegen wohl eine Illusion angesichts dessen, daß es derzeit nicht einmal DirectX 11.1 für Windows 7 gibt. Die wahrscheinlichste Auflösung der ganzen Geschichte lautet also, daß Windows 7 bei DirectX 11.0 endet, Windows 8.0 bei DirectX 11.1, Windows 8.1 bei DirectX 11.3 und erst Windows 10 dann DirectX 12 bekommen wird. Von den darstellbaren Grafikfeatures dürften DirectX 11.3 und 12 gleich sein, nur die Mantle-artige Beschleunigung bliebe dann allein DirectX 12 und damit Windows 10 vorbehalten.

Aus unserem Forum kommt die Entdeckung, daß Speicherhersteller Hynix inzwischen ganz offiziell GDDR5-Speicher mit 4000 MHz Taktrate listet und anbietet. Inoffiziell dürfte das Angebot schon einige Zeit existiert haben, gewöhnlich haben die Speicherhersteller immer noch ein paar Schmankerl in der Hinterhand, allerdings dies gewöhnlich zu gesalzenen Preisen. Auch jetzt mit der offiziellen Listung dürfte GDDR5 auf 4000 MHz auf keinen Fall billig kommen – und daher seitens der Grafikchip-Entwickler und Grafikkartenhersteller nur dann eingesetzt werden, wenn dies unbedingt notwendig werden würde. Zudem geht bei solch hohen Taktraten dann auch der Stromverbrauch durch die Decke – und wenn es nicht derjenige des Speichers selber ist, dann der Stromverbrauch des Speicherinterfaces, welches bei hohen Taktraten anfängt, überproportional viel Strom zu ziehen. Nicht umsonst experimentieren sowohl AMD als auch nVidia mit HBM-Speicher, weil dort (unter anderem) das Problem des stromfressenden Speicherinterfaces bei hohen Taktraten wegfällt.

Heise berichten über eine unlustige Windows-Sicherheitslücke, welche immerhin schon seit 18 Jahren (angeblich) unentdeckt in Windows schlummert – betroffen sind alle Microsoft-Betriebssysteme zurück bis Windows 95 mit dem Internet Explorer 3. Die eigentliche Sicherheitslücke steckt dabei in den VBScript-Komponenten des Internet Explorers – was aber Nutzern älterer Betriebssysteme auch nichts nutzt, denn für jene stellt Microsoft keine neueren, aktualisierten IE-Versionen zur Verfügung. Zudem ist ab Windows XP der Internet Explorer fester Bestandteil des Betriebssystems, selbst eine offizielle Deinstallation entfernt nur Links etc., nicht aber die IE-Renderengine, welche nach wie vor von anderen Programmen genutzt wird. Insofern kommt diese Sicherheitslücke Microsoft derzeit sicherlich überaus gelegen, um die letzten Windows-XP-Nutzer zum Umstieg auf ein neueres Betriebssystem zu überzeugen – sehr viel unpassender wäre es natürlich gewesen, wenn diese Sicherheitslücke noch vor dem April 2014 entdeckt worden wäre ;).

14

Neuer 3DTester-Artikel: SanDisk Ultra Dual USB Drive 16GB

Nach unserem anfänglichen Tests des Kingston DataTraveler microDuo und des Maxell Dual-USB folgt nun, wie versprochen, der dritte USB-Stick mit dualer USB-Schnittstelle. Der SanDisk Ultra Dual. Genau wie seine Mitbewerber bietet er neben der regulären USB-Schnittstelle auch einen micro-USB-Anschluss und gestattet somit wahlweise auch die Anbindung an Tablets und Smartphones ... zum Artikel.

SanDisk Ultra Dual USB Drive 16GB
13

Hardware- und Nachrichten-Links des 13. November 2014

Von AMDs Cheftechniker Richard Huddy kommt per YouTube eine klare Aussage, daß es kein DirectX 12 für Windows 7 geben wird. Dies kommt allerdings nicht wirklich überraschend, ähnliches wurde von Anfang an so vermutet. Die eigentliche Frage wird eher sein, ob es DirectX 12 auch noch auf Windows 8.1 schafft – wobei dies wohl allein dem Willen Microsofts unterliegt, die Spielepublisher dürften hierzu zwar ihre Stellungnahmen abgeben, aber letztlich nicht von Microsoft gehört werden. Genauso muß gesagt werden, daß das Fehlen von DirectX 12 auf Windows 7 wahrscheinlich nicht bedeutet, daß es die neuen Hardware-Features von DirectX 12 nicht auf Windows 7 geben wird. Genau in diese Lücke dürfte DirectX 11.3 springen, welches vermutlich alle Hardware-Features von DirectX 12 bietet, nicht aber die Mantle-artige CPU-Beschleunigung, mit welcher man DirectX 12 in aller Regel zuerst verbindet. Den vielen Kursivschreibungen ist jedoch schon zu entnehmen, daß dies alles derzeit nur gute Annahmen unsererseits darstellen, feststehende Aussagen zum Thema seitens Microsoft derzeit immer noch Mangelware sind.

Die PC Games Hardware hat sich die Performance einer vier Jahre alten SSD im Vergleich mit einem aktuellen SSD-Modell angesehen – um zu sehen, wieviel die neueren Geräte bei der Performance zulegen konnten. Als Altmodell kam eine "Samsung SSD 470 256GB" zum Einsatz, welche seinerzeit 560 Euro kostete, als neues Modell eine "Plextor M6 Pro 256GB", welche für 150 Euro zu bekommen ist. Das seinerzeitige SSD-Modell war natürlich noch auf SATA2 ausgerichetet und kommt daher mit heutzutage nicht mehr modernen (offiziellen) Lese- und Schreibraten knapp oberhalb von 200 MB/sec daher. In der Praxis der Messungen ergaben sich die größten Unterschiede aber nur bei theoretische Lasten erzeugenden Benchmarks sowie (in abgeschwächter Form) beim Windows-Start, während sich beim Einladen von Spielständen erstaunlicherweise nur minimalste Differenzen zeigten. Technisch ist die 2014er SSD deutlich schneller, in der Praxis kommt dies jedoch nur eher selten zum tragen. Die nicht meßbare typische "Schwuppdizität" einer SSD dürfte sicherlich bei beiden SSDs gegeben sein.

Insofern ergibt sich nach diesen Benchmarks nicht zwingend der Rat, von einer älteren, langsameren SSD unbedingt auf eine neue, schnellere SSD zu wechseln – zumindest nicht aus Performance-Gründen. Dieses Urteil gilt aber nur so lange, wie es sich bei der älteren SSD um Modelle mit 240/256 GB (oder mehr) Speicher handelt, welche also zum Kaufzeitpunkt Spitzen-Modelle darstellten. Kleinere Modelle mit 60/64 oder 120/128 GB boten damals wie heute nur abgespeckte SSD-Interfaces respektive Bandbreiten an, hier kann der Wechsel auf eine moderne SSD mit 250/256 GB Größe durchaus einiges an auch praktisch nachvollziehbarer Mehrperformance einbringen. Daneben dürften die Besitzer von älteren SSDs heutzutage natürlich vor allem die (vergleichsweise) günstigen Preise für SSDs mit großen Speichergrößen reizen – hier dürfte eher der Hauptantrieb dafür liegen, von einer älteren SSD auf ein neueres Modell zu wechseln.

Wie Heise ausführen, wird nVidia seinen Spielestreaming-Service "GRID" noch im November in den USA an den Start bringen, Westeuropa soll im Dezember nachfolgen, Deutschland wegen der Jugendschutzproblematik allerdings erst im ersten Halbjahr 2015. Vorerst wird "GRID" nur mit nVidias Shield sowie dem Shield-Tablet funktionieren, stellt so gesehen also noch keinen großen Angriff auf die anderen Spielestreaming-Anbieter dar, sondern eher eine weitere Werbeaktion für diese nVidia-Gerätschaften. In jedem Fall wird nVidia aber somit eigene, praktische Erfahrungen auf diesem Gebiet sammeln, welche bei der Weiterentwicklung der Spielestreaming-Idee helfen werden. In den Rechenzentren werden natürlich nur nVidia-Grafikkarten laufen, womit nVidia regulär nichts verloren geht – bis allerdings zu dem (theoretischen) Punkt in der Zukunft, wo keiner mehr extra Grafikkarten kauft und alles nur noch effizient über Rechenzentren abläuft, mit deutlich geringerem Hardware-Einsatz natürlich. Zu diesem (theoretischen) Punkt wird es allerdings nicht kommen, so lange das Problem der zusätzlichen Latenz besteht – deren Effekt sich nur in der Praxis von "GRID" wirklich ermessen läßt.

Inhalt abgleichen