16

Umfrage-Auswertung: Wie hoch ist die Speicherkapazität aller im Haushalt verfügbaren Festplatten (2015)?

Die Umfrage der vorletzten Woche beschäftigte sich mit der Speicherkapazität aller im Haushalt verfügbaren Festplatten – ob SSD oder HDD, ob intern oder extern, ob im PC, im NAS oder lose herumliegend. Dabei wurde bewußt nach der Kapazität aller entsprechenden Festplatten im Haushalt gefragt – da externe Festplatten mit großen Kapazitäten oftmals nicht explizit einem PC oder einem Besitzer zugeordnet sind, bei dieser Umfrage aber nicht außen vor gelassen werden sollten. Wie schon bei der gleichlautenden 2011er Umfrage sind die Kapazitäten sehr breit über alle Antwortoptionen verteilt – mit allerdings heuer einem wesentlich höheren Anteil der Nutzer von mehr als 10 TB insgesamten Festplatten-Platz: Im Jahr 2011 waren dies schon 14,5%, nun sind es gleich sehr beachtbare 33,7%.

Dies ist natürlich auch nur Ausdruck der insgesamt größer werdenden Festplatten-Kapazität und -Nutzung, denn gegenüber der 2011er Umfrage verloren alle kleineren Antwortoptionen einschließlich "bis 6 TB" an prozentualem Zuspruch, erst ab der Antwortoption "bis 10 TB" stiegen die Nutzungszahlen zwischen den Umfragen der Jahre 2011 und 2015 an. Und so verwundert es auch nicht, daß der Median im Jahr 2011 bei 3,1-4 TB insgesamter Festplatten-Kapazität im Haushalt lag, im Jahr 2015 dann jedoch auf 6,1-10 TB insgesamter Festplatten-Kapazität im Haushalt und damit nahezu das Doppelte angewachsen ist.

14

Hardware- und Nachrichten-Links des 14. August 2015

Gemäß des japanischen Hermitage Akihabara (maschinelle Übersetzung ins Deutsche) kommt die GeForce GTX 950 nun nicht am 17. August – sondern am 20. August. Dies passt vom Launchtag auch viel besser – der 17. wäre ein (nVidia-untypischer) Montag gewesen, der 20. wird ein ganz nVidia-typischer Donnerstag. Der Launchzeitpunkt soll 21 Uhr augenscheinlich japanischer Zeit betragen – dies wären im kalifornischen nVidia-Hauptquartier 16 Stunden weniger, also 5 Uhr morgens. In Mitteleuropa wären dies dann 14 Uhr am Nachmittag, was mit den letzten nVidia-Launches zusammenpasst. Als (japanischer) Preis wurden 20.000 Yen genannt, umgerechnet nur 145 Euro – bislang war die GeForce GTX 950 eher für ab 160 Euro erwartet wurden, bei einem niedrigeren Preis würde nVidia an dieser Stelle AMDs (langsamere) Radeon R7 370 stärker unter Druck setzen können. Andererseits wird AMD die GeForce GTX 950 in Bälde mit der (gleich schnellen oder schnelleren) Radeon R9 370X kontern – und im Zuge deren Vorstellung womöglich auch den Preis der Radeon R7 370 nach unten hin anpassen.

Fudzilla bringen die AMD-Aussage, daß die 2016er AMD-Grafikchips der Arctic-Islands-Generation "deutlich anders" gegenüber den aktuellen GCN-basierten AMD-Grafikchips ausfallen sollen. Sicherlich kann man hierbei zum Teil auch die dann verwendete 14nm-Fertigung von GlobalFoundries meinen, aber für diese klare Aussage reicht dieser Unterschied eigentlich nicht aus – womöglich schwingt sich AMD endlich zu wirklich großen Änderungen an der GCN-Architektur auf, welche dann in einer Versionsnummer 2.0 resultieren (AMD benutzt intern für die GCN-Architektur eigentlich Generations-Nummern, hat aber teilweise die von der Presse gehandelten Versionsnummer 1.0 bis 1.2 auch schon so genannt). Neben Detailtweaks dürften hierzu sicherlich auch eine größere Umorganisationen des eigentlichen GCN-Designs und seiner Hardware-Einheiten gehören, entsprechende Vorschläge liest man in unserem Forum: Posting No.1 & Posting No.2. AMD braucht hier in jedem Fall einen ähnlichen Effizienzschub, welchen nVidia mit der Maxwell-Architektur bereits hingelegt hat – allein das Setzen auf die 14nm-Fertigung und damit auf immer nur mehr Shader-Einheiten wird womöglich nicht ausreichend sein. AMD dürfte dies allerdings genauso festgestellt haben, insofern darf man einiges von der kommenden "GCN Architektur 2.0" erwarten.

Heise spekulieren über eine Art "inverses HyperThreading" bei Intels Skylake-Architektur – nachdem es in einem einzelnen Benchmark in einem SingleCore-Test einen Performanceboost von x2,4 gegenüber Haswell gegeben hatte, während derselbe Benchmark im MultiCore-Test nur einen eher kleinen Vorsprung zwischen Skylake und Haswell auswies. Unter inversem HyperThreading versteht man die Fähigkeit eines Prozessors, mit mehreren Rechenkernen an einer Aufgabe zu rechnen, welche nur einem Rechenkern zugewiesen wurde bzw. regulär nur auf einem einzelnen Rechenkern läuft. Das ganze ist nutzvoll zur Performancesteigerung bei älterer, nicht auf mehrere Rechenkerne ausgelegter Software – oder auch in Situationen, wo viel mehr Rechenkerne vorhanden sind als die Software erwartet und auszunutzen gedenkt. Daß Skylake schon so etwas beherrscht, ist allerdings aufgrund dieses einzelnen Benchmarks eher unwahrscheinlich: Der Zweck von inversem HyperThreading liegt ja gerade darin, unabhängig von Betriebssystem und Anwendung eine Beschleunigung zu erreichen.

Demzufolge müsste sich ein entsprechend großer Leistungszuwachs bei allen Skylake-Benchmarks zeigen, welche prinzipiell parallelisierbare Aufgaben enthalten und dennoch als SingleCore-Anwendung ausgeführt werden – Cinebench oder wPrime beispielsweise, selbst ein altes SuperPI müsste darauf perfekt anschlagen. Daß dem gemäß der vorliegenden Benchmarks zu Skylake-Prozessoren nicht so ist, spricht eigentlich klar gegen ein laufendes inverses HyperThreading bei Skylake. Nichtsdestotrotz könnte Intel durchaus an so etwas arbeiten, womöglich sieht man hierbei sogar eine Vorform davon. Daß es sich um ein gänzlich anders erklärbares Phänomen handelt, ist aber dennoch die derzeit immer noch wahrscheinlichste Auflösung. Womöglich wird die eigentliche Architektur-Vorstellung zu Skylake, welche für Intels am 18. August startendes IDF angesetzt ist, hierzu genaueres bringen. Dort wird Intel dann auch Gelegenheit haben zu erklären, wieso der Pro-MHz-Sprung zwischen Broadwell und Skylake – trotz nominell "neuer CPU-Architektur" derart gering ausgefallen ist.

Golem bringen noch einen wichtigen Nachtrag zur kürzlich angekündigten "3D XPoint" Speichertechnologie: Jene soll sowohl in Form von RAM-Riegeln als auch als PCIe-Karte verfügbar werden. Letzteres klingt eher wie ein weiterer Zwischenspeicher (aka Cache) zwischen Hauptspeicher und Massenspeicher – ersteres könnte dagegen eines Tages sogar den herkömmlichen DRAM ersetzen. Zumindest hat Intel vor, 3D XPoint tatsächlich in Consumer-PCs zu überführen, auch wenn der Anfang erst einmal im Server-Segment bei der Purley-Plattform für Skylake-basierte Xeon-Prozessoren gemacht werden wird. Ob 3D XPoint alle diese Erwartungen erfüllen kann, bliebe allerdings abzuwarten – die Liste der vermeintlichen DRAM-Nachfolger ist lang, doch bislang konnte sich noch keiner auf dem Feld des glatten DRAM-Esatzes durchsetzen.

Für einiges Aufregen sorgt derzeit ein Artikel seitens Ars Technica über die Nachhausetelefoniererei von Windows 10 – welche selbst dann abläuft, wenn man eigentlich alle diese Funktionalität dachte unterbunden zu haben. Deutschsprachige Meldungen hierzu kommen von Golem und WinFuture – in der Summe der Dinge findet wohl keine (gefährliche) Datenabsaugung statt, aber Windows 10 spricht einfach häufiger mit Microsoft, als es rein technisch notwendig wäre. Das zugrundeliegende Problem ist wohl schlicht, daß sich Microsoft dabei nichts weiter gedacht hat bzw. sein neues Betriebssystem nicht vorsätzlich nach dem Grundsatz der Datensparksamkeit konzipierte. Der "Fehler" liegt hier durchaus im Design bzw. in den Absichten von Microsoft – ein Punkt, welchen man kaum über Patches ändern kann. Im Endeffekt war diese Entwicklung zu erwarten, alle Vorzeichen bei Windows 8 sprachen genau für so etwas – und nun wurde es eben seitens Microsoft realisiert. Beeinflußen kann nur der Nutzer diese Entwicklung nur über seine Entscheidung zum letztlich genutzten PC-Betriebssystem, Microsoft wird sich dagegen in dieser Frage ziemlich sicher nicht bewegen.

14

Gesammelte Overclocking-Resultate zu Intels Broadwell

Zu Intels Broadwell Prozessoren-Architektur fehlt noch eine genauere Betrachtung der damit erreichbaren Overclocking-Frequenzen – immerhin taktet Broadwell vergleichsweise niedrig (Core i7-5775C startend bei nur 3.3 GHz), kommt aber wie Skylake bereits in der 14nm-Fertigung daher und sollte damit eigentlich über reichlich Overclocking-Spielraum verfügen. In der Praxis haben sich von den sowieso wenigen Broadwell-Tests die meisten das Overclocking-Experiment geschenkt, da Intel schon vorab Broadwell nicht gerade als die Overclocking-CPU benannt hatte. Die zur Verfügung stehenden Broadwell-Tests mit Overclocking-Abschnitt geben dennoch einen guten Blick darauf auf, wie weit sich Broadwell übertakten läßt:

Core i7-5775C  (3.3/3.9 GHz, 1.194V)
ComputerBase 4.1 GHz @ 1.204V
Golem 4.2 GHz @ 1.387V
LanOC 4.4 GHz @ 1.476V
Overclockers 4.4 GHz @ 1.375V
Overclockers Club 4.3 GHz @ 1.375V
TechSpot 4.2 GHz @ ?V
ThinkComputers 4.3 GHz @ 1.350V
TweakTown 4.0 GHz @ ?V
Core i5-5675C  (3.1/3.6 GHz, 1.171V)
Hardware.fr 4.1 GHz @ 1.299V

Im glatten Schnitt aller Overclocking-Resultate kommen beim Core i7-5775C eher unterdurchschnittliche 4237 MHz heraus – gemessen am default-Takt von 3.3 GHz gar nicht so schlecht, aber gemessen an den Übertakungs-Resultaten von Haswell & Skylake lange nicht mehr konkurrenzfähig. Faktisch schaffte bereits Intels 2011er Sandy-Bridge-Architektur mit im Schnitt 4.5 GHz ein klar besseres Übertaktungsergebnis – und dies war zwei Fertigungsstufen vor Broadwell (von 32nm zu 22nm zu 14nm). Aber dies ist ein generelles Problem der neueren Intel-Architekturen: Die Taktbarkeit des ganzen Ansatzes erscheint weitgehend ausgereizt, es geht in geringfügigen 100-MHz-Sprüngen pro Jahr voran – Computer-Veteranen werden sich hingegen noch an eine Zeit erinnern können, wo AMD und Intel im Gigahertz-Rennen (zu viel niedrigeren Nominalfrequenzen) mindestens jedes Quartal 100 MHz oben drauf legten.

Wie zudem der kürzliche Generations-übergreifende Prozessoren-Performanceüberblick aussagt, kommt Broadwell auch mit einer Übertaktung auf 4.2 GHz (wurde dort bereits in dieser Form eingerechnet) nicht an die Übertaktungs-Performance von Haswell "Devils Canyon" und Skylake heran – trotz daß der relative Taktgewinn bei Broadwell doch recht stattlich ist und die Architektur eine der höchsten Pro-MHz-Wertungen hat (nur sehr knapp hinter Skylake). Die Idee, mittels einer starken Broadwell-Übertaktung allen anderen Intel-Prozessoren die Rücklichter zeigen zu können, wird sich leider nicht realisieren lassen – dafür hätte Broadwell unter Übertaktung noch ein paar mehr Megahertz drauflegen müssen, 4.2 GHz im Overclocking-Schnitt sind dafür klar zu wenig. Angesichts von eher wackeligen Overclocking-BIOSen bei Broadwell und der inzwischen zur Verfügung stehenden Skylake-Architektur mit insgesamt mehr Performance, höheren Taktraten und gänzlich neuer Plattform lohnt sich Broadwell selbst als reines Overclocking-Experiment nicht mehr.

13

Hardware- und Nachrichten-Links des 12./13. August 2015

Fudzilla zeigen eine Präsentationsfolie zu AMDs NVLink-Gegenentwurf, mittels welchem AMD in Server-Umgebungen sehr breitbandige Chipverbindungen realisieren will. In dem Beispiel einer Server-APU soll die Verbindung zwischen CPU- und GPU-Teil mit 100 GB/sec realisiert werden – ausreichend dafür, daß die GPU einen wirklich vollen Zugriff auf CPU-Cache, Speicher und PCI-Express-Geräte hat. nVidia war an dieser Stelle der erste mit seinem NVLink, welches in der kommenden Pascal-Generation erstmals eingesetzt werden wird – allerdings wahrscheinlich nur in den Grafikkarten für professionelle Anwendungszwecke, denn im Consumer-Einsatz werden solch großvolumigen Anbindungen derzeit noch nicht benötigt. Da das Silizium aber überall dasselbe ist, steht auch der (viel) späteren Verwendung im Consumer-Bereich nicht entscheidendes im Wege – außer vielleicht dem Punkt der zwei konkurrierenden Standards, hinzu würde dann vielleicht sogar noch Intel mit eventuell einem eigenen Ansatz kommen.

Zudem kommen von Fudzilla "exklusive Details" zu AMDs Zen-Architektur – womit im konkreten die Verwendung eines HyperThreading-ähnlichen Simultaneous Multithreading (SMT) als auch der Verzicht auf eine gesharte Fließkomma-Einheit gemeint sind. Beide Informationen waren in dem Sinne gerüchtehalber schon bekannt oder zumindest stark vermutet worden – man könnte allerdings die Behauptung aufstellen, durch die Meldung von Fudzilla auf Basis ungenannter Industrie-Quellen wären diese Informationen nunmehr halbwegs abgesichert. Markerschütterend ist daran natürlich gar nichts, denn es war schon seit geraumer Zeit klar, daß die Zen-Architektur eher sehr konventiell und damit Intel-nah aufgebaut werden würde – nach dem Fehlschlag mit der sehr von Intel-Konzepten abweichenden Bulldozer-Architektur auch kein Wunder. Der entscheidende Punkt von Zen wird sowieso sein, daß es AMD hierbei mit Achtkernern gegen Intels Vierkerner versucht, man also selbst bei etwas zurückhängender IPC-Performance dennoch seine faire Chance bekommen wird – jedenfalls so lange Intel im "normalen" Consumer-Bereich nichts größeres als Vierkerner anbietet.

Golem zeigen eine Toshiba-Roadmap, nach welcher man mit 128-TB-SSDs im Jahr 2018 rechnet – herkömmliche Festplatten sollen zu diesen Zeitpunkt bei gerade einmal grob 20 TB Maximalkapazität stehen. Hiermit wird eine neue Entwicklung zementiert, bei welcher die SSDs erstmals ab diesem Jahr in der verfügbaren Maximalkapazität an herkömmlichen Festplatten vorbeigezogen sind – 16 TB zu 10 TB lautet der aktuelle Stand. Ob diese Entwicklung allerdings auch Auswirkungen der Preise der üblichen Consumer-Modelle haben wird, bliebe noch abzuwarten, denn die 16-TB-SSDs kosten ein glattes Vermögen und werden nur für professionelle Anwendungszwecke verwendet. Für reguläre Consumer-PCs gilt weiterhin der glatt umgedrehten Größenaspekt, daß übliche Festplatten mit 1-2 TB zu Preisen von unter 100 Euro daherkommen, übliche SSDs hingegen 240-512 GB groß sind und mit Preisen zwischen 100 bis 200 Euro für die deutlich kleiner Kapazität immer noch teuer sind. Normalerweise sollte der schnelle Größengewinn der SSDs über die kommenden Jahre auch die Preise der kleineren Modelle positiv beeinflußen können – aber dies ist nicht in Stein gemeißelt, jene supergroßen SSDs könnten aufgrund ihres gänzlich anderen Zielpublikums auch völlig andere Wege gehen.

Nochmals Golem berichten über einen erneuten Tiefschlag von Lenovo gegenüber seinen Nutzern: Ein im BIOS abgelegtes Windows-Programm, welches in der Lage ist, sich ohne jedes Nutzerzutun in eine vollkommen frische Windows-Installation einzuklinken. Die Herangehensweise entspricht also komplett dem eines bösartigen Rootkits – von Lenovo dann dazu genutzt, um System- und Standortinformationen zu sammeln und dem Hersteller zu übermitteln. Der Wettstreit darüber, was idiotischer ist – ein solches System zu etablieren oder es dann für einen solch lächerlichen Zweck zu nutzen – ist dabei noch nicht ganz entschieden. Auch verdient sich hierbei Microsoft seinen Anteil am "Ruhm", denn es ist eine Funktion von Windows 8, die das ganze erst möglich macht – mittels "Windows Platform Binary Table" (WPBT) wird das Nachladen von im BIOS abgelegten Code realisiert (Microsoft-Dokumentation zu WPBT).

Daß man hierbei eine extreme Sicherheitslücke aufmacht, die in erster Linie Internet-Kriminelle für sich ausnutzen werden, hat man dabei (zum wievielten Male?) nicht bedacht – garniert mit dem Verweis auf die Microsoft-Vorgaben für "sicheren Code" bei der WPBT-Funktionalität, an welche sich die Internet-Kriminellen auch ganz sicher halten werden. Sicherlich gibt es sinnvolle Anwendungszwecke für eine solche Funktionalität (nicht löschbare Antidiebstahl-Software), die hierfür aufgebaute Sicherheitslücke scheint aber ein ein arg schlechter Tausch aus Sicht der IT-Sicherheit zu sein. Es wäre nebenbei interessant zu erfahren, ob es wirksame Nutzer-Gegenmaßnahmen zu WPBT gibt: Beispielsweise eine Deaktivierung der Funktionalität im Mainboard-BIOS (gibt es bei neueren BIOS-Versionen von Lenovo) oder in Windows selber (leider komplett unbekannt). Die einzig sichere Alternative sollte Microsoft in jedem Fall weniger gefallen: Linux wird diesen im BIOS abgelegten Programmcode in jedem Fall nicht ausführen.

12

Umfrage-Auswertung: Welches PC-Betriebssystem ist im Einsatz?

Die Umfrage in der Woche direkt zum Release von Windows 10 beschäftigte sich (natürlich) mit der Betriebssystem-Verteilung noch eben vor dem Launch des neuen Microsoft-Betriebssystems. Nichtsdestotrotz gab es hierbei schon 5,4% Nutzer von Windows 10, welche sich dann aus Teilnehmern des Insider-Programms requirieren dürften. Windows 7 kam hingegen im 3DCenter zu diesem Stand von Ende Juli auf 54,8% – was sogar ziemlich zum allgemeinen Stand dieses Betriebssystems bei der weltweit installierten Basis entspricht. Dafür kam Windows 8/8.1 im 3DCenter gleich auf 27,1%, hier steht die weltweit installierte Basis bei bestenfalls knapp 20 Prozent. Windows XP mit 2,8% und besonders Windows Vista mit nur 0,8% landeten weit abgeschlagen auf den letzten Plätzen, wohingegen Linux mit gleich 7,7% erstaunlich stark präsent war.

Sehr interessant ist die Nebenfrage nach der Wechselabsicht auf Windows 10 in "absehbarer Zeit" – was man aufgrund des zeitlich limitierten Kostenlos-Umstiegsprogramms mit einer Zeitspanne von maximal einem Jahr bemessen kann. Sollten alle jene Nutzer, welche derzeit ihre Wechselabsicht kundgetan haben, dies tatsächlich in eben absehbarer Zeit umsetzen, würde sich in nur einem Jahr die Betriebssystem-Verteilung im 3DCenter enorm verändern: Windows 10 würde mit ~53% klar in die Poleposition gehen – und damit in vergleichsweise kurzer Zeit sogar dem aktuellen Wert von Windows 7 (54,8%) nahekommen. Windows 8/8.1 würde hingegen extrem stark auf ~5% zurückfallen, während Windows 7 mit ~30% ebenfalls stark nachlassen müsste, allerdings immer noch eine respektable Position erringen könnte.

Die Wechselabsichten sind hierbei sehr ungleich verteilt: Während Nutzer von Windows 7 nur zu 45% auf Windows 10 wechseln wollen, streben unter Windows 8/8.1 gleich satte 82% diesen Schritt an. Offensichtlich kommen die Nutzer von Windows 8/8.1 mit den Änderungen von Windows 10 eher zurecht, während bei den Nutzern von Windows 7 die Meinungen zu Windows 10 glatt geteilt sind. In der Summe der Dinge wird dies dennoch ausreichend sein, um Windows 10 zumindest im 3DCenter in relativ kurzer Zeit zur neuen Nummer 1 und potentiell sogar Inhaber der absoluten Mehrheitt zu machen – ein Stand, welchen Windows Vista und Windows 8/8.1 (bei weitem) niemals erreicht haben.

11

Hardware- und Nachrichten-Links des 11. August 2015

Videocardz zeigen Verpackung & Bilder einer PNY GeForce GTX 950, zusätzlich wurden erste Händlerlistungen einer Asus Strix GTX 950 entdeckt. Jene enthalten mit zwischen 240-280 Euro einen definitiven Platzhalterpreis, die GeForce GTX 950 wird im Handel natürlich unterhalb der Preislage der GeForce GTX 960 (ab 190 Euro) für wahrscheinlich ab 160 Euro antreten. Die grundsätzlichen Kartenspezifikationen dürften nach den letzten Leaks mit 768 Shader- und 48 Textureneinheiten samt 32 ROPs an einem 128 Bit DDR Speicherinterface klar sein, vakant sind allein die konkreten Taktraten bzw. vor allem der real anliegende Boosttakt. Die GeForce GTX 950 dürfte bei der Performance wohl irgendwo zwischen Radeon R7 370 und (der später erscheinenden) Radeon R9 370X herauskommen, der konkrete Performancepunkt hängt an den jeweiligen Taktraten. Gegenüber den vorgenannten AMD-Angeboten wird die GeForce GTX 950 zudem ihren Hardware-Support für DirectX 12.1 anbringen können – und trifft hier auf einen wunden Punkt bei AMD, denn die 370er Lösungen auf Basis des Pitcairn-Chips sind die einzigen des neuen Radeon R300/Fury Portfolios ohne Hardware-Support für DirectX 12 (nur Software-Support bei 370 & 370X).

Eine interessante Anekdote, notiert in aktuellen CPU-Überblick der PC Games Hardware: Wie bekannt setzt FarCry 4 nicht nur Vierkern-Prozessoren voraus (was viele aktuelle Spiele derart handhaben), sondern startet sogar unterhab von Prozessoren mit vier Threads gar nicht erst – jetzt einmal unabhängig des in den Weiten des Internets angebotenen "DualCore-Fixes" für FarCry 4, welcher allerdings nicht vom Spieleentwickler selber kommt. Interessant ist, daß die originale Sperre dabei nicht die Anzahl der physikalischen CPU-Rechenkerne, sondern nur die Anzahl der logischen CPU-Rechenkerne abfragt. Die oftmals nicht großartig beachteten Core-i3-Prozessoren von Intel können das Spiel dann also doch noch starten – nicht aber die Core-2-Duo-Prozessoren aus vergangenen Zeiten. In der Zukunft sind mehr solcherart Einschränkungen zu erwarten, doch vermutlich werden die konkreten Sperren dann ähnlich ausgeführt werden wie bei FarCry 4 – mittels der Abfrage der logischen und nicht der physikalischen CPU-Rechenkerne.

Auffallend ist den letzten Tagen und der letzte Zeit die Zunahme von neuen IT-Sicherheitslücken – und dabei geht es weniger um die ständig auftauchenden kleinen Fehler, sondern eher um die großen, markerschütternden Lücken sowie das Auftauchen neuer Themenfelder zur IT-Sicherheit bei Autos, medizinischen Geräten und anderem. Nicht mehr erstaunlich ist, daß es hierbei oftmals nur um die Ausnutzung lange vorher bekannter konzeptioneller Schwächen handelt, welche nun aber erst wirklich ausgenutzt und damit offensichtlich werden. Daß dies überhaupt möglich wurde, stellt also eher nur ein Armutszeugnis für die Gerätehersteller von Smartphones, Tablets, Autos, medizinischen Geräten, etc. dar, welche der IT-Sicherheit keine ausreichende Beachtung gegeben haben. Oder haben die Hersteller eventuell auch nur einfach festgestellt, daß man sich in diesem Punkt Einsparungen erlauben kann, da die Käufer die Produkte am Ende dennoch lemmingsgleich erstehen?!

Wenn man derart vorging, dann war dies allerdings nur arg kurzfristig gedacht, denn gerade Smartphones & Tablets verlieren mittels der zuletzt aufgetauchten schweren Sicherheitslücken – und vor allem des damit augenscheinlich werdenden Update-Problems unter Android – massiv an Kreditwürdigkeit, sofern es um die Frage eines potentiellen PC-Ersatzes geht. Wenn man Smartphones & Tablets aber noch nicht einmal die Verwaltung von wichtigen eMail-Accounts anvertrauen kann (diejenigen, mittels welchen bei Paypal, Serverhostern und anderen entscheidenden Diensten deren Passwörter ausgetauscht werden können), beschränkt sich der Nutzerwert dieser Geräte schnell auf diejenige von besserer Unterhaltungselektronik. Dies mag für viele Anwender ausreichend sein – andere hingegen sollte ihre Geräte-Strategie grundsätzlich überdenken. Im dienstlichen Einsatz mit unter Umständen schützenswerten dienstlichen Geheimnissen muß die Rolle von Smartphones & Tablets in jedem Fall elementar überdacht werden.

Inhalt abgleichen