30

Umfrage-Auswertung: Wieviele Tablets, Notebooks und Desktop-PCs sind im Besitz?

Eine Umfrage von Ende Juni stellte die schlichte Frage nach der Anzahl der sich im persönlichen Besitz befindlichen Tablets, Notebooks und Desktop-PCs. Nicht hinzugezählt werden sollten hierbei Smartphones, es sollten allein allgemeine "Computing Devises" gezählt werden – wozu im üblichen auch keine Fileserver etc. hinzugehören, weil jene allein für Spezialaufgaben abgestellt werden und damit eben nicht für "allgemeine" Aufgaben nutzbar sind. Kleinere Ungenauigkeiten bei der Zuordnung dürfte es natürlich trotzdem gegeben haben – was allerdings wohl ein wenig wieder durch die hohe Anzahl der Umfrage-Teilnehmer (von immerhin 3315) ausgeglichen werden dürfte.

Sehr gut läßt sich somit erkennen, daß im 3DCenter die Nutzer von nur einem Gerät in der überklaren Minderheit sind und daß sogar die Nutzung von vier oder mehr Computing-Geräten sehr stark verbreitet ist (immerhin 42,0%). Der einfache Durchschnitt bei der Geräte-Anzahl liegt bei 3,67 Stück, der einfache Median liegt in der Gruppe der Nutzer mit drei Geräten. Grob betrachtet stellen die Nutzer mit zwei, drei oder vier Geräten eine nahezu Zweidrittel-Mehrheit (63,0%), hinzu kommen noch beachtbare Nutzergruppen mit nur einem Gerät (11,3%) sowie mit fünf Geräten (11,2%). Überhalb von fünf Geräten werden die jeweiligen Nutzergruppen sehr viel kleiner, in der Summe stellen alle Nutzer mit sechs oder mehr Geräten mit immerhin 14,5% Anteil aber auch einen beachtbaren Anteil.

Für die Hersteller-Industrie mag dieses Umfrage-Ergebnis bedeuten, daß die Zeiten von "ein Nutzer = ein PC" zumindest im Enthusiasten-Segment lange vorbei sind, selbst die Regel "ein Nutzer = ein PC und ein Notebook" trifft nur noch in kleineren Teilen zu. Vielmehr scheint eine größere Aufgaben-Differenzierung vonstatten gegangen sein, wo für verschiedene Aufgaben-Zwecke nicht mehr eine Universal-Maschine, sondern eben das jeweils passende Gerät Verwendung findet. Wenn man zudem davon ausgeht, daß das Enthusiasten-Segment immer ein wenig die Zukunft des Massenmarkts vorhersagt – und selbiger durch aktuell niedrige PC-Preise zusätzlich in diese Richtung hin stimuliert wird – dann dürften sich einige von diesen Ergebnissen zukünftig auch im Massenmarkt wiederfinden lassen.

29

Hardware- und Nachrichten-Links des 28./29. Juni 2014

Laut unserem Forum hat nVidia weitere Bauteile einer GM200-Grafikkarte auf Reisen geschickt. Hierfür wurden im übrigen Bauteile verwendet, welche auch bei GK110-Grafikkarten Verwendung finden – womit bestätigt wäre, daß GK110 und GM200 von Chipgröße und Stromverbrauch her in etwa derselben Liga spielen dürften. Ansonsten ist die Gerüchtefront bei AMD und nVidia jedoch auffallend ruhig – einmal abgesehen von den Gerüchten über eine weitere Hawaii-basierte Grafikkarte ("Radeon R9 295X"), welche jedoch bislang keinen handfesten Hintergrund erkennen lassen. Vermutlich sind AMD und nVidia dennoch fest bei den Vorbereitungen des Herbst/Winter-Portfolios, aber es dringt derzeit immer noch ziemlich wenig nach außen. Allenfalls darf man vermuten, daß es in einigen Wochen vielleicht zu ersten Leaks zum GM204-Chip kommen könnte: Laut demselben Foren-Postings sind nochmals 35 Stück GM204-Grafikkarte auf die Reise gegangen. Diese hohe Menge läßt auf "Customer Samples" für die Grafikkarten-Hersteller schließen, was die Chancen auf ein paar entfleuchte Daten und Benchmarks erheblich steigert.

Eine kleine Korrektur zur Meldung über den kommenden Launch von Haswell-E: In der originalen Intel-Folie steht bis dato nur "September 2014", nicht aber der 14. September 2014, wie zuerst berichtet. Da im September 2014 auch Intels IDF stattfindet, ist ein Launch im Umfeld des IDF wahrscheinlich, jene Veranstaltung läuft vom 9. bis 11. September 2014 (Dienstag bis Donnerstag) in San Francisco. Ergo kann man sagen, daß Haswell-E voraussichtlich Mitte September 2014 antreten wird, der genaue Tag aber bislang noch nicht bekannt ist. Wie üblich dürfte Intel die Distributoren und jene wiederum die Einzelhändler ausreichend vorher beliefern, so daß ab Launch-Tag die Haswell-E Prozessoren sowie die passenden X99-Mainboards in ausreichender Zahl im Einzelhandel verfügbar sein dürften.

Exiting Commerce zeigt die aktuellen Ereignisse im Markt der "Smart Devices" auf – welcher nach dieser Darstellung wohl schon gut am Rollen ist und schon in absehbarer Zukunft einen neuen, viele Milliarden schweren Markt bilden dürfte. Allerdings sollte man einrechnen, daß bei den "Smart Devices" erneut das "Google-Prinzip" Teil des Geschäfts ist – sprich, man zahlt bei vielen Gerätschaften mit den eigenen persönlichen Daten, selbst wenn das Gerät selber einen extra Anschaffungspreis hat. Heutige Versuche, die persönlichen Surfspuren im Internet irgendwie einzudämmen, werden wie ein Scherz gegenüber jener Datenflut aussehen, welche wir mit "Smart Devices" eines Tages von uns geben werden (sollen).

Dabei gäbe es eine Alternative: Schaut man sich frühere Zukunfts-Literatur an, so konnte sich jene die heutige Vernetzung meistens nicht vorstellen (jedenfalls nicht in diesem Ausmaß) – sondern kalkulierte gewöhnlich eher mit einem persönlichen Supercomputer im Haus, welcher die Steuerung aller anderen Geräte sowie die Informationsbeschaffung übernimmt. Genau so könnte man dann datenschutzfreundliche "Smart Devices" schaffen: Mit der Anbindung an die eigene Heim-Cloud, anstatt an die Datenauswerte-Maschinen des Herstellers. Gerade bei Produkten mit eigenem Anschaffungspreis sollte es doch möglich sein, auch datenschutzfreundliche Geräte herauszubringen – und nicht immer wieder nur das Geschäftsmodell des Datenhandels zu zelebrieren.

29 29

Aus welcher Architektur kommt der im Spiele-System eingesetzte Prozessor?

Diese Umfrage ist System- und nicht Personen-bezogen: Sofern also mehrere für Spiele benutzte Systeme existieren, darf von denen aus natürlich jeweils extra abgestimmt werden.

AMD LowPower-Architektur (Bobcat & Kabini)
1% (19 Stimmen)
AMD APU-Architektur (Llano, Trinity, Richland & Kaveri)
3% (91 Stimmen)
AMD K7- und K8-Architekturen (sowie frühere)
2% (48 Stimmen)
AMD K10-Architektur
12% (358 Stimmen)
AMD Bulldozer-Architektur
8% (255 Stimmen)
Intel LowPower-Architektur (Bonnell, Saltwell & Silvermont)
0% (5 Stimmen)
Intel Pentium 4, Pentium M & Core 1 Architekturen (sowie frühere)
0% (14 Stimmen)
Intel Core-2-Architektur
10% (293 Stimmen)
Intel Nehalem-Architektur
7% (200 Stimmen)
Intel Sandy-Bridge-Architektur
22% (656 Stimmen)
Intel Ivy-Bridge-Architektur
20% (623 Stimmen)
Intel Haswell-Architektur
16% (479 Stimmen)
Gesamte Stimmen: 3041
27

Hardware- und Nachrichten-Links des 27. Juni 2014

Aus unserem Forum kommt ein Lesertest zur "PowerColor Radeon R7 265 TurboDuo", welche auf der wenig beachteten Radeon R7 265 auf Basis des Pitcairn-Chips aufbaut. Jener Grafikchip stellt die Grundlage der früher sehr erfolgreichen Radeon HD 7850 & 7870 Grafikkarten dar und wird heutzutage bei Radeon R7 265, Radeon R9 270 & 270X verbaut. Als Nachzügler ohne wirklich breiten Launch läuft die Radeon R7 265 ein wenig unterhalb des Radars, bietet aber dieselbe Technik wie die 270er Grafikkarten (inklusive des 256 Bit DDR breiten Speicherinterfaces), nur zu etwas weniger Shader-Einheiten. Gleichfalls ist es eine jener Grafikkarten, welche – wie die frühere Radeon HD 7850 – noch knapp dran ist an der 100-Watt-Marke beim Spieleverbrauch (nach letzten Rechnungen bei 109W für die Radeon R7 265 liegend), was bei Stromverbrauchs-Limitierungen einen Pluspunkt darstellt und natürlich auch eine wirklich leise Kühlung der Karte ermöglicht. Radeon R7 265 Karten treiben sich derzeit im Preisbereich von 120 bis 130 Euro herum, was dann doch einigermaßen günstiger ist als bei der ähnlich schnellen GeForce GTX 660, welche derzeit im Preisbereich von 140 bis 150 Euro liegt.

nVidia hat in seine 340er Treiber einen Support von 4K@60Hz über HDMI 1.4 eingebaut – obwohl dafür eigentlich HDMI 2.0 vorgesehen ist und die Bandbreite von HDMI 1.4 offiziell nur für 4K@30Hz reicht. Wie AnandTech ausführen, bedient sich nVidia hier allerdings des im UltraHD-Bereichs beliebten Farbunterabtastungs-Tricks: Anstatt mit dem 4:4:4-Schema die volle Farbenanzahl zu allerdings den höchsten Bandbreiten-Anforderungen zu bieten, tastet nVidia unter HDMI 1.4 nur mit 4:2:0 ab, spart damit Bandbreite und ermöglicht dafür eben 60 Hz auch noch unter der 4K-Auflösung. Natürlich wird diese Farbunterabtastung etwas Bildqualität kosten, im Film- und Spiele-Einsatz dürfte man davon wenig bis gar nichts sehen – bei Desktop-Bildern soll es dagegen zu Artefakten kommen. Farbunterabtastung sind allerdings sowieso nicht nVidias Idee, sondern Teil der UltraHD-Spezifikationsentwürfe, da wie gesagt im Film-Einsatz der sichtbare Qualitätsverlust vernachlässigbar ist. Andererseits entfaltet eine HighEnd-Norm natürlich immer erst so richtig ihre Wirkung, wenn man jene vollumfänglich durchsetzt – was bei 4K mit 60Hz derzeit bedeutet, daß als Anschlußform entweder HDMI 2.0 oder DisplayPort 1.2 benötigt werden.

Laut der DigiTimes zieht ein SSD-Preiskampf der großen Anbieter auf, alle scheinen derzeit die Klingen zu wetzen. Als Gründe würden wir den Kampf um Marktanteile in diesem immer noch wachsenden Segment sowie das Erscheinen der ersten SSDs basierend auf den (günstigeren) 16nm-Flashspeichern ansehen. Ein Beispiel hierfür ist die derzeit auf den Markt kommende Crucial MX100, mittels welcher 256 GB für knapp 85 Euro und 512 GB für knapp 170 Euro ermöglicht werden – was einen Gigabyte-Preis von nur noch 0,33 Eurocent ergibt. Durch diesen Preiskampf könnten vernünftig große Einsteiger-SSDs (mit 128 GB Speicherplatz) zukünftig in Preislagen gedrückt werden, wie Standard-Festplatten ungefähr kosten (40-50 Euro) – und dann könnten Anbieter von Komplett-PCs viel eher in Versuchung gelangen, auch ihre eher günstigen Komplett-PCs gleich mit SSD & HDD auszustatten, wenn dies nur den Mehrpreis einer gewöhnlichen HDD kostet. Damit eröffnet sich also die Chance, die SSD mittelfristig auch im Massenmarkt durchzusetzen.

WinFuture vermelden indirekte, aber glaubwürdige Bestätigungen, wonach "Threshold" in der Tat Microsofts interner Codename für die nächste Windows-Generation ist – vom Handy-Windows bis zum Consumer-Windows. Letzteres scheint sich wohl im Verkauf "Windows 9" zu nennen – zumindest so lange Microsoft hierzu nichts mehr anderes einfällt. Zusätzlich wird von Gerüchten berichtet, daß das kürzlich aus dem Windows 8.1 Update 2 herausgenommene neue Startmenü nun Teil eines "Windows 8.1 Update 3" wird, womit Windows 9 vom Frühjahr 2015 auf das zweite oder dritte Quartal 2015 verschoben sein soll. Letztere Terminaussage ist jedoch offensichtlich Unsinn, da im Frühjahr/Sommer 2015 nach bisherigem Wissen erst eine Preview-Version zu Windows 9 zur Verfügung stehen sollte und daher der Launch schon immer erst im Herbst/Winter 2015 geplant war. Microsoft hat alle seine letzten Consumer-Betriebssysteme im Herbst/Winter des jeweiligen Jahres herausgebracht, was im Sinne des dann gut laufenden Jahresendgeschäfts auch für den Launch von Windows 9 anzunehmen ist.

27

Neuer 3DTester-Artikel: HGST Travelstar 7K1000 1 TeraByte

Bei aktuellen Festplatten aus den letzten Jahren ist es nicht mehr ganz so einfach, denn der Preis und die Geschwindigkeit sind längst nicht mehr die einzigen beherrschenden Themen. Festplatten differenzieren sich nun auch in weiteren Unter-Merkmalen. Es gilt zu entscheiden, ob man nicht vielleicht eine Home-Video-Streaming-Festplatte haben will oder eine NAS-Festplatte oder vielleicht doch eine Surveillance-Festplatte. Ebenso gibt es Modelle, die sich durch einen geringen Strombedarf hervortun und/oder durch eine geringere Lautstärke.

HGST Travelstar 7K1000 1 TeraByte

Wer in solchen Fällen nicht genau prüft, läuft Gefahr sich einen Fehlgriff zu leisten. Der prüfende Blick auf die gebotenen Merkmale kann daher nicht schaden. Ein gutes Beispiel ist hier die HGST Travelstar 7K1000. Sie ist eine 2,5" Festplatte, die nach außen hin wie eine gewöhnliche Festplatte wirkt, sich aber von der breiten Masse sehr deutlich unterscheidet. Dabei ist sie kein Exot (wie zum Beispiel eine SSHD), sondern tatsächlich eine reguläre HDD, die mit einigen Untermerkmalen (positiven wie negativen) versehen ist ... zum Artikel.

26

Hardware- und Nachrichten-Links des 25./26. Juni 2014

Videocardz wollen aus dritten Quellen eine Bestätigung für eine kommende "Hawaii XTX" Grafikkarte erhalten haben, nachdem man basierend auf den Gerüchten über mehr Shader-Einheiten beim Hawaii-Chip entsprechend nachgeforscht hat. Richtig klar ist die Angelegenheit aber nach wie vor nicht, denn die Bestätigung über eine kommende weitere Hawaii-Grafikkarte bedeutet nicht zwingend, daß der Hawaii-Grafikchip über bislang unerkannte Shader-Einheiten verfügt – wie schon dargelegt, würde ein neues Chip-Stepping mit verbesserter Energieeffizienz viel mehr bewirken als platt 9,1% mehr Shader-Einheiten. Hier muß man sich schlicht überraschen lassen, was AMD da nun wirklich bringt. Dabei ist wenn dann von einem eher zeitigen Release der spekulativ "Radeon R9 295X" genannten Karte auszugehen: Denn im Winter 2014 plant nVidia die GeForce GTX 880 auf GM204-Basis – und wenn AMD einen direkten Kontrahenten zur GeForce GTX 780 Ti bringen wollte, dann sollte dies auf jeden Fall noch vorher passieren.

PCWorld berichten über eine (seitens AMD und Intel bestätigte) Anfrage von Intel über den Zugang zu AMDs Mantle-API. AMD wird diesen Zugang Intel natürlich gewähren – allerdings hat das ganze bei Intel derzeit den Status eines "Experiments", ein möglicher Mantle-Support in den Intel-Treibern ist also bei weitem nicht sicher. Man könnte auch mutmaßen, daß sich Intel Mantle nur ansieht, um dann schneller auf (das ähnliche) DirectX 12 reagieren zu können. Wenn Intel allerdings allein auf DirectX 12 abzielen würde, hat man als großer Hardware-Hersteller sicherlich auch schon jetzt Zugriff auf entsprechende Vorab-Versionen und benötigt Mantle dafür eigentlich nicht. Insofern scheint Intel tatsächlich derzeit über einen Mantle-Support nachzudenken – was der AMD-Schnittstelle natürlich weiteren Auftrieb verleihen würde, selbst wenn Intel als Grafikchip-Hersteller in der Praxis unbedeutend ist.

Zum Thema "AMD Mantle" hat AMD weitere AMD-eigene Benchmarks unter "Plants vs. Zombies: Garden Warfare" veröffentlicht, welche u.a. bei Hardwareluxx einzusehen sind. Hierbei hat sich AMD offenbar einen dankbaren Fall herausgesucht, wo die AMD-Prozessoren sehr gut mithalten können und so nach Mantle-Unterstützung sogar (leicht) schneller als Sechskerner von Intel herauskommen. Der Hintergrund dieses Effekts ist aber nur, daß die AMD-Prozessoren auch ohne Mantle unter diesem Benchmark schon schnell laufen – und dann durch den grob 20prozentigen Mantle-Boost eben etwas schneller als die Intel-Prozessoren herauskommen. Rein auf die Grafikkarten bezogen kommen Performance-Gewinne zwischen 20% und 40% heraus, wobei erstaunlicherweise die Radeon R9 270X gar nichts gewinnt, während die umherliegenden Grafikkarten Radeon R7 260X, Radeon R9 280X und 290X wie genannt gut zulegen können. Wieviel diese Performance-Zugewinne im Vergleich mit nVidia-Grafikkarten wirklich wert sind, wird sich dann später an unabhängigen Benchmarks zum Thema erweisen müssen.

Golem berichten über Aussagen nVidias, die früher als "Project Denver" angekündigte und nun in Form des Tegra K1 64-Bit vorliegende Prozessoren-Architektur erst einmal in den Mobile-Bereich gehen soll – und nicht primär im Server-Bereich als HighEnd-Architektur wirken soll, wie einstmals geplant. In der Praxis hat sich Tegra K1 64-Bit (Tegra K1 64-Bit ist eine andere Architektur, welche auf gewöhnlichen Cortex A15 Rechenkernen basiert) bisher nicht als echtes Performance-Wunder erwiesen – sicherlich gut genug, um mit nur zwei Rechenkernen gegenüber vier normalen ARM-Rechenkernen wie beim Tegra K1 32-Bit bestehen zu können, aber nicht ausreichend für wirkliche Performance-Ansprüche. Vor allem aber scheint nVidia bei der Konzeptions des "Projects Denver" primär darauf gesetzt zu haben, daß zum Releasezeitpunkt die GPGPU-Einbindung in Servern wesentlich weiter ist als nunmehr in der Praxis zu beobachten.

Offenbar hatte nVidia schon immer vor, den Großteil der Performance über die integrierte Grafiklösung zu liefern – eine Berechnungsmethode, welche sich allerdings in Servern für den Massenbedarf noch immer nicht durchgesetzt hat (wovon genauso auch AMD mit seinen APUs ein Lied singen kann). Damit ist das "Project Denver" in der aktuellen Form schlicht zu leistungsschwach für einen Server-Einsatz, womit sich auch alle früheren Träume über eine eventuelle nVidia-Prozessoren für das Consumer-Segment vorerst erledigt haben. Prinzipiell ermöglicht der Zugriff auf die ARM-Architektur nVidia natürlich, dieses Themengebiet jederzeit erneut anzugehen – doch momentan scheint nVidia weit weg von einem solchen Weg zu sein. Vor einer (erst in einer weiten Zukunft denkbaren) Etablierung von Tegra-Prozessoren im Server-Markt dürfte bei nVidia niemand die Option auf Consumer-Prozessoren anfassen.

Inhalt abgleichen