19

Hardware- und Nachrichten-Links des 18./19. Februar 2014

Etwas überraschend angesichts des festen PowerTargets von GeForce GTX 750 & 750 Ti sind die derzeit vielen erscheinenden Grafikkarten mit extra Stromstecker: Bei einer TDP von 60 Watt bei der GeForce GTX 750 Ti und per GPU Boost 2.0 auch auf dieses PowerTarget heruntergeregelten Taktraten sollte dieses Feature eigentlich unnötig sein – und daß einige Mainboards nicht die vorgeschriebenen 75 Watt per PCI Express Steckplatz zur Verfügung stellen können, dürfte auch eher der (entfernten) Vergangenheit angehören. Mittels des extra Stromsteckers wird den Grafikkarten-Käufern eine besondere Overclocking-Eignung verkauft, die in der Realität jedoch nicht vorhanden ist: Besonders gut übertaktbar sind bei der GeForce GTX 750 Ti nur jene Karten, welche den Referenztakt durch eine gute Kühlung auf möglichst niedrigem Stromverbrauch schaffen – weil sich nur dann entsprechende Overclocking-Reserven unter dem festen PowerTarget der Karte ergeben. Modelle mit extra Stromstecker sind wenn dann nur etwas für waagemutige Naturen, welche diesem festen PowerTarget mit einem modifizierten BIOS zu Leibe rücken wollen.

Hardwareluxx weisen auf den Punkt hin, daß nVidia beim Launch von GeForce GTX 750 & 750 Ti faktisch gar nichts zum Thema "Unified Virtual Memory" gesagt hat, was einst als wichtigstes Merkmal der Maxwell-Architektur in nVidias Roadmaps stand. Allerdings ist dieses Feature grundsätzlich nur im Zusammenspiel von CPU und GPU interessant, kann also auch erst mit einer CPU wirksam werden, welches dieses Feature ebenfalls beherrscht – konkret bedeutet dies eine CPU nach nVidias Denver-Architektur, denn der Support von AMD- und Intel-CPUs für jenes nVidia-Feature steht eher in den Sternen. Am Ende ist das ganze aber sowieso nur im professionellen Bereich interessant – selbst wenn sich sicherlich auch Anwendungszwecke im Spiele-Bereich finden lassen, steht eine konkrete Anwendung von "Unified Memory" im Spiele-Bereich derzeit anscheinend noch lange nicht auf der Agenda.

Die ComputerBase vermeldet einen neuerlichen Tiefststand der SSD-Preise: Einzelne Modelle sind tatsächlich schon für 40 Cent pro Gigabyte Speicherkapazität erhält. Selbst wenn der breite Markt noch etwas oberhalb dieses Kampfpreises rangiert, so läßt sich derzeit gut und gerne die platte Regel aufstellen, daß man mit einem halben Euro pro Gigabyte wegkommt. Damit kommen auch SSDs mit 240 bis 256 GB Kapazität auf Einsteiger-verträgliche Preispunkte knapp oberhalb von 100 Euro und sollten damit zur Pflichtanschaffung für neue PCs sowie genauso auch bei anstehenden Umrüstungen werden. An der Koexistenz von SSDs und HDDs ändert dies jedoch nichts: Selbst wenn derzeit schon 1-TB-SSDs im bezahlbaren Bereich liegen, werden die herkömmliche HDDs mit Kapazitäten von bis zu 4 Terabyte weiterhin als "Massenspeicher" im Wortsinne benötigt – üblicherweise für Backups oder/und Mediensammlungen, für welche die schnelleren SSDs glatte Verschwendung darstellen nzw. nicht wirklich groß genug sind.

Golem vermelden Gerüchte aus Fernost, wonach TSMC nun gar die komplette 20nm-Fertigung für Apples eigene Smartphone- und Tablet-SoCs übernehmen wird. Selbiges wurde vorher schon kolportiert, allerdings hatte Apple bislang ausschließlich bei Samsung fertigen lassen, war Samsung also trotz des andauernden Streits mit Apple auf anderen Feldern nie gänzlich aus dem Spiel. Nun aber soll die bei TSMC erreichte 20nm-Ausbeute Apple davon überzeugt haben, sich (für diese Chip-Generation) komplett von Samsung abzuwenden. Zur nachfolgenden 14nm/16nm-Generation gab es bisher das Gerücht, Apple könnte zwischen TSMC und Samsung mischen, um sich nicht in eine komplette Abhängigkeit von TSMC zu bringen – andererseits steht hierzu immer noch eine mögliche Zusammenarbeit mit Intel zur Debatte. Davon abgesehen sind dies gute Nachrichten ob der Leistungsfähigkeit der 20nm-Fertigung bei TSMC, was dann wohl auch weniger Probleme bei der Adaption von großen Grafikchips in das neue Fertigungsverfahren bedeuten sollte.

Hartware berichten über Aussagen eines Windows-Entwicklers zum Oberflächen-Design von Windows 8: Danach habe man bei Microsoft bei Windows 8 erstmals die Windows-Nutzer in Inhalte-Ersteller und Inhalte-Konsumenten eingeteilt – und dann das neue Betriebssystem primär auf letztere ausgerichtet. Mit dem zwischen den Zeilen stehenden Punkt, daß die Inhalte-Konsumenten natürlich die (viel) größere Anzahl haben als die Inhalte-Ersteller, liegt man zwar nicht falsch – was Microsoft bei Windows 8 jedoch nicht beachtet hat, ist die speziell unter den bisherigen Windows-Nutzern vorhandene erhebliche Anzahl an Inhalte-Erstellern zuzüglich deren medialer Macht. Microsoft hat es sich mit Windows 8 schlicht mit seinen ganzen Multiplikatoren verdorben – und da nutzt es dann auch nichts mehr, wenn das Betriebssystem für Normalnutzer vielleicht besser geeignet wäre.

Bei den Normalnutzern hat Microsoft jedoch auch den überaus gewichtigen Punkt der Gewöhnung an das Vorhandene übersehen: Die meisten Anwender kennen schon die Vorgängerversion(en) von Windows 8 und müssen sich ergo mit dem Erscheinen von Windows 8 mehr als deutlich umgewöhnen (sofern man die ModernUI-Oberfläche nutzen will). Ein großer Teil der Normalnutzer kann aber gar keine so gravierenden Änderungen auf einen Schlag verdauen, insbesondere ältere Computer-Nutzer sind damit sehr schnell überfordert. Daß die ModernUI-Oberfläche rein technisch einfacher ist für den Normalanwender, muß in der Praxis also nicht bedeuten, daß die Normalanwender wirklich damit zurechtkommen. Am Ende war der Kardinalfehler aber sowieso, nicht mehrgleisig zu fahren und einfach mehrere gleichberechtigte Oberflächen zuzulassen, sondern stattdessen die ModernUI-Oberfläche Microsoft-typisch zwangsweise in den Vordergrund zu stellen. Ein sanfterer Start als optional nutzbare Zusatzfunktion wäre der Idee der Touchbedienung von Windows-Betriebssystemen langfristig gesehen sicherlich zuträglicher gewesen.