16 16

4K-Monitor oder Downsampling?

Enorm viel Leistung erfordert beides: Entweder ein 4K-Monitor – oder Downsampling Anti-Aliasing auf einem gewöhnlichen Monitor. Doch welches zieht man eher in Betracht?

Bin schon auf 4K-Monitor.
4% (86 Stimmen)
Tendiere für die Zukunft eher zum 4K-Monitor.
36% (873 Stimmen)
Bin unentschieden zwischen 4K-Monitor oder Downsampling.
6% (135 Stimmen)
Tendiere für die Zukunft eher zu Downsampling.
12% (284 Stimmen)
Bin schon auf Downsampling.
8% (192 Stimmen)
Halte beides derzeit für nicht interessant.
35% (828 Stimmen)
Gesamte Stimmen: 2398
14

Hardware- und Nachrichten-Links des 14. November 2014

Bei Heise versucht man Microsoft ein wenig ins Gewissen zu reden ob der Entscheidung, DirectX 12 nicht für Windows 7 anbieten zu wollen – was natürlich reichlich hoffnunglos ist, Microsoft benutzt DirectX schon seit einigen Versionsnummern nur noch zum Puschen des jeweils neuesten Microsoft-Betriebssystems. Eher sollte man den Wettbewerbshütern ins Gewissen reden, diesen Fall bislang sträflich übersehen zu haben – ein großer Hersteller benutzt eine allgemein wichtige API wahlweise dazu, andere APIs auszusperren oder aber den Absatz von diversen Produkten durch künstliche Verknappung anzukurbeln. Aber wahrscheinlich wird dies erst das Thema von Wettbewerbsuntersuchungen werden, wenn dieser Zustand entweder durch Konkurrenz oder durch technische Neuentwicklungen schon wieder vor seinem Ende steht (vergleiche die viel zu spät gelaufenen Wettbewerbsverfahren wegen des zwangsintegrierten Internet Explorers).

Daneben wäre zum Fall DirectX 11.3 noch etwas nachzutragen, was sich aus der Meldung ergibt, daß es kein DirectX 12 mehr für Windows 7 geben wird. Ein solches DirectX 11.3 als kleinere Ausführung von DirectX 12 macht natürlich nur Sinn, wenn es DirectX 12 exklusiv nur für Windows 10 geben wird – und damit nicht mehr für Windows 8.1. Denn nur bei dieser Auflösung wird ein DirectX 11.3 überhaupt notwendig – daß es ein solches für Windows 7 geben wird, bleibt dagegen wohl eine Illusion angesichts dessen, daß es derzeit nicht einmal DirectX 11.1 für Windows 7 gibt. Die wahrscheinlichste Auflösung der ganzen Geschichte lautet also, daß Windows 7 bei DirectX 11.0 endet, Windows 8.0 bei DirectX 11.1, Windows 8.1 bei DirectX 11.3 und erst Windows 10 dann DirectX 12 bekommen wird. Von den darstellbaren Grafikfeatures dürften DirectX 11.3 und 12 gleich sein, nur die Mantle-artige Beschleunigung bliebe dann allein DirectX 12 und damit Windows 10 vorbehalten.

Aus unserem Forum kommt die Entdeckung, daß Speicherhersteller Hynix inzwischen ganz offiziell GDDR5-Speicher mit 4000 MHz Taktrate listet und anbietet. Inoffiziell dürfte das Angebot schon einige Zeit existiert haben, gewöhnlich haben die Speicherhersteller immer noch ein paar Schmankerl in der Hinterhand, allerdings dies gewöhnlich zu gesalzenen Preisen. Auch jetzt mit der offiziellen Listung dürfte GDDR5 auf 4000 MHz auf keinen Fall billig kommen – und daher seitens der Grafikchip-Entwickler und Grafikkartenhersteller nur dann eingesetzt werden, wenn dies unbedingt notwendig werden würde. Zudem geht bei solch hohen Taktraten dann auch der Stromverbrauch durch die Decke – und wenn es nicht derjenige des Speichers selber ist, dann der Stromverbrauch des Speicherinterfaces, welches bei hohen Taktraten anfängt, überproportional viel Strom zu ziehen. Nicht umsonst experimentieren sowohl AMD als auch nVidia mit HBM-Speicher, weil dort (unter anderem) das Problem des stromfressenden Speicherinterfaces bei hohen Taktraten wegfällt.

Heise berichten über eine unlustige Windows-Sicherheitslücke, welche immerhin schon seit 18 Jahren (angeblich) unentdeckt in Windows schlummert – betroffen sind alle Microsoft-Betriebssysteme zurück bis Windows 95 mit dem Internet Explorer 3. Die eigentliche Sicherheitslücke steckt dabei in den VBScript-Komponenten des Internet Explorers – was aber Nutzern älterer Betriebssysteme auch nichts nutzt, denn für jene stellt Microsoft keine neueren, aktualisierten IE-Versionen zur Verfügung. Zudem ist ab Windows XP der Internet Explorer fester Bestandteil des Betriebssystems, selbst eine offizielle Deinstallation entfernt nur Links etc., nicht aber die IE-Renderengine, welche nach wie vor von anderen Programmen genutzt wird. Insofern kommt diese Sicherheitslücke Microsoft derzeit sicherlich überaus gelegen, um die letzten Windows-XP-Nutzer zum Umstieg auf ein neueres Betriebssystem zu überzeugen – sehr viel unpassender wäre es natürlich gewesen, wenn diese Sicherheitslücke noch vor dem April 2014 entdeckt worden wäre ;).

14

Neuer 3DTester-Artikel: SanDisk Ultra Dual USB Drive 16GB

Nach unserem anfänglichen Tests des Kingston DataTraveler microDuo und des Maxell Dual-USB folgt nun, wie versprochen, der dritte USB-Stick mit dualer USB-Schnittstelle. Der SanDisk Ultra Dual. Genau wie seine Mitbewerber bietet er neben der regulären USB-Schnittstelle auch einen micro-USB-Anschluss und gestattet somit wahlweise auch die Anbindung an Tablets und Smartphones ... zum Artikel.

SanDisk Ultra Dual USB Drive 16GB
13

Hardware- und Nachrichten-Links des 13. November 2014

Von AMDs Cheftechniker Richard Huddy kommt per YouTube eine klare Aussage, daß es kein DirectX 12 für Windows 7 geben wird. Dies kommt allerdings nicht wirklich überraschend, ähnliches wurde von Anfang an so vermutet. Die eigentliche Frage wird eher sein, ob es DirectX 12 auch noch auf Windows 8.1 schafft – wobei dies wohl allein dem Willen Microsofts unterliegt, die Spielepublisher dürften hierzu zwar ihre Stellungnahmen abgeben, aber letztlich nicht von Microsoft gehört werden. Genauso muß gesagt werden, daß das Fehlen von DirectX 12 auf Windows 7 wahrscheinlich nicht bedeutet, daß es die neuen Hardware-Features von DirectX 12 nicht auf Windows 7 geben wird. Genau in diese Lücke dürfte DirectX 11.3 springen, welches vermutlich alle Hardware-Features von DirectX 12 bietet, nicht aber die Mantle-artige CPU-Beschleunigung, mit welcher man DirectX 12 in aller Regel zuerst verbindet. Den vielen Kursivschreibungen ist jedoch schon zu entnehmen, daß dies alles derzeit nur gute Annahmen unsererseits darstellen, feststehende Aussagen zum Thema seitens Microsoft derzeit immer noch Mangelware sind.

Die PC Games Hardware hat sich die Performance einer vier Jahre alten SSD im Vergleich mit einem aktuellen SSD-Modell angesehen – um zu sehen, wieviel die neueren Geräte bei der Performance zulegen konnten. Als Altmodell kam eine "Samsung SSD 470 256GB" zum Einsatz, welche seinerzeit 560 Euro kostete, als neues Modell eine "Plextor M6 Pro 256GB", welche für 150 Euro zu bekommen ist. Das seinerzeitige SSD-Modell war natürlich noch auf SATA2 ausgerichetet und kommt daher mit heutzutage nicht mehr modernen (offiziellen) Lese- und Schreibraten knapp oberhalb von 200 MB/sec daher. In der Praxis der Messungen ergaben sich die größten Unterschiede aber nur bei theoretische Lasten erzeugenden Benchmarks sowie (in abgeschwächter Form) beim Windows-Start, während sich beim Einladen von Spielständen erstaunlicherweise nur minimalste Differenzen zeigten. Technisch ist die 2014er SSD deutlich schneller, in der Praxis kommt dies jedoch nur eher selten zum tragen. Die nicht meßbare typische "Schwuppdizität" einer SSD dürfte sicherlich bei beiden SSDs gegeben sein.

Insofern ergibt sich nach diesen Benchmarks nicht zwingend der Rat, von einer älteren, langsameren SSD unbedingt auf eine neue, schnellere SSD zu wechseln – zumindest nicht aus Performance-Gründen. Dieses Urteil gilt aber nur so lange, wie es sich bei der älteren SSD um Modelle mit 240/256 GB (oder mehr) Speicher handelt, welche also zum Kaufzeitpunkt Spitzen-Modelle darstellten. Kleinere Modelle mit 60/64 oder 120/128 GB boten damals wie heute nur abgespeckte SSD-Interfaces respektive Bandbreiten an, hier kann der Wechsel auf eine moderne SSD mit 250/256 GB Größe durchaus einiges an auch praktisch nachvollziehbarer Mehrperformance einbringen. Daneben dürften die Besitzer von älteren SSDs heutzutage natürlich vor allem die (vergleichsweise) günstigen Preise für SSDs mit großen Speichergrößen reizen – hier dürfte eher der Hauptantrieb dafür liegen, von einer älteren SSD auf ein neueres Modell zu wechseln.

Wie Heise ausführen, wird nVidia seinen Spielestreaming-Service "GRID" noch im November in den USA an den Start bringen, Westeuropa soll im Dezember nachfolgen, Deutschland wegen der Jugendschutzproblematik allerdings erst im ersten Halbjahr 2015. Vorerst wird "GRID" nur mit nVidias Shield sowie dem Shield-Tablet funktionieren, stellt so gesehen also noch keinen großen Angriff auf die anderen Spielestreaming-Anbieter dar, sondern eher eine weitere Werbeaktion für diese nVidia-Gerätschaften. In jedem Fall wird nVidia aber somit eigene, praktische Erfahrungen auf diesem Gebiet sammeln, welche bei der Weiterentwicklung der Spielestreaming-Idee helfen werden. In den Rechenzentren werden natürlich nur nVidia-Grafikkarten laufen, womit nVidia regulär nichts verloren geht – bis allerdings zu dem (theoretischen) Punkt in der Zukunft, wo keiner mehr extra Grafikkarten kauft und alles nur noch effizient über Rechenzentren abläuft, mit deutlich geringerem Hardware-Einsatz natürlich. Zu diesem (theoretischen) Punkt wird es allerdings nicht kommen, so lange das Problem der zusätzlichen Latenz besteht – deren Effekt sich nur in der Praxis von "GRID" wirklich ermessen läßt.

13

Umfrage-Auswertung: Produziert die Grafikkarte ein hörbares Fiepen (2014)?

Die Umfrage der letzten Woche ging – aus aktuellem Anlaß – mal wieder der Frage nach, in wie weit Spulenfiepen bei heutigen Grafikkarten verbreitet ist. Eine solche Umfrage gab es schon einmal im Januar 2012, seinerzeit gab es ein Verhältnis an fiependen zu nicht fiependen Grafikkarten von 16,7% zu 83,3% – mit nur einer größeren Auffälligkeit, als das AMD (12,5% fiepende Grafikkarten) von dem Problem seinerzeit weit weniger betroffen war als nVidia (20,9% fiepende Grafikkarten). Da HighEnd-Grafikkarten durchgehend vermehrt betroffen waren, konnten seinerzeit beide Grafikchip-Entwickler ihre Hausaufgaben aus dieser Umfrage ableiten.

Heuer nun scheint es so, als hätte es nur teilweise eine positive Entwicklung in dieser Frage gegeben (oder die Grafikkarten-Käufer empfindlicher bei diesem Punkt zu sein): Die Quote der fiependen Grafikkarte ist mit 25,0% klar höher als im Januar 2012, wobei für diese negative Entwicklung einzig allein nVidia Schuld ist: Denn während AMD seine Quote leicht von 12,5% auf 11,4% senken konnte, stieg jene bei nVidia von 20,9% auf 36,9% überaus stark an. Während es also 2012 zwischen AMD und nVidia zwar klar sichtbare, aber noch nicht extreme Differenzen gab, deuten die aktuellen Umfrage-Ergebnisse darauf hin, daß nVidia mit fiependen Grafikkarten nunmehr ein sehr deutliches Problem hat, welches bei AMD um Dimensionen kleiner ist.

Dabei ist für diesen heftigen Ausschlag nach oben hin primär eine Teilgruppe verantwortlich: Die nVidia HighEnd-Grafikkarten, welche im Januar 2012 noch zu "nur" 22,7% als "fiepend" klassifiziert wurden, bekommen nunmehr im November 2014 gleich zu 49,4% jene Wertung. Dies reißt sowohl den Schnitt der nVidia-Grafikkarten als auch den aller Grafikkarten entscheidend nach oben, alle anderen Werte haben sich dagegen kaum bewegt. Hier hat nVidia nun also sehr deutlich von den Grafikkarten-Käufern den Auftrag erhalten, dieses Problem endlich einmal anzugehen. Neben diesen reichlich desaströsen Ergebnisse soll dazu auch wenigstens eine positive Entwicklung notiert werden: Bei den AMD Mainstream-Grafikkarten ging der Anteil an fiependen Exemplaren von 9,1% auf nunmehr nur noch 6,7% zurück.

Fiepen: Ja Fiepen: Nein Umfrage von 2012
AMD Mainstream-Grafikkarten 6,7% 92,3% 9,1:90,9%
AMD Performance-Grafikkarten 10,6% 89,4% 11,3:88,7%
AMD HighEnd-Grafikkarten 14,6% 85,4% 17,2:82,8%
AMD-Grafikkarten insgesamt 11,4% 88,6% 12,5:87,5%
nVidia Mainstream-Grafikkarten 15,9% 84,1% 23,1:76,9%
nVidia Performance-Grafikkarten 21,4% 78,6% 19,6:80,4%
nVidia HighEnd-Grafikkarten 49,4% 50,6% 22,7:77,3%
nVidia-Grafikkarten insgesamt 36,9% 63,1% 20,9:79,1%
alle Grafikkarten 25,0% 75,0% 16,7:83,3%

Daneben läßt sich mit dieser Umfrage auch bestimmen, wie die Grafikkartenverteilung im 3DCenter derzeit aussieht. Bezüglich der Grafikchip-Entwickler geht die Tendenz in letzter Zeit etwas in Richtung nVidia, welche bei dieser Umfrage mit 53,3% herauskommen – 46,7% bleiben demzufolge für AMD. Anno 2012 gab es in dieser Frage noch ein nahezu ausgeglichenes Verhältnis von 49,9% zu 50,1% zwischen AMD und nVidia. Die Verhältnis-Verschiebung scheint dabei klar im HighEnd-Segment begründet, wo nVidia einfach mehr und höher hinaufgehende Angebote aufbietet, was sich in dieser Umfrage auch in klar differienden Anteilen an HighEnd-Grafikkarten zeigt: 19,3% zu 31,1% lautet hierbei das Ergebnis zwischen AMD und nVidia. AMD ist dafür etwas stärker im Mainstream- und Performance-Segment, kann dies in der Summe aller Grafikkarten dann aber nicht mehr ausgleichen.

12

Hardware- und Nachrichten-Links des 11./12. November 2014

Die PC Games Hardware vermeldet nun doch noch die anfänglich erwartenden guten Preispunkte zur Radeon R9 290X mit 8 GB Speicher: Eine MSI-Karte wird nunmehr von mehreren Händler bei 360 Euro angeboten, was nur 50 Euro oberhalb der gleichen Karte mit 4 GB Speicher liegt – und damit einen durchaus gangbaren Mehrpreis darstellt. Für diesen Preis kann man durchaus überlegen, allein wegen des besseren Wiederverkaufswerts die 8-GB-Variante zu wählen – denn ein, zwei Jahre später wird man mit diesen 8 GB Grafikkartenspeicher wesentlich mehr anfangen können und dann dürfte eine 8-GB-Variante im Gebrauchthandel wesentlich begehrter als eine 4-GB-Variante sein. Wenn jetzt noch die anderen Hersteller nachziehen, dann könnte die Radeon R9 290X 8GB sogar noch zum Erfolg werden – trotz, daß der Mehrspeicher derzeitig nur unter 4K wirklich etwas zu bringen scheint (und selbst darüber wird noch intensiv diskutiert).

Zu den Meldungen über die kommenden HighEnd-Chips AMD Fiji und nVidia GM200 wäre noch einmal extra zu erwähnen, daß die Quellenlage hierzu derzeit unsicher ist, ganz besonders bezüglich der aus der SiSoft-Datenbank bezogenen Daten. Beim GM200-Chip ist dies nicht ganz so dramatisch, weil jener in dieser oder in einer ähnlicher Form sowieso erwartet wird. Beim Fiji-Chip stützen sich alle getroffenen Aussagen aber eben doch nur auf die Daten aus der SiSoft-Datenbank – welche durchaus vorsätzlich gefälscht sein können. In jedem Fall ist es auffällig, wie häufig jene Datenbank in letzter Zeit bezüglich neuer Hardware ins Gespräch gekommen ist. Zugleich finden sich auch jetzt schon wirklich irritierende Daten in der SiSoft-Datenbank – wie jene zu einer (angeblichen) Hawaii-Grafikkarte mit 44 Shader-Clustern, aber 3520 Shader-Einheiten. Dies passt natürlich vorn und hinten nicht zusammen, wobei ein Auslesefehler in diesem Fall auch nicht auszuschließen wäre.

Genauso irritierend sind die Daten zu einem (angeblichen) zweiten Grafikchip mit HBM-Speicher: Hierbei wird ein Grafikchip mit nur 384 Shader-Einheiten – ergo LowEnd-Niveau – mit einem 2048 Bit HBM-Speicherinterface gekoppelt. Dies wäre – selbst im APU-Bereich – überaus unsinnig, weil ein solches LowEnd-Produkt keine 320 GB/sec Speicherbandbreite benötigt, letzteres ist das Speicherbandbreiten-Niveau der GeForce GTX 780 Ti. Stimmig sind diese Angaben aber sowieso nicht, denn das 2048 Bit HBM-Interface bedingt in der ersten HBM-Generation exakt 2 GB Speicher – notiert wurden aber nur 1 GB. Wir haben damit also zwei klar unstimmige Einträge in der SiSoft-Datenbank – welche den Wert des durchaus stimmigen Eintrags zum Fiji-Chip indirekt schmälern. Auf die Goldwaage ist das zum Fiji-Chip notiert also bitte nicht zu legen – man kann derzeit die Hoffnung wagen, daß AMD so viel Hardware aufbieten wird, sollte aber nicht fest davon ausgehen.

Ganz generell gesprochen sind APUs mit HBM-Speicher – etwas, was man aus vorgenanntem SiSoft-Eintrag derzeit oftmals herausliest – nicht wirklich abwegig, sondern könnten vielmehr den (Performance-)Durchbruch für die integrierten Grafiklösungen von APUs bedeuten. Derzeit hängen jene am vergleichsweise langsamen Hauptspeicher, welcher (abgesehen von höheren Speichertaktraten durch DDR4-Speicher) in absehbarer Zukunft auch nicht elementar beschleunigt werden wird. Mittels HBM könnte man ein zweites, kleineres Speicherinterface an eine APU hängen, welches auf einfache Art und Weise große Speicherbandbreiten zur Verfügung stellt, und damit die gestiegene Grafik-Rohleistung der APUs besser ausnutzen kann. Dabei muß man keinesfalls einen großen Speicher zur Verfügung stellen, es reichen wohl 1 bis 2 GB als reiner Beschleuniger, daneben kann ja immer noch der Hauptspeicher mitbenutzt werden. Alternativ könnte man auch gleich mit 4 oder 8 GB HBM-Speicher ankommen und benötigt danach keinerlei PC-Hauptspeicher mehr, das Mainboard und der gesamte PC können somit deutlich einfacher ausfallen. Langfristig könnten APUs durchaus in diese Richtung gehen, auch wenn der Einsatz von HBM-Speicher auf APUs gleich am Anfang aus Kostengründen eher unwahrscheinlich ist.

Golem berichten über ein Gerichtsurteil, nach welchem ein Domain-Registrar gemäß der Störerhaftungs-Regelungen für einen Bittorrent-Tracker haftbar gemacht wurde. Der Domain-Registrar fiel darüber aus allen Wolken, da sein Geschäftsbereich nur normale Domain-Registrierungen umfasst, also weder Server-Hosting noch sonstwie andere Dienstleistungen. Zudem ist der Wertgegenstand einer Domain-Registrierung auch zu klein, um da irgendetwas großartig manuell machen zu können, eine Inhaltsprüfung – selbst nach konkretem Hinweis – ist bei den derzeit verlangten Preisen nur schwer möglich. Nichtsdestotrotz ist die Gerichtsentscheidung nach aktueller Rechtslage korrekt, die bundesdeutsche Störerhaftung umfasst leider auch solche Fälle. Das Problem liegt in der Störerhaftung selbst, welche dritte Personen zu Geiseln des Fehlverhaltens der eigentlichen Täter macht – und zwar meistens ohne Blick auf die Verhältnismäßigkeiten mit der großen Keule auf alles einschlagend, dessen man habhaft werden kann.

Inhalt abgleichen