3

Umfrage-Auswertung: Wie interessant ist nVidias DSR Anti-Aliasing?

Die Umfrage der letzten Woche ging der Frage nach, auf wieviel Interesse nVidias Dynamic Super Resolution (DSR) Anti-Aliasing stößt. Angesichts dessen, daß dieses Feature natürlich immer nach extrem leistungsstarken Grafikkarten verlangt und damit dessen Anwendungsgebiet automatisch begrenzt ist, sind die 48,0% der Umfrage-Teilnehmer, welche DSR Anti-Aliasing für "hochinteressant" halten, ein ziemlich guter Wert. Vor allem jene 4,1% der Umfrage-Teilnehmer, welche wegen DSR Anti-Aliasing voraussichtlich von AMD auf nVidia wechseln werden, dürften AMD deutlich ärgern – immerhin hätte AMD ganz genauso ein ähnliches Feature herausbringen können, handelt es sich doch "nur" um Software-Funktionen.

Die 29,3% der Umfrage-Teilnehmer mit mittelmäßigem sowie die 22,7% der Umfrage-Teilnehmer ohne echtem Interesse an DSR Anti-Aliasing sind dagegen zu erwartende Werte – wie gesagt ist DSR Anti-Aliasing nur sinnvoll bei sehr leistungsfähigen Grafikkarten einsetzbar, was einen großen Teil der Grafikkarten-Käufer automatisch ausschließt. Im Endeffekt handelt es sich um ein Feature rein für Enthusiasten, womit der Vergleich gegenüber TrueAudio, Mantle, FreeSync und G-Sync nicht ganz fair ist, alle diese anderen Featres sind schließlich unabhängig der Leistungsfähigkeit der jeweiligen Grafikkarte nutzbar.

AMD TrueAudio AMD Mantle AMD FreeSync nVidia G-Sync nVidia DSR *
hochinteressant 65,5% 86,4% 64,2% 46,2% 48,0%
mittelmäßig interessant 19,6% 8,0% 23,7% 21,7% 29,3%
nicht interessant 14,9% 5,6% 12,1% 32,1% 22,7%
potentiell schlecht für den freien Wettbewerb 25,8% 30,6% - 52,1% -
Als reines Enthusiasten-Feature kann DSR Anti-Aliasing ganz automatisch nicht auf die hohen Zustimmungswerte der anderen Features kommen.
2

Hardware- und Nachrichten-Links des 1./2. November 2014

Bei PC Perspective hat man die Grafikkarten-Hersteller zur Frage des Spulenfiepens bei der GeForce GTX 970 befragt – mit dem zu erwartenden Ergebnis, daß die einzelnen Hersteller "an dem Problem arbeiten" oder aber jenes Negieren bzw. Geringreden. Wenigstens aber wird Spulenfiepen als RMA-Grund angesehen – Nutzer, welche diesbezüglich Probleme mit ihrer Grafikkarten haben, sollten auch diesen Weg gehen, denn nur wenn die Rückgabequote entsprechend hoch ist, ergibt sich auch ein klarer wirtschaftlicher Anreiz zur Problemlösung. Daneben ist es natürlich empfehlenswert, sich bei unserer aktuellen Umfrage zu beteiligen, welche zu ermitteln versucht, wie breit derzeit Spulenfiepen bei Grafikkarten – egal des Herstellers und Performancefelds – verbreitet ist.

Unser Artikel zum Stromverbrauch aktueller und vergangener Grafikkarten hat ein größeres Update erfahren, da hierbei nunmehr die Werte von Tom's Hardware (aus deren Artikel zur GeForce GTX 970 & 980) als neue Quelle für Meßwerte der reinen Grafikkarten begrüßt werden konnten, respektive wurden bei allen betroffenen Grafikkarten (die meisten der neueren Modelle) die Durchschnittswerte entsprechend neu berechnet. Die Unterschiede zu den bisherigen Durchschnittswerten liegen meist nur im Bereich von 0-3 Watt, aber diese inzwischen sechste Quelle für entsprechende Werte macht diese (automatisch sowie manuell gewichtete) Durchschnittsbildung solider, die erzeugten Durchschnittswerte sollten inzwischen mit akzeptabler Fehlerquote zur Realität passen. Eine bessere Übersicht zum Stromverbrauch nur der Grafikkarten gibt es unseres Wissens nach im Internet nicht – sowohl bezogen auf die Quantität als auch die Qualität der Ergebnisse.

Tom's Hardware bieten zudem einen schönen Grundlagen-Artikel zum Messen des Stromverbrauchs der reinen Grafikkarte, welcher über die Schwierigkeiten eines solchen Unterfangens aufklärt. Deswegen betreiben auch nur wenige Webseiten diesen Aufwand, selbst wenn Messungen zum Gesamtsystem in dieser Frage nur völlig unzureichende Werte ergeben. Und jener Aufwand ist gerade für extrem stromfressende Grafikkarten sehr hoch, was möglicherweise auch manch einen völlig abweichenden Meßwert erklärt – mit anderer Meßmethodik kann man schnell etwas deutlich anderes messen, selbst wenn das Versuchsobjekt dasselbe ist. Desweiteren wird in diesem Grundlagen-Artikel noch einiges interessantes zu den Themen richtige PCIe-Kabel (wichtig für stromfressende Grafikkarten), passende Netzteile, SingleRail- oder MultiRail-Schaltungen sowie den Mythos der "japanischen Kondensatoren" geboten.

Ein hochinteressanter Punkt ergibt sich zudem über einzelne Meßwerte zu einer GeForce GTX 750 Ti, welche eine TDP von nur 60 Watt hat und ohne extra PCIe-Stecker auch nicht oberhalb der 75 Watt des PCI-Express-Slots ziehen sollte: Setzt man hier auf entsprechend feinfühlige Meßinstrumente, so kann man reihenweise Stromverbrauchs-Ausreißer oberhalb dieser eigentlich festen 75-Watt-Grenze beobachten – im Mikrosekunden-Bereich ging es oftmals bis auf 100 Watt hinaus, einzelne Karten sollen gar 120 Watt erreichen können. Genauso konnte eine mit 250 Watt TDP spezifizierte Radeon R9 290X im Mikrosekunden-Bereich problemlos Werte in Richtung 350 Watt erreichen, Spitzenwerte lagen sogar leicht oberhalb von 400 Watt. Für die Bauteile ist dies augenscheinlich kein Problem, dafür ist die Zeitspanne der Spitzenlast zu gering – aber das ganze soll zum Onboard-Sound von günstigen Mainboards rückkoppelt und zu einem unschönen Zirp-Effekt führen können. Etwas schade ist, daß an dieser Stelle jener These nicht noch weiter nachgegangen wurde, das Thema ist interessant und verdient weiterer Betrachtung.

Netzpolitik berichten darüber, wie die Content-Sperrung bei YouTube wegen urheberrechtlicher Bedenken läuft: Letztlich prüft nur ein Computerprogramm, ob es sich eventuell um einen Upload mit urheberrechtlich geschütztem Material handelt, die Sperrung selber wird dann jedoch auch rein automatisch vorgenommen – somit steht irgendwo ein Mensch in der Kette von der Prüfung bis zur Sperrung. Daß damit auch reihenweise Fehlsperrungen passieren werden, dürfte klar sein. Ein schönes Beispiel hierzu kommt von der Netzpolitik selber, welche die Wirkungsweise von Überwachungssoftware unter Windows demonstriert hatten, worauf nachfolgend eine Sperrung durch YouTube mit der Begründung der Verletzung der Urheberrechte von Microsoft erfolgte. Einmal abgesehen davon, daß mit diesem YouTube-Video nirgendwo die Urheberrechte von Microsoft an der gezeigten Software verletzt werden konnten, müsste in diesem Einzelfall das Urheberrecht sowieso zurücktreten vor dem öffentlichen Interesse bei der Aufdeckung von Überwachungstechnologien, welche deutsche Firmen für autoritäte Regimes entwickeln.

Das letzter Gedanke – Urheberrecht vs. Pressefreiheit – leider nur Theorie ist, die nicht immer mit Leben erfüllt wird, musste laut der Telepolis kürzlich die Westdeutsche Allgemeine Zeitung erfahren, welche vom Landgericht Köln für die Veröffentlichung geleakter Afghanistan-Dokumente der deutschen Bundeswehr zurückgepfiffen wurde. Dabei wurden weder Geheimhaltungspflichten noch Staatsräson als Gründe aufgefahren – nein, man gestand der Bundeswehr doch tatsächlich eine "geistige Schöpfungshöhe" und in der Folge dessen Urheberrechte auf deren interne Dokumente zu. Viel billiger kann man wohl kaum wegkommen: Erstens einmal kann eine im Auftrag des Souveräns handelnde Organisation keine Urheberansprüche gegenüber dem Souverän selber aufbauen, zweitens kann über die angebliche "geistige Schöpfungshöhe" diskutiert werden, drittens wurde das Urheberrechts gerade dafür geschaffen, daß Texte und Dinge veröffentlicht und nicht weggeschlossen werden – und viertens sollte im Normalfall doch sowieso das wichtigere Recht der Pressefreiheit das wesentlich niedriger angesetzte Urheberrecht schlagen. In der Theorie zumindest, niedergeschrieben in solchen Werken wie dem Grundgesetz und einzelnen Gesetzestexten.

1 1

Produziert die Grafikkarte ein hörbares Fiepen (2014)?

Die GeForce GTX 970 & 980 Grafikkarten haben das Problem des Spulenfiepens wieder in den Vordergrund gebracht, womit wir eine gleichlautende Umfrage von Anfang 2012 neu auflegen und damit den aktuellen Stand zu diesem Thema abfragen wollen. Wie die frühere Umfrage wird auch die aktuelle Umfrage unterteilt nach den Markt-Segmenten "Mainstream", "Performance" und "HighEnd", da hierbei erfahrungsgemäß teilweise unterschiedliche Quoten für fiepende Grafikkarten zu erwarten sind. Die Unterteilung der einzelnen Markt-Segmente erfolgte dabei anhand der Performance der Grafikkarten im 3DCenter Performance-Index, zusammengefasst in folgender Tabelle:

Mainstream-User Performance-User HighEnd-User
Radeon HD 5000 Serie bis Radeon HD 5870 Radeon HD 5970 -
Radeon HD 6000 Serie bis Radeon HD 6870 Radeon HD 6950 bis 6970 Radeon HD 6990
Radeon HD 7000 Serie bis Radeon HD 7790 Radeon HD 7850 bis 7950 "Boost" Radeon HD 7970 bis 7990
Radeon R200 Serie bis Radeon R7 260X Radeon R7 265 bis R9 285 Radeon R9 280X bis 295X2
GeForce 900 Serie - - GeForce GTX 970 bis 980
GeForce 700 Serie bis GeForce GTX 750 Ti GeForce GTX 760 GeForce GTX 770 bis Titan Z
GeForce 600 Serie bis GeForce GTX 650 Ti GeForce GTX 650 Ti "Boost" bis 670 GeForce GTX 680 bis 690
GeForce 500 Serie bis GeForce GTX 560 Ti GeForce GTX 560 Ti "448" bis 580 GeForce GTX 590
GeForce 400 Serie bis GeForce GTX 470 GeForce GTX 480 -
AMD Mainstream-Karte - kein Fiepen
9% (318 Stimmen)
AMD Mainstream-Karte - Fiepen feststellbar
1% (23 Stimmen)
AMD Performance-Karte - kein Fiepen
15% (524 Stimmen)
AMD Performance-Karte - Fiepen feststellbar
2% (62 Stimmen)
AMD HighEnd-Karte - kein Fiepen
17% (560 Stimmen)
AMD HighEnd-Karte - Fiepen feststellbar
3% (96 Stimmen)
nVidia Mainstream-Karte - kein Fiepen
7% (228 Stimmen)
nVidia Mainstream-Karte - Fiepen feststellbar
1% (43 Stimmen)
nVidia Performance-Karte - kein Fiepen
11% (378 Stimmen)
nVidia Performance-Karte - Fiepen feststellbar
3% (103 Stimmen)
nVidia HighEnd-Karte - kein Fiepen
16% (533 Stimmen)
nVidia HighEnd-Karte - Fiepen feststellbar
15% (520 Stimmen)
Gesamte Stimmen: 3388
1

Neuer 3DTester-Artikel: Lian Li PC-Q01 Mini-ITX Gehäuse

Die Miniaturisierung musste man sich in der Vergangenheit immer teuer erkaufen. Je kleiner desto teurer war die Devise. Doch zwischenzeitlich hat sich diese Weisheit relativiert. Zu sehen ist dies in vielen Bereichen der Computertechnik. Eben auch bei den PC-Gehäusen. So sind Mini-ITX-Systeme längst nicht mehr klein, wenn man sie mit heutigen Smartphones oder -Tablets vergleicht. Entsprechend gibt es auch keinen Grund für die Hersteller, sie deswegen teuer anzubieten. Wer sich also ein Mini-ITX-System zusammenstellen will, müsste beim Mainboard, Arbeitsspeicher oder dem Gehäuse praktisch das Gleiche zahlen, wie für ein reguläres System.

Lian Li PC-Q01 Mini-ITX Gehäuse

Anhand eines Lian Li Mini-ITX-Gehäuses wollen wir dies etwas näher untersuchen. Das Li PC-Q01 ist für 59,90 Euro erhältlich und damit für ein Lian Li Gehäuse schon mal erstaunlich günstig. Neben dem Gehäuse-Test soll es uns noch die Frage beantworten, in wie weit ein modernes Mini-ITX-Gehäuse dem Anwender entgegen kommt. Denn als sogenannter Mini-Cube, ist es durchaus für reguläre Hardware ausgelegt, bzw. sollte hier mehr Spielraum bieten ... zum Artikel

31

Hardware- und Nachrichten-Links des 31. Oktober 2014

Die Meldung über die Performancegewinne durch Mehrfach-SLI bei der GeForce GTX 980 hat inzwischen schon ein zweites Update erfahren: Ursprünglich war bei den Rechnungen zur SLI-Effizienz ein Gedankenfehler mit zu hohen Werten bei drei und vier Grafikkarten enthalten, was recht schnell direkt in der Meldung gefixt wurde. Über den Forenthread zur Meldung kam es zudem zur Diskussion über den Begriff "SLI-Effizienz" und dessen genaue Bedeutung respektive Berechnung. Um allen Auslegungsformen Rechnung zu tragen, wurde demzufolge nun auch noch eine andere Rechnung unter der Bezeichnung "Gesamt-Effizienz" der Meldung hinzugefügt. Unter SLI-Effizienz wird dabei (unsererseits) verstanden, was allein die zusätzlichen Grafikkarten mehr gegenüber dem theoretischen Maximum leisten – die Performance der ersten Grafikkarte wird dabei also herausgerechnet.

Dies bezieht sich auf die Begriffswahl "SLI-Effizienz" – und welcher man verstehen kann, daß nur die Effizienz der SLI-Komponenten ermittelt werden soll, nicht aber die Effizienz der ersten Grafikkarte, denn die steht ja auch im Normalsystem ohne SLI. Deswegen gibt es bei dem System mit nur einer Grafikkarte auch keinen Wert bei der SLI-Effizienz – weil dies kein SLI-System darstellt. Die "Gesamt-Effizienz" ermittelt dagegen die Effizienz aller Grafikkarten gegenüber deren theoretischem Maximum, weswegen es hier auch einen Wert bei einer einzelnen Grafikkarte gibt (welcher logischerweise immer "100,0%" betragen muß). Sicherlich streitbar ist die Begriffswahl – je nach Ansicht man könnte auch das, was in dieser Meldung als "Gesamt-Effizienz" berechnet wurde, als "SLI-Effizienz" ansehen. Eine echte Maßgabe hierzu fehlt mangels dessen, daß diese Rechnungen eher selten angegangen werden. Man könnte die Begriffe also sogar selber definieren, oder auch ganz andere Rechnungen aufmachen – je nachdem, was ausgedrückt werden soll.

Gemäß der DigiTimes hat Intel die marktpolitische Entscheidung getroffen, die Notebook-Ausführungen von Skylake nicht mehr plangemäß im Sommer 2015, sondern erst im Herbst 2015 (Ende drittes bis Anfang viertes Quartal) zu bringen – nicht weil Skylake nicht bereits im Sommer spruchreif wäre, sondern weil der Sommer-Termin zu nahe an Broadwell liegt, dessen Notebook-Modelle schließlich erst Anfang 2015 in den Markt kommen werden. Die Notebook-Hersteller soll dies schon ärgern, da es jene Verschiebung um so schwieriger macht, noch rechtzeitig zum Weihnachtsgeschäft 2015 neue Notebooks mit Skylake und Windows 10 aufzulegen. Im Sinne Intels ist dies jedoch eine absolut nachvollziehbare Entscheidung und wurde unsererseits schon viel früher erwartet – möglicherweise zu früh. Jedes Produkt benötigt nun einmal eine gewisses Mindestzeit am Markt, zudem würde es die Broadwell-Verkäufe deutlich behindern, wenn schon der Nachfolger in absehbarer Zeit vor der Tür steht (was von der Fachpresse natürlich entsprechend breitgetreten werden würde).

Zudem gewinnt Intel mit der Verschiebung auch Zeit für die nachfolgende Cannonlake-Architektur, wo erstmals die 10nm-Fertigung eingesetzt wird – und nach den Schwierigkeiten mit der 14nm-Fertigung wäre es wirklich überraschend, wenn nicht auch 10nm letztlich mehr Zeit benötigt als ursprünglich geplant. Vakant ist allerdings noch, was nun mit den Skylake Desktop-Prozessoren ist, welche gemäß klarer Intel-Aussagen nahezu zeitgleich zu den Broadwell Desktop-Prozessoren im Sommer antreten sollen. Auch hier würde sich eine Verschiebung von Skylake anbieten (sogar noch eine viel deutlichere Verschiebung), um den ansonsten auftretenden Kannabalisierungs-Effekten zwischen zwei neuen Architekturen gleichzeitig am Markt entgegenzuwirken. Die Meldung der DigiTimes gibt diesbezüglich nichts her, so daß diese Frage vorerst in der Schwebe bleibt. Aufgrund der allgemeinen Vorzüge kann es aber gut und gerne passieren, daß auch die Desktop-Modelle von Skylake noch deutlich verschoben werden, völlig egal der technischen Fertigstellung.

Laut Golem ist das Design der 20nm-Ausführung des Xbox-One-SoCs fertig und dürfte in absehbarer Zeit in Produktion gehen. Auftragsfertiger TSMC wird demzufolge neben dem Apple A8 SoC weitere Großaufträge für die 20nm-Fertigung erhalten – welche aber weiterhin keine PC-Grafikchips unter 20nm umfasst. Der immerhin 363mm² große Xbox-One-SoC soll sich unter 20nm laut einer Golem-Schätzung um ca. ein Viertel Chipfläche verringern, was allerdings für den Sprung zwischen zwei (offiziellen) Vollnodes vergleichsweise wenig ist. Microsoft wird aus der ganzen Sache primär Einsparungen beim Stromverbrauch mitnehmen können, was die Stromversorgung, Kühlung und Platzbedarf der Konsolen senken kann und jene somit für Microsoft günstiger in der Fertigung macht. Ob es damit zu einer Xbox One "Slim" kommt, bliebe abzuwarten, möglicherweise läßt sich ein Großteil der Kosteneinsparungen auch im Standard-Gehäuse realisieren. Günstiger für die Käufer wird es deswegen sowieso nicht zwingend, der Endkundenpreis wird eher denn marktpolitisch festgelegt – aber zumindest die Möglichkeit für spätere Preissenkungen wird durch die 20nm-Fertigung erlangt.

31

Umfrage-Auswertung: Werden Prozessoren bewußt auf eine bestimmte TDP hin gekauft?

Die Umfrage der letzten Woche beschäftigte sich mit der Frage, ob beim Kauf von Prozessoren für das Desktop-Hauptsystem auf eine bestimmte TDP geachtet wird. Gleich 28,0% der Umfrage-Teilnehmer ist diese Eigenschaft von Prozessoren relativ egal, während weitere 24,0% alle TDP-Erwägungen prinzipiell dem Gedanken über mehr Performance unterordnen. Die restlichen 48,0% der Umfrage-Teilnehmer – und damit knapp die Hälfte – tritt den Prozessoren-Kauf jedoch durchaus mit gewissen Vorstellungen über die TDP des Kaufobjekts an: Dabei dominiert mit 25,8% natürlich die TDP-Marke von 95 Watt, worunter sich die meisten Desktop-Prozessoren einordnen lassen. Die TDP-Marke von 65 Watt ist jedoch mit 13,6% erstaunlich gut dabei – insofern sind die vielfältigen Anstrengungen der Prozessoren-Entwickler bezüglich entsprechender Prozessoren besser verständlich.

Inhalt abgleichen