19

Hardware- und Nachrichten-Links des 19. Dezember 2014

In unserem Forum sind weitere Links zu Zauba-Listungen von durch die Welt versandten neuen AMD-Grafikkarten aufgetaucht. Inzwischen werden die Herstellerbezeichnungen leider immer kryptischer, fehlt zuletzt sogar der Herstellername – nur an den von AMD früher schon benutzten Produktkennungen läßt sich ausmachen, daß es sich hierbei um AMD-Grafikboards handeln muß. Die Preislagen der neuerlich versandten Karten schwanken allerdings zwischen 160 und 330 Euro, hierbei dürfte es sich also kaum um Platinen mit Fiji- oder Bermuda-Chip handeln. Entweder kommt AMD mit noch weiteren neuen Grafikchips für Mainstream- und Performance-Segment daher – zur Zeit schwirren noch die Codenamen Litho, Strato, Samoa & Amethyst herum – oder aber AMD benutzt frühere Grafikchips in Form von Rebrandings, um die Radeon R300 Serie nach unten hin aufzufüllen, auch in diesem Fall würde man schließlich neue Testboards zu den eigenen Testeinrichtungen verschicken.

Wieviel an der Radeon R300 Serie neu ist und wieviel Rebranding, ist sowieso eine der großen offenen Fragen. Zuletzt ist AMD eher zur Strategie des "Rolling Release" übergegangen – sprich, man schickte auf allen Fronten neuen Chips mit neuen Technologie-Stufen heraus, wenn diese fertig waren und wartete nicht darauf, jene zusammen in Form einer Technologie-Generation gemeinsam zu veröffentlichen. Deswegen schwirren derzeit mindestens drei verschiedene GCN-Ausbaustufen durch die Gegend, wobei alle jene im aktuellen AMD Grafikchip-Portfolio noch benutzt werden. Irgendwann hofft man natürlich auf eine generelle Ablösung dieses Mischmaschs – was aber entgegen der genannten AMD-Strategie steht. Gut möglich also, daß AMD zwar an der absoluten Leistungsspitze mit Fiji & Bermuda etwas neues bringt sowie im mittleren Bereich offenbart, was im Tonga-Chip noch drinsteckt – aber danach das Angebotsportfolio der Radeon R300 Serie mit früheren Grafikchips auffüllt, möglicherweise sogar mit solchen, die schon bei der Radeon HD 7000 Serie dabei waren.

Das japanische Hermitage Akihabara (maschinelle Übersetzung ins Deutsche) vermeldet einen Launchtermin zur GeForce GTX 960: Am 22. Januar 2015 soll es so weit sein – dies wäre ein Donnerstag und somit typisch für nVidia. Großartige Daten zu neuen nVidia-Grafikkarte wurden nicht genannt, nur der (zu erwartende) einzelne 6polige Stromstecker sowie eine Preislage von um die 170 Euro. Damit würde die GeForce GTX 960 preislich die GeForce GTX 760 beerben, welche derzeit ab für ab 180 Euro angeboten wird. Der niedrige angepeilte Preispunkt zeigt indirekt deutlich in Richtung der Benutzung des GM206-Chips, denn der GM204-Chip ist für eine Nutzung im Preisbereich unterhalb von 200 Euro derzeit sicherlich noch zu teuer bzw. nVidia zu wertvoll.

Die große preisliche Lücke zur GeForce GTX 970, welche immer noch ab 300 Euro kostet, überrascht allerdings etwas: Sicherlich kann nVidia zwischen GeForce GTX 960 & 970 zumindest kurzfristig noch die "alten" GeForce 700 Lösungen abverkaufen, doch mittelfristig benötigt man hier eigentlich noch eine Zwischenvariante. Ob jene aus einer weiteren Abspeckung des GM204-Chips ("GeForce GTX 965") oder einer schnelleren GM206-Varianten ("GeForce GTX 960 Ti") aquiriert wird, bliebe noch abzuwarten. Aufgrund des genannten niedrigen Preises der GeForce GTX 960 ergibt sich durchaus die Möglichkeit, es könnte sich hierbei nicht um den Vollausbau des GM206-Chips handeln. Allerdings sind die Hardware-Daten des GM206-Chips nach wie vor in der Schwebe, die Spannbreite reicht von 1024 Shader-Einheiten an einem 128 Bit DDR Speicherinterface bis zu 1280 Shader-Einheiten an einem 192 Bit DDR Speicherinterface. Man muß sich schlicht überraschen lassen, was nVidia mit der GeForce GTX 960 Ende Januar bringt bzw. wieviel vom GM206-Chip bereits in dieser Karte stecken.

Golem haben sich eingehend mit dem Thema Stacked Memory beschäftigt – sprich Speicher, welcher in der Höhe gestapelt wird, produziert als einzelne Die-Plättchen. Während es hierbei bei mobilen Gerätschaften wie Smartphones in erster Linie um Platzersparnis geht, sind im Bereich von HighEnd-Gerätschaften wie Grafikkarten oder Server-Prozessoren eher die damit möglichen größeren Speicherinterfaces und damit höheren Speicherbandbreiten interessant – als demnächst kommende Anwendung ist beispielsweise HBM-Speicher auf AMDs nächsten Grafikkarten geplant. Weil das alles aber auch nicht ganz unkompliziert ist und für viele Anwendungszwecke die höhere Speicherbandbreite gar nicht benötigt wird, werden Adaptionen für andere Themengebiete allerdings deutlich länger brauchen: Gewöhnliche PC-Prozessoren beispielsweise benötigen – außerhalb deren integrierter Grafiklösungen – keine hohen Bandbreiten, um auf Touren zu kommen, hier dürften noch für lange Zeit die bekannten DDR-Speicherformen benutzt wird.

19

Neuer 3DTester-Artikel: Verbatim Store ‘n’ Go Nano 32GB USB Drive

OTG (On-The-Go) Funktionalität bedarf von Seiten des Speichersticks eigentlich nur eine MicroUSB-Schnittstelle. Und genau diese wird beim Verbatim Store ‘n’ Go Nano USB Drive mittels MicroUSB-Adapter realisiert. Auf diese Weise gibt Verbatim dem Anwender ein Werkzeug in die Hand, um fast jeden USB-Stick in einen OTG-Speicherstick zu verwandeln ... zum Artikel

Verbatim Store ‘n’ Go Nano 32GB USB Drive
18

Hardware- und Nachrichten-Links des 18. Dezember 2014

Selbstverständlich wird in unserem Forum groß und breit über die kürzlich aufgetauchten (angeblichen) Benchmarks zu AMDs Fiji & Bermuda sowie nVidias GM200 diskutiert und diese natürlich in Frage gestellt: Zu unwahrscheinlich klingt es einfach, daß ein einzelner User – außerhalb der eigentlichen Herstellerfirmen – in den gleichzeitigen Besitz von gleich drei unreleasten NextGen-Grafikchips gekommen sein soll, die Anzahl der entsprechenden Grafikboards liegt sogar bei fünf (1x Bermuda, 2x Fiji & 2x GM200). Trotzdem wird aber genauso anerkannt, daß die gezeigten Benchmark-Werte – sofern es wirklich einen Bermuda-Chip in diesem Stil gibt – tatsächlich passen könnten, ironischerweise sollten selbst bei einer Fälschung diese Werte ungefähr so herauskommen. Nach wie vor nicht wirklich einordenbar ist allerdings, wie AMD nun Fiji & Bermuda wirklich herstellt: Sind es zwei Chips oder nur einer, kommen jene in unterschiedlichen Fertigungsverfahren – und vor allem in welchem?

Trotz sehr viel Detailwissen und umfangreichen Diskussionen sind leider in den entsprechenden Foren-Threads – aktueller AMD-Spekulationsthread & aktueller nVidia-Spekulationsthread – bislang noch keine weiteren erhellenden Informationen aufgetaucht. Damit tappen wir weiterhin im Dunklen darüber, was die offenen Fragen zu diesen Benchmarks betreffen. Allenfalls läßt sich über das Nichtvorhandensein von weiteren Detailinformationen erahnen, wann uns AMD und nVidia nun mit neuen Grafiklösungen beglücken wollen: Den Anfang dürfte die GeForce GTX 960 Serie zum Ende des Januar 2015 machen, jene kommt jedoch auf Basis des Mainstream/Performance-Chips GM206. Danach könnte AMDs Fiji-Chip im Frühling anstehen, der Bermuda-Chip dürfte wenn dann erst später nachfolgen. nVidias GM200-Chip dürfte ebenfalls im Frühling spruchreif sein – aber es nicht klar, ob nVidia zu diesem Zeitpunkt schon die Gamer-Version heraushaut oder nicht zuerst einmal den professionellen Markt beliefert. Mit allen Unwägbarkeiten gerade beim Relase großer Chips kann aus dem Frühlings-Termin sowohl bei AMD als auch nVidia aber (leider) auch erst der Sommer werden, ein Restrisiko darauf besteht einfach.

In den USA hat der große Provider Verizon letzte Woche eine Telephonie-App namens "Voice Cypher" vorgestellt, welche eine sichere Sprachverschlüsselung für iOS, Android und Blackberry unabhängig des genutzten Providers bieten soll. Wenige Tage danach kommt nun laut der BusinessWeek heraus, daß diese angebliche "Sicherheits-App" über eine Sollbruchstelle in Form einer Regierungs-Backdoor verfügt. Verizon ist also in der Lage, auf Anforderung von Regierungsstellen Zugriff auf die mit "Voice Cypher" laufende Kommunikaton zu geben – genauso stellt man sich eine "sichere" Anwendung vor (nun gut, die staatlichen Überwacher sicherlich). Ob es eine direkte Backdoor gibt oder ob Verizon schlicht ein Verschlüsselungsverfahren mit Masterkey verwendet, ist unklar, aber eigentlich zweitrangig. Eher interessant ist die Selbstverständlichkeit, mittels welcher Verizon das ganze gutredet – fast könnte man meinen, hierbei würde man über ein offizielles Feature dieser App sprechen (aber vielleicht kommt dies ja auch noch). In jedem Fall zeigt es an, in welche Richtung Software-Entwicklung in den USA derzeit geht – was nun nicht gerade als Empfehlung für aus den USA stammende Software zu verwenden ist.

Erwähnenswerte Artikel: Im Forum der PC Games Hardware gibt es einen sehr ausführlichen Guide zur CPU-Spannungsversorgung, welcher Grundlagen zur Erkennung von fürs extreme Übertakten geeigneten Mainboards liefert. Der TechSpot hat sich zum einen den Effekt der CPU-Temperaturen auf die Performance angesehen, wobei mit einem besseren Kühler zwar viel niedrigere Temperaturen, aber kaum eine höhere Performance (unübertaktet) erreichbar waren. Nochmals der TechSpot bietet zudem eine Galerie an bekannten und beliebten früheren Overclocking-CPUs an, mit dabei legendäre Modelle wie der Celeron 300A – und leider fehlend der Celeron II 566 MHz (der allererste Artikel auf 3DCenter). Und letztlich haben sich AnandTech noch eine Reihe an Stromspar-Modellen aus Intels Haswell-Portfolio angesehen, welche allerdings kaum überzeugen können: Der Stromspareffekt ist in der Praxis eher gering, der Performanceverlust durch die niedrigeren Taktraten dagegen – zumindest bei den T-Modellen – klar deutlicher ausgeprägt.

18

Energieeffizienz der GeForce GTX 980: Marketing-Anspruch & Benchmark-Wirklichkeit

Eines von nVidias liebsten Argumenten zum GM204-Chip ist dessen hohe Energieeffizienz, wird die hohe Performance von GeForce GTX 970 & 980 schließlich mit einem Stromverbrauch erreicht, welcher trotz gleicher 28nm-Fertigung gegenüber den vorherigen nVidia-Grafikkarten sogar gesunken ist. Aber natürlich (?) muß nVidia in dieser Frage trotzdem maßlos übertreiben und spricht ganz offiziell von einer glatten Energieeffizienz-Verdopplung gegenüber der GeForce GTX 680, weiterhin so dargestellt mittels einer entsprechenden Grafik auf nVidias Architektur-Webseite zu GeForce GTX 970 & 980:

Die Zusammenrechung der dortigen Ergebnisse ergibt ziemlich exakt eine Energieeffizienz-Verdopplung gegenüber der GeForce GTX 680 – was sich jedoch nicht mit den realen Ergebnissen aus unabhängiger Quelle deckt. Denn wenn wir die realen Stromverbrauchszahlen in Verbindung mit dem 3DCenter Performance-Index dieser Karten setzen, dann kommt hierbei eine Energieeffizienz-Steigerung um 54% heraus – nicht um 100%. Dies mag sich nach Krümelkackerei anhören, immerhin gibt es in beiden Fällen einen deutlichen Sprung in der Energieeffizienz – aber dennoch: Obiges Diagramm würde bei durchschnittlich 54% Zuwachs weit weniger eindrucksvoll aussehen als bei den jetzt angezeigten durchschnittlich 100% Zuwachs, von einer "Verdopplung" wäre auch nicht mehr zu reden.

Maßgeblich hierfür verantwortlich ist, daß nVidia bei seiner Rechnung mit der offiziellen Stromverbrauchsangaben dieser Karten operiert, was ein deutlicher Irrweg ist: Die "Maximum Graphics Card Power" der GeForce GTX 680 von 195 Watt ist angesichts eines realen Spieleverbrauchs von 169 Watt recht hoch angesetzt, die "Graphics Card Power" der GeForce GTX 980 von nur 165 Watt ist angesichts des realen Spieleverbrauchs von 174 Watt irreführend niedrig angesetzt. In Verbindung von 3DCenter Performance-Index mit den offiziellen Stromverbrauchsangaben ergibt sich schon ein (fälschlicher Zuwachs) von 87%, nahe dran an den im Diagramm angezeigten 100%. Der Rest kommt wohl über die Benchmark-Auswahl zusammen – schlecht zur GeForce GTX 680 und gut zur GeForce GTX 980 passende Spieletitel und Auflösungen können problemlos für die fehlenden Prozentpunkte sorgen.

GeForce GTX 680 GeForce GTX 980 Energieeffizienz
nVidia-Diagramm - - x2
3DC Perf.Index zu offiziellen Stromverbrauchsangaben Perf. 360% zu 195W MGCP Perf. 570% zu 165W GCP x1.87
3DC Perf.Index zu realen Stromverbrauchs-Messungen Perf. 360% zu 169W Messung Perf. 570% zu 174W Messung x1.53

Der Hauptteil kommt aber natürlich über die Finte, die offiziellen Stromverbrauchsangaben anstatt gemessener Werte als Stromverbrauch für eine solche Rechnung anzusetzen. Hier zeigt sich, daß es ein Fehler war und ist, den Herstellern derartige Falschangaben durchgehen zu lassen: Jene werden letztlich für weitere fehlerhafte bzw. verfälschende Aussagen benutzt. Und was soll es letztlich bringen, wenn die Hersteller immer niedriger, gar nicht passende Stromverbrauchswerte angeben?! Dies führt nur dazu, daß die anderen Hersteller sich dazu gezwungen fühlen, dieses Spiel mitzuspielen – wobei keiner gewinnt und alle verlieren. nVidia sollte dringend die verfälschenden Stromverbrauchsangaben zu GeForce GTX 970 & 980 nach oben hin anpassen und keinesfalls auf Basis dieser irgendwelche Energieeffizienz-Rechnungen anstellen.

17

Hardware- und Nachrichten-Links des 17. Dezember 2014

Ein weiterer Test der Radeon R9 290X 8GB bei Hardware Heaven zeigt deutlich geringere Performance-Gewinne durch den Mehrspeicher der 8-GB-Grafikkarte als zuletzt seitens Tom's Hardware dargelegt. Im Schnitt der 5 Spieletitel bei Hardware Heaven sind es unter UltraHD nur 6,9% Mehrperformance durch die 8-GB-Karte, bei Tom's Hardware waren es unter der gleichen Auflösungen noch wesentlich freundlichere 14,1%. Wenn man beide Tests platt miteinander verrechnet, sind es wenigstens 10,5% Mehrperformance durch die 8-GB-Karte – was angesichts des vertretbaren Mehrpreises und der höheren Zukunftstauglichkeit solcherart Modelle dann schon eher passend klingt. Nach Performancegewinnen unter 1920x1080 durch den Mehrspeicher sollte man aber eher nicht fragen, selbige muß man derzeit mit der Lupe suchen.

PCGamer berichten über einen Fehler auf nVidia-Grafikkarten, welche beim Anschluß eines Monitors an HDMI stur davon ausgehen, ein TV-Gerät vor sich zu haben und jenen Monitor demzufolge nicht mit der vollen RGB-Farbpalette beliefern. TV-Geräte können offenbar ganz regulär nicht die volle RGB-Farbpalette darstellen (Farben 16-235, nicht darstellbar ist besonders helles Weiß und besonders tiefes Schwarz) und werden demzufolge auch nur so beliefert, bei Computer-Monitoren ist dagegen natürlich die originale RGB-Farbpalette (Farben 0-255) darstellbar – und sollte demzufolge auch dann dargestellt werden, wenn diese Geräte per HDMI an eine nVidia-Grafikkarte angesteckt werden. Als kleinen Selbsttest für nVidia-Nutzer wird im übrigen auf eine Test-Grafik verwiesen – sieht man vier Quader in verschiedenen Farben, ist alles in Ordnung, sieht man nur zwei unterschiedliche Farben, dann ist man von diesem Fehler betroffen. Allerdings will nVidia diesen Fehler schon mit einem der nächsten Treiber-Releases fixen.

Die kürzliche Meldung zu AMDs kommenden Feature "Dynamic Frame Rate Control" ist in Bezug auf die Wirkungsweise von Vsync leider falsch geschrieben und in der Folge dessen das neue AMD-Feature bezüglich seiner Wirkungskraft womöglich zu positiv bewertet worden. Denn bei aktivem VSync werden natürlich keine Frames verworfen oder Arbeiten an Frames eingestellt – es wird schlicht so lange gerendert, bis der Buffer (zur Monitorausgabe) mit zwei Frames (Double Buffering) bzw. drei Frames (Triple Buffering) voll ist, danach pausiert der Grafikchip. Diese Frames werden nachfolgend auch angezeigt, verworfen wird da nichts. Das von AMD gebrachte Beispiel bezog sich wohl in erster Linie auf VSync=off, wo die Grafikkarte also unlimitiert beispielsweise 150 fps rendert, welche aufgrund der Refreshrate von nur 60 fps natürlich nicht auf dem Monitor sichtbar sind.

Der Effekt des "Dynamic Frame Rate Control" Features beschränkt sich somit auf eine klassische Frameraten-Limitierung, großartige Stromspargewinne gegenüber VSync=on dürfte es nur bei stark limitierter Framerate geben. Trotzdem wird eine Frameraten-Limitierung gemäß der Leserkommentare zu dieser Meldung überaus begrüßt, kann man damit glattere Frameraten und somit ein subjektiv höheres Flüssigkeitsgefühl erreichen. Zwar gibt es hierfür schon die eine oder andere Lösung mittels diverser Tweaktools, eine Lösung direkt im Treiber erscheint natürlich eleganter – zudem darf man davon ausgehen, daß AMDs Treiber-Lösung dann auch unter wirklich jeder Situation funktioniert. Es handelt sich hierbei sicherlich nicht um ein weltbewegendes Features, aber dennoch um einen im Enthusiasten-Feld gern entgegengenommenen Bonuspunkt.

Gemäß Netzpolitik geht aus den mittels des Sony-Hacks geleakten Dokumenten hervor, daß Hollywood weiterhin an DNS-Sperren zu Urheberrechtszwecken laboriert bzw. lobbyiert. Konkret will man dafür das DNS-System aus seiner bisherigen Rolle als reine technische Grundlage herausargumentieren und als reinen Index bzw. Verzeichnis einstufen lassen. Gelingt es irgendwelche US-Richter hiervon zu überzeugen, dürften nachfolgend die Hollywood-Studios den Internet Service Providern (ISPs) Sperrverfügungen für unliebsame Domains zukommen lassen, worauf die ISPs jene Domains in ihren DNS-Servern dann entsprechend sperren bzw. umleiten müssten. Dies wäre dummerweise allerdings nur der Einstieg in eine generelle Manipulation des DNS-Systems, denn wenn das Recht zur privaten Zensur den Hollywood-Studios zugestanden würde, werden nachfolgend auch noch (viele) andere kommen und die ISPs mit Sperranforderungen bombardieren.

17

AMD wird mittels "Dynamic Frame Rate Control" eine Frameratenlimitierung im Catalyst-Treiber anbieten

Mit einer zukünftigen Catalyst-Version wird AMD eine neue Funktion in Form von "Dynamic Frame Rate Control" (DFRC) bieten, mittels welcher der Flüssigkeitseindruck in Spielen verbessert werden kann. Hierbei wird dem Grafikchip schlicht eine Zielframerate vorgegeben, welche jener nicht überbieten soll – sprich eine Frameratenlimitierung. Im Gegensatz zum Vsync-Befehl, welcher von der grundsätzlichen Idee her das gleiche anstrebt, werden bei DFRC jedoch nicht überflüssig produzierte Bilder einfach verworfen, sondern grundsätzlich gar nicht erst hergestellt. Der Hinweis hierzu kommt aus unserem Forum, welches einen Mitarbeiter von AMDs Treiberteam zitiert:

Amd-Chris: Earlier this week I got to play with our new Dynamic Frame Rate Control feature in a (coming soon) version of Catalyst and it was AWESOME. Being able to limit your FPS to 60fps on a game where it doesn't matter too much if you're able to get 150FPS. The power savings were mind blowing.
 

Mittels DFRC werden gleich zwei Fliegen mit einer Klappe geschlagen: Zum einen werden die Renderzeiten (Frametimes) der einzelnen Bilder gleichmäßiger, der Flüssigkeitseindruck steigt unabhängig der tatsächlich erreichten Framerate. Insbesondere unter MultiChip-Systemen können damit sogar Mikroruckler sehr effektiv verhindert werden. Und zweitens sinkt der reale Spiele-Stromverbrauch, denn in eher anspruchslosen Szenen, in welchen die Grafikkarte ansonsten intern 150 fps rendert (bei VSync=off), werden hier auch wirklich nur beispielsweise 60 fps gerendert. Die Belastung der Grafikkarte sinkt also in anspruchslosen Szenen oder auch in generell anspruchslosen Spielen erheblich, damit kommen niedrigere Taktraten und Spannungen zum Einsatz, geht der Stromverbrauch, die Hitzeentwicklung sowie die Lüftergeschwindigkeit nach unten.

Prinzipiell wird ein solches Feature schon lange gewünscht und wird teilweise von Tweak-Tools schon jetzt geboten, funktioniert aber bisher oft nur unter gewissen DirectX-Versionen oder nicht gänzlich zufriedenstellend. Mittels der Integration in den offiziellen Catalyst-Treiber kann man hoffen, daß AMD dieses Feature auf eine Wirkungsstufe hebt, auf welcher es problemlos mit allen AMD-Grafikkarten und unter jedem Spiel funktioniert. Längere fps-Balken oder schönere Bilder kann es mit DFRC nicht geben, insofern wird AMDs "Dynamic Frame Rate Control" kaum vom Massenmarkt honoriert werden – Enthusiasten dürften das Feature dennoch begrüßen, denn hier gilt jede Maßnahme zugunsten eines besseren Flüssigkeitseindruck als hoher Wert.

Nachtrag/Korrektur vom 18. Dezember 2014

Die Meldung zu AMDs kommenden Feature "Dynamic Frame Rate Control" ist in Bezug auf die Wirkungsweise von Vsync leider falsch geschrieben und in der Folge dessen das neue AMD-Feature bezüglich seiner Wirkungskraft womöglich zu positiv bewertet worden. Denn bei aktivem VSync werden natürlich keine Frames verworfen oder Arbeiten an Frames eingestellt – es wird schlicht so lange gerendert, bis der Buffer (zur Monitorausgabe) mit zwei Frames (Double Buffering) bzw. drei Frames (Triple Buffering) voll ist, danach pausiert der Grafikchip. Diese Frames werden nachfolgend auch angezeigt, verworfen wird da nichts. Das von AMD gebrachte Beispiel bezog sich wohl in erster Linie auf VSync=off, wo die Grafikkarte also unlimitiert beispielsweise 150 fps rendert, welche aufgrund der Refreshrate von nur 60 fps natürlich nicht auf dem Monitor sichtbar sind.

Der Effekt des "Dynamic Frame Rate Control" Features beschränkt sich somit auf eine klassische Frameraten-Limitierung, großartige Stromspargewinne gegenüber VSync=on dürfte es nur bei stark limitierter Framerate geben. Trotzdem wird eine Frameraten-Limitierung gemäß der Leserkommentare zu dieser Meldung überaus begrüßt, kann man damit glattere Frameraten und somit ein subjektiv höheres Flüssigkeitsgefühl erreichen. Zwar gibt es hierfür schon die eine oder andere Lösung mittels diverser Tweaktools, eine Lösung direkt im Treiber erscheint natürlich eleganter – zudem darf man davon ausgehen, daß AMDs Treiber-Lösung dann auch unter wirklich jeder Situation funktioniert. Es handelt sich hierbei sicherlich nicht um ein weltbewegendes Features, aber dennoch um einen im Enthusiasten-Feld gern entgegengenommenen Bonuspunkt.

Inhalt abgleichen