3

Hardware- und Nachrichten-Links des 3. Juli 2015

Zum Thema "Radeon R9 Fury X und Mantle" haben Golem und die PC Games Hardware einfach noch einmal nachgemessen – und es reicht dann doch zu Performance-Gewinnen der Mantle-Schnittstelle mit der Radeon R9 Fury X unter Battlefield 4, Civilization: Beyond Earth, Dragon Age: Inquisition, Dragon Age: Origins und Thief. Allerdings ist die Performance unter 3840x2160 mit 4xMSAA aufgrund der höheren Speicherbelegung von Mantle etwas geringer als unter DirectX 11 – aber dies ist ein bekanntes Problem von Mantle und nicht auf die Radeon R9 Fury X zurückzuführen (bei Battlefield 4 zudem begünstigt durch einen Bug seitens des Spiels selber). Derzeit funktionieren also die vorhandenen GCN-Optimierungen für Mantle auch schon für die Radeon R9 Fury X – und laut AMD soll es mit Windows 10 auch noch weitere, speziell für GCN 1.2 gedachte Mantle-Optimierungen geben. Mantle wird somit zumindest bis GCN 1.2 von AMD auch noch mit supportet – danach soll aber wirklich Schluß sein, die 2016er Grafikkarten von AMD dürften dann womöglich nicht mehr mit dem Mantle-Support beworben werden.

Tom's Hardware haben sich Zeit genommen für eine Detailbetrachtung von Leistungsaufnahme & Pumpengeräusch der Radeon R9 Fury X. Mit dabei sind auch umfangreichere Messungen zur Leistungsaufnahme – nun unter mehreren Spieletiteln und Auflösungen. Während allerdings unterschiedliche Spieletitel (meistens) keine wirklich großen Unterschiede bei der Leistungsaufnahme erzeugen, sieht dies bei den Auflösungen gänzlich anders aus: Die Radeon R9 Fury verbraucht laut diesen Messungen unter FullHD im Schnitt 202 Watt – unter 4K sind es dann aber gleich 256 Watt. Hieran erklärt sich, wieso die Strommeßwerte von Tom's Hardware bei der Radeon R9 Fury so ausgesprochen aus dem Rahmen (der anderen Messungen) fallen. Bei der GeForce GTX 980 Ti ist die Differenz beim Stromverbrauch zwischen FullHD (202W) und 4K (220W) auch spürbar, aber bei weitem nicht so ausgeprägt wie bei der Radeon R9 Fury X. Im Endeffekt kann man sagen, daß man Enthusiasten-Grafikkarten heutzutage auch beim Stromverbrauch unter den höchstmöglichen Auflösungen ausmessen muß – weil jene erst dann wirklich ausgelastet sind und ihren maximalen Stromverbrauch zeigen.

Daneben hat man sich intensiv anhand des Pressesamples von AMD sowie einer (anonym gekauften) Retail-Karte von XFX mit der Pumpen-Problematik der Radeon R9 Fury beschäftigt. Anhand eigener Analyse und letztlich von AMD bestätigt kam man dabei zur Erkenntnis, daß es wohl schlicht Klebstoffreste innerhalb der Pumpe sind, welche für die ungünstige Geräuschentwicklung verantwortlich sind – was aufgrund der automatisch leicht schwankenden Herstellungsqualität von Pumpe zu Pumpe auch eine Erklärung dafür ist, wieso die Problematik bei einem Teil der Karten nicht auftritt (bzw. nicht wahrgenommen wird). Zudem hat man Informationen der Kartenhersteller über die Häufigkeit des Fehlers eingeholt – was nicht gut ausgeht, laut Stichproben der Kartenhersteller hat faktisch jede Karte der ersten Pumpen-Charge dieses Problem, es ist nur manchmal eben stärker oder schwächer ausgeprägt (zudem kommt das individuelle Hörempfinden hinzu, was die einen empfindlicher und die anderen unempfindlicher macht). Interessant daneben, daß die ungünstige Geräuschentwicklung sich teilweise "einläuft", nach 70-80 Betriebsstunden die Karte also leiser wird. Für geräuschempfindliche Naturen wird dies sicherlich nicht ausreichend sein – aber alle anderen sollten diesen Weg durchaus einmal ausprobieren, dies ist schließlich innerhalb des Rückgabe-Zeitraums durchaus machbar.

Guru3D und WCCF Tech berichten unabhängig voneinander (aber teilweise mit demselben Bildmaterial) über eine neue Pumpen-Revision bei der Radeon R9 Fury X – zu erkennen daran, daß die alte Revision ein schwarzes Pumpengehäuse hat, die neue Revision ein Pumpengehäuse in Chrome (der differierende "CoolerMaster"-Aufkleber muß dagegen nichts sagen). Die neue Revision soll bereits im Handel sein – was wiederum doch AMDs Geschichte stärkt, daß man das Problem noch vor dem Launch erkannt und bereits entsprechende Gegenmaßnahmen ergriffen hatte. Dumm ist halt nur, daß die erste Pumpen-Charge durchaus breit in den Handel ging und nachfolgend für Nutzerenttäuschung und hohe RMA-Quoten sorgte (aktualisierte Liste mit Erfahrungsberichten zur Geräuschentwicklung der Radeon R9 Fury X) – und nun warten die interessierten Käufer darauf, daß sich diese erste Charge irgendwie verkauft und halten damit ihre Bestellungen zur Radeon R9 Fury X zurück. Besser wäre es für AMD gewesen, diese erste Charge niemals in den deutschen Handel (oder zu den Hardware-Testern) zu geben – die Karten der ersten Charge wären sicherlich in irgendwelchen Sonderprojekten oder halt in nicht so Geräusch-sensitiven Weltregionen wie gerade Mitteleuropa noch einsetzbar gewesen. Abzuwarten bleiben allerdings genaue Tests dieser zweiten Pumpen-Charge – ein anderer Aufkleber und ein anderes Pumpengehäuse müssen am Ende nichts bedeuten, es zählt allein die gebrachte Performance.

eTeknix haben einige erste (deutsche) Listungen zur "Asus Radeon R9 Fury Strix" über den schon vorhandenen Geizhals-Eintrag dieser Karte entdeckt – zum aktuell natürlich etwas überzogenen Vorlaunch-Preis von 623 bis 636 Euro. Die Karte ist am 14. Juli für einen Listenpreis von 549 Dollar zu erwarten, die Straßenpreise sollten demzufolge eher bei knapp 600 Euro oder auch etwas darunter liegen. Ob Asus für seine Radeon R9 Fury wirklich die teilweise gezeigte Kühlkonstruktion mit drei 90er Lüftern verwendet, ist dagegen noch nicht wirklich sicher – hierbei könnte es sich auch um per Copy&Paste benutzte Symbolfotos handeln. In jedem Fall werden sich die Grafikkartenhersteller jedoch wirklich leistungsfähige Kühlkonstruktionen zur Radeon R9 Fury ausdenken müssen, wenn die Karte wirklich wie zuletzt berichtet mit Hardware-Daten (und damit einer Performance) nahe der Radeon R9 Fury X daherkommen sollte – dafür aber rein luftgekühlt ist. Das Auftauchen dieser ersten Listungen zeigt aber wenigstens an, daß die Grafikkarten-Hersteller hoffentlich schon am Launch-Tag gut lieferfähig zu dieser zweiten Fiji-basierten Grafikkarte sein könnten.

3

Radeon R9 Fury kommt mit 3584 Shader-Einheiten, Radeon R9 Nano dagegen im Vollausbau des Fiji-Chips

Nachdem AMD bislang erst die Radeon R9 Fury X und deren Spezifikationen offiziell gemacht hat, sickern nun doch gewisse Informationen zu den kleineren Modellen Radeon R9 Fury und Radeon R9 Nano durch. So wollen TweakTown die vollständigen Spezifikationen der schon am 14. Juli zu erwartenden Radeon R9 Fury haben: Anstatt 4096 Shader-Einheiten und 256 TMUs in 64 Shader-Clustern sind auf dieser Karte nur 56 Shader-Cluster aktiv, was 3584 nutzbare Shader-Einheiten samt 224 TMUs ergibt. Die restlichen Hardware-Daten sind dann unverändert: 64 ROPs, 4096 Bit DDR HBM-Speicherinterface und 4 GB HBM1-Speicher. Dies entspricht im übrigen einem früheren Gerücht, welches schon vor dem Launch des Fiji-Chips die Runde machte. Abweichend sind allerdings die Taktraten: Ging man "früher" von ≤1000/500 MHz bei der Radeon R9 Fury aus, sollen es nunmehr sogar ≤1050/500 MHz sein – die exakten Taktraten der Radeon R9 Fury X.

Damit existiert zwischen den beiden Karten (angeblich) nur der Unterschied bei der Anzahl der freigeschalteten Shader-Einheiten – und natürlich jener der Kühlung, denn die Radeon R9 Fury soll in Luftkühlung mit reinen Hersteller-Designs antreten. Ob die Karte wirklich auf diesem hohen Chiptakt sauber mit Luftkühlung zu betreiben ist, bleibt abzuwarten – und wenn ja, dann ist es für AMD um so peinlicher, das Topmodell (in Form der Radeon R9 Fury X) mit einer letztlich nicht gelungenen Wasserkühlung ausgerüstet zu haben. Man kann sich an dieser Stelle aber gut und gerne vorstellen, daß jene Taktraten-Information seitens TweakTown noch nicht ganz korrekt ist und die Radeon R9 Fury auf Luft dann doch nicht mit luftgekühlten ≤1050 MHz Chiptakt daherkommt. Alternativ gesehen könnte die Karte diesen Chiptakt sogar durchaus bekommen – dafür hält sie jenen Takt dann im Gegensatz zur Fury X aber nicht durchgehend, was das gleiche Endergebnis ergeben würde.

Läuft es gut und die Radeon R9 Fury bekommt sowohl die ≤1050 MHz Chiptakt als auch hält diesen durchgehend, dürfte die Performance-Differenz zur Radeon R9 Fury X eher geringfügig ausfallen – bei 12,5% weniger Rohleistung und gleicher Speicherbandbreite sind es vielleicht 6-7% weniger Performance unter FullHD, ergo ein Performance-Index von ~620%. Unter 4K wird die Karte vermutlich viel stärker mit ihrer niedrigeren Rohleistung skalieren, dort wäre dann ein 4K Performance-Index von ~85% zu erwarten. Sind es zusätzlich noch weniger Chiptakt oder aber weniger real gehaltener Chiptakt, kann die Differenz bei der Rohleistung auf 18-25% steigen, der (FullHD) Performance-Index würde auf bis zu ~590% fallen, der 4K Performance-Index auf bis zu ~75%. Hier ist dann schon die Schwierigkeit für AMD zu sehen: Unter FullHD wäre die Karte damit kaum schneller als eine Radeon R9 390X (Perf.Index 570%) – unter WQHD und 4K geht die Performance beider Karten dann stärker auseinander, aber dies ergäbe sicherlich trotzdem einen Kritikpunkt.

Demzufolge könnte AMD durchaus daran interessiert sein, die Radeon R9 Fury eher näher an die Radeon R9 Fury X zu positionieren, als bislang angenommen wurde – insofern könnte die Taktangabe von ≤1050/500 MHz am Ende doch stimmen. Wie gesagt bleibt abzuwarten, unter welcher Lautstärke AMD das ganze kühlen kann und wie der Takt unter realem Spieleeinsatz dann gehalten wird. Für einen Preispunkt von 549 Dollar könnte hier in jedem Fall eine interessante Karte kommen – welche es bei der Performance wahrscheinlich mit der (für 499 Dollar etwas günstiger in der Preisliste stehende) GeForce GTX 980 aufnehmen kann bzw. leicht besser liegt. Wie gesagt wird die Radeon R9 Fury schon am 14. Juli offiziell starten – wenn AMD sofort danach liefern wollte, müsste es allerdings in Bälde kleine Leaks seitens der Kartenhersteller geben, schließlich soll es die Radeon R9 Fury ausschließlich in Eigendesigns der Grafikkartenhersteller geben.

Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
Technik angeblich 4 Raster-Engines, 4096 Shader-Einheiten, 256 TMUs, 64 ROPs, 4096 Bit DDR HBM-Interface angeblich 4 Raster-Engines, 3584 Shader-Einheiten, 224 TMUs, 64 ROPs, 4096 Bit DDR HBM-Interface 4 Raster-Engines, 4096 Shader-Einheiten, 256 TMUs, 64 ROPs, 4096 Bit DDR HBM-Interface
Taktraten vermutlich ~800/500 MHz angeblich ≤1050/500 MHz ≤1050/500 MHz
Speicherausbau 4 GB HBM1 4 GB HBM1 4 GB HBM1
Kühlung Luft, Referenzdesign Luft, nur Eigendesigns Wasser, nur Referenzdesign
TDP 175W ? 275W
FullHD Perf.Index geschätzt ~560-590% geschätzt ~590-620% 660%
4K Perf.Index geschätzt ~70-80% geschätzt ~75-85% 95%
Listenpreis ? 549$ 649$
Release Q3/2015 14. Juli 2015 24. Juni 2015

Die Radeon R9 Nano soll hingegen laut einer klaren Aussage seitens AnandTech sogar den Vollausbau des Fiji-Chips tragen – nur dann eben mit den passenden Taktraten für die auf 175 Watt abgesenkte TDP. Wieviel Taktrate man dafür opfern muß, könnte man eigentlich schon jetzt mittels entsprechender Stromverbrauchs-Messungen unter verschiedenen Taktraten herausfinden – vermutlich wird es in Richtung 800 MHz Chiptakt gehen, der Speichertakt wird vermutlich bei 500 MHz bleiben. Diese (um 19% niedrigere) Chiptaktrate mag angesichts einer um 36% niedrigeren TDP vielleicht sogar als etwas hoch erscheinen – aber AMD hat hier den Vorteil, den Fiji-Chip einfach nur auf seinen Sweetspot takten zu müssen. Auf den Taktraten der Radeon R9 Fury /X wird der Chip schon energie-ineffizient, zieht also für ein paar Megahertz mehr Taktrate unverhältnis mehr Strom. Daher wird kein um 36% niedrigerer Takt vonnöten sein, um bei der Radeon R9 Nano die TDP-Grenze von 175 Watt zu halten.

800 MHz Chiptakt ergäben dann wie gesagt 19% weniger Rohleistung – real sind es wahrscheinlich aber etwas weniger, weil die Karte ihren default-Takt wegen der begrenzten TDP sicherlich nicht so durchgängig halten kann wie die Radeon R9 Fury X. Damit wird ein (FullHD) Performance-Index von maximal ~590% möglich, sofern die Karte diesen Takt nicht gut hält, können es auch Richtung ~560% werden – und damit in jedem Fall im Performance-Feld der Radeon R9 390X liegend (Perf.Index 570%). Unter 4K wird sich die niedrigere Rohleistung dann wiederum klarer durchschlagen, hier wäre ein 4K Performance-Index von ~70-80% für die Radeon R9 Nano zu erwarten. Um die GeForce GTX 980 (Perf.Index 600%, 4K 75%) zu schlagen, wird dies recht knapp – wahrscheinlich liegt unter FullHD die nVidia-Lösung vorn, unter 4K könnte es in beide Richtungen hin ausgehen. Wo sich die Radeon R9 Nano preislich positioniert, ist dagegen noch vollkommen unbekannt – genauso auch wie der Releasetermin, welcher derzeit seitens AMD nur mit "drittes Quartal" angegeben wird.

In der Summe der Dinge scheinen beide kleineren Fiji-Grafikkarten gar nicht einmal so weit weg von der Radeon R9 Fury X herauszukommen – beide haben das grundsätzliche Niveau der GeForce GTX 980 plus/minus ein paar Prozentpunkte im klar einstelligen Bereich. Womöglich machen Radeon R9 Nano und Radeon R9 Fury damit die etwas durchwachsene Vorstellung der Radeon R9 Fury X wieder wett, indem einfach die Fiji-Ableger No.2 und No.3 dann um so stärker ausfallen. Der HighEnd/Enthusiasten-Bereich wird damit natürlich voller, die Anzahl der Wahlmöglichkeiten steigt – was aber sicherlich kaum jemanden mißfallen dürfte.

3

Speicherübertaktung auf der Radeon R9 Fury X bringt interessante Rohleistungsgewinne

Zum Thema des Speicherübertaktens bei der mit HBM-Speicher ausgerüsteten Radeon R9 Fury X schwirren derzeit einige gegensätzliche Ansichten und aber auch auch interessante Benchmarks durch die Gegend. Der Stand zum Launch-Zeitpunkt, daß der HBM-Speicher der Karte sich weder übertakten läßt noch daß dies von AMD so vorgesehen ist – dagegen konnte inzwischen aber eine Lösung gefunden werden, wie man mittels des MSI Afterburner dann doch den Speichertakt der Radeon R9 Fury X anheben kann. Damit gab es dann doch einige Benchmark-Ergebnisse mit Speicherübertaktung bei der Radeon R9 Fury X – so bei Hardware.fr, Hardware.info oder auch Hardwareluxx zu finden. Dummerweise funkt nun aber laut WCCF Tech AMD dazwischen mit der klaren Aussage, daß die Taktanzeige in GPU-Z falsch wäre, der Speichertakt bei der Radeon R9 Fury X fest in Hardware verdrahtet und damit auch mittels diverser Tools nicht veränderbar sei.

Dem widersprechen allerdings diverse Benchmarks aus unserem Forum, welche einen klaren Performance-Gewinn unter Speicherübertaktung ausweisen – und sogar dahingehend gedeutet werden können, daß diese eigentliche klare AMD-Aussage womöglich Nonsense ist. Der Foren-User "M@TRIX™" hat hierbei seine Radeon R9 Fury X auf 600 MHz Speichertakt bringen können und damit als erstes im OpenCL MemBench klare Zugewinne von ca. 18% erzielt – etwas weniger als die Speicherübertaktung von +25%, aber immerhin (Vergleichs-Benchmarks mit OpenCL MemBench von anderen AMD-Grafikkarten). Unabhängig noch von der Frage, wie dies zustandekam, ist damit klar, daß es nach Speicherübertaktung eine erhebliche Erhöhung der praktisch zur Verfügung stehenden Speicherbandbreite bei der Radeon R9 Fury X gibt. Darauf aufbauend wurden unter diversen Taktraten dann der Füllraten-Test des 3DMark Vantage bemüht ("Feature Test 2"), da jener von den theoretischen Tests den Erfolg von Speicherübertaktungen mit am besten wiedergibt:

3DMV FT2 @ 500 MHz HBM 3DMV FT2 @ 600 MHz HBM OC-Gewinn
800 MHz Chiptakt 36,25 GPixel/sec 38,34 GPixel/sec +5,8%
1050 MHz Chiptakt 41,72 GPixel/sec 45,9 GPixel/sec +10,0%
1100 MHz Chiptakt 42,1 GPixel/sec 47,0 GPixel/sec +11,6%

Gut zu sehen ist auch hier, daß sich mit der Speicherübertaktung der Radeon R9 Fury deren Rohleistung erhöht – und zwar bei diesem Test um immerhin 10%. Noch viel interessanter ist der Punkt, daß der Übertaktungsgewinn unter nur 800 MHz Chiptakt deutlich niedriger liegt – dies bedeutet, daß die Radeon R9 Fury X unter dieser Chiptaktrate weitgehend kein Bandbreiten-Limit aufweist, unter 1050 MHz (und höher) dann aber schon. Und genauso auch weist der niedrige Füllraten-Gewinn allein zwischen 800 und 1050 MHz Chiptakt (ohne Speicherübertaktung) von nur 15,1% (bei 31,3% Mehrtakt) klar darauf hin, daß hier Bandbreiten-Limitationen vorliegen – gäbe es keine, müsste der höhere Chiptakt in diesem theoretischen Test voll durchschlagen und für den Mehrtakt auch eine ähnlich hohe Mehrperformance bringen.

In der Summe weisen alle diese Zahlen darauf hin, daß die Karte unter ihrer Referenztaktung von ≤1050 MHz Chiptakt dann eben doch eine gewisse Bandbreitenlimitierung aufweist – oder anders formuliert, daß man es durchaus mit einer Speicherübertaktung probieren kann. Die hierzu oftmals vorgenommenen Messungen unter dem 3DMark13 FireStrike kann man dabei getrost ignorieren, dieser Benchmark skaliert weniger gut mit steigenden Speicherbandbreiten, ist einfach zu sehr auf die Hardware-Möglichkeiten des Jahres 2013 hin ausgelegt. Daß bei der Radeon R9 Fury X eine 25%ige Speichertakt-Erhöhung oftmals nur in einstelligem Performancezuwachs mündet, ist dagegen insofern verständlich, als daß die Karte in vielen Einzelsituationen sowieso schon genug Speicherbandbreite haben sollte – als die Karte mit der derzeit nominell größten Speicherbandbreite ist dies ganz natürlich. Trotzdem lohnt die Speicherübertaktung bei der Radeon R9 Fury X – ganz besonders, wenn man sowieso noch den Chiptakt erhöht.

Dabei muß derzeit der Punkt offenbleiben, ob entgegen der vorgenannten klaren AMD-Aussage auch wirklich der Speichertakt angehoben wird. Irgendeine Taktdomäne wird mit dieser Umtaktung aber definitiv verändert, anders sind die gemessenen größeren Performancesprünge nicht erklärbar. Sofern es wirklich nicht der Speichertakt selber ist, kommt auch noch das Speicherinterface in Betracht, welches eventuell beim Fiji-Chip eine eigene Taktdomäne besitzt (reine Hypothese). Der Effekt einer höheren praktischen Speicherbandbreite läßt sich (in gewissem Maßstab) schließlich auch durch ein schnelleres Interface erzielen, selbst wenn der Speichertakt gleich bleiben sollte. Es bleibt ein noch ungeklärter und damit offener Punkt, was bei einer Speicherübertaktung auf dem Fiji-Chip wirklich passiert bzw. übertaktet wird.

2

Hardware- und Nachrichten-Links des 2. Juli 2015

Unser Grafikkarten-Stromverbrauchs-Artikel wurde mit einem größeren Update bedacht: Dabei wurden die Daten und Stromverbräuche der neuen Radeon R300 Karten sowie der GeForce GTX 980 Ti hinzugetragen, zudem wurde ein falscher Meßwert bei der GeForce GTX Titan X ausgebessert (war bei den Launch-Analysen von 980 Ti und Fury X schon berücksichtigt worden) und die neuen Performance-Index-Werte von GeForce GTX 970, 980 und Titan X eingepflegt. Bei der Anzahl an Meßwerten zur Radeon R300 Serie sieht es derzeit abgesehen von der Radeon R9 Fury X noch ziemlich mau aus – da gibt es hoffentlich in Zukunft mehr Werte, um dann auch die bisherigen Stromverbrauchs-Schätzungen (basierend auf den Hardware-Daten und den bekannten Meßwerten der Chip-gleichen Radeon R200 Serie) durch echte Durchschnittswerte ersetzen zu können. Noch nicht enthalten im diesen aktualisierten Aufstellungen ist zudem eine neue Quelle von Stromverbrauchs-Meßwerten rein zur Grafikkarte selber: Seit neuestem bieten auch TweakPC entsprechende Messungen an (am untersten Ende der Webseite) – derzeit sind es sogar teilweise die einzige verfügbaren Messungen zu den kleineren Modelle der Radeon R300 Serie.

Daneben läuft in unserem Forum noch eine große Diskussion, wie die verschiedenen Stromverbrauchs-Meßwerte zur Radeon R9 Fury X zu deuten sind bzw. welche Webseite mit ihrem Meßverfahren hierbei "richtig" liegt. Angesichts dessen, daß zur Radeon R9 Fury erstaunlicherweise sehr abweichende Stromverbrauchs-Messungen vorliegen, ist dies eine wichtige Diskussion (auch wenn manchmal zu heftig geführt). Hinzu kommen die Diskussionspunkte, ob ein einzelnes Spiel wirklich einen durchschnittlichen Stromverbrauch aufzeigen kann (eher nicht) sowie ob man besser Average- oder Peak-Werte publizieren sollte (am besten beide). An dieser Diskussion deutet sich an, daß die bisher von uns notierten Durchschnittswerte auf Basis der Meßwerte von bis zu sechs Meßquellen möglicherweise auch noch verbessert werden können – durch die Hinzunahme weiterer Quellen und Messungen sowie einen Ausgleich von Average- und Peak-Werten. Sobald die Diskussion zu diesen Punkten zu klareren Ergebnissen führt (einige Hardwaretest-Webseiten bereiten hierzu tiefergehende Ausführungen vor) und vor allem weitere Meßwerte vor allem zu den kleineren Modellen der Radeon R300 Serie vorliegen, dürfte unser Stromverbrauchs-Artikel und vor allem die benutzte Methode zur Durchschnittsbildung ein weiteres großes Update erfahren.

Ein paar Einwürfe aus der noch laufenden Diskussion zur Radeon R9 Fury X: Eine weitere Geräuschmessung einer (anonym gekauften) Retail-Karte bestätigt die Pegelspitze bei (fürs menschliche Gehör ungünstigen) 2 KHz. Zudem liegen bei den Grafikkarten-Herstellern wohl keine wirklich klar verbesserten Exemplare vor, diese messen und hören auch mit den aktuellen Pumpen-Chargen das gleiche – AMDs Spruch zum Launch, daß dieses Problem mittels einer neuen Pumpen-Charge schon bei den Retail-Modellen nicht mehr auftritt, war wohl eine einfache Marketing-Nebelkerze. Interessanterweise geht das Geräusch im übrigen leicht zurück, nachdem man die Karte für einige Stunden betrieben hat – ausreichend scheint dies aber immer noch nicht zu sein, zudem fehlt hierzu noch eine Messung, welche diesen Unterschied quantifiziert. Nicht völlig unerwartet kommt daher die Meldung, daß die Rücklaufquoten der Karte (in deutschen Landen) deutlich höher ausfällt als seinerzeit bei der GeForce GTX 970 nach ihrer 3,5-GB-Affäre. Dies kann andernorts auf der Welt jedoch gänzlich anders aussehen – in Mitteleuropa ist man da offensichtlich anders gepolt als im Rest der (meistens mit Klimaanlagen-Geräuschen lebenden) Welt, das gesetzliche Rückgaberecht in Deutschland spielt hier natürlich auch noch eine große Rolle. Zum Abschluß wenigstens noch etwas amüsantes: Grafikkarten-Hersteller XFX hat seine Kartons der Radeon R9 Fury X tatsächlich mit einem dicken Schriftzug "4 GB GDDR5" bedrucken lassen – was nun allerdings überklebt mit "4 GB HBM" ausgeliefert wird.

Fefe malen mögliche juristische Implikationen des Windows-10-Features "Wifi Sense" aus: Mittels dieses Features können Wifi-Zugänge zwischen Freunden geshart werden – worunter Windows 10 einfach einmal alle Outlook-, Skype- und Facebook-Kontakte versteht (Facebook-Kontakte müssen dafür einmalig manuell aktiviert werden). Das Feature ist per default aktiv, wird also unter Umständen vom Nutzer gar nicht bemerkt – man hat einfach ohne Netzwerk-Wahl und ohne Passwort-Eingabe irgendwo unerwarteterweise WiFi-Zugang. Im Sinne des Internets ist dies fein, im Sinne explizit geschützter Netzwerke weniger – der Windows-10-Nutzer, welcher nicht will, daß einfach so über sein Netzwerk gesurft wird (bzw. sein WiFi-Password auf einem Microsoft-Server vorgehalten wird), muß dieses Feature also manuell abschalten. "Wifi Sense" gibt es im übrigen bei Windows Phone schon des längerem, dort genauso versehen mit demselben grundsätzlichen Risiko.

Vor allem aber könnte dieses Feature in Deutschland neue Haftungsfragen aufwerfen – schließlich surfen dann unerwarteterweise dritte Personen über das eigene WiFi-Netzwerk. Aber im Gegensatz zu Fefe denken wir, daß dieses per default aktive Windows-10-Feature dem Nutzer in Haftungsfragen sogar zum Vorteil gelangen kann: Damit gibt es schließlich eine glaubhafte Möglichkeit, daß dritte Personen (völlig unbemerkt) über das eigene Netz irgendwelche urheberrechtlich zu beanstandenden Handlungen vornehmen können – und zwar wie gesagt in der default-Variante der Software. Der ansonsten in Streitfällen gern gezogene Automatismus "Nutzeranschluß = Störerperson" funktioniert somit nicht mehr – zudem hat der Nutzer auch nicht seine Sorgfaltspflicht verletzt, wenn er zwar ein WiFi-Passwort gesetzt, das ihm jedoch unbekannte Feature "Wifi Sense" nicht deaktiviert hat. Ob diese Argumentation gerichtlich durchkommt, bliebe natürlich abzuwarten, es ergibt sich hiermit jedoch zweifellos ein neuer Ansatzpunkt.

2

Umfrage-Auswertung: Wird mit mehreren Bildschirmen gespielt?

Eine Umfrage von Anfang Juni ging der Frage nach der Verbreitung von MultiMonitoring im Spiele-Einsatz nach. Logischerweise ist dabei die Gruppe der Nichtnutzer mit 89,2% riesengroß – wäre es nicht so, würde MultiMonitoring schließlich kein "Sonderfeature" sein, sondern Standard. So gesehen ist die Gruppe der aktuellen MultiMonitoring-Nutzer im Gaming-Einsatz mit 10,8% Nutzeranteil gar nicht einmal so klein – für den Massenmarkt bleibt dies zwar Nische, aber innerhalb des 3DCenters gibt es damit schon eine beachtbare Nutzergruppe. Interessant ist, daß innerhalb dieser Gruppe die AMD-Nutzer mit 67% überaus klar gegenüber den nVidia-Nutzern mit 33% vorn liegen – wohl ein Ausdruck dessen, daß AMD vor einigen Jahren mit seinen extra Eyefinity-Grafikkarten sich diesem Thema verstärkt gewidmet hatte.

Zum Ausbau dieser Nutzergemeinde stehen noch weitere 15,9% Umfrage-Teilnehmer bereit, welche das Thema MultiMonitoring im Gaming-Einsatz als für zukünftig interessant betrachten – die Nutzergemeinde kann also über die kommende Zeit durchaus in gewissem Maßstab noch wachsen. Beachtenswert sind allerdings auch jene 8,6% der Umfrage-Teilnehmer, welche in der Vergangenheit schon einmal MultiMonitoring im Gaming-Einsatz im Betrieb hatten – und nun eben nicht mehr. Mögen es Performance-Gründe sein, mag es auch allgemeine Gründe haben – dies zeigt doch an, daß MultiMonitoring im Gaming-Einsatz zumindest derzeit nichts ist, was wirklich jeden Gamer begeistern wird. Dies wird auch überdeutlich ausgedrückt durch die 64,7% der Umfrage-Teilnehmer, welche sich auch in der Zukunft kein MultiMonitoring im Gaming-Einsatz vorstellen können – ein Feature für die breite Masse wird dies wohl in absehbarer Zeit nicht werden.

1

Hardware- und Nachrichten-Links des 1. Juli 2015

Die PC Games Hardware haben sich Steams Hardware Survey in der aktuellen Mai-Ausgabe angesehen – und festgestellt, daß die erst im Januar herausgekommene GeForce GTX 960 inzwischen die am meisten verwendete extra Grafikkarte ist. Für eine zu ihrem Launch ziemlich negativ bewerte Grafikkarte ist dies ein erstaunliches Ergebnis – und dann doch wieder typisch für Mainstream-Grafikkarten, die niemand direkt mag, sich aber dennoch wie geschnitten Brot verkaufen. Die alte Regel, daß der Glanz der Top-Positionierungen nach unten hin durchscheint, bestätigt sich mit diesem Beispiel eindrucksvoll – und überdeckt sogar die konkreten Warnungen vor der GeForce GTX 960, welche mit ihren nur 2 GB Speicher und nur 128 Bit DDR Speicherinterface heutzutage nur noch mit einigem Augenzudrücken als (gerade noch) zeitgemäß bezeichnet werden kann.

Ein anderer Fall von gutem Marketing ist der Detail-Liste der derzeit verwendeten Grafiklösung von Steam zu entnehmen: Intels integrierte Grafiklösungen sind wieder deutlich auf dem Vormarsch, sind auf den vordersten Plätzen sogar am häufigsten vertreten. Dies hängt natürlich auch damit zusammen, daß Intels Grafik-Angebot nicht so breit ist wie das von AMD und nVidia (und sich damit die Intel-Positionierungen auf deutlich weniger Einzellösungen konzentrieren) – und dennoch, die Verbesserungen über die Jahre haben Intels Grafiklösungen nunmehr so weit nutzbar gemacht, daß jene eben auch zum Spielen benutzt werden. Auch hier dürften wiederum die guten Tests zu den Spitzen-Lösungen der Iris & Iris Pro Reihen ihren großen Anteil haben – welche in der Praxis kaum genutzt werden (zwei Notierungen am Tabellenende, keinerlei Notierung einer "Iris Pro" Lösung), aber den Boden für eine derzeit allgemein eher freundliche Presse zu Intels Grafiklösungen bereitet haben. Daß Intels Standard-Grafiklösungen außerhalb der maximalen Einheitenzahl und der Nutzung von eDRAM allerdings auch deutlich langsamer sind als die viel gelobten "Iris Pro" Lösungen, scheint dabei kaum einen Effekt zu haben.

Fudzilla haben etwas neues zu Broadwell-E, der nächsten Enthusiasten-Plattform von Intel. Jene soll nun zum Ende des ersten Quartals 2016 voraussichtlich im März erscheinen – und damit wieder einmal erst nachdem im Mainstream/Performance-Segment mit Skylake bereits die Nachfolge-Architektur im Markt steht. Die Unterschiede zum aktuellen Haswell-E sind dabei gering – es wird halt die Broadwell-Architektur auf den X99-Chipsatz umgesetzt, mit der Hoffnung vielleicht auf ein wenig Mehrtakt oder bessere Overclocking-Eignung durch die 14nm-Fertigung. Neu gegenüber den bisherigen Informationen ist, daß der für Broadwell-E verwendete Sockel "2011-3 Revision 3" nicht mit den bisherigen Sockeln 2011 und 2011-v3 kompatibel ist. Abzuwarten bleibt daher, ob Broadwell-E in aktuellen X99-Mainboards (nach BIOS-Update) läuft – als gänzlich sicher darf man dies nicht annehmen, auch wenn es eigentlich zu erwarten wäre. Generell dürfte aufgrund der geringen Fortschritte aber sowieso kaum jemand von Haswell-E auf Broadwell-E umrüsten – das ganze ist eher etwas für Neukäufer.

Von BenchLife (maschinelle Übersetzung ins Deutsche) kommen dagegen Informationen zum Braswell-Nachfolger "Apollo Lake" für das LowPower-Segment: Jener soll im Frühling die aktuellen Airmont-basierten Braswell-SoCs von Intel beerben, auf der Goldmont-Architektur basieren, aber weiterhin in der 14nm-Fertigung hergestellt werden – faktisch ein Airmont-Refresh also. Dafür gibt es eine maximal leichte Überarbeitung des CPU-Parts, den erstmaligen Support für LPDDR4 (neben DDR3L) und eine etwas aufgebohrte Grafiklösung: Anstatt 16 Ausführungseinheiten der Intel-Generation 8 (wie Broadwell), sind es bei der Goldmont-Architektur dann 18 Ausführungseinheiten der Intel-Generation 9 (wie Skylake). Erstaunlich eigentlich, daß Intel für so eher geringfügige Änderungen einen neuen Chip in derselben Fertigung auflegt – zum einen scheinen die Produktionsvorbereitungskosten bei Intel gut heruntergedrückt zu sein, zum anderen sieht Intel wohl auch in diesem Markt inzwischen die Notwendigkeit, einmal im Jahr etwas "neues" bringen zu müssen.

Inhalt abgleichen