19

Hardware- und Nachrichten-Links des 18./19. Juni 2016

WCCF Tech vermelden ein neues, AMD-eigenes Overclocking-Tool für die kommende Radeon RX480, welches auch die Möglichkeit zur Beeinflußung der Chipspannung haben soll – einen Punkt, welchen nVidia gerade bei der Pascal-Generation (aktuell) gar nicht mehr anbietet. Hinzu werden Gerüchte über angebliche Overclocking-Erfolge der Radeon RX480 vermeldet, welche 1400 MHz Chiptakt aus dem Stand schaffen und in den besten Fällen auf 1500 MHz Chiptakt unter Luftkühlung gehen soll. Gegenüber den allerhöchsten mittelprächtigen Overclocking-Resultaten der bisherigen AMD-Grafikkarten wäre dies ein deutlicher Fortschritt – im besten Fall reicht es durchaus bis an diese relativen Taktratengewinne heran, welche nVidia bei seinen Grafikkarten bietet. Aber natürlich muß sich dies auch erst noch durch eine Vielzahl an unabhängigen Tests bestätigen – und gerade Vorlauch-Zeiten sind dafür prädestiniert, (unnötigerweise) die Erwartungshaltung ins Unermeßliche zu treiben, bis jene dann vollkommen unerfüllbar wird.

Videocardz zeigen hingegen den GPU-Z-Screenshot einer XFX Radeon RX480, welche mit einem Chiptakt von ≤1328 MHz antritt. Bezüglich des Chiptakt der AMD-Referenz ist im übrigen immer noch nicht alles fest – zum einen kommen gerade in letzter Zeit Meldungen von abweichenden Taktraten herein, zudem gibt es das Gerücht, AMD hätte die Vorab-Exemplare bewußt voneinander abweichend getaktet, um entweder Verwirrung über die finalen Taktraten zu erzeugen oder aber Leaker besser identfizieren zu können. Hier wird man sich schlicht überraschen lassen müssen, was denn nun der finale Chiptakt sein wird. Irgendwo im Bereich von 1200 bis 1300 MHz sollte jener allerdings liegen – wenn nicht, würden faktisch alle bisherigen Vorab-Benchmarks inkorrekt sein. Aber dieser Taktraten-Bereich erscheint auch logisch angesichts des generell anderen Chipdesign-Ansatzes bei AMD (Packdichte vor Taktrate) und des Taktraten-Zugewinns der 14/16nm-Fertigung, welchen man bei nVidias Pascal-Grafikkarten sehen konnte. Und letztlich weisen Videocardz auch noch auf Vorab-Listungen in China hin, wo die Radeon RX480 Referenz-Modelle verschiedener Hersteller allesamt auf 1999 Yuan (rund 269 Euro) angeboten werden.

In diesem Zusammenhang wird auch auf erste europäische Listungen des slowakischen Online-Shops Alza.sk hingewiesen – mit allerdings etwas überzogenen Preisen von 264 Euro für die 4-GB-Version und 302 Euro für die 8-GB-Version der Radeon RX480 im Referenzdesign. Im Geizhals-Preisvergleich findet man hingegen schon zwei britische Listungen jener Karten – mit allerdings sogar deutlich überzogenen Preisen von 338 Euro für ein Referenzdesign sowie 364 Euro für eine leicht ab Werk übertaktete Karte. Alle Kartenspezifikationen – gerade auf Geizhals – sind allerdings noch nicht ernst zu nehmen bzw. entstammen nicht offiziellen Angaben. Gerade Geizhals pflegt die Spezifikationen im Grafikkarten-Angebot selber, womit jene üblicherweise viel genauer sind als typische Herstellerangaben, teilweise aber eben auch aus der Fachpresse stammen – welche derzeit (bis auf die NDA-verdongelten Webseiten) noch keine offiziellen Spezifikationen in den Händen hat. Nach Release werden die Spezifikationsangaben auf Geizhals natürlich angepasst und sind danach sehr detailliert und aussagekräftig. Die Preislagen dürften dann ebenfalls mit dem Launch der Karten auf ein normales Niveau heruntergehen.

Ein Thread unseres Forums bietet Benchmarks zur GeForce GTX 1080 zusammen mit einer etwas ungewöhnlichen CPU-Bestückung in Form eines AMD FX-8150 Prozessors. Jenes Achtkern-Modell, welches zum Start von AMDs Bulldozer-Architektur mal dessen Spitzenmodell darstellte, ist natürlich inzwischen in die Jahre gekommen (Launch: Oktober 2011) und daher kaum noch auf wirklich performanten Systemen anzutreffen – andererseits ist es eine gute Gelegenheit, die Performance der GeForce GTX 1080 auf einer AMD-CPU sowie allgemeiner gedacht auf einem Mittelklasse-System zu betrachten. Auf der benutzten FullHD-Auflösung kommt es hierbei durchaus zu Verlusten an maximal möglicher Grafikkarten-Leistung, da dann oftmals die CPU selber limitiert – andererseits ist die Reserve an Grafikkarten-Power gerade unter dieser Auflösung bei der GeForce GTX 1080 derart hoch, das man problemlos und mit geringsten Performanceverlusten Bildqualitäts-Verbesserer wie eben DSR Anti-Aliasing fahren kann.

Obwohl der FX-8150 also technisch deutlich schwächer ist als moderne Intel-Prozessoren und damit auch jeden Benchmark verlieren würde (auch reine Grafikkarten-Benchmarks), funktioniert das System in der Praxis trotzdem sehr gut und liegen die vorhandenen Verluste zumeist dort, wo es sowieso (aufgrund dreistelliger Frameraten) nicht wirklich sichtbar wäre. Bei stark CPU-limitierten Spielen dürfte der FX-Prozessor natürlich trotzdem auch dort verlieren, wo es dann wehtut – aber dafür ist die CPU dann auch schon fast 5 Jahre alt. Die GeForce GTX 1080 mit dieser alten CPU zu paaren, ist damit insgesamt gar keine schlechte Idee, denn die neue Grafikkarte kann meistens ihre höhere Power schon jetzt ausspielen – gleichzeitig existieren noch Reserven, welche dann erst eine neue CPU herauskitzeln könnte. In der Summe zwingt diese Kombination nicht zum sofortigen CPU-Wechsel, garniert diesen aber sowieso irgendwann anstehenden Wechsel jedoch auch noch mit einem gewissen Performanceplus – insofern passt sogar die GeForce GTX 1080 sogar sehr gut zu diesem FX-8150 (oder gleichwertigen Alt-Modellen).

Bei OCaholic hat man sich die Auswirkungen der (mittels des Tools "GPU-Z" auslesebaren) ASIC-Qualität von nVidia-Grafikchips auf deren (reale) maximale Boost-Takraten angesehen. Dazu hat man sich 11 identische GeForce GTX 980 Ti Grafikkarten von EVGA besorgt und jene auf ASIC-Qualität und erreichtem maximalen Boost hin untersucht. Erstaunlicherweise wiesen dabei nur 2x2 Karten halbwegs ähnliche Resultate auf, die Mehrzahl der Karten kam hingegen mit differierenden Resultaten daher, so daß das Endergebnis eine ziemliche Spannbreite aufweist – von ASIC-Qualität 56,4% bis 80,2%, von maximalem Boost 1139 MHz bis 1240 MHz. Es gab hierbei noch nicht einmal eine Wertekonzentration in einer gewissen Spannbreite, die Einzelwerte waren vielmehr sehr breit über dieses insgesamte Spektrum verteilt. Dies zeigt zum einen klar auf das Glücksspiel hin, im Einzelhandel ein besonders taktfreudiges Grafikkarten-Exemplar zu erhalten. Zum anderen kann anhand dieser Aufstellung der Zusammenhang zwischen ASIC-Qualität und Taktfreudigkeit als klar erwiesen betrachtet werden.

18 18

Benchmark-Schummelei - oder alles halb so wild?

Mit dieser Umfrage wollen wir herausfinden, wo die Nutzer stehen – bei aktuellen Vorwurf an Asus und MSI, für die Presse bestimmte Grafikkarten mit anderen BIOS-Settings ausgeliefert zu haben als die jeweiligen Retail-Modelle. Ganz sicher gibt es hierzu auch Gegenmeinungen – welche (wie alle anderen) möglichst zahlreich abstimmen sollten, um entsprechend gehört zu werden.

Ohne weitere Diskussion klarer Fall von Schummelei.
64% (1768 Stimmen)
Die Gegenargumente haben etwas für sich - doch die Schummelei bleibt bestehen.
17% (480 Stimmen)
Unentschieden, beide Seiten haben gute Argumente.
4% (109 Stimmen)
Sehe die "Schummelei" unverbissen - primärer Grund der geringe Taktratengewinn.
11% (297 Stimmen)
Sehe die "Schummelei" unverbissen - primärer Grund, das nominell nichts falsches getan wurde.
4% (115 Stimmen)
Gesamte Stimmen: 2769
17

Hardware- und Nachrichten-Links des 17. Juni 2016

Videocardz zeigen Bilder der Radeon RX480 Karten von PowerColor & Sapphire sowie von XFX, wobei es sich in allen Fällen um eine Umsetzung des Referenzdesigns handelt – im Gegensatz zur schon einmal gezeigten Sappire Radeon RX480 Nitro mit einem zumindest abweichenden Kühlerdesign. Interessant ist insbesondere die XFX-Karte, da jene auf abweichende Taktraten von ≤1280/4000 MHz kommen soll und mit 1999 Yuan (für die 8-GB-Version) ausgepreist ist, umgerechnet 269 Euro. Der XFX-Chiptakt deutet an, das die bisherigen default-Taktratenangaben zumindest für die Radeon RX480 von ≤1266/4000 MHz durchaus korrekt sind – was zuletzt etwas in Frage stand, da teilweise auch abweichende Taktraten gehandelt wurden. Auf den XFX-Preis sollte man (derzeit) nicht all zu viel geben – aber dennoch steht zu erwarten, das gute Herstellerdesigns zur Radeon RX480 in deren 8-GB-Ausführung durchaus bis nahe an die 300-Euro-Grenze herankommen, denn AMD will genau in diesem Preisbereich von 100-300 Dollar mit seinen Polaris-basierten Grafikkarten wirken. Es bleibt zu hoffen, das die hochpreisigen Modell dann auch wirklich mehr bieten als die Standardausführungen zur Radeon RX480 – ansonsten wären nahezu 300 Euro nämlich nicht mehr wirklich "günstig".

Zu den kürzlich genannten Preislagen der Radeon RX400 Karten ist leider die Einschränkung hinzuzufügen, das GameMachines wohl keine besonders vertrauenswürdige Quelle für exakte Preise zu nicht releaster Hardware ist. So hatte man auch im Vorfeld des GP104-Launches bereits entsprechende Mehrpreise für GeForce GTX 1070 & 1080 notiert, jene allerdings nach Launch etwas nach oben korrigieren müssen. Ob dies auch bei den Preisen zu den Radeon RX400 Karten passiert, kann natürlich niemand vorhersagen – möglich ist es jedoch durchaus. Als Gegenthese darf gelten, das nVidia im Vorfeld seines Launches sehr maulfaul war, AMD hingegen hinter den Kulissen augenscheinlich einiges laufen hat, demzufolge Distributoren und OEMs eigentlich schon Zugriff auf die realen Preislagen der kommenden AMD-Grafikkarten haben dürften. Es gilt zudem auch, das die Preise der AMD-Karten kaum besonders abweichend von den aktuellen Schätzungen ausfallen können, ausgehend von dem bekannten offiziellen Preis der Radeon RX480 4GB von 199 Dollar existieren da nur eher kleine Spielräume. Wir müssen uns überraschen lassen, was da letztlich herauskommt – nur sind halt diese bisherigen Preiseinordnungen damit wieder unter gewissem Vorbehalt zu sehen.

eTeknix bringen ein offizielles Asus-Statement zum Vorwurf der Benchmark-Schummelei wegen der differierenden BIOS-Versionen zwischen Pressesamples und Retail-Karten. In jedem Statement weist Asus darauf hin, das man das Pressesample durch manuelles Umstellen des Betriebsmodus durchaus in den Status der Retail-Karte bringen kann (und umgedreht) – daß das BIOS des Pressesamples also keine Werte trägt, die nicht auch (wenn auch nicht per default aktiv) auf der Retail-Karte existieren. Zudem bestätigt man, das dieses Vorgehen zur "Erleichterung" der Arbeit der Hardwaretester gedacht ist. Beide Erklärungen sind jedoch faktisch bereits so bekannt und gehen am Kern des Problems vorbei – welchem Asus sich durch dieses Statement nicht hat versucht zu stellen und damit die Sache eigentlich noch schlimmer gemacht hat. Denn so sieht das Asus-Statement nach "alles ist in Ordnung und alles ist regulär" aus – was jedoch eben nicht der Fall ist, ansonsten würden diese Vorwürfe nicht existieren.

Denn erstens einmal ist es nicht Aufgabe der Hersteller, zu definieren, unter welchem Modi die Karte getestet wird – dies sollte dem Hardwaretester anhand einer zur Retail-Ausführung 100%ig vergleichbaren Karte überlassen bleiben. Wenn Asus (und MSI) meinen, die Hardwaretester würden den (innerhalb der Garantie liegenden) Betriebsmodus "OC-Modus" mit dessen minimal höheren Taktraten zu oft links liegen lassen, sollte man mit den Hardwaretestern reden. Notfalls kann man dann auch mal die eine oder andere Hardwareseite nicht mehr beliefern – und man wird bei dieser Gelegenheit feststellen, das man bei diesen Hardwaretestern, welche ansonsten die Hersteller mit der Forderung nach mehr Zeit für gründlichere Tests "nerven", kaum auf irgendwelche Probleme stoßen wird, diese verschiedenen Betriebsmodi auch extra durchtesten zu lassen. Wenn dann am Ende einer solchen Geschichte ein paar "Bananenseiten" außen vor bleiben, die keine 3-Benchmarks-2-Seiten-Hauruck-"Reviews" mehr verbreiten können, wäre damit sogar allein beteiligten Parteien (inklusive der Grafikkarten-Käufer) weitergeholfen.

So lange aber Asus und MSI meinen, bei ihren Pressesamples einen andere Auslieferungszustand zu bieten als bei den Retail-Karten, funktioniert diese gesamte Argumentation nicht mehr – das mindeste wäre wohl die Verpflichtung, jedem Hardwaretester dies per eMail-Klarstellung und der Hardware beiliegendem Hinweiszettel offensiv mitzuteilen. So aber schwingt hier immer der Versuch mit, sich selber besser darzustellen, als was man im Auslieferungszustand zweifelsfrei ist – denn die Pressesamples entsprechen nun einmal nicht dem Auslieferungszustand der Retail-Karten. Das die Höhe der Taktraten-Veränderung (neben allerdings unbekannten weiteren Veränderungen an Power- und Temperatur-Limit) eher sehr gering ist, spielt dabei keine Rolle – wenn man dies durchgehen lassen wollte, könnte morgen der nächste Hersteller kommen und setzt wiederum minimal mehr oben drauf, das ganze würde zur Endlosspirale werden. Erstaunlich aus unserer Sicht, das sich Asus mit so einem Statement auch noch zusätzlich in die Nesseln setzt – man wäre wohl besser beraten gewesen, zuerst die erste Reaktion der Nutzer abzuwarten und dann zusammen mit den anderen betroffenen Herstellern (MSI, AMD & nVidia) die Sache zu klären.

17

Wieder neue Abverkaufsangebote zu den Grafikkarten der 28nm-Generation

Die (teilweisen) Preisnachlässe zu den Grafikkarten der 28nm-Generation nehmen kein Ende – aber anstatt alles auf einen Schlag zu bringen, machen es AMD und nVidia leider irgendwie kleckerweise. Diesesmal sind primär GeForce GTX 980 und 980 Ti betroffen, welche gegenüber ihrem langfristigen Preisniveau nun auf wirklich beachtbare Preispunkte gefallen sind – die GeForce GTX 980 auf 360-410 Euro, die GeForce GTX 980 Ti hingegen auf 460-490 Euro. Insbesondere letztere rückt damit gut an das Preis/Leistungs-Verhältnis der GeForce GTX 1070 heran: Jene neue Pascal-Karte ist derzeit kaum für unter 499 Euro zu haben – ist zwar etwas schneller und mit mehr Speicher ausgerüstet, hat aber auch vor dem noch startenden Preiskampf der Herstellerdesigns eben jenen gewissen Mehrpreis. Zumindest momentan kann man daher durchaus über eine GeForce GTX 980 Ti als Ersatzkauf zu einer GeForce GTX 1070 nachdenken – was allerdings die wenigstens tun werden, denn der Neuheitswert der neuen Karte ist zu verlockend und die Wartezeit auf bessere Preislagen bei der GeForce GTX 1070 durchaus überschaubar.

Anf. Feb. 16 Ende Mai 16 Anf. Juni 16 aktuell
GeForce GTX Titan X 1050-1100€ 1030-1100€ 980-1060€ 970-1050€
GeForce GTX 980 Ti 640-680€ 600-640€ 550-600€ 460-490€
GeForce GTX 980 480-520€ 450-490€ 400-470€ 360-410€
GeForce GTX 970 320-340€ 270-310€ 280-310€ 250-280€
GeForce GTX 960 4GB 205-230€ 185-210€ 185-210€ 185-200€
GeForce GTX 960 2GB 190-210€ 160-200€ 170-200€ 170-190€
GeForce GTX 950 155-170€ 140-160€ 145-160€ 140-155€
GeForce GTX 750 Ti 120-135€ 110-130€ 105-120€ 105-120€
GeForce GTX 750 2GB 105-120€ 100-115€ 100-115€ 100-115€
durchschnittliche Preisdifferenz - -8,3% -2,0% -5,1%

GeForce GTX 970 und 980 haben hingegen nominell gute Preispunkte erreicht (die GeForce GTX 980 startet mal für über 500 Euro), aber angesichts der kommenden AMD-Attacke mit der Radeon RX400 Serie und deren exzellenten Preispunkten sind diese Abverkaufspreise immer noch nicht gut genug, um zu überzeugen – teilweise sogar noch lange nicht gut genug. Die GeForce GTX 970 wird man ab Juli durch eine Radeon RX480 ersetzen können, die wohl etwas weniger kostet, moderner ist und sogar etwas schneller. Wäre hier nicht das 3,5-GB-Problem der GeForce GTX 970, könnte man die Differenz bei Preis & Performance als vielleicht noch überbrückbar ansehen – aber so bekommt nVidia noch eine späte Retourkutsche für diese seinerzeitige Spezifikations-Schummelei, denn als 3,5-GB-Karte wäre die GeForce GTX 970 wirklich nur zu Ramschpreisen zu empfehlen. Die GeForce GTX 980 hingegen mag eventuell etwas schneller als die Radeon RX480 bleiben, ist aber dennoch noch immer um eine ganze Dimensionen von deren zu erwartendem Preispunkt entfernt – und dies trotz erheblicher Preissenkungen in letzter Zeit. Hier kann trotz deutlicher Preissenkungen immer noch keinerlei Empfehlung ausgesprochen werden.

Anf. Feb. 16 Ende Mai 16 Anf. Juni 16 aktuell
Radeon R9 Fury X 640-680€ 600-670€ 600-650€ 640-670€
Radeon R9 Fury 540-600€ 420-500€ 420-470€ 400-470€
Radeon R9 Nano 500-540€ 460-530€ 480-520€ 470-520€
Radeon R9 390X 390-420€ 370-410€ 330-370€ 300-350€
Radeon R9 390 320-340€ 300-340€ 240-280€ 270-290€
Radeon R9 380X 230-250€ 210-230€ 190-210€ 180-210€
Radeon R9 380 4GB 205-230€ 190-210€ 180-200€ 180-200€
Radeon R9 380 2GB 190-210€ 170-200€ 165-185€ 170-190€
Radeon R7 370 130-145€ 110-140€ 115-135€ 120-135€
Radeon R7 360 105-120€ 100-115€ 95-115€ 95-110€
durchschnittliche Preisdifferenz - -8,9% -5,2% +0,3%

Bei AMD hat sich dagegen nahezu gar nichts getan, hier und da haben sich sogar Preise (durch abverkaufte günstige Listungen) sogar erhöht. Ein wenig erstaunlich ist dabei, das AMD insbesondere die Fiji-basierten Grafikkarten nicht deutlicher heruntersetzt – jene werden durch die GeForce GTX 1070 sowieso geschlagen und sind daher allein nur noch über den Preis abzuverkaufen. Radeon R9 390 & 390X haben hingegen nominell inzwischen günstige Preise erreicht, dürften sich aber genauso wie ihre nVidia-Pendants der kommenden Radeon RX480 geschlagen geben müssen – welche entweder schneller und günstiger ist (gegenüber der Radeon R9 390) oder nur günstiger ist, dafür aber erheblich (gegenüber der Radeon R9 390X). Auch hier könnte man sich eigentlich doch eher echte Abverkaufspreise vorstellen – denn spätestens ab dem 29. Juni ist der Ofen für diese 28nm-Beschleuniger endgültig aus.

16

Hardware- und Nachrichten-Links des 16. Juni 2016

Die PC Games Hardware hat ihre GPU-Roadmap aktualisiert, in jener sind nun auch Daten zu den kommenden AMD- und nVidia-Grafikkarten auf Basis der Grafikchips GP106, GP102 und Vega 10 enthalten. Abweichungen zu unserer kürzlichen Roadmap bestehen dabei fast nur im Bereich von Terminangaben zu sowieso noch schwerlich genau einordenbaren Chipprojekten: So sieht die PCGH den GP102-Chip eher erst im zweiten Quartal 2017, während wir aufgrund der zuletzt mehrfachen Nennung des GP102-Chip einen Start dieses Enthusiasten-Chips noch zum Jahresende 2016 erwarten. Auch AMDs HighEnd-Chip Vega 10 (in Konkurrenz zur nVidias GP104) sieht die PCGH etwas konservativer erst zum Jahresanfang 2017, während wir hierbei optimistischer noch von diesem Herbst ausgehen. nVidias Performance-Chip GP106 (in Konkurrenz zu AMDs Polaris 10) wird von beiden Seiten im übrigen gleichartig auf diesen Herbst eingeordnet. Diese gewissen Differenzen sind jedoch nicht tragisch, sondern spiegeln vielmehr den zeitlichen Spielraum wieder, welcher sich aufgrund der bislang ungenauen Angaben zu diesen Grafikchips ganz automatisch ergibt.

Bezüglich Intels Broadwell-E und dessen Turbo Boost 3.0 Feature gibt es in unserem Forum die interessante Aussage – Foren-Postings No.1 & No.2 – das jenes Feature im eigentlichen einen Bugfix zu Haswell-E und dessen teilweiser SingleCore-Schwäche darstellt. Bei Haswell-E soll dabei das Problem auftreten, das die einzelnen Rechenkerne nicht schnell genug ihre Turbo-Taktraten erreichen können, ehe Windows die anliegende Last dann an den nächsten Rechenkern weitergibt. Bei Lasten auf vielen Kernen spielt dies keine Rolle, denn da ist eine genügende Grundlast anliegend, um alle oder viele Rechenkerne schnell auf ihre Turbo-Frequenzen zu bringen – aber bei expliziten SingleThread-Lasten spring Windows zu schnell zwischen den einzelnen CPU-Kernen hin und her, als das diese ihre maximalen Taktfrequenzen aus tiefen Idle-Modi heraus erreichen können. Dabei kann es teilweise vorkommen, das SingleThread-Lasten auf einem Haswell-E-Prozessor bei nur 1.2 GHz real anliegendem CPU-Takt ausgeführt werden – und dann die vorgenannte SingleCore-Schwäche bei Haswell-E herauskommt.

Mittels des Turbo Boost 3.0 Features wird dieses Problem bei Broadwell-E behoben (sowie bei Skylake mittels der Speedshift-Funktionalität) – und das Turbo Boost 3.0 in der Praxis nur zu geringen Takterhöhungen gegenüber dem regulären TurboModus führt, spielt wohl keine Rolle, weil zumindest die vorgenannte SingleCore-Schwäche hierbei nicht mehr auftritt. Den Hardwaretestern fällt dies üblicherweise gar nicht auf, da dort regelmäßig mit der maximalen Energieeinstellung getestet wird, welche die CPU-Kerne nicht mehr in die tiefsten Idle-Stufen führen und daher die ganze Problematik (zuungunsten eines höheren Idle-Verbrauchs) gar nicht erst auftreten lassen. Das Problem tritt bei Haswell-E also nur auf, wenn man eine Energiespareinstellung unterhalb von "maximale Performance" benutzt. So zumindest die Ausführungen in unserem Forum – welche erst einmal logisch klingen, dennoch aber eigentlich weiterer Bestätigung bedürfen. Leider war derzeit außer weiteren Forenpostings kaum etwas zum Thema zu finden, die großen Hardwareseiten haben sich diesem Bug bislang augenscheinlich noch nicht angenommen.

Als Korrektur zur Meldung über den Xbox-One-Nachfolger "Scorpio" wäre noch anzubringen, das Microsoft zur kommenden Spielekonsole auch ein Renderbild mit gleich 12 Speicherchips gezeigt hat. Dies deutet logischerweise auf ein 384 Bit breites Speicherinterface hin, was dann auch mit GDDR5 auskommen würde und daher kein GDDR5X benötigt. Der zur Erlangung von 320 GB/sec benötigte Speichertakt beträgt 3333 MHz, was schon seit längerem gut lieferbar ist und daher die korrekte Auflösung für die Frage nach dem Speicher-Subsystem von Scorpio darstellen sollte. Ein kleines bißchen offen bleibt allerdings noch die Frage, ob Scorpio wieder mit eDRAM operiert – und wenn nicht, dann käme die große Frage hinterher, wie dann die Spielekompatibilität gewährleistet werden soll, denn die Spieleentwickler mussten diesen eDRAM bei der Xbox One explizit bei ihrer Programmierung berücksichtigen. Ob es hierfür einen Treiberfix gibt, welcher den Spielen auf der Scorpio das Vorhandensein des eDRAMs vorgaukelt oder ob Mircrosoft aus Kompatibilitätsgründen auch bei Scorpio wieder eDRAM verbauen muß, bleibt vorerst offen.

Im übrigen ergibt sich aus diesem (höchstwahrscheinlich) 384-Bit-Speicherinterface bzw. den zu sehenden 12 Speicherbausteinen auch eine Speicherbestückung von gleich 12 GB (technisch sind auch 6 GB möglich, aber das würde die Spielekompatibilität zur Xbox One gefährden) – und damit eben mehr als bei der Xbox One und in diesem Fall ein bemerkbarer Unterschied zu Sonys Ansatz, wo augenscheinlich die gleiche Speichermenge (von 8 GB) zwischen PS4 und PS4K verbaut wird. Microsoft will es also wirklich wissen und in jedem Fall die leistungsstärkere Konsole abliefern – basierend auf der Erfahrung mit dem Zweikampf zwischen Xbox One und PS4, wo Microsoft nur zweiter Sieger war (wobei dies primär dem höheren Launchpreis der Xbox One geschuldet war). Da die Scorpio-Hardware aber genauso wenig für 4K-Rendering ausreicht, sehen wir die Bemühungen Microsofts – so interessant jene aus technischer Sicht sind – jedoch eher im Nichts verpuffen: Zwischen Xbox One und PS4 kann der Sony-Käufer oftmals sehen, wie seine Konsole bei gleichen Spieletiteln die höhere Renderauflösung ausführt. Zwischen Scorpio und PS4K dürfte es im Normalfall so ausgehen, das beide Konsolen intern FullHD rendern und es somit zu keinen praktischen Differenzen kommt. Nur allein, wenn selbst die höhere Hardware der PS4K irgendwo nicht für ein FullHD-Rendering ausreicht, könnte sich der höherwertigere Scorpio-Ansatz auch in der Praxis auszahlen.

16

Asus und MSI schummeln womöglich seit Jahren in Grafikkarten-Tests

Seitens Hardware.fr (maschinelle Übersetzung ins Deutsche) und TechPowerUp werden schwerwiegende Vorwürfe gegenüber den Grafikkarten-Herstellern Asus und MSI erhoben: Beide Hersteller sollen bei verschiedenen AMD- und nVidia-basierten Grafikkarten Pressesamples mit modifiziertem BIOS an die Hardwaretester versandt haben – im Fall von MSI wohl schon seit einigen Jahren, Asus soll dieses Verhalten dagegen erst kürzlich adaptiert haben. Die Hardwaretester haben dann also nicht mehr eine Karte getestet, welche gleichartig zu den Retail-Karten war – selbst wenn die Modifikation selber wohl nicht gerade großartig ausgefallen ist.

Dabei haben sich Asus und MSI jeweils den verschiedenen Betriebsmodi ihrer Karten bedient, welche beide Hersteller seit einiger Zeit für ihre ab Werk übertakteten Exemplare verwenden und welche man mittels der Hersteller-eigenen Tools umstellen kann. Der Unterschied zwischen Pressesample und Retailkarte lag dann darin, das die Retailkarte im BIOS die Werte des "Gaming-Modus" trug, das Pressesample aber im BIOS die (etwas höheren) Werte des "OC-Modus" (bedeutet in diesem Fall keine manuelle Übertaktung, sondern ist der Name es vom Hersteller festgelegten Betriebsmodus). TechPowerUp haben hierzu einen GPU-Z-Screenshot (von der MSI GeForce GTX 1080 Gaming X Grafikkarte) angefertigt, welcher die ganze Problematik anschaulich auf den Punkt bringt – das Pressesample läuft einfach mit etwas höheren Taktraten als die Retailkarte:

Dabei ist im übrigen nicht gänzlich sicher, ob dies die komplette Modifikation war – dies wurde von Hardware.fr auch so thematisiert: Selbst wenn man diese "falschen" Taktfrequenzen für seinen Hardwaretest manuell wieder zurechtrückt, ist trotzdem unbekannt, was für weitere Modifikationen jenes andere Presse-BIOS noch haben könnte. Sehr mächtig ist in diesem Zusammenhang eine Anpassung des Power-Limits – da braucht man (speziell bei nVidia-Grafikkarten) noch nicht einmal die nominellen Taktraten nach oben zu setzen, um am Ende trotzdem zu einer klaren Mehrperformance zu gelangen. Bislang gibt es noch keine Anzeichen bzw. Beweise dafür, das auch hieran herumgespielt wurde – aber diese Möglichkeit ist nicht auszuschließen und beide Quellen sind dieser Frage augenscheinlich nicht explizit nachgegangen.

Der Sinn dieser Modifikation seitens Asus und MSI lag im übrigen darin, das man eben den OC-Modus dieser Karten von der Presse getestet haben wollte – was oftmals nicht gewährleistet war, wenn die Hardwaretester nur den neusten AMD/nVidia-Treiber installierten und die Hersteller-eigenen Tools (inklusive der Möglichkeit zum Wechsel des Karten-Betriebsmodus') links liegengelassen haben. Jener OC-Modus (damit ist kein echtes Übertakten gemeint, sondern dieser spezielle, von den Herstellern vorgegebene Betriebsmodus) liegt wohl noch im Rahmen der Garantie und kann dabei sicherlich auch als im Rahmen des Herstellerangebots zulässig betrachtet werden – insofern ist das Anliegen der Hersteller, jenen OC-Modus testen lassen zu wollen, durchaus nicht verkehrt bzw. verständlich.

betroffene Asus-Modelle Pressesample Retail-Karte betroffene MSI-Modelle Pressesample Retail-Karte
Asus GeForce GTX 1080 Strix 1785 MHz 1759 MHz MSI GeForce GTX 1080 Gaming X 1709 MHz 1683 MHz
Asus GeForce GTX 980 Ti Matrix 1216 MHz 1190 MHz MSI GeForce GTX 980 Ti Gaming 1178 MHz 1140 MHz
MSI GeForce GTX 980 Gaming 1216 MHz 1190 MHz
MSI GeForce GTX 950 Gaming 1127 MHz 1102 MHz
MSI GeForce GTX 780 Ti Gaming 1020 MHz 980 MHz
MSI GeForce GTX 750 Ti Gaming 1085 MHz 1059 MHz
MSI Radeon R9 270X Gaming 1120 MHz 1080 MHz
MSI Radeon R9 280X Gaming 1050 MHz 1020 MHz
MSI Radeon R9 390X Gaming 1100 MHz 1080 MHz
Alle Daten gemäß Aufstellung von TechPowerUp.

Allerdings geht es dennoch nicht an, das die Hersteller dafür Sonder-BIOS-Versionen nur für Pressesamples auflegen – noch dazu, wo ja auch seitens der Hardwaretester durchaus das Argument angebracht werden kann, das man bewußt den Auslieferungszustand testen will. Denn so beliebt Overclocking auch sein mag, es gibt eine Vielzahl an Nutzern, welche bewußt oder unbewußt niemals Hand an solcherlei Einstellungen legt – selbst dann nicht, wenn jene innerhalb der Garantie nutzbar sind. Für jene Nutzerschar ist der Test im Auslieferungszustand elementar – und es ist natürlich nicht korrekt, wenn durch eine abweichende BIOS-Version auf Pressesamples letztlich etwas anderes getestet wird als eben jener Auslieferungszustand der Retailkarten.

Dies gilt selbst dann, wenn man einschränkenderweise hinzufügt, das die Taktraten-Differenz zwischen diesen beiden BIOS-Versionen bzw. Betriebsmodi nicht wirklich hoch ist – und das daher der Performance-Effekt eher nur auf 1-2% eingeschätzt werden kann (sollte allerdings auch einmal genau nachgemessen werden, bei Modifikationen des Power-Limits kann der Unterschied größer ausfallen). Aber selbst diese geringe Größe reicht im harten Wettbewerb der Grafikkarten-Hersteller untereinander aus, um die längeren Balken und damit (fälschlicherweise) mehr Aufmerksamkeit für das eigene Produkt zu schaffen. Doch die Höhe des letztlichen Gewinns ist irrelevant, wenn die hierfür angewandte Methode letztlich immer nur als falsch zu bezeichnen ist – andere BIOS-Versionen auf Pressesamples als auf den Retailkarten sind ein klarer Schummel-Versuch, egal der Höhe der Schummelei und der vielleicht sogar nachvollziehbaren Erklärung.

Erstaunlich ist hierbei, das nVidia, welche sich wohl alle BIOS-Versionen der Grafikkarten-Hersteller zur einzelnen Kontrolle und Genehmigung vorlegen lassen, dies derart haben durchgehen lassen. Sofern AMD und nVidia dies nicht wusste, sollte man sich natürlich umgehend klar dagegen positionieren und den Grafikkarten-Herstellern bei Wiederholung harte Sanktionen androhen. Asus und MSI sollte natürlich umgehend von diesem Verhalten die Finger lassen, sich offensiv dazu bekennen und Besserung geloben – und zwar nicht nur bezogen auf den konkreten Fall, sondern auf alle Arten, irgendwe Benchmark-Schummelei zu begehen. Jeder Tag, an dem dies nicht passiert, fällt nur zuungunsten von Asus und MSI aus. Beide Hersteller (welche an dieser Stelle bisher durchaus geschätzt wurden) sollten auch bedenken, das jene im Gegensatz zu nVidia nach deren GTX970-Affäre wohl viel eher ersetzlich sind. Man kann schließlich durchaus die These aufstellen, das der Grafikkarten-Käufer nunmehr die anderen Grafikkarten-Hersteller belohnen sollte, welche bislang durch diese Schummelei Nachteile haben erfahren müssen.

Inhalt abgleichen