17

Wieder neue Abverkaufsangebote zu den Grafikkarten der 28nm-Generation

Die (teilweisen) Preisnachlässe zu den Grafikkarten der 28nm-Generation nehmen kein Ende – aber anstatt alles auf einen Schlag zu bringen, machen es AMD und nVidia leider irgendwie kleckerweise. Diesesmal sind primär GeForce GTX 980 und 980 Ti betroffen, welche gegenüber ihrem langfristigen Preisniveau nun auf wirklich beachtbare Preispunkte gefallen sind – die GeForce GTX 980 auf 360-410 Euro, die GeForce GTX 980 Ti hingegen auf 460-490 Euro. Insbesondere letztere rückt damit gut an das Preis/Leistungs-Verhältnis der GeForce GTX 1070 heran: Jene neue Pascal-Karte ist derzeit kaum für unter 499 Euro zu haben – ist zwar etwas schneller und mit mehr Speicher ausgerüstet, hat aber auch vor dem noch startenden Preiskampf der Herstellerdesigns eben jenen gewissen Mehrpreis. Zumindest momentan kann man daher durchaus über eine GeForce GTX 980 Ti als Ersatzkauf zu einer GeForce GTX 1070 nachdenken – was allerdings die wenigstens tun werden, denn der Neuheitswert der neuen Karte ist zu verlockend und die Wartezeit auf bessere Preislagen bei der GeForce GTX 1070 durchaus überschaubar.

Anf. Feb. 16 Ende Mai 16 Anf. Juni 16 aktuell
GeForce GTX Titan X 1050-1100€ 1030-1100€ 980-1060€ 970-1050€
GeForce GTX 980 Ti 640-680€ 600-640€ 550-600€ 460-490€
GeForce GTX 980 480-520€ 450-490€ 400-470€ 360-410€
GeForce GTX 970 320-340€ 270-310€ 280-310€ 250-280€
GeForce GTX 960 4GB 205-230€ 185-210€ 185-210€ 185-200€
GeForce GTX 960 2GB 190-210€ 160-200€ 170-200€ 170-190€
GeForce GTX 950 155-170€ 140-160€ 145-160€ 140-155€
GeForce GTX 750 Ti 120-135€ 110-130€ 105-120€ 105-120€
GeForce GTX 750 2GB 105-120€ 100-115€ 100-115€ 100-115€
durchschnittliche Preisdifferenz - -8,3% -2,0% -5,1%

GeForce GTX 970 und 980 haben hingegen nominell gute Preispunkte erreicht (die GeForce GTX 980 startet mal für über 500 Euro), aber angesichts der kommenden AMD-Attacke mit der Radeon RX400 Serie und deren exzellenten Preispunkten sind diese Abverkaufspreise immer noch nicht gut genug, um zu überzeugen – teilweise sogar noch lange nicht gut genug. Die GeForce GTX 970 wird man ab Juli durch eine Radeon RX480 ersetzen können, die wohl etwas weniger kostet, moderner ist und sogar etwas schneller. Wäre hier nicht das 3,5-GB-Problem der GeForce GTX 970, könnte man die Differenz bei Preis & Performance als vielleicht noch überbrückbar ansehen – aber so bekommt nVidia noch eine späte Retourkutsche für diese seinerzeitige Spezifikations-Schummelei, denn als 3,5-GB-Karte wäre die GeForce GTX 970 wirklich nur zu Ramschpreisen zu empfehlen. Die GeForce GTX 980 hingegen mag eventuell etwas schneller als die Radeon RX480 bleiben, ist aber dennoch noch immer um eine ganze Dimensionen von deren zu erwartendem Preispunkt entfernt – und dies trotz erheblicher Preissenkungen in letzter Zeit. Hier kann trotz deutlicher Preissenkungen immer noch keinerlei Empfehlung ausgesprochen werden.

Anf. Feb. 16 Ende Mai 16 Anf. Juni 16 aktuell
Radeon R9 Fury X 640-680€ 600-670€ 600-650€ 640-670€
Radeon R9 Fury 540-600€ 420-500€ 420-470€ 400-470€
Radeon R9 Nano 500-540€ 460-530€ 480-520€ 470-520€
Radeon R9 390X 390-420€ 370-410€ 330-370€ 300-350€
Radeon R9 390 320-340€ 300-340€ 240-280€ 270-290€
Radeon R9 380X 230-250€ 210-230€ 190-210€ 180-210€
Radeon R9 380 4GB 205-230€ 190-210€ 180-200€ 180-200€
Radeon R9 380 2GB 190-210€ 170-200€ 165-185€ 170-190€
Radeon R7 370 130-145€ 110-140€ 115-135€ 120-135€
Radeon R7 360 105-120€ 100-115€ 95-115€ 95-110€
durchschnittliche Preisdifferenz - -8,9% -5,2% +0,3%

Bei AMD hat sich dagegen nahezu gar nichts getan, hier und da haben sich sogar Preise (durch abverkaufte günstige Listungen) sogar erhöht. Ein wenig erstaunlich ist dabei, das AMD insbesondere die Fiji-basierten Grafikkarten nicht deutlicher heruntersetzt – jene werden durch die GeForce GTX 1070 sowieso geschlagen und sind daher allein nur noch über den Preis abzuverkaufen. Radeon R9 390 & 390X haben hingegen nominell inzwischen günstige Preise erreicht, dürften sich aber genauso wie ihre nVidia-Pendants der kommenden Radeon RX480 geschlagen geben müssen – welche entweder schneller und günstiger ist (gegenüber der Radeon R9 390) oder nur günstiger ist, dafür aber erheblich (gegenüber der Radeon R9 390X). Auch hier könnte man sich eigentlich doch eher echte Abverkaufspreise vorstellen – denn spätestens ab dem 29. Juni ist der Ofen für diese 28nm-Beschleuniger endgültig aus.

16

Hardware- und Nachrichten-Links des 16. Juni 2016

Die PC Games Hardware hat ihre GPU-Roadmap aktualisiert, in jener sind nun auch Daten zu den kommenden AMD- und nVidia-Grafikkarten auf Basis der Grafikchips GP106, GP102 und Vega 10 enthalten. Abweichungen zu unserer kürzlichen Roadmap bestehen dabei fast nur im Bereich von Terminangaben zu sowieso noch schwerlich genau einordenbaren Chipprojekten: So sieht die PCGH den GP102-Chip eher erst im zweiten Quartal 2017, während wir aufgrund der zuletzt mehrfachen Nennung des GP102-Chip einen Start dieses Enthusiasten-Chips noch zum Jahresende 2016 erwarten. Auch AMDs HighEnd-Chip Vega 10 (in Konkurrenz zur nVidias GP104) sieht die PCGH etwas konservativer erst zum Jahresanfang 2017, während wir hierbei optimistischer noch von diesem Herbst ausgehen. nVidias Performance-Chip GP106 (in Konkurrenz zu AMDs Polaris 10) wird von beiden Seiten im übrigen gleichartig auf diesen Herbst eingeordnet. Diese gewissen Differenzen sind jedoch nicht tragisch, sondern spiegeln vielmehr den zeitlichen Spielraum wieder, welcher sich aufgrund der bislang ungenauen Angaben zu diesen Grafikchips ganz automatisch ergibt.

Bezüglich Intels Broadwell-E und dessen Turbo Boost 3.0 Feature gibt es in unserem Forum die interessante Aussage – Foren-Postings No.1 & No.2 – das jenes Feature im eigentlichen einen Bugfix zu Haswell-E und dessen teilweiser SingleCore-Schwäche darstellt. Bei Haswell-E soll dabei das Problem auftreten, das die einzelnen Rechenkerne nicht schnell genug ihre Turbo-Taktraten erreichen können, ehe Windows die anliegende Last dann an den nächsten Rechenkern weitergibt. Bei Lasten auf vielen Kernen spielt dies keine Rolle, denn da ist eine genügende Grundlast anliegend, um alle oder viele Rechenkerne schnell auf ihre Turbo-Frequenzen zu bringen – aber bei expliziten SingleThread-Lasten spring Windows zu schnell zwischen den einzelnen CPU-Kernen hin und her, als das diese ihre maximalen Taktfrequenzen aus tiefen Idle-Modi heraus erreichen können. Dabei kann es teilweise vorkommen, das SingleThread-Lasten auf einem Haswell-E-Prozessor bei nur 1.2 GHz real anliegendem CPU-Takt ausgeführt werden – und dann die vorgenannte SingleCore-Schwäche bei Haswell-E herauskommt.

Mittels des Turbo Boost 3.0 Features wird dieses Problem bei Broadwell-E behoben (sowie bei Skylake mittels der Speedshift-Funktionalität) – und das Turbo Boost 3.0 in der Praxis nur zu geringen Takterhöhungen gegenüber dem regulären TurboModus führt, spielt wohl keine Rolle, weil zumindest die vorgenannte SingleCore-Schwäche hierbei nicht mehr auftritt. Den Hardwaretestern fällt dies üblicherweise gar nicht auf, da dort regelmäßig mit der maximalen Energieeinstellung getestet wird, welche die CPU-Kerne nicht mehr in die tiefsten Idle-Stufen führen und daher die ganze Problematik (zuungunsten eines höheren Idle-Verbrauchs) gar nicht erst auftreten lassen. Das Problem tritt bei Haswell-E also nur auf, wenn man eine Energiespareinstellung unterhalb von "maximale Performance" benutzt. So zumindest die Ausführungen in unserem Forum – welche erst einmal logisch klingen, dennoch aber eigentlich weiterer Bestätigung bedürfen. Leider war derzeit außer weiteren Forenpostings kaum etwas zum Thema zu finden, die großen Hardwareseiten haben sich diesem Bug bislang augenscheinlich noch nicht angenommen.

Als Korrektur zur Meldung über den Xbox-One-Nachfolger "Scorpio" wäre noch anzubringen, das Microsoft zur kommenden Spielekonsole auch ein Renderbild mit gleich 12 Speicherchips gezeigt hat. Dies deutet logischerweise auf ein 384 Bit breites Speicherinterface hin, was dann auch mit GDDR5 auskommen würde und daher kein GDDR5X benötigt. Der zur Erlangung von 320 GB/sec benötigte Speichertakt beträgt 3333 MHz, was schon seit längerem gut lieferbar ist und daher die korrekte Auflösung für die Frage nach dem Speicher-Subsystem von Scorpio darstellen sollte. Ein kleines bißchen offen bleibt allerdings noch die Frage, ob Scorpio wieder mit eDRAM operiert – und wenn nicht, dann käme die große Frage hinterher, wie dann die Spielekompatibilität gewährleistet werden soll, denn die Spieleentwickler mussten diesen eDRAM bei der Xbox One explizit bei ihrer Programmierung berücksichtigen. Ob es hierfür einen Treiberfix gibt, welcher den Spielen auf der Scorpio das Vorhandensein des eDRAMs vorgaukelt oder ob Mircrosoft aus Kompatibilitätsgründen auch bei Scorpio wieder eDRAM verbauen muß, bleibt vorerst offen.

Im übrigen ergibt sich aus diesem (höchstwahrscheinlich) 384-Bit-Speicherinterface bzw. den zu sehenden 12 Speicherbausteinen auch eine Speicherbestückung von gleich 12 GB (technisch sind auch 6 GB möglich, aber das würde die Spielekompatibilität zur Xbox One gefährden) – und damit eben mehr als bei der Xbox One und in diesem Fall ein bemerkbarer Unterschied zu Sonys Ansatz, wo augenscheinlich die gleiche Speichermenge (von 8 GB) zwischen PS4 und PS4K verbaut wird. Microsoft will es also wirklich wissen und in jedem Fall die leistungsstärkere Konsole abliefern – basierend auf der Erfahrung mit dem Zweikampf zwischen Xbox One und PS4, wo Microsoft nur zweiter Sieger war (wobei dies primär dem höheren Launchpreis der Xbox One geschuldet war). Da die Scorpio-Hardware aber genauso wenig für 4K-Rendering ausreicht, sehen wir die Bemühungen Microsofts – so interessant jene aus technischer Sicht sind – jedoch eher im Nichts verpuffen: Zwischen Xbox One und PS4 kann der Sony-Käufer oftmals sehen, wie seine Konsole bei gleichen Spieletiteln die höhere Renderauflösung ausführt. Zwischen Scorpio und PS4K dürfte es im Normalfall so ausgehen, das beide Konsolen intern FullHD rendern und es somit zu keinen praktischen Differenzen kommt. Nur allein, wenn selbst die höhere Hardware der PS4K irgendwo nicht für ein FullHD-Rendering ausreicht, könnte sich der höherwertigere Scorpio-Ansatz auch in der Praxis auszahlen.

16

Asus und MSI schummeln womöglich seit Jahren in Grafikkarten-Tests

Seitens Hardware.fr (maschinelle Übersetzung ins Deutsche) und TechPowerUp werden schwerwiegende Vorwürfe gegenüber den Grafikkarten-Herstellern Asus und MSI erhoben: Beide Hersteller sollen bei verschiedenen AMD- und nVidia-basierten Grafikkarten Pressesamples mit modifiziertem BIOS an die Hardwaretester versandt haben – im Fall von MSI wohl schon seit einigen Jahren, Asus soll dieses Verhalten dagegen erst kürzlich adaptiert haben. Die Hardwaretester haben dann also nicht mehr eine Karte getestet, welche gleichartig zu den Retail-Karten war – selbst wenn die Modifikation selber wohl nicht gerade großartig ausgefallen ist.

Dabei haben sich Asus und MSI jeweils den verschiedenen Betriebsmodi ihrer Karten bedient, welche beide Hersteller seit einiger Zeit für ihre ab Werk übertakteten Exemplare verwenden und welche man mittels der Hersteller-eigenen Tools umstellen kann. Der Unterschied zwischen Pressesample und Retailkarte lag dann darin, das die Retailkarte im BIOS die Werte des "Gaming-Modus" trug, das Pressesample aber im BIOS die (etwas höheren) Werte des "OC-Modus" (bedeutet in diesem Fall keine manuelle Übertaktung, sondern ist der Name es vom Hersteller festgelegten Betriebsmodus). TechPowerUp haben hierzu einen GPU-Z-Screenshot (von der MSI GeForce GTX 1080 Gaming X Grafikkarte) angefertigt, welcher die ganze Problematik anschaulich auf den Punkt bringt – das Pressesample läuft einfach mit etwas höheren Taktraten als die Retailkarte:

Dabei ist im übrigen nicht gänzlich sicher, ob dies die komplette Modifikation war – dies wurde von Hardware.fr auch so thematisiert: Selbst wenn man diese "falschen" Taktfrequenzen für seinen Hardwaretest manuell wieder zurechtrückt, ist trotzdem unbekannt, was für weitere Modifikationen jenes andere Presse-BIOS noch haben könnte. Sehr mächtig ist in diesem Zusammenhang eine Anpassung des Power-Limits – da braucht man (speziell bei nVidia-Grafikkarten) noch nicht einmal die nominellen Taktraten nach oben zu setzen, um am Ende trotzdem zu einer klaren Mehrperformance zu gelangen. Bislang gibt es noch keine Anzeichen bzw. Beweise dafür, das auch hieran herumgespielt wurde – aber diese Möglichkeit ist nicht auszuschließen und beide Quellen sind dieser Frage augenscheinlich nicht explizit nachgegangen.

Der Sinn dieser Modifikation seitens Asus und MSI lag im übrigen darin, das man eben den OC-Modus dieser Karten von der Presse getestet haben wollte – was oftmals nicht gewährleistet war, wenn die Hardwaretester nur den neusten AMD/nVidia-Treiber installierten und die Hersteller-eigenen Tools (inklusive der Möglichkeit zum Wechsel des Karten-Betriebsmodus') links liegengelassen haben. Jener OC-Modus (damit ist kein echtes Übertakten gemeint, sondern dieser spezielle, von den Herstellern vorgegebene Betriebsmodus) liegt wohl noch im Rahmen der Garantie und kann dabei sicherlich auch als im Rahmen des Herstellerangebots zulässig betrachtet werden – insofern ist das Anliegen der Hersteller, jenen OC-Modus testen lassen zu wollen, durchaus nicht verkehrt bzw. verständlich.

betroffene Asus-Modelle Pressesample Retail-Karte betroffene MSI-Modelle Pressesample Retail-Karte
Asus GeForce GTX 1080 Strix 1785 MHz 1759 MHz MSI GeForce GTX 1080 Gaming X 1709 MHz 1683 MHz
Asus GeForce GTX 980 Ti Matrix 1216 MHz 1190 MHz MSI GeForce GTX 980 Ti Gaming 1178 MHz 1140 MHz
MSI GeForce GTX 980 Gaming 1216 MHz 1190 MHz
MSI GeForce GTX 950 Gaming 1127 MHz 1102 MHz
MSI GeForce GTX 780 Ti Gaming 1020 MHz 980 MHz
MSI GeForce GTX 750 Ti Gaming 1085 MHz 1059 MHz
MSI Radeon R9 270X Gaming 1120 MHz 1080 MHz
MSI Radeon R9 280X Gaming 1050 MHz 1020 MHz
MSI Radeon R9 390X Gaming 1100 MHz 1080 MHz
Alle Daten gemäß Aufstellung von TechPowerUp.

Allerdings geht es dennoch nicht an, das die Hersteller dafür Sonder-BIOS-Versionen nur für Pressesamples auflegen – noch dazu, wo ja auch seitens der Hardwaretester durchaus das Argument angebracht werden kann, das man bewußt den Auslieferungszustand testen will. Denn so beliebt Overclocking auch sein mag, es gibt eine Vielzahl an Nutzern, welche bewußt oder unbewußt niemals Hand an solcherlei Einstellungen legt – selbst dann nicht, wenn jene innerhalb der Garantie nutzbar sind. Für jene Nutzerschar ist der Test im Auslieferungszustand elementar – und es ist natürlich nicht korrekt, wenn durch eine abweichende BIOS-Version auf Pressesamples letztlich etwas anderes getestet wird als eben jener Auslieferungszustand der Retailkarten.

Dies gilt selbst dann, wenn man einschränkenderweise hinzufügt, das die Taktraten-Differenz zwischen diesen beiden BIOS-Versionen bzw. Betriebsmodi nicht wirklich hoch ist – und das daher der Performance-Effekt eher nur auf 1-2% eingeschätzt werden kann (sollte allerdings auch einmal genau nachgemessen werden, bei Modifikationen des Power-Limits kann der Unterschied größer ausfallen). Aber selbst diese geringe Größe reicht im harten Wettbewerb der Grafikkarten-Hersteller untereinander aus, um die längeren Balken und damit (fälschlicherweise) mehr Aufmerksamkeit für das eigene Produkt zu schaffen. Doch die Höhe des letztlichen Gewinns ist irrelevant, wenn die hierfür angewandte Methode letztlich immer nur als falsch zu bezeichnen ist – andere BIOS-Versionen auf Pressesamples als auf den Retailkarten sind ein klarer Schummel-Versuch, egal der Höhe der Schummelei und der vielleicht sogar nachvollziehbaren Erklärung.

Erstaunlich ist hierbei, das nVidia, welche sich wohl alle BIOS-Versionen der Grafikkarten-Hersteller zur einzelnen Kontrolle und Genehmigung vorlegen lassen, dies derart haben durchgehen lassen. Sofern AMD und nVidia dies nicht wusste, sollte man sich natürlich umgehend klar dagegen positionieren und den Grafikkarten-Herstellern bei Wiederholung harte Sanktionen androhen. Asus und MSI sollte natürlich umgehend von diesem Verhalten die Finger lassen, sich offensiv dazu bekennen und Besserung geloben – und zwar nicht nur bezogen auf den konkreten Fall, sondern auf alle Arten, irgendwe Benchmark-Schummelei zu begehen. Jeder Tag, an dem dies nicht passiert, fällt nur zuungunsten von Asus und MSI aus. Beide Hersteller (welche an dieser Stelle bisher durchaus geschätzt wurden) sollten auch bedenken, das jene im Gegensatz zu nVidia nach deren GTX970-Affäre wohl viel eher ersetzlich sind. Man kann schließlich durchaus die These aufstellen, das der Grafikkarten-Käufer nunmehr die anderen Grafikkarten-Hersteller belohnen sollte, welche bislang durch diese Schummelei Nachteile haben erfahren müssen.

16

Preislagen und Speicherbestückungen zu AMDs Radeon RX400 Serie bekannt

Wieder mal über unser Forum gelangt eine wertvolle Detailinformation zu kommender Hardware an das Licht der Öffentlichkeit: Dabei wurde entdeckt, das der PC-Anbieter GameMachines bei seinen konfigurierbaren PC-Modellen bereits Listungen und Preisangaben für die einzelnen Modelle der Radeon RX400 Serie hinterlegt hat. Alle Preisangaben verstehen sich dabei als reiner Mehrpreis zur bei diesen PCs standardmäßig verbauten GeForce GT 730 2GB, welche im Einzelhandel derzeit bei ca. 50-60 Euro zu haben ist. Interessant sind aber zuerst einmal die verschiedenen genannten AMD-Modelle, geben jene doch Auskunft über die üblichen Speicherbestückungen innerhalb der Radeon RX400 Serie: Die Polaris-11-basierte Radeon RX460 wird standardmäßig nur mit 2 GB antreten (Herstellerdesigns mit 4 GB sind allerdings nicht unwahrscheinlich, jene gab es auch schon zur Radeon R7 370), die Polaris-10-basierte Radeon RX470 dagegen mit 4 GB (Herstellerdesigns mit 8 GB sind hier noch ungewiß) und die ebenfalls Polaris-10-basierte Radeon RX480 mit 4 und 8 GB Grafikkartenspeicher:

Die direkte Umrechnung der hierbei genannten Mehrpreise der AMD-Karten aufgrund des bekannten Einzelhandelspreises der GeForce GT 730 ist allerdings weniger zielführend – da nicht klar ist, wieviel Rabatt GameMaschines als KomplettPC-Hersteller auf alle einzelnen Karten bzw. gerade auf diese LowEnd-Karte bekommt. Selbst eine Rechnung basierend auf den relativen Unterschieden der genannten Mehrpreise – mit als Ausgangspunkt dem offiziell so genannten Listenpreis der Radeon RX480 4GB von 199 Dollar – ergab eher nur irrierende Werte. Schaut man sich die Liste der bei GameMachines zur Verfügung stehenden Grafikkarten an, so fällt auf, das die preisgünstigeren Modelle eher nahe an üblichen Einzelhandelspreisen liegen, bei den teureren Modelle jedoch teilweise sogar mehr verlangt wird als im Einzelhandel. Wahrscheinlich noch am ehesten zutreffend ist für diesem Fall daher der Vergleich mit bei GameMachines zu ähnlichen Mehrpreisen gelisteten Karten – und dann dem Quervergleich zu deren Einzelhandelspreisen:

Mehrpreis vergleichbare Karten bei GameMachines Retailpreis Listenpreis
Radeon RX460 2GB +79€ nVidia GeForce GTX 750 Ti 2GB (+79€) 108-120€ vmtl. 109$
Radeon RX470 4GB +149€ nVidia GeForce GTX 960 2GB (+169€) 173-190€ vmtl. 159$
Asus GeForce GTX 950 Strix-DC2OC 2GB (+149€) 164-180€
MSI GeForce GTX 950 Gaming 2GB (+139€) 155-170€
Palit GeForce GTX 950 StormX Dual 2GB (+139€) 149-165€
Radeon RX480 4GB +209€ Asus GeForce Strix-GTX960-DC2OC-2GD5 2GB (+192€) 188-210€ off. 199$
MSI GeForce GTX 960 Gaming 4GB (+215€) 205-220€
Gainward GeForce GTX 960 Phantom GLH 2GB (+199€) 190-210€
Palit GeForce GTX 960 Jetstream 4GB (+196€) 203-220€
Radeon RX480 8GB +249€ nVidia GeForce GTX 970 3,5GB (+279€) 249-280€ vmtl. 239$
Asus Strix-GTX960-DC2OC-4GD5 4GB (+229€) 228-250€

Nach Normierung der Zwischenergebnisse auf den bekannten Listenpreis der Radeon RX480 4GB (von 199 Dollar) kann man die Behauptung aufstellen, das die Radeon RX460 2GB wohl einen Listenpreis von 109 Dollar haben wird, die Radeon RX470 4GB einen Listenpreis von 159 Dollar und die Radeon RX480 8GB einen Listenpreis von 239 Dollar. Diese Angaben sind natürlich fehlbar, da primär darauf basierend, das GameMachines sich mit seinen Preisfestsetzungen eng an AMD-Vorgaben gehalten und keine eigenen Spielräume eingebaut hat. Ein weiterer Stolperstein könnten kurzfristige Preisänderungen sein, welche AMD immerhin noch bis kurz vor Launch vornehmen könnte. Ein kleines Polster von plus/minus 10 Dollar kann man dem ganzen sowieso geben – aber ansonsten sollte diese Hochrechnung durchaus passend sein.

Kommen die Karten zu diesen Preisen, erfüllt AMD weiterhin das Kriterium des Preis/Leistungs-Schlagers bei der Radeon RX400 Serie – vielleicht etwas weniger bei der Radeon RX460, aber dafür um so exzellenter bei der Radeon RX470, welche um die 10-12% langsamer als die Radeon RX480 erwartet wird, nun aber gleich 20% günstiger werden soll (und damit die Radeon RX480 beim Preis/Leistungs-Verhältnis sogar noch hinter sich läßt). Die Radeon RX480 8GB wird zudem einen wohl tragbaren Mehrpreis für ihren Mehrspeicher haben – etwas weniger wäre noch besser, könnte aber auch wirtschaftlich nicht darstellbar sein (4 GB auf immerhin 4000 MHz taktender GDDR5-Speicher werden auch ihren Preis haben). Diese 8-GB-Karte wird sowieso eine gewisse Glaubenssache werden – in dieser Performanceregion und unter der reinen FullHD-Auflösung erscheinen 4 GB als komplett ausreichend und dürften 8 GB wohl allein bezüglich der besseren Zukunftsaussichten empfohlen werden.

Ganz nebenbei deuten diese Listungen bei GameMachines auch darauf hin, das AMD wirklich sehr weit fortgeschritten ist mit seinen Vorbereitungen zum Launch dieser Grafikkarten – womöglich sogar schon morgen launchen könnte, wenn dies gewollt wäre. Die kommenden zwei Wochen mehr Vorbereitungszeit werden aber dennoch nützlich sein, um die Lieferkette dichter zu machen, den Hardwaretestern ihre Zeit für ausführliche Tests zu geben und vor allem den Herstellern von Komplett-PCs besser entgegenzukommen, welche kurzfristig angesetzte Launches üblicherweise gar nicht verarbeiten können. So besteht aber die gute Chance auf einen wirklich umfassenden Markteintritt der Radeon RX400 Serie ab dem 29. Juni (Radeon RX480) bzw. zu einem noch nicht genauer benannten Termin im Juli (Radeon RX460 & RX470).

Nachtrag vom 17. Juni 2016

Zu den kürzlich genannten Preislagen der Radeon RX400 Karten ist leider die Einschränkung hinzuzufügen, das GameMachines wohl keine besonders vertrauenswürdige Quelle für exakte Preise zu nicht releaster Hardware ist. So hatte man auch im Vorfeld des GP104-Launches bereits entsprechende Mehrpreise für GeForce GTX 1070 & 1080 notiert, jene allerdings nach Launch etwas nach oben korrigieren müssen. Ob dies auch bei den Preisen zu den Radeon RX400 Karten passiert, kann natürlich niemand vorhersagen – möglich ist es jedoch durchaus. Als Gegenthese darf gelten, das nVidia im Vorfeld seines Launches sehr maulfaul war, AMD hingegen hinter den Kulissen augenscheinlich einiges laufen hat, demzufolge Distributoren und OEMs eigentlich schon Zugriff auf die realen Preislagen der kommenden AMD-Grafikkarten haben dürften. Es gilt zudem auch, das die Preise der AMD-Karten kaum besonders abweichend von den aktuellen Schätzungen ausfallen können, ausgehend von dem bekannten offiziellen Preis der Radeon RX480 4GB von 199 Dollar existieren da nur eher kleine Spielräume. Wir müssen uns überraschen lassen, was da letztlich herauskommt – nur sind halt diese bisherigen Preiseinordnungen damit wieder unter gewissem Vorbehalt zu sehen.

15

Hardware- und Nachrichten-Links des 15. Juni 2016

Die PC Games Hardware berichtet über bei eBay sowie Amazons Marketplace in den USA und China aufgetauchte gefälschte GeForce GTX 960 Grafikkarten – hinter welchen sich augenscheinlich eine GeForce GTX 560 Ti aus nVidias früherer Fermi-Generation verbirgt. Dies ergibt natürlich einen erheblichen Performance-Unterschied, von der GeForce GTX 560 Ti (Perf.Index 210%) zur GeForce GTX 960 (Perf.Index 340%) sind es gut 62% Mehrperformance. Angesichts dessen sind die abverlangten Preise von 130 Euro auch nicht mehr wirklich attraktiv – dies ist teurer als eine gegenüber der GeForce GTX 560 Ti vergleichbar schnelle GeForce GTX 750 Ti (Perf.Index 210%), welche derzeit bei 105-120 Euro angeboten wird. Dabei ist nicht nur das Angebot selber gefälscht, sondern auch die Karten werden modifiziert, damit jene sich beim Auslesen durch diverse Tools und den Treiber auch als "GeForce GTX 960" melden. Hierfür kommt eine BIOS-Modifikation zum Einsatz, welche dann auch Tools wie GPU-Z (teilweise) narrt. Anhand der Hardware-Daten von 384 Shader-Einheiten an einem 256 Bit GDDR5-Speicherinterface konnten diese Karten aber klar der GeForce GTX 560 Ti zugeordnet werden, auch wenn sie sich offiziell als "GeForce GTX 960" melden. Hier liegt natürlich ein klarer Betrug vor – und in Deutschland ist so etwas kaum zu erwarten, da hierzulande die Justizbehörden bei solcherart Fällen zumeist konsequent durchgreifen.

Mit den AMD-eigenen Benchmark-Werten zur Radeon RX470 gab es auch eine offizielle Stromverbrauchsangabe zu dieser Polaris-10-basierten Karte von 110 Watt – was immerhin 40 Watt unterhalb den 150 Watt der Radeon RX480 ist. Die Differenz erstaunt etwas, denn üblicherweise liegen AMD-Karten desselben Grafikchips bei der Performance recht nahe beieinander, auch beim Polaris-10-Chip sollte dies so sein – da sind so große Differenzen bei der Stromaufnahme eigentlich nicht zu erwarten. Eine mögliche Erklärung könnte darin liegen, das AMD die Radeon RX480 bewußt etwas hochgeprügelt hat, um gewisse Performanceziele zu erreichen. Eine andere mögliche Erklärung könnte sein, das die Radeon RX480 auf einen höheren Overclocking-Spielraum ausgelegt wurde und die Radeon RX470 eher auf eine hohe Energieeffizienz. Wie üblich gilt, das bei diesen AMD-Angaben nicht der reale Spiele-Stromverbrauch gemeint ist, sondern eine "Thermal Board Power" (TBP), der Realverbrauch dann teilweise deutlich niedriger herauskommt. Bei der Radeon RX470 wäre dies etwas zu bezweifeln, aber die Radeon RX480 ist eher auf einen Realverbrauch von 130 Watt zu schätzen als denn den vollen 150 Watt der offiziellen Angabe.

nVidia hat hierbei hingegen ein anderes Schema laufen, wo man üblicherweise das jeweilige Power-Limit der Karte als "Graphics Card Power" (GCP) angibt – und da jenes Power-Limit in der Praxis zumeist fast vollständig erreicht wird, sind nVidias GCP-Angaben inzwischen nahezu gleich zum Realverbrauch der jeweiligen Grafikkarten. Eine GeForce GTX 1080 wurde beispielsweise offiziell mit 180 Watt GCP angegeben, die verschiedenen Messungen des Realverbrauchs ergaben dann einen gemittelten Verbrauch von 171 Watt unter Spielen. Die Ansätze beider Grafikchip-Entwickler zur Bekanntgabe von Stromverbrauchswerten bei Grafikkarten unterscheiden sich also erheblich – auch gut manifestiert darin, das keiner mehr eine übliche TDP-Angabe abgibt, sondern AMD seine TBP-Angabe und nVidia seine GCP-Angabe macht. Die grobe Differenz zwischen beiden Angaben liegt wie gesagt darin, das bei nVidia nur minimaler Spielraum zum Realverbrauch existiert, bei AMD (bisher) üblicherweise noch 15-30 Watt Spielraum zwischen offizieller TBP-Angabe und dem Realverbrauch liegen können (nicht bei den HighEnd-Karten, wo AMD die TBP-Angabe aus politischen Gründen bewußt niedriger ansetzt).

Ein Thread unseres Forums thematisiert die anzustrebende weitere Entwicklung der Spielegrafik – inklusive Umfrage, welche Handlungsoptionen hierbei als besonders relevant angesehen werden. In jener Umfrage liegt derzeit erstaunlicherweise ein Punkt vorn, welcher eigentlich nichts mit eigentlicher Spielegrafik zu tun hat – die (bessere) Interaktion mit der Umgebung. Augenscheinlich sehen viele Umfrage-Teilnehmer das eigentliche Problem der aktuellen Spielegrafik nicht mehr in der dato erreichten Optik, sondern vielmehr in der damit erzielbaren Immersion – welche dann zu scheitern droht, wenn detailreiche Optik auf eine vorwiegend statische Spielwelt trifft. Nicht zu Unrecht wird hierzu im Thread ausgeführt, das sich diesbezüglich seit dem großen Sprung von Half-Life 2 eigentlich eher nur kleckerweise etwas bewegt hat – und Half-Life 2 ist dann inzwischen auch fast 12 Jahre alt. In der reinen Spielegrafik hat sich seit dem einiges getan, beim Realismus der Spielwelt hingegen nicht wahnwitzig viel – heutzutage ist es schließlich immer noch eine extra Beachtung wert, wenn einzelne Spieletitel mit einer (teilweise) zerstörbaren Spielwelt werben. Als Hinweis für die Spieleentwickler darf dabei folgender Gedanke gelten: Die Immersion wird um so stärker gestört, je krasser der Unterschied zwischen einer statischen Spielwelt zu einer besonders realistischen Grafik ausfällt.

15

AMD-eigene Benchmarks zur Radeon RX470 zeigen deren Performance auf

In den Fußnoten von AMDs Presseerklärung zu den Radeon RX460 & RX470 Spezifikationen sind auch konkrete Benchmark-Zahlen zur Radeon RX470 im Vergleich zur Radeon R9 270X enthalten. Jene dienen AMD primär als Beleg für die eigene Effizienzrechnung – was natürlich etwas schöngefärbt ist, denn die TBP der Radeon RX470 von 110 Watt dürfte deutlich näher am Realverbrauch der Karte liegen als die seinerzeitige TBP der Radeon R9 270X von 180 Watt, welche deutlich oberhalb des Realverbrauchs dieser Karte von 140 Watt rangiert. Viel eher läßt sich mit diesen Benchmarks etwas über die Performance der Radeon RX470 sagen – was nicht gänzlich akkurat sein kann, da jene Zahlen von AMD gezielt und passend zur angestrebten Aussage ausgesucht wurden, aber dennoch eine gewisse Richtung vorgeben können. Gemessen wurde hierbei seitens der AMD Performance Labs durchgehend unter FullHD auf einem PC-System mit Core i7-5960X, 16 GB Speicher, Windows 10 und demselben Radeon-Treiber 16.20.

Leider ist nicht bekannt, welche Speicherbestückung die Radeon RX470 hatte (4 oder 8 GB) – so oder so dürfte hier jedoch ein gewisser Vorteil gegenüber der Radeon R9 270X liegen, welche es üblicherweise nur mit 2 GB Speicher gab. Selbst unter der verwendeten FullHD-Auflösung kann dies eine gewisse Rolle spielen, 2 GB sind hierfür manchmal schon zu wenig. Und augenscheinlich gibt es mit Hitman (2016) gleich einen Kandidaten für genau diese Problematik: Wenn alle drei anderen Benchmarks Vorteile zwischen 57-64% aufweisen, ist der singuläre Vorteil von 117% unter Hitman (2016) dann schon ein verdächtig hoher Ausreißer. Hier dürfte in der Tat die geringe Speichermenge (von vermutlich nur 2 GB) die Radeon R9 270X ausgebremst haben – ein Punkt, der im Vergleich gegenüber Radeon R9 380X oder schnelleren Grafikkarten dann natürlich nicht mehr gegeben wäre:

Radeon R9 270X Radeon RX470 Differenz
Technik Pitcain, 1280 Shader-Einheiten @ 256 Bit GDDR5-Speicherinterface, ≤1050/2800 MHz Polaris 10, vermtl. 1920 oder 2048 Shader-Einheiten @ 256 Bit GDDR5-Speicherinterface, ≤1266/3850 MHz -
3DMark13 FireStrike  (insg.) 5787 9090 +57,1%
Ashes of the Singularity  (High) 28,1 fps 46 fps +63,7%
Hitman (2016)  (High) 27,6 fps 60 fps +117,4%
Overwatch  (Max) 76 fps 121 fps +59,2%

Insofern kann man auf Basis dieser vier (wie gesagt von AMD ausgesuchten) Benchmarks zwei Rechnungen aufmachen: Benutzt man den Schnitt aller vier Benchmarks, dann kommt die Radeon RX470 auf eine Mehrperformance von gemittelt +74,3% heraus – was einen Performance-Index von ~520% ergeben würde, ausgehend von dem Performance-Index der Radeon R9 270X von 300%. Benutzt man hingegen vorsichtigerweise nur den Schnitt der drei Benchmarks außerhalb von Hitman (2016), liegt die Mehrperformance bei gemittelt +60,0% und der Performance-Index der Radeon RX470 demzufolge bei ~480%. Letzteres erscheint uns als die sinnigere Auflösung, eingedenk früherer Benchmark-Ergebnisse und auch des Punkts, das diese AMD-eigenen Benchmarks sich selbst unter Herausrechnung von Hitman (2016) trotzdem erst einmal in der Praxis unabhängiger Messungen bestätigen lassen müssen. Die bisher getroffene Performance-Prognose zur Radeon RX470 von einem Performance-Index von ~480-510% bleibt somit bestehen, darf nunmehr allerdings aufgrund dieser AMD-Benchmarks als noch besser untermauert angesehen werden.

Inhalt abgleichen