30

Hardware- und Nachrichten-Links des 30. Oktober 2014

Die PC Games Hardware berichtet über fernöstliche Gerüchte, wonach auch nVidia auf den Zug mit 8-GB-Grafikkarten aufspringen und demnächst eine GeForce GTX 980 mit eben 8 GB Grafikkartenspeicher präsentieren will. Damit würde man gegenüber AMDs kommenden Angebot einer Radeon R9 290X mit 8 GB Speicher entgegentreten – wobei es sich in beiden Fällen um reine Prestige-Angebote handeln wird, die realen Nutzungsmöglichkeiten von mehr als 4 GB Grafikkartenspeicher sind derzeit doch arg beschränkt. Zudem scheint nVidia sein Mehrspeicher-Angebot auf die GeForce GTX 980 oder wenigstens die neuen Maxwell-Grafikkarten zu beschränken – und nicht die viel eher nach mehr Speicher dürstenden Kepler-Grafikkarten entsprechend neu aufzulegen. Hier kommt der gestern schon genannte Grund ins Spiel: Die Kepler-Serie wird mittelfristig auslaufen, der Ersatz in Form der GeForce GTX 960 Serie wird kaum mehr Performance mitbringen, so daß der Mehrspeicher der GeForce GTX 960 Serie ein hauptsächliches Verkaufsargument dieser sein wird – welches sich nVidia natürlich erhalten muß.

Auf der AMD-Seite tröpfeln nun inzwischen weitere Informationen nach draußen: So soll es ab dem 6. November die Radeon R9 290X mit 8 GB Grafikkartenspeicher von Club3D, MSI PowerColor und Sapphire geben, Videocardz zeigen Bilder einer entsprechenden MSI-Karte. Interessanterweise soll der Mehrpreis bei nur 50 Euro gegenüber den regulären 4-GB-Modellen liegen, was für 4 GB GDDR5-Speicher sehr attraktiv erscheint – oftmals kostet allein der Sprung von 2 auf 4 GB gleich 30-40 Euro. Gegenüber dem einzelnen verfügbaren Radeon R9 290X Modell mit 8 GB Speicher seitens Sapphire, welches (noch) einen astronomischen Mehrpreis von gleich 300 Euro hat, ist dies in jedem Fall ein extremer Fortschritt. Ob weitere Hersteller hier mit einsteigen wollen (bzw. dürfen) oder ob es auch noch die Radeon R9 290 ohne "X" mit gleich 8 GB Grafikkartenspeicher geben wird, ist derzeit allerdings noch nicht bekannt.  (Foren-Diskussion zum Thema)

Die ComputerBase berichten über einige weitere Wortmeldungen von Ubisoft zu den Systemanforderungen von Assassin's Creed: Unity, welche bislang mit mindestens Radeon HD 7970 oder GeForce GTX 680 extrem Hardware-fressend aussehen. Allerdings ist dies laut Ubisoft wohl vonnöten, da das Spiel sogar 3 GB Grafikkartenspeicher bedingt – was wiederum wenig zur GeForce GTX 680 passt, die Karte wird per default nur mit 2 GB Speicher ausgeliefert. Nach wie vor ist es allerdings unwahrscheinlich, daß Ubisoft mit den bisher aufgerufenen Anforderungen ein echtes Minimum wiedergibt. Viel eher wahrscheinlich handelt es sich bei den genannten Spezifikationen um die Anforderungen für ein flüssiges Gameplay auf höchster Darstellungsqualität, ergo nicht wirklich um Mindest-Anforderungen. Genaueres wird sich aber wohl schon in nächster Zeit ergeben, da der Titel ab 13. November im Handel verfügbar sein wird.

Zum gestern erwähnten "Alienware Graphics Amplifier" für Dells Alienware 13 Gaming-Notebook gibt es noch zwei Nachträge zu notieren: Erstens einmal hat Dell höchstselbst entsprechende Benchmarks mit einer Radeon R9 290X aufgestellt – was die Frage klärt, ob auch AMD-Grafikkarten verbaubar sind. Faktisch dürften alle heutigen DualChip-Grafikkarten im Amplifier nutzbar sein, der entsprechende Platz und ein leistungsfähiges Netzteil hierfür sind vorhanden. Und zweitens konnte bestätigt werden, daß man mit der externen Grafiklösung in der Tat das Notebook-Display ansteuern kann, ergo die Lösung im technischem Sinne rund ist – abgesehen davon, daß sie nur an diesem einzelnen Dell-Notebook funktioniert und das ganze System aus Notebook und Amplifier zudem mit 1300 Euro nicht gerade günstig ist, die verbaute Desktop-Grafikkarte käme hierbei noch oben drauf. Gegenüber früheren, technisch zumeist halbgaren Lösungen für externe Grafik erscheint das Dell-Angebot aber wenigstens erst einmal als sinnvoll nutzbar.  (Foren-Diskussion zum Thema)

Gemäß WinFuture arbeitet Microsoft an einer Server-Version von Windows für ARM-Prozessoren, basierend auf den Grundlagen und Erfahrungen mit dem ebenfalls ARM-basierten Windows 8 RT. Ein Markteinsatz ist offiziell noch nicht bestätigt – andererseits wird eine solche Windows-Version eigentlich zwingend benötigt, denkt man an die Pläne von AMD und nVidia zu ARM-basierten Server-Prozessoren. Natürlich können jene auch unter UNIX bzw. Linux laufen, aber Microsoft will sich sicher nicht die Butter vom Brot nehmen lassen, nur weil man keinen Support für die momentan am stärksten nach vorne schreitende Prozessoren-Architektur anbietet. Für den normalen PC-Käufer könnten sich über diesen Server-Support von ARM-Prozessoren bei Windows mittel- und langfristig auch entsprechende Vorteile bieten – so könnte es passieren, daß irgendwann einmal die ganz normalen Windows-Versionen per default nicht nur x86-CPUs, sondern eben auch ARM-CPUs unterstützen, der PC-Käufer also völlige Wahlfreiheit erhält.

30

GeForce GTX 980: Performancegewinne durch zwei, drei und vier Grafikkarten unter SLI

Bei PC Perspective hat man sich eingehend mit dem Performancegewinnen unter Mehrfach-SLI bei einer GeForce GTX 980 beschäftigt. Einzurechnen ist dabei vorab, daß bei einer Grafikkarte am obersten Ende des Leistungsspektrums der SLI-Gewinn gerade bei mehr als zwei Grafikkarten oftmals unterdurchschnittlich ausfallen kann – einfach, weil die Rohpower unter Paarung von drei oder vier der derzeit schnellsten SingelChip-Grafikkarten derart hoch ausfällt, das viele Spiele damit nichts mehr anfangen können bzw. daß man oftmals platt in CPU-Limits hineinläuft. Aus diesem Grunde hat man bei PC Perspective auch gleich nur noch unter 2560x1440 und 3840x2160 gemessen – zumindest unter letzterer Auflösungen sollte es eigentlich weniger das Problem geben, auch mit vielen Grafikkarte noch Leistungsgewinne zu erzielen.

eine GTX 980 zwei GTX 980 drei GTX 980 vier GTX 980
theoretische Leistungsfähigkeit 100% 200%  (+100%) 300%  (+50%) 400%  (+33%)
reale Performance unter 2560x1440 100% 161,3%  (+61,3%) 192,9%  (+19,6%) 204,3%  (+5,9%)
reale Performance unter 3840x2160 100% 178,8%  (+78,8%) 224,3%  (+25,4%) 241,2%  (+7,5%)
SLI-Effizienz unter 2560x1440 - 61,3% 46,5% 34,8%
SLI-Effizienz unter 3840x2160 - 78,8% 62,2% 47,1%
Gesamt-Effizienz unter 2560x1440 100,0% 80,7% 64,3% 51,1%
Gesamt-Effizienz unter 3840x2160 100,0% 89,4% 74,8% 60,3%
Zum für "SLI-Effizienz" sowie "Gesamt-Effizienz" jeweils angesetzten Rechenmodell siehe bitte den Diskussions-Thread zu dieser Meldung.

Unter 2560x1440 zeigt sich jedoch das befürchtete Problem deutlich: Zwischen drei und vier Grafikkarten bewegt sich recht wenig, eine Reihe von Spielen zeigt nur die nahezu identische Performance, ein einzelnes läuft sogar deutlich langsamer. Ausnahmen wie Crysis, welches wie aus dem Lehrbuch skaliert, können dies nicht mehr retten – die vierte Grafikkarte ist hier übertrieben, sie bringt schließlich auch nur 5,9% Performancegewinn gegenüber der dritten Grafikkarte. Die SLI-Effizienz ist zudem allgemein schlecht, bei zwei Grafikkarte gewinnt man 61,3% vom theoretischen Maximum, bei drei Grafikkarten nur noch 46,5%. Dies dürfte aber darauf zurückzuführen sein, daß 2560x1440 einfach keine Anforderung für eine GeForce GTX 980 unter SLI darstellt.

Unter 3840x2160 ändert sich dies dann schnell: Insbesondere die SLI-Effizienz geht auf 78,8% mit zwei Grafikkarten und wenigstens 62,2% mit drei Grafikkarten hinauf, dies sind gangbare Werte – im Normalfall sind 80% SLI/CrossFire-Effizienz über eine größere Anzahl von Spielen erreichbar, mehr ist aufgrund einzelner Problemtitel kaum realistisch. Nach wie vor macht die vierte Karte aber Probleme, deren SLI-Effizienz liegt bei nur noch 47,1%, der Performancegewinn gegenüber der dritten Karte bei unrentablen 7,5%. Es sieht fast so aus, als hätte nVidia die SLI-Treiber speziell auf die Anforderungen von drei Grafikkarten hin optimiert – wohl wissend, daß mit den meisten Mainboards und Gehäusen sowieso keine vier DualSlot-Grafikkarten verbaubar sind.

In der Summe der Dinge zeigt sich, daß SLI (und bei CrossFire wird es ähnlich sein) derzeit eine Spielwiese für 4K ist – unter regulären Auflösungen jedoch kaum benötigt wird bzw. nur unterdurchschnittliche Performancegewinne abwirft, zumindest mit einer GeForce GTX 980. Unter 4K kommt jede Grafikkarte jedoch schnell auf eine SLI-Effizienz von nahezu 80%, was in der Nähe des normalerweise erreichbaren liegt. Allerdings sind nur maximal drei GeForce GTX 980 im SLI-Verbund sinnvoll, die vierte Karte muckt bei einigen Spielen und bringt insgesamt nur noch einen minimalen Leistungsgewinn, ist daher vollkommen verzichtbar.

Nachtrag vom 31. Oktober 2014

Diese Meldung über die Performancegewinne durch Mehrfach-SLI bei der GeForce GTX 980 hat inzwischen schon ein zweites Update erfahren: Ursprünglich war bei den Rechnungen zur SLI-Effizienz ein Gedankenfehler mit zu hohen Werten bei drei und vier Grafikkarten enthalten, was recht schnell direkt in der Meldung gefixt wurde. Über den Forenthread zur Meldung kam es zudem zur Diskussion über den Begriff "SLI-Effizienz" und dessen genaue Bedeutung respektive Berechnung. Um allen Auslegungsformen Rechnung zu tragen, wurde demzufolge nun auch noch eine andere Rechnung unter der Bezeichnung "Gesamt-Effizienz" der Meldung hinzugefügt. Unter SLI-Effizienz wird dabei (unsererseits) verstanden, was allein die zusätzlichen Grafikkarten mehr gegenüber dem theoretischen Maximum leisten – die Performance der ersten Grafikkarte wird dabei also herausgerechnet.

Dies bezieht sich auf die Begriffswahl "SLI-Effizienz" – und welcher man verstehen kann, daß nur die Effizienz der SLI-Komponenten ermittelt werden soll, nicht aber die Effizienz der ersten Grafikkarte, denn die steht ja auch im Normalsystem ohne SLI. Deswegen gibt es bei dem System mit nur einer Grafikkarte auch keinen Wert bei der SLI-Effizienz – weil dies kein SLI-System darstellt. Die "Gesamt-Effizienz" ermittelt dagegen die Effizienz aller Grafikkarten gegenüber deren theoretischem Maximum, weswegen es hier auch einen Wert bei einer einzelnen Grafikkarte gibt (welcher logischerweise immer "100,0%" betragen muß). Sicherlich streitbar ist die Begriffswahl – je nach Ansicht man könnte auch das, was in dieser Meldung als "Gesamt-Effizienz" berechnet wurde, als "SLI-Effizienz" ansehen. Eine echte Maßgabe hierzu fehlt mangels dessen, daß diese Rechnungen eher selten angegangen werden. Man könnte die Begriffe also sogar selber definieren, oder auch ganz andere Rechnungen aufmachen – je nachdem, was ausgedrückt werden soll.

29

Hardware- und Nachrichten-Links des 28./29. Oktober 2014

Laut den SweClockers (maschinelle Übersetzung ins Deutsche) wird AMD im November doch noch einmal neue Grafikkarten bringen – allerdings "nur" in Form der Radeon R9 290X mit 8 GB Speicher. Bisher waren 8-GB-Varianten den Grafikkarten-Herstellern faktisch "verboten", nun soll diese Begrenzung wohl fallen und AMD versuchen, mit diesen neuen Modellen, welche sicherlich auch ab Werk übertaktet sind, neuen Schwung in sein Angebots-Portfolio zu bringen. Ob dies gelingt, darf allerdings durchaus hinterfragt werden, da die bisher bei der Radeon R9 290 Serie gebotenen 4 GB Speicher schon ziemlich perfekt sind. Nur in Ausnahmefällen ist noch mehr Speicher nützlich (CrossFire-Systeme oder Nutzer von Grafikqualität-Mods, auch in Verbindung mit 4K oder Downsampling), dafür sind dann 8 GB Speicher sicherlich auch gern gesehen – aber ein großes Geschäft ist damit nicht zu machen, das Marktpotential dieser Nische ist zu klein.

Auch bei den kleineren AMD-Modellen – Radeon R9 280 Serie mit 3 GB und Radeon R9 270 Serie mit 2 GB Speicher – bietet AMD derzeit durchgehend eine nahezu ideale Speicherbestückung für die Leistungsfähigkeit der jeweiligen Karten an (mit einer Ausnahme bei der Radeon R9 285), da ist kaum großes Potential für etwaige Speicherverdopplungen zu sehen. Dagegen hat nVidia in diesem Feld Nachholbedarf, denn die HighEnd-Modelle GeForce GTX 670, 680 und 770 sind mit jeweils 2 GB Grafikkartenspeicher doch etwas zu knapp für die heutige Spielesituation bemessen – ganz besonders, wenn man über einfaches 1920x1080 hinausgehen will. Andererseits muß nVidia hier derzeit auch nichts tun, weil sich deren (alte) Grafikkarten nach wie vor gut verkaufen und der augenfällige Vorteil der zum Jahresanfang 2015 anstehenden GeForce GTX 960 Serie dann um so größer wird, wenn jene mit 3 GB Grafikkartenspeicher (aufgrund des 192 Bit DDR Speicherinterfaces) gegen die 2 GB Speicher der vorgenannten nVidia-Karten antreten wird.  (Foren-Diskussion zum Thema)

Breit berichtet wird derzeit über einen neuen Anlauf bei externer Grafik für Mobile-Geräte in Form einer proprietären Lösung beim Dell "Alienware 13" Gaming-Notebook. Jenes ist mit einem "Alienware Graphics Amplifier" koppelbar, was ein externes Gehäuse für Desktop-Grafikkarten mit eigenem Netzteil darstellt, welches über einen externen PCI Express 2.0 Anschluß ans Notebook angeschlossen wird. Leider hat sich Dell hier eine vollkommen gerätespezifische Lösung ausgedacht, welche weder mit Geräten anderer Hersteller noch mit eigenen früheren Alienware-Notebooks kompatibel sein soll – nutzbar ist der Amplifier also nur mit dem Alienware 13 Notebook. Unbekannt ist zudem noch, wieviele PCI Express Lanes die externe Anbindung nutzt, maximal 8 Lanes stehen dem im Notebook verbauten Core i5-4210U Prozessor zur Verfügung. Dagegen gibt es wenigstens ein paar Daten zum Amplifier-Gehäuse: Jenes kann DualSlot-Grafikkarten mit mindestens 27cm Länge (eventuell auch mehr) aufnehmen, deren TDP bis zu 375 Watt betragen darf (verbaut ist ein 460-Watt-Netzteil).

Auch wenn viele Detailinformationen noch fehlen, zeigt dies deutlich auf eine sehr kraftvolle Lösung an, die nicht die Fehler vorhergehender Versuche im Feld der externen Grafik wiederholt. Wahrscheinlich läßt sich im Amplifier jede der heutigen HighEnd-Grafikkarten (sofern DualSlot) mit auch entsprechendem Performancegewinn verbauen – letzteres darauf spekulierend, daß die maximalen 8 PCI Express 2.0 Lanes des Standards der externen Grafik zugeführt wurden. Ein erster Test bei Gizmondo mit einer im Amplifier verbauten GeForce GTX 980 gibt eine gute Wertung für dieses System ab, spart jedoch leider an exakten Benchmarks. Allerdings erscheint es laut dem Wortlaut des Artikels fast so, als würde die externe Grafik im Amplifier sogar das Notebook-Display direkt befeuern können – sollte sich dies bestätigen, hätte Dell fast alle Anwenderwünsche erfüllt. In jedem Fall sind jedoch weitere, intensive Tests zu Dells "Alienware Graphics Amplifier" anzuraten, um mehr Detailinformationen zu erhalten und die Performance des Geräts quantifizieren zu können.  (Foren-Diskussion zum Thema)

Der Planet 3DNow! ist der Frage nachgegangen, ob und in welcher Höhe die jüngsten Preissenkungen bei AMDs APUs im deutschen Einzelhandel angekommen sind. Nominell sind dabei die Preissenkungen der Straßenpreise klar niedriger als die Preissenkungen der Listenpreise – diese platte Rechnung bezieht aber nicht den Effekt mit ein, daß die Straßenpreise auch schon vor der Preissenkung teilweise klar unter den Listenpreisen lagen. Rechnet man dagegen die neuen Listenpreise um und vergleicht jene mit den aktuellen Straßenpreisen, passt es wieder bzw. liegen die aktuellen Straßenpreise teilweise sogar schon wieder etwas als die (umgerechneten) Listenpreise. Natürlich hat damit die aktuelle Preissenkung nur zum Teil zu niedrigeren Straßenpreisen geführt – und zum anderen Teil war die offizielle Preissenkung nur eine Reaktion auf schon unterhalb der Listenpreise liegende Straßenpreise.

Die eigentliche Frage zu diesen APU-Preisen ist aber sowieso, wieso AMD nicht von Anfang an mit dieser neuen Preislage angetreten ist. Die AMD Mainstream-APUs mögen technisch Vierkerner sein, von der Performance und dem Anforderungsprofil müssen sie sich dennoch mit Intels Zweikernern messen – und können diesen Wettstreit auch oftmals für sich entscheiden, wie die seinerzeitige Launch-Analyse zu Kaveri ergab. Um mit Intel in diesem, ausgerechnet auch noch stark preissensitiven Markt mithalten zu können, muß AMD jedoch nicht nur dieselbe Performance bieten, sondern – gegen den klaren Platzhirsch – eigentlich auch die besseren Preise bieten. Dazu im Widerspruch ging der A10-7850K seinerzeit jedoch mit 173$ Listenpreis in den Markt, während der schnellste Core i3 bei 149$ steht – und erst jetzt nach der offiziellen Preissenkung vom neuen Preis des A10-7850K mit 143$ knapp unterboten wird. Jenen – oder eigentlich noch einen besseren Preis – hätte AMD von Anfang an machen müssen, die Preise der Core i3 Prozessoren sind schließlich bekannt und über die letzten Jahre auch stabil. Ob diese späte Preissenkung AMD jetzt noch großartig weiterhilft, darf bezweifelt werden – die Urteile über Kaveri sind längst gefällt, da ist dann später nur schwerlich noch etwas dran zu ändern.

Inhalt abgleichen