22 22

Wieviel Grafikkartenspeicher sind derzeit für einen Neukauf ideal?

Einige der heutigen Spieletitel fordern inzwischen 4 oder gar 6 GB Grafikkartenspeicher für eine flüssige Performance unter den höchsten Texturensettings und Auflösungen ab. Und auch wenn dies teilweise auf schlechte Spieloptimierungen hindeutet oder/und sich dies in der Praxis als übertriebene Anforderungen herausgestellt hat – die Anforderungen an Grafikkartenspeicher sind mit dieser Spielegeneration klar explodiert und werden auch in der Zukunft sicherlich eher zulegen als stagnieren. Momentan gibt es zwar auf Grafikkarten mit "nur" 2 GB Grafikkartenspeicher noch keine großen Probleme, aber jene scheinen sich schon anzukündigen. Trotzdem bleibt es natürlich eine Streitfrage, wieviel Grafikkartenspeicher derzeit denn nun wirklich vonnöten sind.

Um in jeder Streitfrage die Meinung der Community besser zuzusammenzufassen, ergeht diese Umfrage – welche danach fragt, nach wieviel Grafikkartenspeicher man derzeit bei einem Neukauf schauen sollte. Als Monitor-Bemessungsgröße (nicht unwichtig, da zwischen FullHD und 4K hier deutliche Unterschiede existieren können) nehmen wir mal FullHD und 2560x1600. Die neu gekaufte Grafikkarte sollte also genügend Speicher für beide Auflösungen mitbringen – denn selbst wenn man derzeit "nur" FullHD nutzt, könnte in Zukunft ja ein neuer Monitor mit 2560x1600 anstehen. Für diese Aufgabe – jetzt neu gekaufte Grafikkarte für FullHD und 2560x1600 – steht also die eine Frage: Wieviel Grafikkartenspeicher sollte diese idealerweise mitbringen?

22

Neuer 3DTester-Artikel: ASRock AM1B-ITX Mainboard

Nach einigen Intel-Mainboards wollen wir mit dem ASRock AM1B-ITX uns nun auch mal eine AMD-Platine näher ansehen. Bei ihr handelt es sich um ein Board mit AM1-Sockel, den AMD vor knapp einem halben Jahr auf den Markt brachte, um auch im unteren Leistungssegment eine aufrüstbare, flexible und (nicht zuletzt) stromsparende Lösung zu bieten ... zum Artikel.

ASRock AM1B-ITX Mainboard
21

Hardware- und Nachrichten-Links des 21. November 2014

Golem berichten über einen Vortrag von Intel zur Broadwell-Architektur sowie zu Intels 14nm-Fertigung, bei welcher Intel auch offen zugab, daß absolut gar nichts am Broadwell-Design letztlich 14nm ist – weder irgendwelche Bauelemente noch irgendwelche Abstände der Bauelemente untereinander. Im genauen sind die Maßstäbe bei Broadwell sogar deutlich größer – und zwar im Rahmen von 42nm bis 80nm. Dies deutet darauf hin, daß diese kleine Schummelei der Halbleiter-Hersteller schon seit vielen Generationen am laufen ist. Nichtsdestotrotz wurden die Maßstäbe gegenüber der vorhergehenden 22nm-Fertigung überall um die Faktoren 0.65 bis 0.78 unterboten, in der Summe ergibt sich also trotzdem eine ungefähre Halbierung der Chipfläche bei gleichem Design und gleicher Transistorenanzahl. Bei den anderen Halbleiter-Herstellern läuft es ähnlich, auch dort passen die offiziellen Größenangaben überhaupt nicht mehr zu den real hergestellten Größen.

Die DigiTimes berichten im Nebensatz über den "Wiedereinstieg von VIA in den PC-Markt" in der zweiten Jahreshälfte 2015, basierend auf entsprechenden x86-Prozessoren und neuen Grafikchips. Was sich hochtrabend anhört, muß jedoch tatsächlich nicht viel bedeuten, VIA könnte schlicht und ergreifend seine bisherige LowCost- und LowEnd-Strategie neu aufleben lassen und entsprechend neue Produkte vorbereiten – sicherlich primär für den großen und preissensitiven chinesischen Markt. Daß dabei irgendetwas herauskommt, was auch im Westen Beachtung findet oder verdient, darf bezweifelt werden, so lange es nicht vorliegt – VIA hat in der Vergangenheit schon zu oft Großes versprochen und am Ende nur LowEnd-Spielereien geliefert, welche man zwar gut (in Asien) verkaufen konnte, was aber keinen echten Einfluß auf die generelle PC-Entwicklung hatten.  (Foren-Diskussion zum Thema)

Durch das englischsprachige Weg fressen sich derzeit Gerüchte, wonach der neue und bislang ungeknackte Denuvo-Kopierschutz für Spiele die Lebensdauer von SSDs deutlich reduzieren soll. Angeblich käme es mit dem Denuvo-Kopierschutz zu einer 1000fach stärkeren Schreiblast auf der Festplatte, was im Fall von SSDs mit ihren limitierten Schreibzyklen deren Lebensdauer (erheblich) begrenzen soll. Ob dies wirklich eine SSD in die Knie zwingen kann, darf allerdings allein aufgrund der Schilderung bezweifelt werden: Selbst wenn irgendeine Datei wirklich so häufig auf die Platte geschrieben wird, müsste es sich um Gigabyte-große Daten handeln, damit dies die SSD wirklich berührt. Einzelne Sektoren einer SSD sind bei modernen Modellen sowieso nicht mehr gezielt "kaputtschreibbar", da moderne SSDs die anfallenden Schreibzugriffe über alle verfügbaren Sektoren verteilen.

So verteilt sich ein 1000fach höherer Schreibwert bei einer kleinen oder mittelgroßen Datei im Endeffekt automatisch über die gesamte SSD und senkt deren Lebenserwartung (sowie die einzelner Sektoren) nur geringfügig. Selbst mit den angeblichen bis zu 50 GB pro Stunde Schreiblast ist eine SSD durch ein Spiel nicht auf die Schnelle kaputtschreibbar, immerhin werden SSDs heutzutage üblicherweise mit über 20 GB pro Tag Schreibleistung spezifiziert, wobei dieser Wert zum einen viel Reserve enthält und zum anderen jahrelang gehalten werden kann. Davon abgesehen gibt es inzwischen reihenweise Gegenanzeigen von Nutzern des Denuvo-Kopierschutzes, welche diese angeblich 1000fach stärkere Schreiblast nicht bestätigen können. Für den Augenblick kann man von Einzelfällen mit diesem Problem ausgehen, möglicherweise aber auch schlicht Auslese- oder Deutungsfehler.  (Foren-Diskussion zum Thema)

Passend zum Thema SSDs vermelden WinFuture neue 3D-Flashspeicher von Intel, auf welchen man mittlerweile 32 GB Speicher pro Chip unterbringt, bei TLC-Speicher sogar 48 GB pro Chip. Dies ist exakt das dreifache von dem, was Samsung derzeit mit seinem 3D-Flashspeicher schafft – und läuft letztlich darauf hinaus, daß auch in Zukunft die Größen von SSDs, USB-Sticks und Smartphone/Tablet-Speicher weiter deutlich wachsen können, zum nahezu gleichen Preis wohlgemerkt. Intels neue 3D-Flashspeicher werden zwar erst in der zweiten Jahreshälfte 2015 ausgeliefert werden – zu diesem Zeitpunkt dürfte von Samsung zudem eine weitere Generation an 3D-Flashspeichern zu erwarten sein, welche womöglich ähnliche Steigerungen der Speicherdichte mitbringt. In jedem Fall steht die Innovation im Bereich der Flashspeicher-basierten Produkte noch lange nicht still, sind hier augenscheinlich nach wie vor große Sprünge möglich.

Kleine interne Verbesserung: Den Bilder-Galerien (für News & Artikel) wurde eine eigene Bilder-Galerie für Roadmaps hinzugefügt und der Bilderbestand entsprechend umverteilt. Nunmehr lassen sich in der Roadmaps-Galerie alle möglichen Hersteller-Roadmaps aus näherer und weiterer Vergangenheit wiederfinden.

21

AMD kündigt Carrizo & Carrizo-L für Mitte 2015 an

AMD hat mittels Pressemitteilung und neuer Mobility-Roadmap seine Pläne für die Carrizo-APU offengelegt und auch Auskunft über einige technische Feinheiten dieser gegeben. So wurde die Integration einer Southbridge bestätigt – da es allerdings gleichfalls zum Wegfall der Hälfte des Level2-Caches kommen soll, bleiben trotzdem immer noch hunderte Millionen Transistoren im Vergleich zur aktuellen Kaveri-APU, welche Carrizo somit schwerer ist. Allein mit dem DDR4-Speicherinterface und den (erstmalig) kompletten HSA-Fähigkeiten ist dies kaum erklärbar, unter Umständen hat AMD hier also noch eine Überraschung in petto. Eine eher negative Überraschung ist allerdings der von AMD angegebene Releasetermine, wonach kauffähige Produkte erst zur Jahresmitte 2015 erhältlich sein werden. Zu Desktop-Produkten wurde im übrigen auffallenderweise nichts gesagt, AMD nannte das ganze sogar "2015 AMD Mobile APU Family" und sprach direkt Laptops und AiO-Systeme an, aber eben keine Desktop- bzw. Retail-Modelle.

Ebenfalls eine Überraschung hielt man dann noch für "Carrizo-L" parat: Hierbei handelt es sich nicht um eine Carrizo Mainstream-APU, sondern um eine umbenannte und leicht verbesserte Puma-basierte APU aus dem LowPower-Bereich. Deren Fähigkeiten dürften allerdings kaum über diejenigen der bisherigen Puma-basierten APUs "Mullins" und "Beema" hinausgehen, vollständige HSA-Fähigkeiten hat die integrierte Grafik beispielsweise nicht. Nachdem schon die bisherigen LowPower-Prozessoren von AMD – bis auf die Bastler-Gemeinde und einige LowCost-Notebooks – eher kaum angenommen wurden, versucht AMD scheinbar mit einer platten Umbenennung, hier mehr Geschäft zu machen – und dürfte dafür eher noch mehr abgestraft werden als früher, denn solch unverfrorenen Produkt-"Aufwertungen" durch Rebrandings kommen nicht gut an. AMD täte wirklich einmal gut daran, die komplette Strategie der kommunizierten Code- und Produktnamen grundlegend zu überdenken – derzeit ergibt sich da ein großes Wischiwaschi, resultierend in einer großflächigen Kundenverwirrung. Im übrigen wurde auch zu "Carrizo-L" derselbe Termin von Mitte 2015 genannt, der bislang kolportierte Frühstart noch in diesem Dezember scheint damit vom Tisch.

20

Hardware- und Nachrichten-Links des 20. November 2014

Gemäß Heise bereitet Futuremark die Mantle-Integration in die 3DMark-Reihe vor. Noch für den aktuellen 3DMark13 soll ein spezieller DrawCall-Test kommen, welcher die Differenzen zwischen DirectX 11, Mantle und DirectX 12 offenbaren kann – die beiden letzteren sollen dabei um den Faktor 6,5 schneller abschneiden als DirectX 11. Jener extra Test für den 3DMark13 soll noch dieses Jahr per Update nachgereicht werden. Für Ende 2015 ist hingegen ein "3DMark15" geplant (offiziell weiterhin nur "3DMark" genannt), welches regelrecht auf DirectX 12 basieren wird. In wie weit jener 3DMark15 dann auch Mantle als Option aufbietet oder aber wieder nur den extra DrawCall-Test anbietet, wurde noch nicht bekannt. Hinzu erwähnten Heise noch, daß Spielepublisher Capcom die Mantle-API in seine Spielengine "Panta-Rhei" integrieren wird, womit AMDs Grafik-API zukünftig eine noch breitere Basis bekommt.

Golem haben sich nochmals mit der Performance des Core M auf Broadwell-Basis beschäftigt – diesesmal im Vergleich mit Apples A8X sowie nVidias Tegra K1 64-Bit (Denver-basiert). In jenem Vergleich liegt mal der einen und mal der andere vorn, wobei gewisse Differenzen auch den unterschiedlich benutzten Betriebssystemen, CPU-Befehlssatzerweiterungen und Grafik-APIs geschuldet sein können – im groben läuft es wohl auf einen ungefähren Gleichstand hinaus. Dies allerdings nur unter dem Gesichtspunkt der absoluten Performance – genauer betrachtet erzielt der Core M seine Performance unter Unterstützung einer aktiven Kühlung, mit rein passiver Kühlung wären nicht so hohe Taktraten möglich bzw. könnten jene noch viel seltener gehalten werden. Die beiden ARM-basierten Pendants sind hingegen auch rein passiv kühlbar – was nicht nur mehr Einsatzzwecke ermöglicht, sondern eben auch deren Performance relativ gesehen deutlich aufwertet.

Die PC Games Hardware hat sich in einem kurzen Test den Athlon X4 860K angesehen – den ersten Kaveri-Prozessor ohne integrierte Grafik (faktisch mit abgeschalteter integrierter Grafik) und damit natürlich auch die erste reine CPU mit Steamroller-Rechenkernen, welche es bis dato immer noch nicht in den Bereich der FX-Modelle geschafft haben. Nicht untypisch für Kaveri-Prozessoren kann sich der Athlon X4 860K im Bereich von Anwendungs-Benchmarks gut mit Intels Core-i3-Serie anlegen, unter Spielen zieht dagegen der Intel-Prozessor (unter CPU-fordernden Settings) nach wie vor deutlich davon. Angesichts des Preispunkts von nur 65 Euro ist der Athlon X4 860K trotzdem eine Überlegung wert, das Preis/Leistungs-Verhältnis ist sogar besser als beim Intels Core i3 – bis auf eben den Spieleeinsatz, da geht die Tendenz aufgrund des großen Unterschieds dann doch wieder Richtung Intel. Andererseits sollte man als Spieler heutzutage sowieso eine Vierkern-CPU parat haben, die niedrigere Spiele-Performance unter diesen Rahmenbedingungen kaum zählen.

Passend hierzu ist die Meldung der ComputerBase über die Systemanforderungen zu Metal Gear Solid: Ground Zeroes auf dem PC: DirectX-11-Grafikkarte ab GeForce GTX 650, 4 GB Hauptspeicher und ein 64-Bit-Windows klingen erst einmal wohlbekannt, ein Vierkern-Prozessor ab der Sandy-Bridge-Baureihe mit mindestens 2.7 GHz Taktrate ist dagegen eine der höchsten bisher genannten minimalen CPU-Anforderungen. Hier darf natürlich die Frage gestellt werden, wie ernst der Spielepublisher diese Daten meint – gerade die Mischung aus HighEnd-CPU und LowCost-Grafikkarte erscheint wenig homogen und damit eher unglaubwürdig. Andererseits kann ein schlecht optimierter Konsolenport durchaus schon einmal CPU-Leistung zum Frühstück verspeisen – ganz ohne Grund wird man diese Angaben nicht gemacht haben. Es bleibt zu hoffen, daß das Spiel nicht gerade auf das Vorhandensein einer solchen CPU pocht (wie leider bei CoD aktuell der Fall), sondern sich auch mit kleineren bzw. älteren Prozessoren wenigstens starten läßt. Generell betrachtet dürften solcherart Anforderungen jedoch in Zukunft zunehmen, so daß man als Gaming-CPU wahrscheinlich wirklich nicht mehr unterhalb eines Vierkerners auf Sandy-Bridge-Basis bzw. einer gleichwertigen AMD-CPU einsteigen sollte.

20

Die Grafikkarten-Performance unter Call of Duty: Advanced Warfare

Bei Golem, der ComputerBase und der PC Games Hardware hat man sich mit der Grafikkarten- und CPU-Performance unter dem neuesten Call-of-Duty-Titel "Advanced Warfare" beschäftigt. Die langjährige Spieleserie arbeitet immer noch mit der id Tech 3 Engine, welche allerdings inzwischen weitgehend umgeschrieben und angepast wurde, insbesondere die beiden letzten CoD-Titel haben hier größere Sprünge erzielt. Inzwischen läuft nichts mehr unterhalb einer DirectX-11-Grafikkarte mit 64-Bit-Windows und einer CPU mit mehr als drei Threads (Zweikerner mit HyperThreading oder aber Vierkerner). Dies bedeutet allerdings nicht, daß "Advanced Warfare" zur Optik-Spitze gehören würde oder besonders viel Hardware-Einsatz benötigt – man bietet eine zeitgemäße Grafik, schließt aber mit den Hardware-Anforderungen (zielgemäß) möglichst wenig potentielle Käufer aus.

Dafür sorgen auch die Anti-Aliasing-Optionen, welche kein (leistungsfressendes) Multisampling Anti-Aliasing bieten, sondern nur die Wahl zwischen den wenig Performance verlangenden Modi FXAA bzw. SMAA oder aber dem wie üblich leistungsfressenden Supersampling Anti-Aliasing lassen. Da letzteres für die meisten Grafikkarten dann doch zuviel Rohpower erfordert, gibt es im eigentlichen nur die Wahl zwischen FXAA und SMAA, wobei aufgrund des negierbaren Performanceverlusts bei beiden Methoden die optisch schönere vorzuziehen wäre – ergo SMAA 2Tx, welches eine temporale Komponente zur Bekämpfung von Flimmer-Effekten enthält und von allen Testern als beste der "normalen" Anti-Aliasing-Methoden genannt wurde.

Die ComputerBase und die PC Games Hardware haben sich dann jeweils ein WorstCase-Szenario zum Ausmessen der Grafikkarten-Performance von Call of Duty: Advanced Warfare herausgesucht, wobei jenes der ComputerBase angesichts der erzielten Frameraten deutlich niedriger liegt und daher nachfolgend als Maßstab benutzt wurde. Eingerechnet wurden hierbei auch schon die Treiberverbesserungen, welche AMD mit dem Beta-Treiber 14.11.1 bietet und welche von der ComputerBase separat ausgemessen wurden. Die weiteren neuen Treiber-Versionen – bei AMD die Beta 14.11.2, bei nVidia die Treiber 344.65 und 344.75 – nehmen dagegen keinen Bezug auf Call of Duty: Advanced Warfare, dürften also keine bedeutsamen weiteren Performance-Verbesserungen für diesen Titel aufweisen.

Call of Duty: Advanced Warfare – 1920x1080 MaxQuality & SMAA 2Tx (Quelle: ComputerBase)
AMD HD5/6000 AMD HD7000 AMD R200 nVidia GF4/500 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 5850
6870
560 650Ti
30-39 fps 5870
6950
7790 260
260X
470
560Ti
560Ti-448
570
480
650Ti-Boost 750
750Ti
40-49 fps 6970 7850 265 580 660
660Ti
50-59 fps 7870
7870-Boost
7950
7950-Boost
270
270X
670 760
ab 60 fps 7970
7970-GHz
280
285
280X
290
290X
680
Titan
770
780
Titan Black
780Ti
970
980

Generell läuft Call of Duty: Advanced Warfare mit halbwegs potenter Hardware schon erstklassig schnell, selbst ohne der Verbesserungen durch den genannten Beta-Treiber kommt alles ab der Radeon R9 285 sowieso auf über 60 fps. Die Treiber-Verbesserungen dienten dann nur dazu, die Balkenlänge freundlicher im direkten Vergleich gegenüber nVidia zu gestalten, bringen jedoch keine höhere Spielbarkeit, denn jene war vorher schon in erstklassiger Form gegeben. Eine kleinere nVidia-Tendenz kann der neueste CoD-Titel (erneut) nicht verleugnen, aber angesichts der allgemein hohen Frameraten und der eher geringen Unterschiede ist diese Tendenz wohl negierbar. Eher auffallend ist, daß die neueren Architekturen – bei AMD ab der Radeon HD 7000 Serie, bei nVidia ab der Kepler-Generation – deutlich besser wegkommen als ältere Beschleuniger. Genauso ist zu erkennen, daß die vorhandene Speichermenge (unter 1920x1080) noch keinen beachtbaren Einfluß hat, wenn selbst Radeon HD 5870, GeForce GTX 470 und GeForce GTX 560 Ti noch passabel mitkommen.

Call of Duty: Advanced Warfare – 2560x1600 MaxQuality & SMAA 2Tx (Quelle: ComputerBase)
AMD HD5/6000 AMD HD7000 AMD R200 nVidia GF4/500 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 6950 7790 260X 560Ti-448
570
480
660Ti-Boost 750Ti
30-39 fps 6970 7850
7870
265
270
580 660
660Ti
760
40-49 fps 7870-Boost
7950
7950-Boost
7970
270X
280
285
670
680
770
50-59 fps 7970-GHz 280X Titan 780
ab 60 fps 290
290X
Titan Black
780Ti
970
980

Unter 2560x1600 geht die Performance – typisch für CoD – sehr spürbar nach unten, alle Grafikkarten verlieren zwischen 25-30% an fps. Zudem scheinen die kleineren Grafikkarten mit wenig Speicherbandbreite bzw. kleinen Speicherinterfaces stärker betroffen zu sein, Radeon R7 260X und GeForce GTX 750 Ti verlieren mit am meisten. Vakant ist daneben, ob unter dieser Auflösung Grafikkarten mit nur 1 GB Grafikkartenspeicher noch gut mitkommen – eventuell verlieren jene hier schon stärker, dies kann aber mangels entsprechender Tests weder bestätigt noch dementiert werden. Im Vergleich zwischen AMD und nVidia gibt es hier sogar eine kleine Überraschung: Unter 2560x1600 kommt AMD mit dem neuen Beta-Treiber etwas besser weg als erwartet. Die GeForce GTX 980 bleibt zwar an der absoluten Leistungsspitze, direkt dahinter kommt allerdings schon die Radeon R9 290X – noch vor GeForce GTX 780 Ti und GeForce GTX 970.

Die ComputerBase sowie die PC Games Hardware bieten dann noch weiterführende Benchmarks zum einen unter 4K (3840x2160), wo sich AMD nochmals etwas besser positionieren kann, sowie unter Supersampling Anti-Aliasing, wo die Messungen zu den üblich erwartbaren Ergebnissen führen. In beiden Fällen erreichen aber nur noch eine Handvoll Grafikkarten das 40-fps-Land, noch weniger dann 50 fps oder mehr. Mit absoluter Spitzen-Hardware erscheinen 4K oder Supersampling Anti-Aliasing unter Call of Duty: Advanced Warfare durchaus realisierbar, hierzu zählen Radeon R9 290 & 290X auf AMD-Seite, sowie GeForce 780 Ti, 970 und 980 auf nVidia-Seite.

Bezüglich der benötigen CPU-Performance erscheint Call of Duty: Advanced Warfare hingegen arg genügsam zu sein, deutliche Taktraten-Unterschiede oder aber die Limitierung eines Achtkern-Prozessors auf nur vier aktive Rechenkerne machen kaum einen Unterschied aus, das Spiel läuft trotzdem nahezu immer in Grafikkarten-Limits hinein. Um so unverständlicher erscheint die Entscheidung der Spieleentwickler, beim Start das Vorhandensein von vier logischen Prozessoren (echter Vierkerner oder Zweikerner mit HyperThreading) abzufragen und ansonsten einfach den Spielstart zu verweigern. TweakPC berichten hierzu über einen Spieler-erstellten Fix, mit welchem das Spiel dann auch auf gewöhnlichen Zweikern-Prozessoren startet – unter möglicherweise nur minimalen Leistungseinbußen, eine gute Grafikkarte natürlich vorausgesetzt.

Inhalt abgleichen