4

Hardware- und Nachrichten-Links des 4. März 2015

PC Perspective konnten auch noch eine echte, in ein PC-Gehäuse eingebaute GeForce GTX Titan X auf der GDC erspähen. Jene trug im übrigen einen 6poligen und einen 8poligen Stromstecker, was auf eine TDP weiterhin im Bereich bis 250 Watt hindeutet – was allerdings nicht zwingend bedeutet, daß die Serienprodukte ähnlich bestückt sind. Angesichts der punktgenauen Effizienz der bisherige Maxwell-Beschleuniger ist aber ein Stromverbrauch von real 250 Watt wohl sogar ausreichend, um der GeForce GTX Titan X Gelegenheit zu geben, ihre Hardware-Power auch auszuspielen – insofern könnte diese Bestückung durchaus auch bei den Serienmodellen so auftauchen. Overclocker-Exemplare – wobei unbekannt ist, ob nVidia solche bei der GeForce GTX Titan X zulassen wird – sollten dann aber besser zwei 8polige Stromstecker aufweisen, denn im Overclocking-Betrieb dürften jene 250 Watt umgehend zu knapp werden (wobei natürlich auch in einem 6poligen + 8poligen Stecker diesbezüglich genügend Reserven schlummern).

Nach einem ziemlichen Hauen & Stechen darüber, ob die Vulkan-API nun von Mantle stammt oder nicht, gibt es hierzu sowohl von AMD als auch von Khronos selber klare Bestätigungen. AMD scheint faktisch der Khronos Group das gesamte Mantle-Material zur Verfügung gestellt zu haben – was wohl überhaupt erst die Möglichkeit dazu bildete, Vulkan so schnell aus der Taufe zu heben. Dies hat sogar den netten Seiteneffekt, daß nun auch nVidia (als Mitglied der Khronos Group) mit im Boot ist – ein Vorgang, welchen man zu AMDs Mantle einfach wegen der harten Konkurrenz beider Unternehmen untereinander schlicht vergessen konnte. Gewonnen hat hier in erster Linie die OpenGL-Gemeinde, welche mit OpenGL seit Jahren hinterherkrebste und sich mit Abwärtskompatibilität bis zum Sanktnimmerleinstag sowie Hersteller-spezifischen Extensions abmühen musste. Vulkan eröffnet einen neuen Ansatz, welcher ohne all diese alten Zöpfe auskommt, trotzdem aber die bekannte Plattform- und Hersteller-Unabhängigkeit von OpenGL bewahrt.

Die neuen Statistiken zur Betriebssystem-Verbreitung bei Netmarketshare zeigen in erster Linie an, wie unsicher bzw. fehleranfällig doch solcherart Statistiken sind – selbst wenn sie auf Basis vieler Millionen PC-Systeme erstellt werden. Noch letztes Jahr mussten wir an dieser Stelle einen heftigen, geradezu unglaubwürdigen Einbruch von Windows XP auf unter 14% vermelden – nun ist dies alles wieder glattgebügelt und Windows XP steht erneut bei über 19%. Da sich in den letzten drei Monaten kaum 5% der weltweiten Internet-Nutzer zur Umstellung auf Windows XP entschlossen haben dürften, scheint damit klar zu sein, daß die Angabe aus dem letzten Herbst ein glatter Statistik-Fehler war. Rechnet man diesen heraus, verschieben sich die Verhältnisse eher denn nur gemächlich: Windows XP bleibt bei knapp unter 20%, Windows 8/8.1 gewinnt sehr leicht hinzu, Windows 7 bleibt konstant bei 55-56%. Die konkurierende Statistik von StatCounter zeigt (auf Basis einer gänzlich abweichenden Auswertungsmethode) ebenfalls nur eher geringfügige Veränderungen über die letzte Zeit an – allenfalls ist hier bei den absoluten Zahlen Windows XP schwächer und Windows 8/8.1 stärker vertreten.

Die Marktforscher von Nielsen zeigen es nun schwarz auf weiß, weshalb innerhalb der aktuellen Konsolen-Generation die Sony Playstation 4 vorn liegt: Die höheren verfügbaren Auflösungen werden klar als wichtigster Punkt genannt, eine solche Konsole zu erwerben – völlig egal der Aussagen der Konsolenhersteller als auch vieler Spiele-Entwickler, daß die Auflösung doch eigentlich nicht so wichtig sei. Doch für den Konsumenten, welcher einen neuen FullHD-Fernseher hat und sich zudem genauso noch darüber im klaren ist, daß eine nicht Pixel-genaue Ansteuerung auf TFTs immer einen Bildqualitätsverlust nach sich zieht, ist dies entgegen aller Hersteller-Propaganda dann doch ein wichtiger Punkt. Die höherwertigere Hardware der Playstation 4 hat dann also doch gezogen – und selbst wenn jene nicht in jedem Fall in der Lage ist, die entsprechenden Konsolen-Titel unter FullHD darzustellen, so reicht es doch zumindest immer noch dafür aus, um sich ausreichend vor der Xbox One zu positionieren.

4

nVidias GeForce GTX Titan X kommt mit 8 Mrd. Transistoren, 7 TeraFlops Rechenleistung und 12 GB Speicher

nVidia hat im Rahmen der Game Developer Conference (GDC) seine kommende Enthusiasten-Grafikkarte "GeForce GTX Titan X" ein wenig geteasert – indem nVidia-Chef Jen-Hsun Huang ein solches Exemplar (hoffentlich nicht wieder ein Holz- oder Plastemodell) öffentlich an Epic-Chef Tim Sweeney übergeben hat (Bilder im Forum oder bei Heise, man kann sich das ganze auch noch bei Twitch im nachhinein ansehen). Von einer "Vorstellung" oder "Ankündigung" kann damit natürlich keine Rede sein – dies könnte auf nVidias Hausmesse GPU Technology Conference (GTC) vom 17.-20. März stattfinden, bestätigt ist in dieser Richtung jedoch noch gar nichts.

Wenigstens wurden durch diesen Teaser einige wichtige Daten zur neuen Enthusiasten-Karte geklärt: Der exakte Verkaufsname "GeForce GTX Titan X", die Anzahl der Transistoren des verwendeten GM200-Chips mit 8 Milliarden, die theoretische Rechenleistung von 7 TeraFlops (SinglePrecision; allerdings ist unsicher, ob diese Angabe von nVidia selbst stammt, da nur Golem jene notieren) und die zum Einsatz kommende Speichermenge von 12 GB GDDR5-Speicher. nVidia geht damit bei der Speichermenge gleich auf das Maximum dessen, was derzeit machbar ist – unabhängig der Sinnhaftigkeit. Aber eine Auflösung mit 6 GB Speicher wäre auch zu einfach übertölpelbar gewesen, schließlich kann man die Radeon R9 290X jetzt schon als 8-GB-Variante erwerben. Mit den 12 GB Speicherausbau geht nVidia allen eventuellen Schwierigkeiten aus dem Weg und läßt sich selbst sogar noch die Möglichkeit, eigene 8-GB-Varianten der GeForce GTX 980 herausbringen zu können.

AMD Hawaii AMD Fiji nVidia GM204 nVidia GM200
Chipbasis 6,2 Mrd. Transistoren in 28nm auf 438mm² Chipfläche ~550mm² Chipfläche 5,2 Mrd. Transistoren in 28nm auf 398mm² Chipfläche 8 Mrd. Transistoren in 28nm auf ~600mm² Chipfläche
Architektur GCN-Architektur 1.1, DirectX 11.2b, Mantle & TrueAudio GCN-Architektur 1.2+, DirectX 11.2b, Mantle & TrueAudio Maxwell-Architektur 2.0, DirectX 11.2b & PhysX Maxwell-Architektur 2.0, DirectX 11.2b & PhysX
Technik 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR GDDR5-Interface, 1 MB Level2-Cache unsicher: 6-8 Raster-Engines, 4096 Shader-Einheiten, 256 TMUs, 4096 Bit DDR HBM-Interface 4 Raster-Engines (mit verdoppelter Raster-Power), 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit DDR GDDR5-Interface, 2 MB Level2-Cache unsicher: 6 Raster-Engines (mit verdoppelter Raster-Power), 3072 Shader-Einheiten, 192 TMUs, 96 ROPs, 384 Bit DDR GDDR5-Interface
Rechenleistung ~6 TeraFlops ~ 8 TeraFlops 5,5 TeraFlops ~7 TeraFlops
Speicherausbau 4/8 GB GDDR5 4 GB HBM 4 GB GDDR5 12 GB GDDR5
Zielrichtung HighEnd Enthusiast HighEnd Enthusiast
Topmodell Radeon R9 380X Radeon R9 390X GeForce GTX 980 GeForce GTX Titan X
Terminlage Frühsommer 2015
(als Radeon R9 290X bereits im Markt)
Frühsommer 2015 bereits im Markt März 2015 (?)
Preislage vermutlich 350-400€ vermutlich unterhalb von 1000 Euro 500-540€ 1000 Euro oder mehr
(bis zu 1350 Euro genannt)

Sofern die Vorab-Angabe passt und der GM200-Chip tatsächlich über 3072 Shader-Einheiten verfügt, wird die GeForce GTX Titan X dann im übrigen einen Chiptakt von immerhin ~1140 MHz haben müssen, um die genannten ~7 TeraFlops Rechenleistung zu erzielen (wie gesagt ist unsicher, ob diese Angabe wirklich direkt von nVidia stammt). Selbst wenn nVidia für diese Rechenleistungs-Angabe einen maximalen Boost-Takt verwenden sollte (und die Rechenleistung damit in der Realität etwas niedriger ist), scheint der Chiptakt der GeForce GTX Titan X doch klar oberhalb von 1000 MHz zu liegen – was für einen so großen Chip eher ungewöhnlich ist. Allerdings ist die Maxwell-Architektur generell sehr taktfreudig und hat nVidia beim GM200-Chip natürlich gewisse Vorteile durch den offensichtlichen Verzicht auf großartige DoublePrecision-Fähigkeiten.

Interessant ist daneben noch die Frage, was nVidia eventuell noch an kleinen Überraschungen in die 8 Milliarden Transistoren hereinquetschen kann. Denn ausgehend von den bekannten Zahlen zum GM206-Chip und zum GM204-Chip läßt sich jetzt schon ausrechnen, daß der GM200-Chip auf den genannten 3072 Shader-Einheiten unter Beibehaltung der restlichen Architektur ungefähr 7,46 Milliarden Transistoren auf 569mm² Chipfläche schwer sein sollte. Die Chipfläche passt in etwa, bei der Transistoren-Anzahl ergibt sich dagegen eine Differenz von immerhin 540 Millionen Transistoren zur nVidia-Angabe. DoublePrecision-Einheiten im GK110-Stil passen da sicherlich nicht mehr hinein, aber andere kleinere Dinge schon – oder aber das ganze ist einfach nur jeweils falsch gerundet und es kommt da nichts mehr zusätzliches hinein bzw. hat der GM200 einfach mehr Massetransistoren zur Erhöhung der Schaltfähigkeit (aka Taktrate).

4

OpenGL-Macher Khronos kündigt Grafik-API "Vulkan" für Ende 2015 an

Im Zuge der Games Developer Conference (GDC) hat OpenGL- und OpenCL-Macher Khronos Group die neue Grafik-API "Vulkan" (bisheriger Codename "glNext") als Nachfolger von OpenGL angekündigt. Hiermit soll ein erneuter Versuch unternommen werden, das faktische Monopol von DirectX im Windows-Bereich zu brechen, als Hauptargument für Vulkan gilt wie früher für OpenGL natürlich die Plattform- und Hardware-Unabhängigkeit, auf welcher Khronos deutlich herumreitet. Im Gegensatz zu den letzten Jahren, wo in Sachen OpenGL (auf dem PC) eigentlich gar nichts mehr gelaufen ist, könnte Vulkan allerdings durchaus seine Chance erhalten, ist durch das Erstarken von Smartphones und Tablets als Spiele-Plattform das Interesse an dem Feature der Plattform- und Hardware-Unabhängigkeit wohl inzwischen viel größer als zuletzt.

Technologische Hauptpunkte von Vulkan sind zum einen der von Mantle stammende LowLevel-Ansatz – und zum anderen das Shadersprachen-Frontend "Standard Portable Intermediate Representation for Vulkan", kurz SPIR-V. Letzteres soll verschiedene Shader- und Programmier-Sprachen in eine für Vulkan verständliche Shader-Sprache übersetzen können – bislang funktioniert dies nur für GLSL von OpenCL, später sollen noch Übersetzer für andere Sprachen hinzukommen. Sollte dies erreicht werden können, würde dies natürlich den Spiele-Entwicklern und ihren persönlichen Vorlieben extrem entgegenkommen. Auch der Aufwand eines Spiele-Entwicklers, von einer anderen Grafik-API auf Vulkan umzusteigen, könnte sich durch Beibehaltung der benutzten Shader-Sprache deutlich verringern lassen – sofern letztere natürlich durch Vulkan unterstützt wird.

Khronos Group "Vulkan" Präsentation (Slide 4)
Khronos Group "Vulkan" Präsentation (Slide 4)
Khronos Group "Vulkan" Präsentation (Slide 11)
Khronos Group "Vulkan" Präsentation (Slide 11)

Breitflächige Anleihen von Vulkan bei AMDs Mantle-API sind augenscheinlich und inzwischen auch von AMD bestätigt worden – welche zudem im Zuge von Vulkan die große Förderung von Mantle scheinbar einstellen werden. Leider noch recht wenige Details enthält die offizielle Vulkan-Präsentation (PDF), eine "Library"-Demo als Video soll zudem die Möglichkeiten der Grafik-API im Mobile-Gefilde demonstrieren. Grafisch ist das gezeigte ansprechend (PC-Niveau rund 10 Jahre zurück), die offensichtlich schwache Performance soll an den verwendeten Alpha-Treiber der benutzten PowerVR-GPU liegen. Allerdings hat Vulkan natürlich noch etwas Zeit zur Reife, denn die neue Grafik-API soll erst zum Jahresende 2015 final spezifiziert werden – zu diesem Zeitpunkt dürfte Microsofts DirectX 12 in Form des Launches von Windows 10 allerdings schon funktionabel im Markt stehen.

In der Unterstützer-Liste von Vulkan tauchen alle wichtigen Grafikchip- und SoC-Entwickler (Apple, AMD, ARM, ImgTec, Intel, Mediatek, nVidia, Qualcomm, Samsung) sowie einige bekannte Spiele-Studios und Engine-Entwickler auf – was erst einmal eine gewisse Beachtung sichert, aber natürlich keine Garantie für irgendwelche Erfolge darstellt. Denn die Spieleentwickler haben auf dem PC mit DirectX schließlich weiterhin eine allseits bekannte und gut funktionierende Alternative. Im Mobile-Segment dürfte Vulkan hingegen schon fast gesetzt sein, abseits von Apple mit ihrer eigenen Metal-API gibt es sowieso kaum Konkurrenz zu Vulkan. Dieser automatische Erfolg im Mobile-Segment bietet eine vernünftige Grundlage für einen Vorstoß ins Desktop-Segment – wobei trotzdem die Spiele zwischen Mobile und PC noch so verschieden angelegt sind, das keiner dafür garantieren kann, daß aus dieser guten Ansetzung etwas positives zugunsten von Vulkan wird. Die Zeit muß zeigen, ob Vulkan auch auf dem PC die Spieleentwickler mehr begeistern kann als es zuletzt OpenGL kaum noch vermochte.

3

Hardware- und Nachrichten-Links des 3. März 2015

Pünktlich zum Anfang März scheint sich die GeForce GTX 960 4GB einzustellen: Erste Ankündigungen solcherart Karten gibt es sowohl von Inno3D als auch von EVGA – leider in beiden Fällen ohne Termin und ohne Preisangabe. Terminlich dürfte es wohl die wenigsten Probleme geben (Händler-Aussagen sprechen vom 10. März), doch preislich stellen sich einige Fragen: Wirklich großartig steht die reguläre GeForce GTX 960 mit 2 GB Speicher diesbezüglich nicht im Markt, ein weiterer Preisaufschlag von nur 30 Euro für die 4-GB-Version würde diese neue Kartenversion dann schnell gegen die Radeon R9 280X antreten lassen – welche zwar "nur" 3 GB Speicher hat, dafür aber klar leistungsstärker ist und aufgrund ihres 384 Bit DDR Speicherinterfaces auch eine drastisch bessere Eignung für höhere Auflösung mitbringt. Eventuell kann die GeForce GTX 960 mit 4 GB Speicher auch noch ein paar Punkte Performance-Plus gegenüber ihrer 2-GB-Variante einfahren, dies würde der neuen Grafikkarten-Variante sicherlich weiterhelfen. Ansonsten dürfte es die GeForce GTX 960 4GB schwer im Markt haben, trotz daß eine solche Version seit Launch gefordert wird.

Noch zum Ausgang des alten Jahres hat sich die ComputerBase mit den beiden Optimierungs-Tools "AMD Gaming Evolved vs. nVidia GeForce Experience" beschäftigt. Beide sollen dem unerfahrenen Anwender zur Hand gehen und die Grafikeinstellungen eines Spiels von alleine derart anpassen, daß es optimal spielbar wird. Dies setzt natürlich Kenntnisse über das Spiel bei AMD & nVidia voraus, was bei ganz neuen Spielen wie auch im Test bestätigt nicht funktioniert. Aber auch bei den bekannten Titeln klappt die Optimierung nur im Normalfall, nicht aber wirklich durchgehend: Da werden einige Spiele grundlos in Richtung 100 fps "optimiert", bei anderen sollen hingegen 18 fps zur "Spielbarkeit" reichen. Sicherlich funktioniert in beiden Optimierungs-Tools schon das meiste – aber gerade für den unerfahrenen Anwender ist dies zu wenig, dafür muß eben alles funktionieren. nVidias "GeForce Experience" tut sich zudem negativ durch die Verschwendung von Bildqualität mittels grundsätzlich zu hoher Frameraten hervor – eine Empfehlung können daher beide Optimierungs-Tools derzeit nicht bekommen.

Die PC Games Hardware hat sich in einem Artikel mit dem besten PC für Photoshop beschäftigt. Interessant neben dem eigentlichen Thema sind hier vor allem die Ausführungen zum Grafikkarten-, OpenGL- und OpenCL-Support von Photoshop, über welchen es viele Mißverständnisse gibt. Doch ab Photoshop CS6 und ab einer Grafikkarte mit OpenGL 2.0 werden von Photoshop diverse Beschleunigungsfunktionen benutzt – darunter dürfte fast alle heute gebräuchliche Hardware fallen. Richtig schön wird es natürlich erst mit einer DirectX-11-Grafikkarte und damit OpenCL 1.1, wobei auf diesem Niveau dann schon Mainstream-Modelle wie Radeon R7 260 oder GeForce GTX 750 eine erstklassige Photoshop-Performance liefern. Interessanter Pluspunkt für AMD ist hierbei, das die schnelleren nVidia-Grafikkarten unter Photoshop ständig unter Vollast röhren, während die AMD-Modelle diesen Modus nur bei der tatsächlichen Berechnung der anstehenden Aufgaben benutzen. Der Artikel bietet zudem noch umfangreiche Grafikkarten- und Prozessoren-Benchmarks, derweil bei den Prozessoren-Empfehlungen sehr oft AMD – von FX-Prozessoren bis zu den APUs – genannt wurde, von den in vielen anderen Anwendungsfeldern noch gut mithaltenden Core i3 Prozessoren hingegen abgeraten wurde.

Laut Heise lassen sich auf diversen neuen Notebook-Modellen von Lenovo nur noch vom Hersteller signierte BIOS-Versionen installieren, nicht mehr die freie UEFI-Alternative "Coreboot". Technisch löst Lenovo das ganze natürlich mit einer Verdongelung an Intels "Boot Guard" Features, welches sogar ohne TPM-Modul auskommt, aber mit Intels "Managment Engine" korreliert. Für den normalen Computerkäufer dürfte dies vielleicht sogar eine gute Funktion sein, läßt sich das BIOS damit nahezu nicht mehr durch Schadsoftware manipulieren. Kritisch wird es natürlich, wenn es nur noch Computer mit dieser Funktionalität geben sollte – weil dann UEFI-Alternativen ausgesperrt würden, die für einige Anwendungszwecke dann doch benötigt werden. Problematisch ist sicherlich auch, daß der Hersteller dies nicht offen kommuniziert, sondern es die PC-Käufer augenscheinlich erst im Nachhinein feststellen – denn ein sorgenfreies Rückgaberecht existiert schließlich nicht in jedem Teil der Welt.

Die Mitteldeutsche Zeitung berichtet über ein erstes Urteil im Fall PC-Fritz, welches mit jahrelanger Haft für den ehemaligen Unternehmens-Chef scheinbar eindeutig klingt. Doch abweichend von teilweise anderslautenden Berichterstattungen wird bei der Mitteldeutschen Zeitung klar ausgeführt, daß der Angeklagte allein wegen Steuerhinterziehung verurteilt wurde – kein Wort über eine Verurteilung wegen Urheberrechtsverstößen. Noch steht eine weitere Verhandlung wegen "Betrugs" aus – aber bislang scheint keinerlei Strafverfahren eben wegen der angeblichen Urheberrechtsverstöße zu laufen. Damit ist zwar erwiesen, daß das Geschäftsmodell von PC-Fritz keinesfalls koscher war – aber in Sachen Urheberrecht steht weiterhin allein die Wortmeldung Microsofts da, welches alles natürlich in schwärzesten Farben malt. Man darf natürlich gut und gerne mutmaßen, daß aufgrund der Steuerhinterziehung sowie des noch anstehenden Betrugsverfahrens die von PC-Fritz verkauften Lizenzen doch nur von einer chinesischen Rolle stammten – bewiesen ist dies allerdings noch nirgendwo (daß die DVDs Fälschungen waren, ist dagegen klar und sogar zugegeben worden).

3

Die Systemanforderungen zu Cities: Skylines

Spielepublisher Paradox Interactive und Spieleentwickler Collosal Order haben die offiziellen Systemanforderungen zur Städtebau-Simulation "Cities: Skyline" bekanntgeben. Das Spiel wird am 10. März 2015 erscheinen und bringt recht moderate Hardware-Anforderungen mit sich, dürfte also auf den allermeisten Systemen gut zu betreiben sein. Interessant ist die Betriebssystem-Unterstützung noch bis Windows XP herunter – allerdings ist auch dort ein 64-bittiges Betriebssystem erforderlich, liegt die Ausführungsdatei zu Cities: Skylines augenscheinlich nur als 64-bit-Version vor. Genauso unterstützt das Spiel – zu identischen Hardware-Anforderungen – auch noch SteamOS, hier ebenfalls nur in einer 64-Bit-Variante.

Auf Prozessoren-Seite geht man bei den minimalen Anforderungen bis hinunter zu den alten Kämpen der Athlon 64 X2 und Core 2 Duo Serie, die empfohlenen Anforderungen sehen mit FX-6300 oder Core i5-3470 hingegen schon viel kräftiger aus. Selten hat ein Spiel auf Prozessoren-Seite einen solch großen Unterschied in der Leistungsfähigkeit zwischen Minimum und Empfehlung ausgewiesen – aber bei Simulations-Spielen spielt die CPU-Performance eben eine viel größere Rolle im Performance-Mix, was intensive Nutzer solcher Spiele jederzeit bestätigen können. Je größer man die Karten wählt und je länger das Spiel dauert, um so wichtiger wird in aller Regel die CPU-Performance zur Berechnung der ganzen Hintergrund-Aktivitäten der Spielwelt – während die Anforderungen an die Grafikkarte sich selbst in langen Spielen meistens auf einem gewissen Level einpendeln und dann nicht mehr weiter wachsen.

Auf Grafikkarten-Seite geht es bei den minimalen Anforderungen ähnlich niedrigschwellig wie bei den Prozessoren los: Die Performance von Radeon HD 5670 (Perf.Index 70% für GDDR5-Variante) und GeForce GTX 260 (Perf.Index ~100%) ist problemlos von heutigen Mainstream-Grafikkarten schulterbar, nahezu alle derzeit noch gebräuchlichen älteren Grafikkarten dürften hier noch mitkommen. Die empfohlenen Anforderungen sind auch hier sehr deutlich höher: Radeon HD 7870 (Perf.Index 240%) und GeForce GTX 660 (Perf.Index 250%) waren mal hochklassige Performance-Beschleuniger, sind derzeit etwas nach unten gerutscht, aber immer noch gewisse Hausnummern. Zu beachten wäre zur Grafikkarten-Seite noch, daß explizit 2 GB Grafikkartenspeicher für die beste Qualität empfohlen werden.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows XP, Vista, 7, 8.0, 8.1 oder SteamOS (Ubuntu 12.04) 64-Bit-OS: Windows 7, 8.0, 8.1 oder SteamOS (Ubuntu 14.10)
Prozessor AMD Athlon 64 X2 6400+ (3.0 GHz)
Intel Core 2 Duo E6850 (3.0 GHz)
AMD FX-6300 (3.5 GHz)
Intel Core i5-3470 (3.2 GHz)
RAM 4 GB 6 GB
DirectX DirectX 9.0c DirectX 11.0
Grafikkarte AMD Radeon HD 5670
nVidia GeForce GTX 260
AMD Radeon HD 7870
nVidia GeForce GTX 660
VRAM 512 MB 2 GB
HDD 4 GB freier Festplattenspeicherplatz
Dienste keine
Speichermengen und Anzahl an CPU-Rechenkernen werden in aller Regel nicht zwingend vorausgesetzt, regelrechte Start-Sperren diesbezüglich sind eher selten.

Zwischen minimalen und empfohlenen Anforderungen herrscht bei den Grafikkarten von sehr deutlicher Abstand von ca. +200%, also dem grob Dreifachen. Da dies bei der Prozessoren ähnlich aussieht, scheint das Spiel sehr deutlich mit der gebotenen Hardware bzw. den ausgewählten Bildqualitäten skalieren zu können. Bei dieser Art von Spiel kommt zudem auch noch die Skalierung über die Größe der gewählten Karte hinzu: Wer sich diesbezüglich nicht beschränken will, sollte die empfohlenen Anforderungen dann auch wirklich erfüllen. Trotzdem dürfte die Leistungsklasse der notierten Grafikkarten noch Reserven lassen für UltraHD-Auflösungen sowie Downsampling-Spielereien. Als echte Zwänge sind bei diesem Spiel "nur" das 64-Bit-Betriebssystem sowie eine Grafikkarte nach DirectX 9.0c zu nennen, die genannten 4 GB Hauptspeicher dürften wie üblich nicht erzwungen werden.

2

Hardware- und Nachrichten-Links des 2. März 2015

AMD spricht im hauseigenem Blog etwas verklausuliert von einem gewissen Zurückdimmen der Mantle-API, rein praktisch unter anderen resultierend in dem Punkt, daß es entgegen der ursprünglichen Ankündigung kein öffentliches Mantle-SDK mehr geben wird. Zudem betrachtet man Mantle zukünftig wohl eher als Spielwiese für Experimente und Innovationen, während man im allgemeinen den Spiele-Entwicklern eher die Verwendung von DirectX 12 oder glNext empfiehlt. Je nachdem wie man diese Zeilen liest, kommt dabei ein "Ende von Mantle" oder aber eine "Umschichtung der Zielsetzung" heraus – eventuell wird AMD am 5. März genaueres sagen, dann will man dieses Thema auf der Game Developers Conference (GDC) ansprechen. In unserem Forum wird ja schon darüber diskutiert, daß glNext letztlich weitgehend Mantle entsprechen soll – aber auch das wird sich wohl erst nach der glNext-Präsentation ergeben, welche interessanterweise ebenfalls für den 5. März (auf der GDC) angesetzt ist. Vorher braucht man sicherlich nicht darüber spekulieren, wie diese wenigen AMD-Zeilen nun korrekt zu deuten sind.

Golem bringen genauere Daten zu den kommenden Atom x3/x5/x7 SoCs, welche seitens Intel derzeit unter den Codenamen "Sofia" (Atom x3) sowie "CherryTrail" (Atom x5 & x7) vorbereitet werden. Letztere werden auf der Airmont-Architektur in der 14nm-Fertigung basieren und stellen damit den klaren Nachfolger der bisherigen Atom-Prozessoren auf Basis der Silvermont-Architektur in der 22nm-Fertigung dar. Erstere – sprich die Sofia-SoCs – sind dagegen ein interessantes Mischkonstrukt: Die CPU-Kerne kommen noch aus der Silvermont-Architektur, die Grafiklösung stammt weder von Intel noch von ImgTec (PowerVR), sondern von ARM (Mali 400/450/720) – und hergestellt wird das ganze scheinbar unmodern in der 28nm-Fertigung nicht von Intel, sondern von TSMC. Für Intel ist dies eine sehr ungewöhnliche Herangehensweise – welche wohl allein dem Zweck der Kostenoptimierung dient, denn die Sofia-SoCs sollen in günstige Gerätschaften gehen und dafür sind die Herstellungspreise der bei Intel selber vom Band laufenden Prozessoren einfach zu hoch. Von einer überlegenen Performance kann man sich mit diesem Ansatz natürlich verabschieden, was aber für die angepeilten Preisbereiche keine wirkliche Rolle spielt.

Die PC Games Hardware hat sich angesehen, wie groß die Unterschiede zwischen Luxus- gegenüber Budget-Kühlern liegen, getestet wurden hierbei der Noctua NH-D15 als Luxus-Modell für ca. 85 Euro gegen EKL Alpenföhn Brocken Eco als Budget-Modell für ca. 28 Euro. Dabei gab es durchaus beachtbare Leistungsunterschiede: Das Luxus-Modell hat nachweislich die bessere Kühlleistung mit zwischen 5-10°C weniger CPU-Temperatur als beim Budget-Modell. Dies passiert allerdings auf beiderseits erstklassigen absoluten Temperaturen (von unter 65°C), der benutzte Xeon-Prozessor mit 150 Watt TDP lief somit noch weit unter seinem Temperatur-Grenzwert. Beide Kühler bieten damit auch die Reserven, auf einer sehr niedrigen Lüfterdrehzahl und damit geringer Geräuschentwicklung bei weiterhin vergleichsweise kühlen CPU-Temperaturen zu operieren. So gesehen lohnt sich das Luxus-Modell kaum, wird zumindest im Normalbetrieb kein wirklich beachtbarer Vorteil gegenüber dem Budget-Modell erzeugt. Der technisch vorhandene Vorteil des Luxus-Modells läßt sich wohl nur ausspielen, wenn die CPU bis an alle Grenzen übertaktet läuft und man trotzdem vergleichsweise niedrige CPU-Temperaturen sehen will.

Am Donnerstag schon verlinkt, aber noch einmal extra erwähnt werden muß der USB 3.1 Test bei Golem. Jener zeigt gut die Anfangsschwierigkeiten dieser neuen Schnittstelle auf: So gibt es auf heutigen Sockel-1150-Mainboards einfach zu wenige PCI Express Lanes, um USB 3.1 wirklich gut anzubinden. Die meisten Mainboard-Hersteller dürften wegen schlichter Lanes-Knappheit nur zwei PCI Express 2.0 Lanes für den USB 3.1 Controller abstellen, was die maximale Datenrate von theoretisch 1,25 GB/sec auf rund 1 GB/sec limitiert. In der Praxis kommen dabei – maßgeblich wegen des Controller-Overheads – maximal ~800 MB/sec heraus, wobei dies auch nur unter Deaktivierung der Stromsparmodi erreicht werden kann, im Normalzustand sind es nur ~700 MB/sec. Dies ist natürlich immer noch deutlich mehr, als man mit USB 3.0 erreichen kann, was praktisch bestenfalls ~450 MB/sec erzielt – und trotzdem suboptimal, weil damit unterhalb der Hälfte dessen, was USB 3.1 an Performancegewinn verspricht. Erst die kommende Skylake-Plattform wird diesem Problem begegnen können, dort werden dann im Mainboard-Chipsatz endlich auch PCI Express 3.0 sowie viel mehr PCI Express Lanes geboten werden.

Inhalt abgleichen