18

Hardware- und Nachrichten-Links des 17./18. Januar 2015

Videocardz vermelden erste Treiber-Notierungen zu kommenden neuen Mobile-Lösungen von nVidia: GeForce 940M, GTX 950M & GTX 960M wurden hierbei gesichtet. Viel mehr als diese Device-Notierungen in den Treiberdateien gibt es derzeit nicht, aber gemäß der angegebenen ID-Nummern erscheinen hierfür Mobile-Lösungen auf Basis des GM107-Chips der GeForce GTX 750 Serie wahrscheinlich. Jener Chip wurde im übrigen auch schon bei der GeForce 800M Serie verwendet, insofern könnten hiermit auch glatte Rebrandings auftauchen. In jedem Fall scheint nVidia nach GM200, GM204 und GM206 keine weiteren Maxwell-basierten Grafikchips auflegen zu wollen, für kleinere Performance-Bedürfnisse bedient man sich einfach bei den Grafikchips der ersten Maxwell-Generation, sprich GM107 und GM108. Wenigsten dürfte die komplette GeForce 900M Serie dann keine Kepler-basierten Grafikchips mehr enthalten, sondern eben nur noch Mawell-basierte.

Bei Hardwareluxx hat man einen der kürzlich genannten Schenker-Notebooks mit Desktop-Prozessoren im Test. Allerdings hat es sich Schenker hierbei leicht gemacht und anstatt des ansonsten in HighEnd-Notebooks üblichen Core i7-4710HQ (4C+HT, 2.5/3.5 GHz, 47W TDP) mit dem Core i7-4790T (4C+HT, 2.7/3.9 GHz, 45W TDP) nur ein taktschwaches LowPower-Modell verbaut. Der Effekt der Austauschbarkeit bleibt natürlich erhalten, aber bei der Prozessoren-Power gewinnt man faktisch gar nichts hinzu – das hiermit ausgestattet Schenker-Notebook ist zwar Spitzenklasse, aber von einem verbauten Desktop-Prozessor hätte man sich eigentlich einen überaus deutlichen Performance-Vorteil erwarten können. Zudem ergeht somit auch die Vermutung, daß das Kühlsystem des Notebooks CPU-seitig nicht für höhere Wattagen als 45W bzw. 47W ausgerichtet ist, daß man also auch nicht einfach so einen Core i7-4790K installieren könnte (geht technisch schon, doch der dürfte ständig drosseln). Jetzt einmal nicht die Frage betrachtend, wofür man so viel CPU-Power im Notebook wirklich braucht, ist dies doch eher enttäuschend und kaum den hohen Aufwand wert, eine solcherart Sonderlösung zu entwickeln.

Der Planet 3DNow! hat sich mit dem "Richland" A4-7300 eine absolute Einsteiger-APU von AMD angesehen und ist dabei auch den sehr seltenen Tests eines der Zweikern-Modelle von AMD angetreten. Den A4-7300 gibt es offiziell sogar in zwei Ausführungen, einmal Kaveri- und einmal Richland-basiert, getestet wurde letzteres Modell. Dabei zeigten sich schnell sehr deutliche Performance-Unterschiede: Gegenüber dem Richland-Topmodell A10-6800K erreichte der A4-7300 nur 52% CPU-Power, ergo nahezu nur die Hälfte. Bei der Performance der integrierten Grafklösung sieht es nicht viel besser, aufgrund der erzielten sehr hohen Differenzen kann man also glatt sagen: AMDs APUs benötigen wirklich ihre vier Rechenkerne, mit nur zwei Rechenkerne verliert man (im Gegensatz zu Intels Prozessoren) einfach zu viel. Wahrscheinlich sind in diesem Preisbereich Intels Pentium-Prozessoren dann sogar die bessere Lösung – welche auch deutlich zurückstecken müssen gegenüber einem Core i3, aber eben nicht so überdeutlich wie AMDs Zweikerner.

Die ComputerBase hat sich 7 Billig-Netzteile in einem Roundup angelacht – und hatte nichts zu lachen ob des überaus klaren Versagens dieser Geräte. Dabei wurden noch nicht einmal die absoluten Basics in Form der versprochenen Nennleistung erreicht: Kein einziges Netzteil lief mit 100% Nennleistung, 6 von 7 schafften noch nicht einmal 80% ihrer Nennleistung. Bei einem Qualitäts-Netzteil kann man hingegen erwarten, daß die Nennleistung auch noch zum Ende der mehrjährigen Garantie gehalten werden kann – ergo ein riesiger Unterschied, denn jene Billig-Netzteile wurden schließlich fabrikneu getestet. Hinzu kommen solche Schoten wie zu dünne Kabel (Risiko auf Kabel- und damit Wohnungsbrand), fehlende PCI-Express-Anschlüße zur Stromversorgung von Grafikkarte, erheblich schlechtere Energieeffizienzwerte sowie eine teilweise extrem hohe Restschwelligkeit. Dem deutlichen Rat der ComputerBase kann man sich also nur anschließen: "Finger weg!" Dabei reicht zur Beurteilung der Lage eigentlich schon eine faire Preis/Leistungsrechnung: Der Preis ist nur bezogen auf die nominelle Wattage "billig", bezogen auf die real nutzbare Wattage hingegen keineswegs mehr günstig.

Golem berichten über ein Gerichtsurteil, welches viele der von den Rechteinhabern in Filesharing-Fällen eingesetzten "Auswertetools" automatisch zurückweist. Bisher wurde vor Gericht in diesen Fragen den Ausführungen der Rechteinhaber bzw. der von denen beauftragten Auswerte-Firmen meist wiederspruchslos gefolgt, obwohl sich die eingesetzten Auswertetools meistens nie einer vernünftigen Überprüfung durch unparteiische Gutachter unterziehen mussten und oftmals sogar Dinge versprachen, welche im Normalfall gar nicht möglich oder aber zumindest rechtverletzend sein dürften. Nun hat dies endlich ein Gericht auch so gesehen und eine Filesharing-Klage wegen dieses Punkts komplett abgewiesen – wobei nur schade ist, daß dies nicht schon früher passieren konnte. Immerhin hat sich in den letzten Jahren in Deutschland eine zumeist vollkommen unseriös arbeitende Abmahnindustrie etablieren – welche auch nur deswegen existeren konnte, weil die Gerichte in Filesharing-Fällen zumeist nicht genau genug hingesehen und damit die Rechteinhaber ungerechtfertigt bevorteilt haben.

17 17

Aus welchem Preisbereich stammt die zum Spielen benutzte Grafikkarte (2015)?

Es ist immer interessant, ältere Umfragen zu wiederholen und dann zwischen alten und neuen Resultaten zu vergleichen. Demzufolge wiederholen wir hiermit eine mehr fast drei Jahre alte Umfrage vom August 2011, welcher ihrerseits wiederum einen drei Jahre alten Vorläufer von September 2008 hatte. Wie auch seinerzeit gilt, daß bei der Frage nach dem Kartenpreis natürlich der Preis zum Kaufzeitpunkt gemeint ist. MultiKarten-Systeme kann man natürlich zum vollen Preis aller Karten eintragen.

bis zu 40 Euro
1% (45 Stimmen)
um die 50 Euro
1% (24 Stimmen)
um die 70 Euro
1% (33 Stimmen)
um die 100 Euro
3% (107 Stimmen)
um die 130 Euro
6% (227 Stimmen)
um die 160 Euro
9% (316 Stimmen)
um die 200 Euro
16% (582 Stimmen)
um die 250 Euro
13% (447 Stimmen)
um die 300 Euro
13% (466 Stimmen)
um die 350 Euro
15% (524 Stimmen)
um die 400 Euro
7% (248 Stimmen)
um die 500 Euro
7% (241 Stimmen)
klar mehr als 500 Euro
8% (286 Stimmen)
Gesamte Stimmen: 3546
17

Neuer 3DTester-Artikel: Kingston HyperX Fury 16GB USB-Stick

Bedenkt man, dass die meisten USB3.0 Speichersticks beim Schreiben noch nicht einmal die alte USB2.0 Schnittstelle auslasten können, dann wird deutlich, warum sich die Hersteller mit der Einführung neuer Schnittstellen nicht hetzen lassen. Wer also zu USB3.0 Speichersticks (oder gar zu USB2.0 Speichersticks) greifen will, kann dies ruhigen Gewissens tun. Erst recht im Budget-Sektor, der von den meisten Anwender favorisiert wird.

Kingston HyperX Fury 16GB USB-Stick

Tatsächlich beginnt jetzt erst die Blütezeit von USB3.0, denn im Budget-Sektor kommen nun vermehrt Speichersticks auf den Markt, die auch im Schreiben die Grenzen von USB2.0 zu sprengen versuchen. Zumindest auf dem Papier. Wie es in der Praxis aussieht, wollen wir uns anhand des neuen Kingston HyperX Fury ansehen, der vor kurzem auf dem Markt kam und zu dieser neuen und schnellen Budget-Klasse zählt. Ihn testen wir nicht nur an einer USB3.0 Schnittstelle, sondern auch an einer USB2.0 Schnittstelle ... zum Artikel.

16

Hardware- und Nachrichten-Links des 16. Januar 2015

Aus unserem Forum kommt eine Preisangabe zur GeForce GTX Titan II bei 1349 Dollar Listenpreis – was nochmals teurer als die letzten SingleChip-Grafikkarten der Titan-Serie liegen würde. Derzeit hat das ganze zwar nur Gerüchtestatus, aber die Tendenz zu höheren Preisen für absolute HighEnd-Produkte ist nVidia nicht abzusprechen, nachdem die (gegenüber der GeForce GTX 780 Ti sogar etwas langsamere) GeForce GTX Titan Black für 999 Dollar antrat und die DualChip-Lösung GeForce GTX Titan Z ursprünglich einmal sogar für satte 2999 Dollar. So lange AMD im Preisbereich der Titan-Grafikkarten nichts entgegensetzen kann und so lange der Markt teilweise Lemming-gleich nVidia-Hardware kauft, wäre nVidia auch regelrecht dumm, sich diese gute Ausgangslage nicht vergolden zu lassen – immerhin ist das heute eingenommene Geld der Entwicklungsetat von morgen. Auf der anderen Seite der Medaille steht natürlich, daß dieses System nur so lange gut geht, wie der Verbraucher mitspielt – und sich der Wind sehr schnell drehen kann, wenn man es übertreibt.

Derweilen vermelden Hermitage Akihabara (maschinelle Übersetzung ins Deutsche) den japanischen Preis der GeForce GTX 960 bei zwischen 29.800 und 35.000 Yen, letzteres vermutlich auf die vielen ab Werk übertakteten Versionen zutreffend. Dies sieht platt umgerechnet nach 240 bis 280 Euro aus – den Effekt der in Japan deutlich niedrigeren Mehrwertsteuer (nur 8%) mit beachtend. Formal ist dies recht nahe der Preise zur GeForce GTX 970, welche für ab 310 Euro im Markt steht. Angesichts des zu erwartenden hohen Performancevorteils der GeForce GTX 970 von ~45% (zuzüglich deren Mehrspeichers) erscheint ein solcher Preispunkt zur GeForce GTX 960 als doch zu hoch, die Karte müsste näher an die 200-Euro-Marke heran. Andererseits hat nVidia eine gute Tradition von eigentlich recht teuer angebotenen Midrange-Lösungen – und letztlich trat auch der direkte Vorgänger GeForce GTX 760 zum Launch mit 249 Dollar Listenpreis an. Auch hier gilt wieder: So lange es Lemming-gleich gekauft wird, muß nVidia nichts an dieser Strategie ändern.

Bei einer Analysten-Telefonkonferenz hat Intel-Chef Brian Krzanich laut Golem bekräftigt, daß Intels 10nm-Fertigung zum Ende des Jahres 2015 fertig sein soll und dann erste Produkte darauf basierend erscheinen können. Allerdings bedeutet dies wohl nicht, daß Intel dann die in der 10nm-Fertigung geplante Cannonball-Prozessorenarchitektur umgehend herausbringen wird – sondern eben nur, daß die reine 10nm-Fertigung bei Intel steht. Zwischen der Fertigstellung eines Fertigungsverfahrens und dem Gang zur Massenfertigung einer neuen Prozessoren-Architektur liegt dann doch noch ein (mehrmonatiger) Unterschied – zudem wäre einzurechnen, daß diese Aussage Börsenanalysten gegenüber getroffen wurde, welche natürlich (im Sinne Intels) ein möglichst freundliches Bild über Intel zeichnen sollen. Prinzipiell gesehen ist die Cannonball-Architektur gemäß der langfristigen Intel-Roadmaps im Jahr 2016 geplant gewesen, aufgrund der Verschiebung von Broadwell und der nicht vorhandenen Notwendigkeit zu mehr Prozessorenpower könnte Intel aber geneigt sein, Cannonball auf das Jahr 2017 zu ziehen – oder aber wenigstens auf das Jahresende 2016.

Schließlich steht für das erste Halbjahr 2015 erst einmal die Broadwell-Architektur an, für das zweite Halbjahr 2015 dann erste Teile der Skylake-Architektur. Alles von Skylake wird man unter Umständen im Jahr 2015 aber gar nicht mehr sehen, bislang war noch nichts zu K-Modellen sowie Mobile-Prozessoren auf Skylake-Basis zu hören. Um Broadwell diesbezüglich nicht gänzlich das Wasser abzugraben, könnte Intel jene fehlenden Skylake-Modelle dann in einem zweiten Rutsch Anfang 2016 bringen – was gleichzeitig auch bedeutet, daß die Nachfolge-Architektur "Cannonball" nicht mehr wirklich noch im Jahr 2016 benötigt werden würde. Vor allem im Mobile-Segment machen sich gleich zwei neue Architekturen in einem Jahr überhaupt nicht gut – und da Intel wie gesagt nirgendwo wirklich gedrängt wird, könnte man sich durchaus zu einer kleinen Streckung der ursprünglichen Releasepläne entscheiden. Und am Ende steigert dies sogar noch die Zeitreserven für etwaige Fertigungs- und Design-Probleme bei Cannonball.

Die ComputerBase berichtet zudem über Aussagen von Auftragsfertiger TSMC zum Stand der 16nm- und 10nm-Fertigung: Dabei hat TSMC offiziell zugegeben, bei der 16nm-Fertigung im Vergleich mit anderen Auftragsfertigern (hier dürfte wohl Samsung gemeint sein) zurückzuliegen, weil jene die 20nm-Fertigung übersprungen und sich ganz auf dessen Nachfolger konzentriert haben. In Folge dessen wird TSMC zwar schon ab dem zweiten Quartal 2015 16nm-Chips in Kleinserie auflegen können, die eigentliche 16nm-Massenfertigung kommt aber erst im Jahr 2016. Dies bedeutet insbesondere für Grafikchip-Entwickler nVidia, welcher derzeit auf Auftragsfertiger TSMC festsitzt, daß man wirklich bis in Jahr 2016 für die Pascal-Architektur warten muß – und daß AMD eventuell bereits vorher 14m-Chips ins Feld schicken kann, welche bei GlobalFoundries (mit Lizenz der 14nm-Fertigung von Samsung) hergestellt werden. Daneben sprach TSMC noch davon, dafür aber bereits im Jahr 2017 die 10nm-Massenfertigung erreichen zu können – was aus heutiger Sicht getrost als Marketinggetöse abgetan werden kann, da auch dieser Entwicklungsschritt wieder seine Zeit benötigen und seine Verspätungen mit sich bringen wird.

Bezüglich der Meldung zu den Systemanforderungen von Evolve kommt die Anmerkung von einem Nutzer der Alpha-Version des Spiels, daß die realen Systemanforderungen (wohl aufgrund der benutzten Cryengine) bemerkbar höher liegen als die vom Spielepublisher letztlich notierten. So sei das Spiel (zu diesem Alpha-Stand) mit einer GeForce GTX 770 selbst unter 1680x1050 nicht flüssig zu bekommen gewesen, trotz nicht einmal maximierter Grafik. Natürlich kann sich gegenüber diesem Stand aus der Alpha-Version bis zur finalen Version noch einiges verbessern – trotzdem ist der Hinweis ernst zu nehmen, schließlich hatte der Publisher für seine Alpha/Beta-Versionen ebenfalls dieselben Systemanforderungen notiert. Nicht auszuschließen ist hierbei, daß die offiziellen Systemanforderungen zu Evolve reines Marketing sind, um die Absatzchancen des Spiels zu erhöhen bzw. nicht über ehrliche Angaben zu reduzieren.

16

nVidias GM200-Chip zeigt sich

Auf einer chinesischen Baidu-Seite sind einige Detailfotos einer Grafikkarte mit GM200-GPU aufgetaucht – welche zum einen die Existenz dieses Grafikchips als auch die Existenz entsprechender Grafikboards belegen. Interessanterweise scheint es sich hierbei nicht um ein Quadro-Modell zu handeln, da der vollständige Chip-Codename "GM200-400" auf eine GeForce-Grafikkarte hinweist, Quadro- und Tesla-Modelle dagegen von nVidia üblicherweise einen 800er Codenamen-Suffix erhalten. Da auf dem Grafikboard augenscheinlich gleich 12 GB Speicher verbaut wurden, dürfte es sich somit um eine kommende Titan-Grafikkarte handeln – möglicherweise "GeForce GTX Titan II" oder "GeForce GTX Titan X" genannt. Spätere Abspeckungen des GM200-Chips dürften dann mit "nur" 6 GB Speicher womöglich als "GeForce GTX 980 Ti" antreten.

Trotz der perspektisch verzerrten Bilder konnte in unserem Forum schon eine GM200-Chipfläche ausgerechnet werden, welche bei 578mm² liegen soll. Dies wäre etwas, aber nicht maßgeblich mehr (+5%), als was nVidia offiziell zum GK110-Chip (551mm² Chipfläche) angibt. Jene 578mm² für den GM200-Chip sind allerdings noch etwas in der Schwebe, da ähnliche Rechnungen beim GK110-Chip leider nicht auf dessen offizielle Chipfläche kommen, sondern auf einen sogar noch etwas niedrigeren Wert. Auch der direkte Die-Vergleich bei Videocardz deutet eher in die Richtung größerer Unterschiede zwischen GK110 und GM200 – sofern denn die Bilder-Skalierung wirklich 1:1 übereinstimmt.

Weitere interessante Punkte sind das Stepping des Grafikchips sowie das Produktionsdatum des Grafikboards: Der verbaute GM200-Grafikchip kommt aus dem A1-Stepping – was bedeutet, daß nVidia schon mit dem allerersten Versuch (das A0-Stepping dient gewöhnlich nur internen Zwecken) einen gut lauffähigen GM200-Chip hinbekommen hat. Dies muß nVidia nicht daran hindern, weitere Steppings zur Optimierung aufzulegen, aber es bedeutet, daß es aufgrund des Chipdesigns keine Verzögerungen geben muß. In die gleiche Kerbe schlägt das Grafikboard, welches tatsächlich schon in der 42. Kalenderwoche 2014 hergestellt wurde – das ist Mitte Oktober letzten Jahres. Beide Informationen zusammen lassen durchaus den Verdacht aufkommen, daß nVidia beim GM200-Chip schon längst spruchreif ist, man eigentlich schon hätte starten können.

Daß dem augenscheinlich noch nicht der Fall ist, dürfte zwei primäre Ursachen haben: Zum einen muß nVidia derzeit nichts tun, so lange von AMDs nächsten HighEnd-Chips Fiji & Bermuda noch nichts zu sehen ist. Zudem schadet nVidia das Abwarten auf exaktere Informationen über deren Leistungsfähigkeit nicht, gerade geringe Performance-Differenzen könnte man schnell noch über etwas höhere Taktraten wieder ausgleichen. Und zum anderen verkauft sich natürlich die GeForce GTX 980 derzeit im HighEnd-Bereich blendend trotz gegenüber der GeForce GTX 970 deutlich höherem Preis bei nur maßvoll höherer Performance – woran nVidia natürlich kaum etwas ändern will, wenn man nicht wirklich muß. Ergo könnte es mit neuen Titan-Grafikkarten auf GM200-Basis durchaus noch etwas dauern, vor dem Frühjahr (ab März) sollte man kaum damit rechnen.

16

Die Systemanforderungen zu Evolve

Spielepublisher 2K Games hat die Systemanforderungen für den am 10. Februar 2015 angesetzten Multiplayer-Shooter "Evolve" bekanntgegeben. Das mit einem eher ungewöhnlichen Spielkonzept ausgestattete Spiel – eine Multiplayer-Partie beinhaltet immer den Kampf von vier "normalen" Spielern gegen einen einzelnen Spieler, welcher ein (viel) kräftigeres Monster steuert – verlangt nur nach eher mittelprächtiger Hardware, dürfte also auf nahezu jedem Gamer-PC gut laufen. Mit dabei sind aber natürlich die inzwischen obligatorischen 4 GB Hauptspeicher als Mindestanforderung (sowie 6 GB in den empfohlenen Anforderungen) samt einem 64-Bit-Windows als Bedingung – wobei nur Windows 7 explizit genannt wurde, Windows 8 damit jedoch auch gemeint sein dürfte und selbst Windows Vista hier allerhöchstwahrscheinlich noch mitspielen darf.

Bei den empfohlenen Anforderungen scheint die benötigte CPU-Leistung nicht wirklich hoch zu liegen, wenn auf AMD-Seite eine A8-3870K Llano-APU genannt wird – der auf Intel-Seite gleichzeitig genannte Core i7-920 ist da deutlich leistungsstärker. Sofern der Spieleentwickler nicht gerade eine extreme AMD-Optimierung eingebaut hat, muß eine dieser beiden Notierungen geradezu falsch sein – entweder reicht die genannte AMD-CPU nicht wirklich aus oder aber auf Intel-Seite kommen auch noch niedrigere Modelle gut mit. Auf Grafikkarten-Seite ergibt sich dagegen ein einheitlicheres Bild mit der Nennung von Radeon R9 280, GeForce GTX 670 oder GeForce GTX 760 als Empfehlungen, wobei hier sogar explizit 2 GB Grafikkartenspeicher genannt wurden.

Bei den minimalen Anforderungen geht es deutlich nach unten, CPU-seitig reicht nun sogar ein Athlon 64 X2 6400 oder ein Core 2 Duo 6600 – was wohl wirklich alle modernen CPUs, selbst jene der niedrigeren Leistungsklassen, automatisch mit einschließt. Auf Grafikkarten-Seite will man mindestens noch Radeon HD 7770 oder GeForce GTX 560 sehen, was zumindest für den Mainstream-Bereich gewisse Hausmarken setzt, aber trotzdem von den allermeisten PCs geschultert werden dürfte. Als Grafikkartenspeicher werden minimal 1 GB genannt, was wirklich alte Grafikkarten (egal der Leistungsfähigkeit) teils komplett ausschließt.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-Betriebssystem, Windows 7, 8.0 oder 8.1
Prozessor AMD Athlon 64 X2 6400
Intel Core 2 Duo E6600
AMD A8-3870K
Intel Core i7-920
RAM 4 GB 6 GB
DirectX nicht genannt
Grafikkarte AMD Radeon HD 5770
nVidia GeForce GTX 560
AMD Radeon R9 280
nVidia GeForce GTX 670 oder 760
VRAM 1 GB 2 GB
HDD 50 GB freier Festplattenspeicherplatz

Zwischen minimalen und empfohlenen Anforderungen herrscht bei den Grafikkarten ein normal großer Performance-Unterschied (grob 100% mehr), trotzdem bleiben aufgrund der maßvollen Anforderungen im Grafikkarten-Bereich noch einige Reserven übrig für die 4K-Auflösung oder Downsampling Anti-Aliasing. Wirkliche HighEnd-Grafikkarten dürften eine gute Chance haben, daß Spiel auch unter UltraHD-Bedingungen noch flüssig ausgeben zu können. Inwiefern die minimale Hauptspeichergröße von 4 GB eine wirkliche Pflicht darstellt, ist nicht genauer bekannt – üblicherweise verzichten die Spieleentwickler heutzutage aber darauf, kleinere Systeme per Hardware-Abfrage vom Spiel regelrecht auszuschließen. Wirklich zwingend für Evolve ist somit (zum jetzigen Informationsstand) nur ein 64-Bit-Betriebssystem ab Windows Vista.

Nachtrag vom 16. Januar 2015

Bezüglich der Meldung zu den Systemanforderungen von Evolve kommt die Anmerkung von einem Nutzer der Alpha-Version des Spiels, daß die realen Systemanforderungen (wohl aufgrund der benutzten Cryengine) bemerkbar höher liegen als die vom Spielepublisher letztlich notierten. So sei das Spiel (zu diesem Alpha-Stand) mit einer GeForce GTX 770 selbst unter 1680x1050 nicht flüssig zu bekommen gewesen, trotz nicht einmal maximierter Grafik. Natürlich kann sich gegenüber diesem Stand aus der Alpha-Version bis zur finalen Version noch einiges verbessern – trotzdem ist der Hinweis ernst zu nehmen, schließlich hatte der Publisher für seine Alpha/Beta-Versionen ebenfalls dieselben Systemanforderungen notiert. Nicht auszuschließen ist hierbei, daß die offiziellen Systemanforderungen zu Evolve reines Marketing sind, um die Absatzchancen des Spiels zu erhöhen bzw. nicht über ehrliche Angaben zu reduzieren.

Inhalt abgleichen