16

Hardware- und Nachrichten-Links des 16. April 2015

Ein weiterer Artikel zur Hardware-Performance von GTA V kommt vom Guru3D. Die dabei gezeigten Frameraten – obwohl dem realen Spiel und nicht dem integrierten Benchmark oder dem Prolog entstammend – sind vergleichsweise sehr hoch, entsprechen damit eher dem normalen Alltag in GTA V und aber eben nicht den schlauchenderen Szenen oder gar einem Worstcase. Interessanter als die Guru3D-Messungen zur Performance verschiedener Grafikkarten sind damit eher die zusätzlich angestellten Frametimes-Vergleiche zwischen Radeon R9 290X 8GB und GeForce GTX Titan X – welchen die nVidia-Grafikkarte mit geringem Vorsprung für sich entscheidet. Im MultiChip-Bereich zwischen Radeon R9 290X CrossFire und GeForce GTX 980 SLI sind die Unterschiede dagegen schon etwas größer zugunsten von nVidia, wo derzeit einfach der Treiber schon besser an GTA V angepasst zu sein scheint. Ganz generell betrachtet dürften beide Grafikchip-Entwickler noch an weiteren Treiberverbesserungen zugunsten von GTA V arbeiten, und zudem der Spieleentwickler mit dem einen oder anderen Patch eventuell noch ein paar Performance-Probleme ausräumen. Alle jetzigen Performance-Ausarbeitungen zu GTA V haben also einen eher vorläufigen Charakter, eventuell sieht die Lage in ein paar Wochen dann vielleicht schon wieder etwas anders aus.

Laut einer bei der türkischen Webseite PC FRM (maschinelle Übersetzung ins Deutsche) aufgetauchten Spezifikations-Folie zu Intels 100er Chipsätzen für die Skylake-Architektur wird jene auch wieder die vollständige Übertaktung des Grundtaktes erlauben – sprich nicht in festen Abständen wie bei den letzten Intel-CPUs, sondern offenbar fein justizierbar und womöglich auch ohne Einschränkungen nach oben hin. Da in heutigen PC-Systemen die anderen Taktraten im Overclocking-Betrieb jedoch vom Grundtakt entkoppelt werden, hat sich diese zu früheren Zeiten sehr beliebte Overclocking-Methode heuer noch nicht wieder durchgesetzt, da sich letztlich das exakt selbe Ergebnis & Performance wie beim Übertakten über den Multiplikator ergibt. Die anderen Features der gezeigten Spezifikations-Folie zu Intels 100er Chipsätzen sind dagegen weitgehend schon bekannt, die Mainboard-Hersteller dürften schon eifrig an entsprechenden Platinen für den Sockel 1151 arbeiten, welche dann im Spätsommer/Herbst zusammen mit den Skylake-Prozessoren im Handel zu erwarten sind.

Einen schönen Überblick über die Performance von Core i3, i5 und i7 gibt es beim TechSpot, welcher ausgewählte Modelle der Haswell-Generation einem entsprechendem Test in allen Disziplinen unterzogen hat. Hierbei kann man gut die Differenzen sehen, welche zwei echte Rechenkerne mehr (Core i3 zu i5) oder aber HyperThreading oben drauf (Core i5 zu i7) heutzutage gerade im Bereich der Anwendungs-Benchmarks bringt, während bei der Spiele-Performance (mit extra Grafikkarte) unter eher Grafikkarten-limitierten Benchmarks die Ausschläge weitaus geringer sind und nominell gesehen auch ein (moderner) Core i3 noch sehr gut mithalten kann. In der Praxis gibt es dann aber auch noch CPU-limitierte Spiele und einige Fälle, wo man ohne Vierkern-Modell auch im Spieleeinsatz nur eher schwer auf Touren kommt – so daß gerade für einen modernen Spielerechner eine ebensolche Vierkern-CPU schon seit geraumer Zeit als Mindestanforderung gilt. HyperThreading ist dagegen im Gaming-Einsatz nach wie vor ein verzichtbarer Luxus (auf Basis eines Vierkerners), gerade angesichts des deutlichen Mehrpreises hierfür.

Bei der Telekom-Presse hat man sich die Highlights der fehlgeschlagenen Prognosen im Handy-Business angesehen: Einsamer Spitzenreiter sind dabei natürlich die verschiedenen Prognosen zu Windows-basierten Handys, bei welchen manche Analysten in völliger Verkennung der Marktlage und der vorliegenden Technik sogar einen zweiten Platz für Windows Phone prognostiziert haben – hinter Android und damit noch vor Apples iOS. Zwar läßt sich natürlich immer einfach auf fehlgeschlagene Prognosen einprügeln, denn wer berufsmäßig prognostiziert, wird auch immer mal wieder falsch liegen. Trotzdem ist es erstaunlich, wie stark verbreitet gerade diese Fehleinschätzung war – in Analystenkreisen wohlgemerkt, unter den Marktbeobachtern aus dem Anwenderumfeld war eher die Skepsis gegenüber den Handy-Versuchen von Microsoft verbreitet. Da die berufsmäßigen Analysten eigentlich deutlich mehr Insiderinformationen vorliegen haben als die hobbymäßigen Marktbeobachter, erstaunt die monströse Fehleinschätzung der berufsmäßigen Analysten um so – und läßt die (gar nicht so leise) Frage aufkommen, ob die Nähe zur Herstellerindustrie wirklich in jedem Fall einen Vorteil darstellt.  (Diskussion zum Thema im Forum)

16

Umfrage-Auswertung: Welche Chancen werden Spielestreaming auf dem PC noch eingeräumt?

Die Umfrage der letzten Woche drehte sich um das Thema Spielestreaming nach dem angekündigten Ableben des Streaming-Pioniers OnLive zum Monatsende. Mit 49,7% nahezu die Hälfte der Umfrage-Teilnehmer sieht für Spielestreaming jedoch keine beachtbaren Chancen auch in der Zukunft, selbst nicht auf Konsolen und im Mobile-Bereich. Die andere Hälfte der Umfrage-Teilnehmer sieht hingegen mehr oder weniger gewisse Potentiale für Spielestreaming: 21,6% ausschließlich außerhalb des PCs, weitere 19,4% als zusätzliche Lösung auch auf dem PC und immerhin schon 9,3% als zukünftig entscheidende Lösung, welche dann sogar die PC-Branche selber verändern wird.

Je nach Betrachtunglage kann man von einer Zweiteilung der Stimmen (Betrachtung rein nach vorhandenem Potential) oder aber einer klaren Mehrheit für einen Mißerfolg (Betrachtung allein der beiden Stimmungspole) sprechen – die Wahrheit liegt irgendwo dazwischen, kann allerdings eine klare Tendenz zur Skepsis gegenüber Spielestreaming nicht verhehlen. Neben allen technologischen Punkten steht bislang vor allem weiterhin die Frage im Raum, ob die Spieler das Spielestreaming eines Tages einmal als selbstverständliche Nutzungsmöglichkeit annehmen werden – denn erst danach ist der Ausbruch aus der Nische möglich. Die Frage, die sich die Spielestreaming-Anbieter hieraus stellen müssen, ist wohl, wie man die Spieler an diesen Punkt heranführen kann – und dazu vorher, wie man real existierende Vorteile für den Spieler herausarbeiten kann. Viele Berichterstattung zum Thema drehte und dreht sich leider vornehmlich nur um die technischen Möglichkeiten bzw. deren praktischen Probleme – und weniger darum, weshalb der Spieler denn nun auf Spielestreaming setzen sollte.

15

Hardware- und Nachrichten-Links des 15. April 2015

Erste Benchmark-Artikel zu GTA V kommen von der PC Games Hardware sowie der ComputerBase. Beide Artikel verwenden nicht den integrierten Benchmark oder die Prolog-Szene, sondern jeweils eine eigene Benchmark-Szene, welche deutlich mehr Last als der integrierte Benchmark oder die Prolog-Szene erzeugt. Interessanterweise gleichen sich die erzielten Frameraten beider Webseiten trotz dieser Unterschiede ziemlich: Die meisten schnellen AMD-Grafikkarten liegen unter 1920x1080 in einem Korridor von 30 bis 45 fps zusammen, die meisten der schnellen nVidia-Grafikkarte im selben Korridor – und darüber thronen dann einsam GeForce GTX 970, 980 und Titan X, die beiden letzteren als einzige mit Frameraten oberhalb von 50 fps. Man könnte fast von einer nVidia-Lastigkeit sprechen – aber jene ist nicht wirklich vorhanden, ähnlich schnelle Grafikkarten von AMD und nVidia laufen unter GTA V durchaus in etwa gleich schnell. Weitere Benchmark-Artikel zu diesem Titel werden das Bild dann sicherlich noch abrunden und dann auch abschließend in einer extra Meldung zur GTA-V-Performance ausgewertet werden.

Zum Fall der angeblichen Zen-APU kommt aus unserem Forum der interessante Vorschlag, das ganze doch einfach als Featureset des kompletten Zen-Baukastens anzusehen – und nicht als Plan einer konkreten CPU. Dies könnte in der Tat eine gute Auflösung der Frage sein, wieso jene Zen-APU laut dem dargebrachten Blockschaltbild gleich alles an Features vereinen soll, was für Gaming- und Server-Einsatz interessant sein könnte – ohne aber daß die Einzelfeatures dann für einzelne Anwendungszwecke wirklich relevant wären. Das ganze ist also eher das maximale, was AMD für eine mögliche Zen-APU bieten könnte – sofern es dafür jeweils Bedarf gibt. Alle Features zusammen wären dann vermutlich von der Chipfläche her sowieso nicht (gemeinsam) zu realisieren – aber alle Features zusammen ergeben schließlich auch keinen echten Sinn. Offen bleibt sowieso, ob sich AMD all zu schnell auf Zen-basierte APUs einläßt, nachdem alle bisherigen Anstrengungen in Richtung APUs kaum von größerem Erfolg gekrönt waren und die letzten diesbezüglichen Versuche eher in Richtung Mobile-Segment gingen – und weniger aus der Richtung wirklich leistungsfähiger Prozessoren-Power kamen. AMD sollte bei Zen in jedem Fall zuerst einmal versuchen, das Brot- und Butter-Geschäft an ganz regulären Prozessoren für Notebooks, Desktop-PCs und Server wieder anzuleiern, alles andere wäre optional und kann später kommen.

Telepolis und Netzpolitik berichten über den neuen Anlauf zur Vorratsdatenspeicherung, zu welcher derzeit allerdings erst einmal nur "Rahmenbedingungen" seitens der beteiligten Ministerien und noch kein neuer Gesetzesvorschlag vorliegen. Dabei sind jene Rahmenbedingungen durchaus clever gewählt, versucht man um einige verfassungsrechtlich bedenkliche Punkte herumzukommen und generell das ganze möglichst wenig anstößig wirken zu lassen. Ob das Vorhaben wirklich eine Chance hat, kann man natürlich nur anhand des kommenden Gesetzestextes beurteilen – aber aufgrund der Historie zum Thema wird es in jedem Fall schwierig werden, dies am Verfassungsgericht vorbeizubekommen. Am Ende ist vielleicht sogar die psychologische Komponente am interessantesten, warum Politiker einen solchen Zombie immer wieder reanimieren: Für die einen ist es weltanschauliche Überzeugung, für die meisten aber eher Aktivismus oder auch schlicht Angst, nichts getan zu haben. Belastbare rationale Argumente sind da eher Mangelware – und trotzdem werden dafür Zeit, Nerven und Steuergelder geopfert.

WinFuture berichten von Zankereien zwischen den USA und China über die chinesischen Supercomputer-Projekte bzw. deren weiteren Ausbau. Unter dem Argument der (angeblichen) Kernwaffen-Forschung hat die US-Regierung es Intel untersagt, weitere Xeon-Prozessoren für diese Supercomputer zu liefern, was unter anderem den Ausbau des derzeit schnellsten Supercomputers "Tianhe-2" (54,9 Petaflops) zur 100-Petaflops-Maschine behindert. Ob es dabei wirklich um so infantile Dinge geht, wie daß die USA den Rang des schnellsten Supercomputers für sich zurückgewinnen wollen, ist dabei gar nicht einmal der wichtigste Punkt – interessanter sind diese Streitereien eher im Hinblick auf die chinesischen Anstregungen zu eigener, chinesischer Hard- und Software (und dann zum weitgehenden Ausschluß der westlichen Konkurrenz): Wenn die USA China in dieser Art und Weise die Argumente für eine solche Strategie vor die Füße legen, muß man sich über den chinesischen Kurs nicht wundern – der Westen zeigt sich dann einfach als nicht solider Geschäftspartner, womit man zu eigenen Wegen faktisch gezwungen wird. Etwas verwunderlich ist nur, daß die US-Herstellerindustrie sich dies bieten läßt, schneidet man sich bei Fortschreiten dieser Entwicklung doch irgendwann einmal von größeren Teilen des Weltmarkts ab.

15

Intel Geschäftsergebnisse Q1/2015: Auch Intel ist nun von der PC-Schwäche betroffen

Prozessoren-Entwickler Intel hat mit seinen Geschäftszahlen für das erste Jahresquartal 2015 eher nur Standardkost abgeliefert: Gegenüber dem Vergleichszeitraum des Vorjahres (aka dem ersten Quartal 2014) sehen die Zahlen nahezu deckungsgleich aus, ging es beim Umsatz nur um 0,1% nach oben, beim nominellen Gewinn um wenigstens 2,3% und beim operativen Gewinn um 3,2%. Vor allem aber gegenüber dem (natürlich schwerlich direkt vergleichbaren) Zahlen des direkten Vorquartals hat man überaus deutlich bei Umsatz & Gewinn verloren – dies ist prinzipiell gesehen der Lauf der Welt zwischen einem vierten und einem ersten Quartal, in der erreichten Höhe aber dennoch ein bemerkenswerter Absturz. Intel ist damit nach drei Quartalen mit blendendem Geschäftsverlauf letztlich wieder nur dort gelandet, wo man vor exakt einem Jahr schon einmal stand.

Q1/2014 Q2/2014 Q3/2014 Q4/2014 Q1/2015
Umsatz 12764 Mio. $ 13831 Mio. $ 14554 Mio. $ 14721 Mio. $ 12781 Mio. $
Gewinn 1947 Mio. $ 2796 Mio. $ 3317 Mio. $ 3661 Mio. $ 1992 Mio. $
operativer Gewinn 2533 Mio. $ 3844 Mio. $ 4540 Mio. $ 4453 Mio. $ 2615 Mio. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Und da es in unserer Ökonomie nur den Blick nach oben gibt, gilt für Intel dieses Jahr eher die bange Frage, ob man die drei hervorragenden Quartale des Jahres 2014 jetzt noch einmal wiederholen kann – von einem überflügeln scheint man dagegen deutlich entfernt zu sein. Letztlich zeigt sich hier aber nur die (wieder zurückgekehrte) Schwäche des PC-Markts nun auch bei Intel: Wenn der Markt insgesamt schrumpft, dann kann man nur gegen die Wettbewerber wachsen – was nun ausgerechnet bei Intel immer weniger möglich wird. Damit kommt auch für Intel der Punkt, wo eine Schwäche des Marktes dann einmal auf die Intel-Ergebnisse zurückschlägt – und Intel hält sich dementsprechend immer noch hervorragend, gibt es (bislang) nirgendwo ein nominelles Minus. Allerdings dürfte es in der Tat ein Problem werden, die Geschäftsergebnisse des Jahres 2014 zu wiederholen, da das PC-Jahr 2015 als ein weitgehendes Übergangsjahr gilt, der mögliche Geschäftseffekt von Windows 10 vollumfänglich nur das vierte Quartal 2015 treffen wird und damit zu schwach für das Gesamtjahr 2015 sein dürfte.

Leider nicht mehr extra zu betrachten ist die Mobile-Abteilung bei Intel, welche sich um die Intel-Chips für Smartphones & Tablets kümmert und in welcher Intel (für sich) ein großes Zukunftsgeschäft vermutet. Da diese Sparte aber bislang ein Milliardengrab war – teilweise mit null Umsatz und Milliarden-Verlusten pro Quartal – hat Intel diese Mobile-Sparte aufgelöst und der regulären PC-Sparte zugeschlagen, natürlich allein mit der Zielsetzung, diese hohen Verluste zukünftig besser vor Börsenanalysten verschleiern zu können. Damit fehlt aber auch neutralen Beobachtern nunmehr das exakte Zahlenmaterial zur Beurteilung dieser Sparte. Gemäß der allgemeinen Marktsituation dürfte Intel in dieser Sparte aber weiterhin wie bekannt dastehen, da entsprechende Geräte mit Intel-Chips nach wie vor selten sind und Intel vor allem noch keinerlei Zugang zu den wirklich volumenstarken Geschäftsfelder mit billigen Gerätschaften für Schwellen- und Entwicklungsländern gefunden hat.

Daran könnte sich dieses Jahr mit den 14nm-Chips auf allen Geschäftsfeldern durchaus etwas ändern – gerade die Sofia-Chips von Intel scheinen von der Kostenstruktur durchaus in diese Richtung zu gehen, auch in günstigen Gerätschaften und ohne große Verluste seitens Intel verbaut werden zu können. Ob die Airmont-basierten CherryTrail & Braswell SoCs etwas gegenüber den Silvermont-basierten BaTrail-SoCs verbessern können, bliebe noch abzuwarten: Intel reißt mit denen erneut die Performance nach oben, doch dies war auch bisher schon nicht das Problem von Intels Mobile-Chips. Die Frage ist eher, ob es Intel gelingt, die Herstellungskosten dieser Mobile-SoCs so weit zu drücken, daß man sich die im Mobile-Segment üblichen Abgabepreise (ohne Verluste zu machen) leisten kann. Hier besteht dann eben ein großer Unterschied zum PC-Segment, wo Intel die Preise diktieren kann – gegenüber dem Mobile-Segment, wo Intel die Preise der Konkurrenz mitgehen muß oder eben keinerlei Umsatz sieht.

Im PC-Bereich stehen dieses Jahr für Intel so etwas wie 1,5 neue Architekturen an: Die Reste der schon halb veröffentlichten Broadwell-Architektur, welche aber ziemlich unspannend sein dürften mit ein paar einzelnen, vermutlich sogar uninteressanten Desktop-Chips und weiteren Notebook-Modellen – und dann ab Spätsommer/Herbst die Skylake-Architektur in wahrscheinlich sogar voller Stärke, sprich für alle Marktsegmente. Mittels jener versucht Intel auch terminlich vom Windows-10-Launch zu profitieren – in der Hoffnung, daß den Konsumenten das Angebot eines neuen PCs mit Skylake-Architektur und Windows 10 als ausreichend erscheint, um große Umsätz für Intel zu generieren. Da Skylake nun auch technogisch durchaus einige Neuerungen mit sich bringt, dürfte diese Strategie sogar funktionieren – aber eben erst zu spät, um dieses Geschäftsjahr noch wirklich zu retten. Mit ein bißchen Glück für Intel (und die PC-Branche) hält der Windows-10-Effekt bis lang ins Jahr 2016 an und wird der PC-Branche dann eben ein gutes Geschäftsjahr 2016 bescheren.

14

Hardware- und Nachrichten-Links des 14. April 2015

Die Korea Times berichtet erneut über einen 14nm-Chipfertigungsauftrag nVidias an Samsung, diesesmal wurde sogar die Fertigung von "Grafikchips" explizit erwähnt. Als gänzlich sicher darf man diese Klassifizierung dennoch nicht einbuchen, denn die Korea Times ist anscheinend technologisch nicht gänzlich sattelfest – möglicherweise handelt es sich nur um eine Annahme, weil nVidia eben ein Grafikchip-Entwickler ist. Das Auftragsvolumen von nur wenigen Millionen Dollar spricht sowieso eher für einen Mobile-SoC – oder im besten Fall für die Testfertigung eines Grafikchips, was dann möglicherweise mal zu einer Zweitfertigung kleinerer Grafikchips bei Samsung führen kann. Die größere Zielsetzung von nVidia dürfte sowieso sein, einfach einen Fuß in der Tür bei Samsung drin zu haben, falls sich bei TSMC unerwartete Rückschläge ergeben oder aber falls Samsung bei der nachfolgenden 10nm-Fertigung einen ähnlichen Vorsprung gegenüber TSMC hinlegt wie in der kommenden 14/16nm-Generation.

Für diese 14/16nm-Generation dürften auftragstechnisch alle Messen schon längst gelesen sein – die entsprechenden Vorbereitungen nehmen viele Monate in Anspruch und sind dann kurzfristig nicht mehr änderbar. Sollte sich nVidias Fertigungsvereinbarung mit Samsung gegen alle Erwartungen aber doch auf Grafikchips beziehen, dann dürfte hieraus nicht vor Ende 2016 etwas lieferbares erwachsen – sofern es sich um gänzlich neue Architekturen handeln sollte, vielleicht sogar erst im Jahr 2017. Wenn also, dann könnte nVidia allerhöchstens eine (potentielle) zweite Pascal-Generation anno 2017 in der 14nm-Fertigung von Samsung herausbringen – die erste Pascal-Generation anno 2016 kommt dagegen sicher in der 16nm-Fertigung von TSMC. Selbst eine mögliche Zweitfertigung von Grafikchips sowohl bei TSMC als auch bei Samsung würde zum jetzigen Stand jederzeit TSMC terminlich vorn sehen, da nVidia schon seit geraumer Zeit mit TSMC an ersten 16nm-Grafikchips arbeitet, während die Zusammenarbeit mit Samsung nun eben erst anfängt. Zeitnahe Wunder sind von dieser Vereinbarung also nicht zu erwarten, jene wird erst in der Zukunft interessant werden.

Die PC Games Hardware hat sich mit der Grafikkarten-Performance unter Star Citizen beschäftigt, welches derzeit in der Alpha-Version 1.1 vorliegt und angesichts von noch einigen Jahren weiterer Entwicklungszeit sicherlich nur einen aktuellen Stand abbilden kann. In diesem aktuellen Stand stören die teilweise horrenden Hardware-Anforderungen auch noch nicht wirklich – beispielsweise beim Hauptspeicher, wo erst 16 GB wirklich zufriedenstellend sind, oder auch bei der Grafik-Hardware, wo unter 3840x2160 noch nicht einmal ein SLI-Gespann aus zwei GeForce GTX 980 Karten mehr als 30 fps bietet. Dabei ist Star Citizen augenscheinlich deutlich auf 3840x2160 geeicht, die wirkliche Grafikpracht kann sich erst unter dieser Auflösung entfalten. Zudem fehlt dem Spiel derzeit natürlich noch vieles von den geplanten Inhalten und Optikschmankerl – was dann wohl nochmals mehr Performance kosten wird, aber dafür in einigen Jahren dann hoffentlich auch auf die passende Hardware nicht nur im absoluten HighEnd-Bereich trifft.

Fudzilla zeigen ein (angebliches) geleaktes Blockdiagramm einer "AMD Zen APU" – was normalerweise für höchste Aufmerksamkeit sorgen sollte, will AMD mit der Zen-Architektur doch wieder Anschluß im Segment der performanten Prozessoren finden, doch andererseits über viele Details für einiges ungläubiges Staunen und damit Skepsis über die Glaubwürdigkeit dieser Information sorgt. In diese angebliche Zen-APU wurde nämlich alles hereingepackt, was man sich nur vorstellen kann: Bis zu 16 x86-Rechenkerne, QuadChannel DDR4-Speicherinterface (wie Haswell-E), extrem anmutende 64 PCI Express Lanes der Version 3.0 – und dann vor allem eine dicke integrierte Grafiklösung mit gleich bis zu 16 GB HBM-Speicher auf einer Speicheranbindung mit satten 512 GB/sec Speicherbandbreite (GeForce GTX Titan X: 336 GB/sec). Die Größe der Grafiklösung wurde nicht genau spezifiziert, rein vom Schaubild her soll jene aber nahezu so groß wie der reine CPU-Teil inklusive Level2-Caches werden – und dies sind bei 16 x86-Kernen dann eine ganze Menge, dies ergibt wohl eine Grafiklösung auf (heutigem) HighEnd-Niveau.

Die sich hieraus ergebende Frage ist, für welchen Anwendungszweck das ganze gedacht sein könnte: Als APU läßt sich dies zuerst einmal gut verwenden angesichts der großen Grafiklösung. Aber dann muß weder das QuadChannel-Speicherinterface sein, noch die extrem vielen PCI Express Lanes, selbst die Anzahl der x86-Kerne erscheint ein wenig als zu hoch für einen APU-Einsatz. Als Server-Chip wiederum ist die Grafiklösung faktisch überflüssig – wenn man Parallelbeschleunigung benötigt, kann man sich entsprechende Steckkarten in der genau benötigten Menge hinzustecken, dies muß aber nicht gleich in der Haupt-CPU festverdrahtet vorliegen. Server-Betreibern mit geringfügigem bis keinem Bedarf an Parallelbeschleunigung bringt die große Grafiklösung gar nichts, Server-Betreibern mit hohem Bedarf an Parallelbeschleunigung wird jene doch noch zu wenig leistungsfähig sein – nicht umsonst liefert Intel seine Server-Chips nach wie vor ohne Grafiklösung aus und packt die Parallelbeschleunigung in extra Beschleunigerkarten (Xeon Phi). Das ganze wäre für keinen Anwendungszweck wirklich gut geeignet und erscheint daher eher als eine Zusammenwürfelung wilder Wunschträume als denn als real geplantes Chipprojekt. Aber eventuell hat diese (angebliche) Folie) auch nur periphär etwas mit der Zen-Architektur zu tun und stellt vielleicht nur eine Sonderbauform für einen speziellen Auftrag dar – AMDs "Semi Custom" Sparte dürfte sicherlich auch schon mit den Innereien von Zen, Pirate und Arctic Islands herumspielen dürfen.

14

Wieviel Performance kosten einzelne Grafik-Effekte unter Dying Light?

Im Performance-Report von HardOCP zu Dying Light finden sich auch wieder interessante Messungen dazu, welche Grafik-Effekte unter diesem Spiel wieviel an Performance verschlingen und damit am ehesten als Kandidaten zur Deaktivierung in Betracht kommen. Ausgehend von der Auflösung von 2560x1440 sowie der besten Grafikqualität des Spiels haben HardOCP folgende Performanceverluste für die einzelnen Grafik-Effekte ermittelt:

Radeon R9 290X GeForce GTX 980
Anti-Aliasing: off -> on -4,8% -6,3%
Depth of Field: off -> on +0,6% +0,8%
Shadow Map Size: high -> very high -17,6% -15,6%
Ambient Occlusion: off -> on -9,3% -14,7%
Ambient Occlusion: on -> HBAO+ -8,2% -4,9%
Ambient Occlusion: off -> HBAO+ -16,7% -18,9%
View Distance: Lowest -> Half -8,2% -4,6%
View Distance: Half -> Maximum -3,5% -3,8%
View Distance: Lowest -> Maximum -11,4% -9,8%

Nichts gänzlich unerwartet kosten dabei Schatten und Beleuchtung deutlich das meiste an Performance, gefolgt von der Sichtweite mit einem mittleren Performanceverlust. Die Sichtweite wird allerdings in anderen Berichten teilweise als noch viel üblerer Performancefresser unter Dying Light beschrieben, hier kommt es wohl extrem auf die jeweils verwendete Benchmark-Szene an. Zwischen AMD- und nVidia-Hardware ergeben sich hier und da gewisse Unterschiede, aber keine generell berichtenswerten Tendenzen zugunsten der einen oder anderen Hardware.

Inhalt abgleichen