18

Erst Daten zur Hawaii-basierten Radeon R9 380 & 380X

Bei Videocardz verbreitet man (leider ohne Quellenangabe) erste Daten zu den Hawaii-basierten Refresh-Karten innerhalb der Radeon R300 Serie – welche seitens Videocardz noch ohne exakten Verkaufsnamen notiert wurden, da man sich diesbezüglich von den Radeon R300 OEM-Grafikkarten hat verwirren lassen, wo schon eine Tonga-basierte "Radeon R9 380 OEM" existiert. Allerdings muß AMDs Namensschema bei den Retail-Karte absolut nicht gleichlautend zu den OEM-Karten sein – beide Grafikchip-Entwickler haben eine (reichhaltige) Historie an völlig fehlbenannten OEM-Grafikkarten aufzubieten, dies muß diesesmal überhaupt nicht anders laufen. Ausgehend davon, daß der Fiji-Chip wohl die Radeon R9 390 Serie bildet, dürfte der Hawaii-Refresh (früher teilweise mit extra Codenamen "Grenada" bezeichnet) wohl ziemlich sicher die Radeon R9 380 Serie darstellen, die beiden Grafikkarten-Varianten demzufolge Radeon R9 380 und 380X sein.

Jene sind laut Videocardz technologisch und von den Hardware-Daten her unverändert zu Radeon R9 290 und 290X – sprich, auch die Anzahl der freigeschalteten Shader-Einheiten ist jeweils gleich. Abweichend sind allein Taktraten und Speichermenge: Während die Radeon R9 290 mit ≤/2500 MHz daherkommt, sollen es bei der Radeon R9 380 gleich 1010/3000 MHz sein, ein Plus von 6,7% bzw. 20%. Die größere Radeon R9 290X tritt hingegen mit ≤1000/2500 MHz an, die Radeon R9 380X soll es dann auf 1050/3000 MHz schaffen, ein Plus von 5% bzw. 20%. Beide Taktratensteigerungen sind nicht wirklich bedeutsam, da fast nur der (geringfügig) höhere Chiptakt wirksam sein dürfte – während die große Steigerung bei der Speicherbandbreite nur unter 4K wenigstens etwas wirken dürfte, dafür die Hardware-Power des Hawaii-Chips jedoch als etwas zu knapp gilt.

Radeon R9 290 Radeon R9 380 Radeon R9 290X Radeon R9 380X
Chipbasis AMD Hawaii, 6,2 Mrd. Transistoren in 28nm auf 438mm² Chip-Fläche
Technologie GCN 1.1 Architektur, DirectX 11.2b & Mantle, TrueAudio
Technik 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 512 Bit DDR Interface 4 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 64 ROPs, 512 Bit DDR Interface
Taktraten ≤947/2500 MHz 1010/3000 MHz
(+6,7%/+20%)
≤1000/2500 MHz 1050/3000 MHz
(+5%/+20%)
Speicher 4 GB GDDR5 8 GB GDDR5 4 GB GDDR5 8 GB GDDR5
3DC Perf.Index 460% (gesch.) ~490% 520% (gesch.) ~550%
Straßenpreis 270-310 Euro 330$ = ~350€ 330-370 Euro 400$ = ~420€
Release 5. November 2013 Mitte Juni 2015 24. Oktober 2013 Mitte Juni 2015

Trotzdem dürften die Performance-Verbesserungen durch die höheren Taktraten ausreichend sein, um beide neuen Grafikkarten interessant zu positionieren: Die Radeon R9 380 hat das Potential, einen Performance-Index von ~490% zu erreichen – dies wäre genauso viel wie die derzeit wenig geliebte GeForce GTX 970 (Perf.Index 490%). Die Radeon R9 380X könnte bei irgendwo ~550% herauskommen, was etwas mehr als bei der (auslaufenden) GeForce GTX 780 Ti ist (Perf.Index 530%), dafür etwas weniger als bei der (deutlich teureren) GeForce GTX 980 (Perf.Index 570%). Letztere kann AMDs Hawaii-Refresh wohl nicht gänzlich erreichen, aber man kommt nahe genug dran, um dann über einen (deutlich) besseren Preis punkten zu können. Allerdings wären natürlich noch die exakten Benchmarks zu den neuen Grafikkarten abzuwarten, es kann trotz der geringen und damit eigentlich gut kalulierbaren Taktratensteigerungen durchaus noch kleinere Überraschungen nach unten und oben hin geben.

Als echtes Verkaufsargument oben drauf soll AMD seinen Hawaii-Refresh dann mit gleich 8 GB Grafikkartenspeicher vom Start weg mitgeben – dies wäre natürlich eine dicke Duftmarke, die AMD da setzt. Extra 4-GB-Versionen sind derzeit nicht explizit in der Mache, diesbezüglich wird AMD wahrscheinlich schlicht abwarten, wie sich die Sache entwickelt. Mit ziemlicher Sicherheit wird AMD jene 4-GB-Versionen sowieso erst dann nachschiessen können, wenn die letzten Radeon R9 290/290X Karten abverkauft sind – danach könnten sich günstigere 4-GB-Versionen lohnen, das positive Launch-Echo ob der gleich 8 GB Grafikkartenspeicher hat AMD dann sowieso schon einkassiert. Dabei spielt es kaum eine Rolle, ob sich 8 GB Grafikkartenspeicher gerade beim Hawaii-Chip wirklich lohnen – gerade im Massenmarkt wird die Leistungsfähigkeit eines Grafikchips nun einmal nach der Speichermenge beurteilt, egal wie irrational dies erscheint. Außerdem muß AMD als der kleinere der beiden Grafikchip-Entwickler wenigstens in einer Frage etwas deutlich besseres als nVidia bieten – die Speichermenge bietet sich hierfür an, da nVidia hierbei eher konservativ vorgeht.

Stimmen diese Daten, dann hat AMD einen durchaus interessanten Refresh in der Hand – jetzt nichts, was Besitzer von Radeon R9 290/290X Karten großartig locken würde, aber was Besitzer älterer HighEnd-Grafikkarten durchaus zum Umstieg auf eine neue Generation animieren könnte. Mit Refresh-Lösungen kann man selten großartig begeistern, daher erscheint das vorgezeigte schon als das (nahezu) Maximale, was AMD noch aus dem Hawaii-Chip herausholen kann. Natürlich wäre ein überzeugendes Auftreten des Fiji-Chips um so besser, dessen Glanz könnte dann auf die gesamte Radeon R300 Serie abstrahlen und damit für gute Absätze auch bei Radeon R9 380 & 380X sorgen. Wie kürzlich ausgeführt, dürfte die Radeon R300 Serie am 16. oder 18. Juni antreten – zu diesem Zeitpunkt wohl noch ohne testbaren Fiji-Chip, also mit Radeon R9 380 & 380X an der (vorläufigen) Angebotsspitze.

18

IPC-Gewinne zwischen den verschiedenen Intel-Architekturen

Eine in unserem Forum aufgetauchte Intel-Präsentationsfolie zeigt offizielle Intel-Angaben zu den IPC-Gewinnen zwischen den einzelnen Intel-Architekturen seit dem für den legendären Pentium M verwendeten Dothan-Kern (IPC = Instructions per clock = Instruktionen pro Takt = Pro-MHz-Leistung). Jene Angaben beziehen sich allerdings "nur" auf die "Single Thread IPC Performance", sprich sind für einen einzelnen Rechenkern gedacht (ohne HyperThreading, da eben nur ein Thread genutzt wird) – was das Bild etwas unschärfer macht, wenn man die reale Prozessoren-Performance vergleichen will, aber zum Vergleich der reinen Prozessorenkern-Leistungsfähigkeit sogar genauer ist:

Die violetten Balken geben dabei die IPC-Steigerungen pro Generation wieder, die hierfür passende Werteachse ist die linke Y-Achse des Diagramms. Die rechte X-Achse gilt dagegen als Generations-übergreifende Werteachte für die blau eingezeichnete Kurve – und sagt damit unter anderem aus, das ein Broadwell-Rechenkern inzwischen bei fast der doppelten IPC-Leistung wie ein seinerzeitiger Pentium-M-Rechenkern angelangt ist. Da die Angaben dieses Schaubilds durch reinen Sichtvergleich nicht gänzlich exakt zu erfassen sind, haben wir jene Angaben nachfolgend noch in eine Tabelle übertragen:

Technik ST-IPC-Gewinn ST-IPC vs. Dothan
Dothan Pentium M (Refresh), 2C ohne HT/TM, 90nm (2004) - 100%
Merom Core 2 Duo, 2C ohne HT/TM, 65nm (2007) +15% 115%
Penryn Core 2 Duo (Refresh), 2C ohne HT/TM, 45nm (2008) +2% 117,5%
Nehalem Core 9xx, 4C +HT +TM, 45nm (2008) +12% 131,5%
Sandy Bridge Core 2xxx, 4C +HT +TM, 32nm (2011) +10% 144,5%
Ivy Bridge Core 3xxx, 4C +HT +TM, 22nm (2012) +5% 152%
Haswell Core 4xxx, 4C +HT +TM, 22nm (2013) +10,5% 167,5%
Broadwell Core 5xxx, 4C +HT +TM, 14nm (2015) +5,5% 177%

Natürlich handelt es sich um Intel-Angaben, jene müssen also nicht gänzlich deckungsgleich zu unabhängigen Benchmarks sein. Als Dokumentation dessen, was Intel offiziell vorgibt, sind jene dennoch nützlich – wenn auch schwer vergleichbar mit der RealWorld-Performance von mehrkernigen Prozessoren, da eben allein auf die SingleThread-Performance bezogen. Gerade in den Anfangstagen der Core-Architektur gab es noch erhebliche Verbesserungen bei der MultiThreading-Ausnutzung, d.h. neue Prozessoren-Generationen verstanden viel besser mit mehreren Rechenkernen umzugehen. Hinzu kommt der Effekt von HyperThreading bei den Intel-Architekturen ab Nehalem. Demzufolge sind in der Praxis auch einige deutlich andere Performance-Ergebnisse zu sehen – gerade die seinerzeitige Nehalem-Architektur wurde mit einem viel größerem Sprung bei der (MultiThreading) Pro-MHz-Leistung ausgemessen als es Intels Zahlen wiedergeben:

Pro-MHz-Gewinn höchste Taktrate üblicher OC-Takt
Core 2   (2007, 65nm) - 2.66 GHz ~3.2 GHz
Core 2 Refresh   (2008, 45nm) +9% 3.0 GHz ~4.0 GHz
Nehalem   (2008, 45nm) +31% 3.2 GHz (+TM) ~3.8 GHz
Sandy Bridge   (2011, 32nm) +15% 3.5 GHz (+TM) ~4.5 GHz
Ivy Bridge   (2012, 22nm) +6% 3.5 GHz (+TM) ~4.5 GHz
Haswell   (2013, 22nm) +8% 3.5 GHz (+TM) ~4.3 GHz
Haswell-Refresh   (2014, 22nm) - 4.0 GHz (+TM) ~4.7 GHz
Broadwell   (2015, 14nm) vorauss. 5% 3.3 GHz (+TM) ?
Skylake   (2015, 14nm) ? 4.0 GHz (+TM) ?
Um einen fairen Vergleich mit der heutigen Situation zu gewährleisten, wo die Enthusiasten-Modelle in die "E-Architekturen" ausgegliedert sind, wurden bei der Angabe zur höchsten Taktrate bei Core 2 und Nehalem nur Prozessoren-Modelle des Mainstream-Bereichs mit Preispunkten bis maximal 500 Euro berücksichtigt. Zudem wurden überall natürlich allein auf die Werte von Vierkern-Modellen gesetzt (auch beim Pro-MHz-Gewinn, welcher für MultiThreading gedacht ist).

Unsere eigene vorstehende Tabelle gibt dagegen die Gewinne an Pro-MHz-Performance für den gesamten Prozessor unter MultiThreading und auch TurboMode wieder, zudem wurden diese Werte in Praxis-Benchmarks ermittelt. Bei den neueren Architekturen gleichen sich die Werte dann aber wieder weitgehend, hier sind die Sprünge dann auch weiteraus geringer als früher – wobei anzumerken ist, daß es Intel bei derzeit nahezu der doppelten IPC-Performance eines Pentium M immer schwieriger fallen dürfte, noch weitere IPC-Steigerungen (ohne maßlosen Silizim-Einsatz) zu erzielen. Das erreichte Niveau ist bereits sehr hoch und es ist eher unwahrscheinlich, daß die von Intel einstmals an dieser Stelle gedachte, wesentlich IPC-schwächere Pentium-4-Architektur selbst auf Taktraten von 10 GHz dieselbe Performance bieten könnte.

17

Hardware- und Nachrichten-Links des 16./17. Mai 2015

WCCF Tech spekulierten vor einiger Zeit über das Erscheinen von 8-GB-Varianten von GeForce GTX 970 & 980 noch im (abgelaufenen) ersten Quartal. Inzwischen hat sich dies rein terminlich natürlich schon als fehlgeschlagene Spekulation erwiesen – trotzdem laufen die Gerüchte über 8-GB-Versionen dieser beiden HighEnd-Grafikkarten weiter, da der Speicherhunger der Grafikkarten-Enthusiasten wächst, gerade angesichts einer GeForce GTX Titan X mit gleich 12 GB GDDR5-Speicher. Für die Frage, ob nVidia solcherart Grafikkarten bringt, ist allerdings weniger die Verfügbarkeit entsprechender Speicherchips entscheidend – sondern vielmehr, ob und wie nVidia jene in sein Portfolio integrieren kann. Hier hängt vieles von den konkreten Hardware-Daten und der Produktpositionierung der alsbald erwarteten GeForce GTX 980 Ti ab – eigentlich sollte diese mit 6 GB GDDR5 erwartete Karte die höheren Speicheranforderungen der User erfüllen können.

Extra Varianten von GeForce GTX 970 & 980 mit gleich 8 GB Grafikkartenspeicher sind trotzdem nicht abwegig, dürften wenn dann aber eher als Nischenprodukt nahe des Ende des Lebenszyklus dieser Grafikkarten-Generation erscheinen – sprich zum Jahresende 2015, vielleicht auch nur als Hersteller-Varianten zu eher überzogenen Preisen. Generell betrachtet darf nVidia derzeit nicht mit Grafikkartenspeicher um sich werfen, da die 2016er Grafikkarten eben wegen ihres (teuren) HBM2-Speichers nicht gerade günstig werden dürften, trotzdem aber einen Fortschritt auch bei der Speichermenge bieten müssen. nVidia dürfte also für dieses Jahr (bis auf das Enthusiasten-Segment) voraussichtlich weiterhin konservativ bei den Speichermengen bleiben. Voraussichtlich erst mit den 2016er Grafikkarten wird die Standardspeichermenge von HighEnd-Grafikkarten dann wieder steigen.

Die finnische Webseite Mustapekka (maschinelle Übersetzung ins Deutsche) zeigt eine geleakte Intel-Roadmap – welche aber augenscheinlich mehr als ein Jahr alt ist. So sind der spätere Start von Broadwell im Mobile-Segment und das kommende kurze Broadwell-Intermezzo im Desktop-Segment noch gar nicht eingezeichnet, dafür fehlt Broadwell-E im Enthusiasten-Segment gänzlich. Bemerkenswert ist allerdings der (einstmals geplante) recht frühe Start der 10nm-basierten Cannonlake-Architektur für das Mobile-Segment schon im zweiten Quartal 2016. Dies wird nun kaum noch passieren, wahrscheinlich gibt es Cannonlake erst Anfang 2017 – trotzdem interessant, daß Intel hiermit zum zweiten Mal eine neue Architektur zuerst einmal nur fürs Mobile-Segment vorsieht, während für das Desktop-Segment an dieser Stelle nur Refresh-Varianten der Vorgänger-Architektur vorgesehen sind (waren). Wie gesagt ist diese Roadmap unaktuell und Intels Pläne für die Jahre 2016/2017 dürften inzwischen maßgeblich anders aussehen – als Hinweisgeber dazu, wie Intels langfristige Produktplaner ticken, taugt diese Roadmap dann aber trotzdem.

Zum kürzlich genannten Broadwell-basierten Core i7-5775C auf 4.8 GHz wäre noch anzumerken, daß damit ein wPrime-Wert von 4,399sec für den 32M-Durchlauf erzielt werden konnte – um immerhin 10,9% besser als bei einem auf 4.8 GHz laufenden Haswell-Prozessor im Test von Overclockers (4.88sec). Dies ist etwas mehr als der seitens Intel für Broadwell prognostizierte IPC-Anstieg von 5,5% – und wahrscheinlich auf das Vorhandensein von eDRAM bei diesem Broadwell-Prozessor zurückzuführen. Da Intel bei Broadwell nur ein arg eingeschränktes Desktop-Portfolio anbietet, nimmt man faktisch Mobile-Prozessoren hierfür – und jene werden gern mit großen Grafikeinheiten samt eDRAM aufgelegt, während die für den Desktop eher interessanten Modelle mit kleiner Grafiklösung bei Broadwell wahrscheinlich gar nicht hergestellt werden. Der eDRAM dieses Broadwell-Prozessor fungiert dann unter CPU-Aufgaben als Level4-Cache und beschleunigt damit solch Cache-intensive Anwendungen wie wPrime durchaus stärker als es die normale IPC-Steigerung eigentlich zulassen würde. In den meisten anderen Benchmarks wird der Beschleunigungseffekt durch den eDRAM allerdings eher marginal sein, dessen eigentliche Aufgabe liegt nun einmal in der Beschleunigung der integrierten Grafik.

Heise berichten über die Bilanzziehung nach einem Jahr "Recht auf Vergessen" durch Google. Hierbei werden schöne exemplarische Fälle genannt, wo das "Recht auf Vergessen" zum einen seinen (gewissen) Sinn hat – oder wo es nicht angewandt werden kann, wenn es sich um für die Öffentlichkeit relevante Informationen handelt. Denn immerhin 58,7% aller Löschanfragen hat Google am Ende abschlägig bescheinigt – dies deutet nicht gerade darauf hin, daß da einfach alles durchgewunken wird. Zum anderen wird natürlich auch deutlich, daß das "Recht auf Vergessen" sogar schon in der Mehrzahl dazu mißbraucht wird, mißbeliebige Informationen aus dem Web zu tilgen (versuchen). Trotz daß sich Google diesem Mißbrauch augenscheinlich verwehrt, haben die Kritiker Recht: Die Auswertung darüber, wie dieses Recht in der Praxis angewandt wurde, sollte nicht von Google selber kommen, sondern von unabhängigen Stellen mit Zugriff auf das Google-Datenmaterial. Nachdem Google beim "Recht auf Vergessen" nunmehr Gericht und Strafvollzug in einem spielen muß, sollte wenigstens die Kontrollinstanz der ganzen Show unabhängig sein.

16 16

Besteht überhaupt ein Interesse an einer Alternative zu Windows (2015)?

In Wiederholung einer 2012er Umfrage und auch mit Blick auf das kommende Windows 10 wollen wir hiermit erneut die Frage stellen, wie stark das Interesse an einer Alternative zu Windows (für ernsthafte PC-Systeme) derzeit ausgeprägt ist. Kleingeräte wie Tablets, wo sowieso andere Betriebssysteme als Windows dominieren, sind hierbei ausgenommen – es geht bei dieser Umfrage also um das typische Windows-Einsatzgebiet von Desktop-PCs und Notebooks.

Kein Interesse.
24% (624 Stimmen)
Interesse vorhanden - aber derzeit ist keine echte Alternative zu sehen.
29% (762 Stimmen)
Interesse vorhanden - Linux/MacOS sind ausgereift genug, aber es fehlen die bekannten PC-Spiele.
29% (773 Stimmen)
Interesse vorhanden - Linux/MacOS sind jetzt schon gangbare Alternativen zu Windows.
18% (473 Stimmen)
Gesamte Stimmen: 2632
15

Hardware- und Nachrichten-Links des 14./15. Mai 2015

Für ziemliche Aufregung sorgt derzeit die Diskussion über mögliche Grafik-Downgrades bei Witcher 3 – maßgeblich angefeuert durch die Stellungnahme eines angeblichen Insiders, welcher dieses Grafik-Downgrad bestätigt und mit dem beschränkten Leistungspotential der aktuellen Spielekonsolen begründet. Hierbei wird sich jedoch wohl zu sehr auf diese nicht verifizierbare Aussage konzentriert, anstatt entweder auf die beiden ausgehenden Screenshot-Threads bei Reddit – No.1 & No.2 – zu schauen oder alternativ die Verfügbarkeit des Titels am 19. Mai abzuwarten. Dabei darf man derzeit durchaus allen Auflösungen Chancen geben – wie daß die Grafik wirklich zugunsten Xbox One und Playstation 4 heruntergeschraubt wurde, als auch daß diese Screenshot-Vergleiche auf Basis von unsicherem Vergleichsmaterial angetreten wurden und daher das Grafik-Downgrade eher gering ausfällt. Rein vom technischen Standpunkt her ist ein Downgrade zumindest nicht wirklich auszuschließen, da Witcher 3 als Optikkracher die feststehende Hardware der Spielekonsolen extrem stressen und hier und da sicherlich an ihr Limit treiben wird. Interessant ist, daß man gerade einmal anderhalb Jahre nach dem Release von Xbox One und Playstation 4 schon derartige Diskussionen führt – die klare Mainstream-Ansetzung dieser Konsolen-Generation zeigt sich nun sogar schon früher als einstmals gedacht.

Passend zum kürzlichen ComputerBase-Artikel zur (nicht vorhandenen) Speicherbandbreiten-Limitierung von AMD-Grafikkarten haben sich Hardwareluxx mit den weiteren Vorteilen von HBM-Speicher beschäftigt. Als Hauptpunkte neben kleineren Optimierungen zugunsten von (noch) mehr real nutzbarer Speicherbandbreite hat man dabei eine geringere Signallatenz (durch den deutlich kürzeren Weg zum Speicher) sowie den geringeren Stromverbrauch der ganzen Angelegenheit identifiziert. Letzterer hilft vor allem Enthusiasten-Grafikkarten weiter, die am Rande des vom Stromverbrauch her maximal Machbaren gebaut werden: Wenn dort GDDR5-Speicher sowie das GDDR5-Speicherinterface für bis zu 100 Watt vom Stromverbrauch verantwortlich sind, gleichwertiger HBM-Speicher und -Interface aber nur 30 Watt ziehen – dann hat man 70 Watt mehr, die man für höhere Taktraten des Grafikchips und damit zugunsten von mehr Performance verballern kann.

All dies hatten wir an dieser Stelle vor fast einem Jahr in zwei Artikeln (No.1 & No.2) allerdings schon einmal angesprochen. Dabei wurden auch andere Vorteile von HBM genannt: Das HBM-Interface verbraucht deutlich weniger Chipfläche als ein GDDR5-Speicherinterface – was wiederum sehr interessant ist bei Grafikchip mit grenzwertiger Chipfläche wie dem GM200-Chip (601mm²). Auch AMDs kommender Fiji-Chip mit immerhin 45% mehr Shader-Einheiten als der Hawaii-Chip (438mm²) müsste in solche Regionen gehen, wenn jener mit einem konventionellen GDDR5-Interface kommen würde – mittels HBM spart AMD sich den Ausflug in Richtung ~600mm² Chipfläche und wird irgendwo in Richtung ~550mm² herauskommen. Bei solch großen Chip bedeutet dies klar wirtschaftliche Vorteile – weniger über die gesparte Chipfläche, sondern eher über die höhere Fertigungsausbeute bei den (relativ) kleineren Chips. Am Ende aber ist es vor allem ein Argument, was für HBM anstatt GDDR5 spricht: Da die Speichergeschwindigkeiten derzeit nicht mehr maßgeblich steigen, wären für neue Grafikchip-Generationen (deutlich) breitere GDDR5-Speicherinterfaces vonnöten gewesen, mit den bekannt negativen Auswirkungen auf Chipfläche und Stromverbrauch. Mittels HBM-Speicher steigert man nicht nur die Speicherbandbreite extrem, sondern senkt sogar die benötigte Chipfläche sowie den anfallenden Stromverbrauch.

Die PC Games Hardware berichtet über schwächere Frameraten und Frametimes mit nVidias GTA5-Treiber 350.12, sofern man jenen unter anderen Spielen einsetzt. Eine Differenz soll dabei unter einer breiten Reihe an Spieletiteln auftreten, nicht also auf einige wenige Ausnahmen begrenzt sein. Eine solch harsche Optimierung, welche andere Spiele ausbremst, ist natürlich unschön und sollte nicht passieren – andererseits ist es ein Beta-Treiber, welcher nur für die Nutzung mit einem einzelnen Spiel empfohlen wird. Zumindest in einem kommenden WHQL-Release neuer nVidia-Treiber sollte dieser Effekt dann normalerweise wieder verschwunden sein. Auf AMD-Seite fällt hingegen inzwischen unschön auf, daß man derzeit sehr sparsam mit neuen Beta- und WHQL-Treibern ist – der letzte WHQL-Treiber stammt sogar noch vom letzten Jahr. Aber wahrscheinlich stellt dies eine bewußte Zurückhaltung von AMD dar, welche damit einen markanten Launch-Treiber für die kommende Radeon R300 Serie anbieten wollen.

Nochmals die PC Games Hardware vermeldet einen ersten fernöstlichen Overclocking-Versuch an einem Broadwell-basierten Core i7-5775C, welcher nun wohl Anfang Juni erscheinen soll: Damit waren zwar erst einmal 5002 MHz unter Luftkühlung möglich – ein Benchmark lief aber erst auf 4802 MHz durch, wirklich stabil muß das System demzufolge auf dieser Taktrate auch nicht sein. Wenn man sich die Übertaktungs-Ergebnisse der verschiedenen Intel-Generationen im Rückblick ansieht, sind jene (vermutlich sowieso instabilen) 4.8 GHz nur minimal besser als beim Haswell-Refresh (~4.7 GHz) und angesichts des Sprungs von der 22nm- auf die 14nm-Fertigung eher sehr mager. Ganz generell gesprochen hängt dies natürlich auch damit zusammen, daß sich Intel bei seinen neueren Fertigungsverfahren vermehrt auf eine hohe Effizienz unter niedrigen Wattagen konzentriert und das frühere Augenmerk auf höchstmögliche Taktraten für den HighEnd-Bereich nachläßt. Zum anderen kommen bei den ganz hohen Frequenzen auch unschöne Seiteneffekte hinzu – welche unter anderem dafür verantwortlich waren, daß Intel seine (mehr als eine ganze Dekade zurückliegenden) Pläne, die Pentium-4-Linie auf bis zu 10 GHz Taktrate weiterzuführen, zugunsten der taktschwächeren, aber dafür pro Takt deutlich stärkeren Core-2-Linie aufgab.

Der Spiegel berichtet über einen kühnen Vorstoß der Werbeblocker-Firma "Shine" – welche den Mobilfunk-Providern ein System anbietet, mittels welchem man fremde Werbung auf Webseiten und in Apps herausfiltern kann. Dies kann den Mobilfunk-Providern die Möglichkeit eröffnen, ein werbefreies Internet zu offerieren – oder aber die frei werdenden Stellen mit eigener Werbung zu füllen. Der Werbeblocker läuft dabei nicht auf den Endkunden-Geräten selber, sondern in den Rechenzentren der Provider – welche durchaus interessiert an dieser Option sind. Den Providern dürfte es dabei aber wohl weniger um die beiden vorgenannten Anwendungsmöglichkeiten gehen – sondern eher darum, ein Erpressungsinstrument gegenüber Google & anderen Werbevermarktern in der Hand zu haben. An diesem großen Trog zu partizipieren, ist schon immer der feuchte Traum der Mobilfunk-Provider. Dem gegenüber steht jedoch die (sich aus Netzneutralität und Cybersicherheits-Gesetzen ergebende) Pflicht zur Nichtveränderung des Datenstroms – jeder Webseiten-Betreiber, dessen Werbung von einem Provider ausgefiltert wird, könnte daraufhin monströse Klagen vom Zaun brechen, welche teilweise sogar das Strafrecht berühren.

14

Die Grafikkarten-Performance unter Project Cars

Seitens der ComputerBase, der PC Games Hardware & und des TechSpots hat man sich mit der Grafikkarten-Performance unter "Project Cars" beschäftigt, dem neuen Rennspiel der Slightly Mad Studios. Basierend auf der Haus-eigenen und inzwischen vielfach aufgebohrten "Madness"-Engine bietet das Spiel eine der derzeit schönsten Grafiken im Bereich der Autosimulationen sowie der PC-Spiele allgemein. Dies hat aber natürlich auch ordentliche Hardware-Anforderungen zur Folge – insbesondere in Regen-Situationen sinkt die Framerate sehr erheblich ab und ergibt sich ein komplett anderes Performancebild zu diesem Spiel. Für die Zusammenfassung der Benchmark-Zahlen der drei vorgenannten Artikel haben wir daher die Regen-Werte stark (mit 3:1) zugunsten der Trocken-Werte gewichtet. Ob MSAA oder FXAA/SMAA aktiv waren, spielt hingegen laut den weiterführenden Messungen der ComputerBase keine Rolle, MSAA+SMAA verliert gerade einmal 4,3% gegenüber einem SMAA:

Project Cars – 1920x1080 MaxQuality 4xMSAA + FXAA/SMAA  (Quellen: ComputerBase, PCGH & TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870
7870-Boost
7950
7950-Boost
7970
7970-GHz
270
270X
280
285
280X
660Ti 760
30-39 fps 290
290X
670
680
770
780
960
40-49 fps Titan Titan Black
780Ti
50-59 fps 970
980
ab 60 fps Titan X

Das Regen-Szenario trennt deutlich die Spreu vom Weizen, selbst bei nVidia: Wo unter den Trocken-Benchmarks Mainstream-Lösungen wie eine GeForce GTX 760 noch auf über 40 fps kommen, geht es in den Regen-Benchmarks für diese Karte in den stark grenzwertigen Bereich von nur 25-29 fps hinab. Auch frühere HighEnd-Boliden wie GeForce GTX 670 & 680 sowie 770 & 780 sehen hier nicht mehr die 40-fps-Marke. Richtig gut läuft das Spiel generell nur auf den schnelleren Maxwell-Beschleunigern, selbst die deutlich abfallende GeForce GTX 960 läuft hier klar oberhalb ihres eigentlichen Leistungspotentials mit. Eine für eine Rennsimulation wirklich zufriedenstellende Performance (ab 50 fps) liefern aber nur GeForce GTX 970, 980 und Titan X ab.

Ein gänzlich eigenes Kapitel ist momentan die (unterirdische) Performance der AMD-Grafikkarten. Hierfür bekam der Spieleentwickler reichlich um die Ohren, rettet sich aber damit, daß AMD seit Jahren eine Zusammenarbeit angeboten war, diese jedoch nie zustandekam – während nVidia auf die Spieleentwickler von alleine zuging und jene bestmöglich unterstützte. Das Problem liegt hier also nicht im bösen Willen der Spieleentwickler, sondern in der schwachen Treiberarbeit von AMD – daß das Spiel auf AMD-Hardware gut laufen kann, zeigen schließlich die Konsolenversionen auf Basis von AMD-Hardware. Nichtsdestotrotz hat der Spieleentwickler AMD nunmehr 20 Spiel-Lizenzen zukommen lassen und hofft darauf, daß jene mit einem angepassten Catalyst-Treiber die größten Performancesorgen demnächst beseitigen können. Für den Augenblick ist die AMD-Performance unter Project Cars kaum zu werten, da das Spiel eben noch völlig unoptimiert auf AMD-Hardware ist.

Bei der ComputerBase sowie dem TechSpot gibt es dann noch weitere Benchmarks im Regen-Setting unter 2560x1440 und 3840x2160: Schon 2560x1440 wird dann aber schon grenzwertig, braucht es eine GeForce GTX 980 für die 40-fps-Marke, welche unter 3840x2160 dann keine Grafikkarte mehr sieht. Hier besteht dann noch einiges Potential für kommende Grafikkarten-Generationen. Beide Webseiten bieten zudem noch diverse CPU-Benchmarks an, denen jedoch keine besondere CPU-Lastigkeit des Spiels zu entnehmen ist: Vorne weg marschieren natürlich Intels Vierkerner, der Abstand zu den nachfolgenden FX-Prozessoren und Intels Zweikernern ist aber nicht so bedeutsam und auch diese zweite Gruppe bringt noch eine ausreichende CPU-Performance für Project Cars mit. Die ComputerBase bietet zudem noch Benchmarks zu den diversen vom Spiel gebotenen Anti-Aliasing-Arten an – von einfachem SMAA bis zu (stark Performance fressendem) Downsampling Anti-Aliasing gemischt mit Multisampling Anti-Aliasing.

Inhalt abgleichen