2

Wie nVidias Pascal-Generation für das Jahr 2016 aussehen könnte

In unserem Forum wird derzeit intensiv über die Maxwell-Nachfolgearchitektur "Pascal" diskutiert – hierzu liegen derzeit zwar noch wenige griffige Informationen außer ein paar neueren nVidia-Roadmaps und Allgemeinplätze wie jene der 16FF+ Fertigung von TSMC sowie dem Einsatz von HBM2-Speicher vor, aber genau dann lohnt sich die Spekulation schließlich um so mehr. Mangels größerer Ansatzpunkte für eine Technik-Diskussion geht es derzeit in erster Linie darum, die Pascal-Architektur terminlich genauer zu bestimmen. Hierzu gab es mal die nVidia-eigene Aussage von "Anfang 2016" für den Spitzenchip GP100 – was man allerdings durchaus in Frage stellen kann, denn die anderen in dieser Auflistung angegebenen Termine wurden schließlich auch nicht eingehalten. Ganz generell ist es eher unwahrscheinlich, daß ausgerechnet dieser Spitzenchip GP100 als erster der neuen Generation erscheint – neue Fertigungsverfahren versucht man heutzutage eher mit kleineren Chips einzuweihen, größere Chips machen das nur unnötig kompliziert und teuer.

Die wahrscheinlichste Auflösung ist daher eine ähnliche Herangehensweise wie bei den ersten 28nm-Beschleunigern von nVidia: Da kam zuerst der HighEnd-Chip GK104 – und erst lange 11 Monate später der Enthusiasten-Chip GK110. Bei dieser ausgesprochen hohen zeitlichen Differenz mögen sicherlich auch Verzögerungen bei der Designphase des GK110-Chips mit hineingespielt haben, aber auch ohne diese Verzögerungen wäre der GK104-Chip sowieso zuerst im Markt gewesen: nVidia geht derzeit generell den Weg, zuerst mit einem schnellen HighEnd-Chip abzukassieren – und erst später den Enthusiasten-Chip zu bringen, innerhalb einer Generation damit also zweimal einen jeweils schnellsten Chip vorzustellen (siehe auch zuerst GM204 und dann erst GM200 in der aktuellen Maxwell-2-Generation). So lange AMD hier nicht dazwischenfunkt, dürfte nVidia diese Releaseabfolge auch bei der Pascal-Generation durchziehen – GP104 zuerst, dann etwas später der GP100. Dies hat sogar den Vorteil, daß bei rechtzeitiger GP100-Fertigstellung viele frühzeitig gefertigte Chips dann in den (lukrativeren) Profi-Markt gehen können.

Eher unwahrscheinlich ist im übrigen, daß nVidia versuchen sollte, noch eine weitere Generation zwischen Maxwell 2 und Pascal dazwischenzudrücken: Hierzu wird gern eine hypothetische Maxwell-3-Generation in der 16nm-Fertigung genannt. nVidia ist aber nicht dafür bekannt, besonders viele echte Grafikchips aufzulegen – sondern eher dafür, teilweise komplette Grafikkarten-Generationen aus Rebrandings zu bestreiten (GeForce 500 & 700 Serien). Zudem wird die Pascal-Generation im eigentlichen schon als "weitgehend Maxwell-2-Architektur" nur in eben der 16nm-Fertigung und mit HBM2-Speicher beschrieben, größere Architektur-Veränderungen wird es mit Pascal wohl nicht geben. nVidia wird wohl schlicht die 16nm-Fertigung für eine Aufstockung der Anzahl der Hardware-Einheiten nutzen – und jene (deutlich) dickere Hardware-Power bedingt dann bei den größeren Chips ebenso deutlich mehr Speicherbandbreite, welches man dann mittels HBM2-Interfaces und HBM2-Speicher lösen will.

Wieviel mehr Hardware nVidia dabei bieten wird, ist derzeit natürlich ebenfalls rein spekulativ. Wenigstens kann man damit rechnen, daß durch die Verkleinerungen der 16FF+ Fertigung von TSMC wieder eine glatte Verdopplung der Anzahl der Ausführungseinheiten innerhalb derselben Chipfläche möglich wird. Allerdings ist es gut möglich, daß nVidia zum Start der ersten 16nm-Generation diese Fertigungstechnologie kaum derart ausreizt wie derzeit bei der 28nm-Fertigung zu sehen (siehe nVidias Monster-Chip GM200 mit 601mm² Chipfläche). Schon allein aus Gründen höherer Kosten und der (in den Anfangsmonaten) deutlich schlechteren Ausbeute größerer Chips in einem neuen Fertigungsverfahren könnte sich nVidia bei der Chipgröße der ersten 16nm-Generation möglicherweise klar beschränken. Nicht auszuschließen ist daher, daß der GP100-Chip von nVidia mit nur 50-70% mehr Ausführungseinheiten als der aktuelle GM200-Chip erscheint – oder aber, daß nVidia tatsächlich sehr große Chips innerhalb der Pascal-Generation auflegt, diese anfänglich aber ausschließlich teildeaktiviert in den Markt entläßt.

Kepler Maxwell Pascal
Enthusiast GK110
551mm² @ 28nm TSMC
2880 Shader-Einheiten
384 Bit DDR GDDR5-Interface
Release: Februar 2013
GM200
601mm² @ 28nm TSMC
3072 Shader-Einheiten
384 Bit DDR GDDR5-Interface
Release: März 2015
GP100
vmtl. ~500-550mm² @ 16FF+ TSMC
vmtl. ~4500-6000 Shader-Einheiten
vmtl. 4096 Bit DDR HBM2-Interface
vmtl. Release: Mitte/Ende 2016
HighEnd GK104
294mm² @ 28nm TSMC
1536 Shader-Einheiten
256 Bit DDR GDDR5-Interface
Release: März 2012
GM204
398mm² @ 28nm TSMC
2048 Shader-Einheiten
256 Bit DDR GDDR5-Interface
Release: September 2014
GP104
vmtl. ~300-350mm² @ 16FF+ TSMC
vmtl. ~3000-4000 Shader-Einheiten
vmtl. 2048 Bit DDR HBM2-Interface
vmtl. Release: Anfang/Mitte 2016
Performance GK106
221mm² @ 28nm TSMC
960 Shader-Einheiten
192 Bit DDR GDDR5-Interface
Release: September 2012
GM206
227mm² @ 28nm TSMC
1024 Shader-Einheiten
128 Bit DDR GDDR5-Interface
Release: Januar 2015
GP106
vmtl. ~200mm² @ 16FF+ TSMC
vmtl. ~1500-2000 Shader-Einheiten
vmtl. 256 Bit DDR GDDR5-Interface
(oder 1024 Bit DDR HBM2-Interface)
vmtl. Release: Anfang/Mitte 2016
Mainstream GK107
118mm² @ 28nm TSMC
384 Shader-Einheiten
128 Bit DDR GDDR5-Interface
Release: September 2012
GM107
148mm² @ 28nm TSMC
640 Shader-Einheiten
128 Bit DDR GDDR5-Interface
Release: Februar 2014
GP107
vmtl. ~120mm² @ 16FF+ TSMC
vmtl. ~700-1000 Shader-Einheiten
vmtl. 128 Bit DDR GDDR5-Interface
vmtl. Release: Anfang/Mitte 2016
Anm.: Diese Tabelle enthält für die 2016er Pascal-Generation rein spekulative Angaben.

Obige Hardware-Daten für die Pascal-Chips GP107, GP106, GP104 und GP100 sind natürlich rein spekulativ und geben auch nur das wieder, was mittels der angesetzten 16FF+ Fertigung von TSMC möglich sein sollte. Was nVidia hierzu letztlich wirklich ansetzt, ist derzeit noch (lange) nicht bekannt, vermutlich wird es erst in Richtung Jahreswechsel erste reale Vorabinformationen zu den Pascal-Grafikchips und den darauf basierenden Grafikkarten geben. Da nVidia derzeit schon bei der "GeForce 900" Grafikkarten-Serie angelangt ist, steht im übrigen vielleicht sogar ein neues Benennungsschema an – oder aber es kommt zum schlichten Wechsel auf die "GeForce 1000" Serie.

Nachtrag vom 2. April 2015

Ein wenig fehlend in unserer Ausarbeitung, wie nVidias Pascal-Generation aussehen könnte, sind die (bisher bekannten) Architektur-Features von Pascal: Dazu gehört (wie schon beschrieben) der breite, aber wohl nicht ausschließliche Einsatz von HBM2-Interfaces und -Speicher, mittels welchem die Speicherbandbreiten deutlich nach oben gedrückt werden können – was auch notwendig ist angesichts der vermutlich verbauten Einheiten-Anzahl. Daneben wird es höchstwahrscheinlich generell neu gestaltete Shader-Einheiten geben, welche bezüglich der Rechengenauigkeit einen Mixed-Mode beherrschen: Entweder volle FP32-Performance oder halbe FP64-Performance. Damit spart sich nVidia das Heranpflaschen von extra FP64-Einheiten, die neuen Shader-Einheiten werden aber natürlich wegen des Mixed-Modes trotzdem etwas größer ausfallen müssen als die bisherigen Shader-Einheiten der Maxwell-Architektur. Bei einer angenommen glatten Verdopplung der Transistorenanzahl durch den Wechsel von der 28nm- auf die 16nm-Fertigung würde es demzufolge knapp werden mit einer glatten Einheiten-Verdopplung.

Andererseits kann man in der Pascal-Generation gewisse Flächeneinsparungen durch die Verwendung von HBM-Speicherinterfaces verbuchen – zudem ist auch noch nicht klar, wie groß der Flächenvorteil von der 28nm- zur 16nm-Fertigung in der Praxis von großen Grafikchips wirklich ausfällt. Gut möglich ist in diesem Zusammenhang auch eine Umgestaltung der Shader-Cluster – als erstes würde einem hierzu ein höheres Verhältnis von Shader- zu Texturenpower einfallen. Ein GM200-Chip mit angenommen 6144 Shader-Einheiten hätte im Maxwell-Modus schließlich schon satte 384 Textureneinheiten, was womöglich zu viel sein und daher eingespart werden könnte. Daneben ist zur Pascal-Generation noch die Verwendung des NVLink-Interfaces als neue, sehr breitbandige Anbindung zum Rest des PC-Systems bekannt – welche vermutlich jedoch nur im GP100-Chip verbaut wird, da eher nur für professionelle Zwecke benötigt. Im Gaming-Bereich dürfte es weiterhin PCI Express als Anbindung zum PC-System geben – wahrscheinlich weiterhin in der Version 3.0, da die lange vorbereitete Version 4.0 nicht vor dem Jahr 2017 von den dann erhältlichen Prozessoren & Mainboards unterstützt werden wird.

1

Hardware- und Nachrichten-Links des 1. April 2015

Die PC Games Hardware hat sich mit der Performance unter dem Piraten-Abenteuer "Raven's Cry" nach dem dritten Spiel-Patch beschäftigt, nach welchem nun mittlerweise die gröbsten Bugs draußen sind und die Spielperformance ganz anständig ist. Das Spiel benötigt zwar eine moderne, potente Grafikkarte, skaliert aber ab einer gewissen Performance-Klasse kaum noch mit schnelleren Grafikkarten-Modellen – weil eher denn durch die hohen gebotenen Sichtweiten und die hohe NPC-Anzahl CPU-limitiert. Auf Prozessoren-Seite zählt zudem insbesondere die CPU-Taktrate, oberhalb von zwei CPU-Kernen mit HyperThreading bringen weitere CPU-Kerne leider kein Performanceplus mehr. Hier ist dann doch noch reichlich Optimierungspotential zu sehen – aber so lange das Spiel zufriedenstellend läuft, ist es (leider) eher unwahrscheinlich, daß die Spieleentwickler nachträglich noch eine überzeugende Mehrkern-Optimierung einbauen werden.

AnandTech haben sich noch etwas tiefer mit dem Thema "Asynchronous Shading" beschäftigt, wo AMD große Vorteile seiner GCN-Architektur sieht und in Zukunft (mit den NextGen-APIs DirectX 12, Mantle & Vulkan) diverse Performancegewinne herausholen will. Beachtenswert ist hierbei insbesondere die Klarstellung der bisher durch AMD verbreitete Fehlinformation, allein AMD könne (mit der GCN-Architektur) "Asynchronous Shading" liefern: nVidia kann dies mit der Maxwell-2-Architektur genauso, so daß für aktuelle und kommende Hardware kein Unterschied existiert. Allein beim Support älterer Hardware hat AMD seine Vorteile, da man "Asynchronous Shading" bis hinunter zu den allerersten GCN-basierten Beschleunigern bieten kann, und bei nVidia eben nur Maxwell 2 dieses Feature hat – alle früheren nVidia-Architekturen aber nicht.

Thema Aprilscherze: Keinem Fehler des CMS, sondern einfach einem Aprilscherz geschuldet war die etwas seltsame Sprache der News-Meldungen auf der Startseite am heutigen Vor- und Nachmittag. Wer sich die Mühe machte, genau hinzusehen bzw. zu lesen, konnte allerdings den Textinhalt durchaus verstehen – es war nämlich kein wirres Kauderwelsch, sondern die Wörter bestanden aus (exakt) denselben Buchstaben, nur waren außer den ersten und letzten Buchstaben alle mittleren Buchstaben jeweils wild vertauscht. Daß die Texte trotzdem mit einigem guten Willen lesbar sind, ist für Sprachforscher und Psychologen ein interessanter, allerdings bekannter Effekt. Die heute derart "verschandelten" News-Texte auf der 3DCenter-Hauptseite wurden im übrigen nicht manuell durcheinandergewirbelt, jener Effekt wurde vielmehr mittels des Tools Text-Zwirbler maschinell erzeugt. Und für Verächter: In diesem Fall bitten wir um Nachsicht, der Effekt wurde natürlich (auch für frühere Texte) mit Erscheinen dieser News wieder aufgehoben.

Auch anderenorts hat man sich bezüglich Aprilscherze nicht lumpen lassen und jene in vielfältiger Art und Weise geboten: Laut 3DTester wird es nun endlich ein lange vermisstes Hardware-Teil käuflich zu erwerben geben – die PCI-Slotblech-Blindblende. HT4U bringen den "King Mod Wireless Kit" von Caseking ins Spiel, mittels welchem sich auf einfache Art und Weise der komplett kabellose Rechner erstellen läßt. Microsoft macht dagegen das, was man sowieso am besten kann – und stattet kommende Microsoft-Smartphones mit einem (stilechten) MS-DOS Mobile aus. Die FAZ berichtet hingegen von einem neuem Vorstoß in Richtung eines Zweiklassen-Internets, bei welchem die größten Traffic-Schleudern zukünftig konsequent ausgeblendet werden sollen: Zum einen Thesen zur Zukunft des Journalismus, zum anderen Katzenbilder und -videos. Zur Rettung vor der Langeweile der Formel 1 berichtet man bei Motorsport über die Idee, im nächsten Jahr die Teams mit einem dritten Auto antreten zu lassen, in welchem dann jeweils "prominente Gaststars" starten werden.

Absolut passenderweise MMNews berichten über die beschlossene Abschaffung des Bargelds in der EU ab dem Jahr 2018 – was um so besser kommt, wenn einem das von den üblichen Verschwörungstheoretikern als echte Nachricht (und als ultimativer Beweis der Niedertracht der EU, der Finanzwirtschaft, der Illuminaten, der Echsenmenschen, ...) schon vor den Frühstück gemailt wird. Einem höheren Ansatz versucht das CERN zu dienen: Ausnahmesweise wurden am Teilchenbeschleuniger mal keine die Erde verschluckenden schwarzen Löcher erzeugt, sondern vielmehr die Existenz der "Macht" aus Star Wars bestätigt. Google (Javascript vonnöten) zeigt dagegen schlicht aber effektiv, wie man eine wirklich rekursive Suche versteht. Und wem das alles am 1. April zu stressig wird, der sollte zur allgemeinen Internet-Entschleunigung den ebenfalls von Google vorgestellten "Dial-up Modus" versuchen ;)

1

Eine andere Darstellungsform zur Performance der aktuellen HighEnd-Grafikkarten

Unsere Launch-Analyse zur GeForce GTX Titan X schloß wie bekannt mit einer Übersichts-Tabelle zur Performance der aktuellen HighEnd-Grafikkarten unter den getesteten Auflösungen respektive des sich daraus ergebenden Performance-Index. Letzterer wurde natürlich dafür kritisiert, die zwischen den einzelnen Auflösungen differierende Performance nicht gut genug wiedergeben zu können – kein Wunder, wenn man versucht, das entstandene und wirklich nicht gerade eindeutige Performance-Profil in einer einzigen Zahl wiederzugeben. Prinzipbedingt ist daher unser Performance-Index nicht geeignet zu einer Detailbetrachtung der Grafikkarten-Performance, dies geht eben nur über die exakten Zahlen zu jeder einzelnen Auflösung:

290X (U) 780Ti 980 Titan X
1920x1080 4xMSAA/FXAA 66,6% 70,6% 80,7% 100%
2560x1440 4xMSAA/FXAA 69,0% 67,7% 76,2% 100%
3840x2160 MSAA/FXAA 69,7% 64,6% 74,6% 100%
3DCenter Performance-Index 520% 530% 570% 750%
Spiele-Stromverbrauch 279W 251W 174W 242W
Straßenpreis 320-360€ ausgelaufen 500-540€ 1150-1200€

Da Zahlen in einer Tabelle aber auch nur trocken und vor allem schlecht im Kopf umrechenbar sind, wenn man mal eine andere Perspektive wünscht, haben wir nachfolgend noch ein paar Grafiken erstellt, welche die Performance-Profile aller aktuellen HighEnd- und Enthusiasten-Grafikkarten in eine leichter erfaßbare Form bringen:

Performance-Vergleich aus Sicht der GeForce GTX Titan X
Performance-Vergleich aus Sicht der GeForce GTX Titan X
Performance-Vergleich aus Sicht der GeForce GTX 980
Performance-Vergleich aus Sicht der GeForce GTX 980
Performance-Vergleich aus Sicht der GeForce GTX 780 Ti
Performance-Vergleich aus Sicht der GeForce GTX 780 Ti
Performance-Vergleich aus Sicht der Radeon R9 290X (U)
Performance-Vergleich aus Sicht der Radeon R9 290X (U)

Insbesondere über die Grafik aus Sicht der Radeon R9 290X ist deren eher ungewöhnliches Performance-Profil gut zu erkennen: Unter 1920x1080 liegt jene noch am Ende der HighEnd-Riege, unter 2560x1440 wird dann schon die GeForce GTX 780 Ti überrundet und unter 3840x2160 kommt man dann sogar der GeForce GTX 980 recht nahe. Vor allem aber schmilzt der Abstand zur GeForce GTX Titan X mit steigender Auflösung etwas ab – bleibt zwar auch unter UltraHD noch groß, ist aber eben nicht mehr so groß wie unter FullHD. Sobald in absehbarer Zeit leistungsfähigere AMD-Hardware erscheint, wird es interessant werden zu sehen, ob sich ein solches Performance-Profil auch dort herausbildet. Alternativ könnte man über folgende Darstellungsform nachdenken, welche sogar alle Werte in ein Diagramm packt:

1

Die Systemanforderungen zu Dark Souls 2: Scholar of the First Sin

Mit "Dark Souls 2: Scholar of the First Sin" bringt Spielepublisher Bandai Namco eine inhaltlich überarbeitete sowie optisch verbesserte Version von Dark Souls 2 heraus, welche ab dem 2. April erhältlich ist. Damit wird auch erstmals DirectX 11 unterstützt, was entsprechend höhere Systemanforderungen nach sich zieht. Irritierenderweise gibt es das Spiel in zwei zueinander inkompatiblen Versionen mit sogar unterschiedlichen Preisepunkten: Eine mit DirectX 9 und eine mit DirectX 11, letztere kostet 10 Dollar/Euro mehr. Extra Preise gibt es zudem für Vorbesitzer von Dark Souls 2 sowie für Vorbesitzer mit allen bislang erschienenen DLCs. Die nachfolgenden Ausführungen beziehen sich natürlich allein auf die DirectX-11-Version des Spiels.

Jene hat durchaus interessante Anforderungen für ein Spiel vom letzten Frühling, welches (sogar inklusive des aktuellen Updates) auch noch auf den LastGen-Konsolen lauffähig ist. Wie üblich wird nach einem 64-Bit-Windows und mindestens 4 GB Hauptspeicher verlangt, 8 GB Hauptspeicher werden empfohlen. Auf Prozessoren-Seite sind die minimalen Anforderungen mit A8-3870 (Llano-Serie) bzw. Core i3-2100 eher handzahm, die empfohlenen Anforderungen mit FX-8150 bzw. Core i7-2600 dann aber durchaus gehoben. Auf Grafikkarten-Seite sieht es noch etwas freundlicher aus: Minimal müssen es Radeon HD 6870 (Perf.Index 190%) bzw. GeForce GTX 465 (Perf.Index 160%) sein, empfohlen werden hingegen Radeon HD 7850 (Perf.Index 220%) bzw. GeForce GTX 750 (Perf.Index 185%). Beiden Angaben ist klar zu entnehmen, daß das Spiel eher nVidia-Karten mag bzw. mit jenen (etwas) besser auf Touren kommt.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows Vista, 7, 8 & 8.1 (Vista nicht offiziell erwähnt)
Prozessor AMD A8-3870 (4C, 3.6 GHz)
Intel Core i3-2100 (2C+HT, 3.1 GHz)
AMD FX-8150 (8C, 3.6 GHz)
Intel Core i7-2600 (4C+HT, 3.4 GHz)
RAM 4 GB 8 GB
DirectX DirectX 11.0
Grafikkarte AMD Radeon HD 6870
nVidia GeForce GTX 465
AMD Radeon HD 7850
nVidia GeForce GTX 750
VRAM keine Angabe
HDD 23 GB freier Festplattenspeicherplatz
Dienste keine
Speichermenge und Anzahl an CPU-Rechenkernen werden in aller Regel nicht zwingend vorausgesetzt

Der Unterschied zwischen minimalen und empfohlenen Anforderungen auf Grafikkarten-Seite ist mit gerade einmal 15% ausgesprochen niedrig – was wohl bedeutet, daß das Spiel eher auf eine hohe Prozessoren-Performance ausgelegt ist und man überschüssige Grafikkarten-Performance (mittels vorhandener HighEnd-Grafikkarten) problemlos in UltraHD-Auflösungen oder/und Downsampling Anti-Aliasing investieren kann. Als echte Zwänge sind bei diesem Spiel "nur" das 64-Bit-Betriebssystem sowie bei dieser Spiel-Version eine Grafikkarte nach DirectX 11.0 zu nennen, die genannten 4 GB Hauptspeicher dürften wie üblich nicht erzwungen werden.

31

Hardware- und Nachrichten-Links des 31. März 2015

Zur Frage, ob AMDs VSR Anti-Aliasing auch noch für ältere AMD-Grafikkarten kommt, gibt es anscheinend nun doch eine Lösung: Ein AMD-Mitarbeiter hat im Forum von Overclockers.co.uk den VSR-Support für "mehr" (ältere) Grafikkarten als bisher in Aussicht gestellt, AMD würde an einer entsprechenden Lösung arbeiten. Prinzipiell könnten damit auch die Radeon R7 260 & Radeon R9 280 Serien gemeint sein, welche bislang noch kein VSR beherrschen – doch der AMD-Mitarbeiter hat sein Statement bewußt mit einem älteren Zitat versehen, welches VSR für die Radeon HD 7000 Serie verneint. Folgt man diesem Gedankengang, so bahnt sich wohl auch VSR für die Radeon HD 7000 Serie an – was erstens nett für deren Nutzer wäre und zweitens AMD entscheidend weiterhelfen würde, wenn die kommende Radeon R300 Serie doch noch größtenteils aus Rebrandings bestehen sollte. Leider gibt es derzeit noch keinen Termin für diesen weiteren VSR-Treiber – aber wenn es wirklich für die Radeon R300 Serie Relevanz hat, sollte das ganze sicherlich spätestens zum Launch jener neuen Grafikkarten-Serie vermutlich Anfang Juni spruchreif sein.

Die ComputerBase berichtet über "Asynchronous Shaders" – ein Feature der GCN-Architektur, mittels welchem AMD die Auslastung von Grafikchips unter den NextGen-APIs DirectX 12, Mantle und Vulkan verbessern will. Dabei sollen die Shader-Einheiten schlicht maximal mit Rechenaufgaben versorgt werden, zur Steuerung dessen setzt AMD seine ACE-Einheiten ein, mittels welchen man mehrere Kommando-Ströme verwalten kann. In diesem Punkt soll AMDs Grafikchip-Architektur besser als nVidias aufgestellt sein, denn laut AMD beherrscht nVidia-Hardware nicht das Erstellen und Verwalten mehrerer Kommandoströme. Oder sinnbildlich formuliert: AMD hat so etwas wie "HyperThreading für Grafikchips" in der Hinterhand – eine interessante Idee, welche allerdings ihren Praxisnutzen erst wirklich erweisen muß. Schließlich ist HyperThreading bei CPUs auch nicht unbedingt für große Performancesprünge bekannt, sondern eher für einen Zugewinn an Schwuppdizität im Windows-Einsatz – eine Disziplin, welche auf Grafikkarten nicht zutrifft. Ob AMDs "Asynchronous Shaders" etwas reißen kann, wird man sehen müssen – aber so bekommt wenigstens AMDs Augenmerk auf die ACE-Einheiten ihren tieferen Sinn.

Fudzilla haben weiteres zu der gestern schon genannten HighPerformance-APU von AMD: Jene mit einer TDP von 200 bis 300 Watt arbeitende APU soll im Jahr 2016 mit bis zu 16 Zen-basierten CPU-Rechenkernen, einem QuadChannel DDR4-Speicherinterface und einer Greenland-Grafiklösung mit HBM-Einsatz antreten – ein überaus stattlicher Ansatz. Dies würde in jedem Fall das Bild sprengen, welches man bisher von APUs hat – meistens werden jene als LowCost- und Mainstream-Prozessoren betrachtet, die alles ein wenig, nichts aber wirklich herausragend können. Mit seiner HighPerformance-APU könnte AMD mit dieser Vorstellung überaus gründlich aufräumen, schon allein aus rein technischer Sicht scheint ein hohes Interesse gesichert. Denn natürlich wird jene HighPerformance-APU auch deutlich abgewandelte Mainboards erfordern – der Grafikkarten-Steckplatz kann wohl entfallen, dafür dürfte der CPU-Bereich deutlich breiter werden und muß dann eben auch zur Abfuhr von 300 Watt Abwärme vorbereitet sein. Man darf gespannt sein auf neue Informationen in diese Richtung hin.

Der Standard berichtet über eine kommende neue EU-Richtlinie zum Schutz von Unternehmensgeheimnissen. Dieses erst einmal hehre Ansinnen läßt sich jedoch in der konkreten Ausgestaltung durchaus auch dazu ausnutzen, Whistleblower und Journalisten mit rechtlichen Konsequenzen einzuschüchtern. Denn bisher waren interne Unternehmesunterlagen nur mehr schlecht als recht durch das Urheberrecht geschützt – welches sich für viele Unternehmensunterlagen mangels Schöpfungshöhe nicht anwenden läßt (auch wenn Abmahnanwälte dies gern anders darstellen). Die neue EU-Richtlinie würde Unternehmensunterlagen aber generell unter Schutz stellen, jegliche Zitate oder das direkte Veröffentlichen wären dann untersagt. Dabei hat man sogar an ein gewisses Schlupfloch für Whistleblower gedacht: Denn wenn durch die Veröffentlichung ein Mißstand von öffentlichen Interesse betroffen ist, wäre diese Veröffentlichung dann doch legal.

Rein in der Praxis wäre es allerdings Aufgabe der Gerichte, festzustellen, was denn nun "öffentliches Interesse" ist – je nachdem, um was es geht, bestehen da trotzdem Ansatzpunkte, Whistleblower und Journalisten das Leben sehr unangenehm zu machen. Geht es dagegen nur um das Interesse im Rahmen eines Hobbies – wie eben bei PC-Hardware – dann würde diese EU-Richtlinie es den Herstellern beispielsweise ermöglichen, die Veröffentlichung aller möglichen internen Dokumente juristisch untersagen zu lassen (und zwar völlig egal, ob es in Fernost tausendfach gespiegelt wird). Bisher haben die Hersteller in dieser Frage zwar auch schon gern auf dicke Hose gemacht, konnten aber eigentlich nie mit juristischen Konsequenzen drohen, sondern eher mit "Liebesentzug" für die Journalisten bzw. Publikationen. Eine gesetzliche Regelung hierzu würde es den Hersteller einfacher machen, nur noch Marketing-konforme Informationen durchzulassen – wobei natürlich die Befindlichkeiten der über PC-Hardware berichterstattenden Presse kein Vergleich sind zu den eventuellen Problemen von echten Whistleblowern mit dieser kommenden EU-Richtlinie.

31

Intel aktualisiert das Haswell-Portfolio um drei kleine Taktraten-Updates

Prozessorenhersteller Intel hat tatsächlich sein immerhin schon seit Mitte 2013 existierendes Portfolio an Haswell-Prozessoren noch einmal um drei neue, aber nur rein um 100 MHz CPU-Takt angehobene Modelle verändert: Core i3-4170, Pentium G3470 und Pentium G3260 stehen neu in Intel Preisliste und dürften ergo umgehend verfügbar werden. Die neuen Modelle gehen wie bei Intel üblich zum Listenpreis der jeweiligen Vorgänger in den Markt, die Vorgänger Core i3-4160 und Pentium G3460 sinken demzufolge im Listenpreis entsprechend ab – abweichend hiervon sinkt der frühere Pentium G3250 dagegen nicht im Preis und wird somit uninteressant. Hinzu gab es eine einzelne weitere Preissenkung im schon bekannten Haswell-Portfolio: Der Core i3-4370 sinkt von 149$ auf 138$ Listenpreis und macht damit die gleichpreisigen Core i3-4360 und Core i3-4350 obsolet.

Kerne Taktraten unlocked L3 integrierte Grafik Speicher TDP Listenpreis
Core i7-4790K 4 + HT 4.0/4.4 GHz 8 MB HD 4600 (20AE) @ 350/1250 MHz DDR3/1600 88W 339$
Core i7-4790 4 + HT 3.6/4.0 GHz - 8 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 84W 303$
Xeon E3-1231 v3 4 + HT 3.4/3.8 GHz - 8 MB deaktiviert DDR3/1600 80W 240$
Core i5-4690K 4 3.5/3.9 GHz 6 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 88W 242$
Core i5-4690 4 3.5/3.9 GHz - 6 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 84W 213$
Core i5-4590 4 3.3/3.7 GHz - 6 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 84W 192$
Core i5-4460 4 3.2/3.4 GHz - 6 MB HD 4600 (20AE) @ 350/1100 MHz DDR3/1600 84W 182$
Core i3-4370 2 + HT 3.8 GHz - 4 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 54W 138$
Core i3-4170 2 + HT 3.7 GHz - 3 MB HD 4400 (20AE) @ 350/1150 MHz DDR3/1600 54W 117$
Pentium G3470 2 3.6 GHz - 3 MB HD (10AE) @ 350/1100 MHz DDR3/1600 53W 86$
Pentium G3460 2 3.5 GHz - 3 MB HD (10AE) @ 350/1100 MHz DDR3/1600 53W 75$
Pentium G3260 2 3.3 GHz - 3 MB HD (10AE) @ 350/1100 MHz DDR3/1333 53W 64$
Pentium G3258 "AE" 2 3.2 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1333 53W 72$
Celeron G1850 2 2.9 GHz - 2 MB HD (10AE) @ 350/1050 MHz DDR3/1333 53W 52$
Celeron G1840 2 2.8 GHz - 2 MB HD (10AE) @ 350/1050 MHz DDR3/1333 53W 42$
Alle Haswell-Refresh-Prozessoren laufen offiziell auf Mainboards mit 9er Chipsatz und nach BIOS-Update auch auf Mainboards mit 8er Chipsatz, da der Sockel aller Haswell-Prozessoren inklusive der Refresh-Modelle identisch ist (Sockel 1150). Die notierte Xeon-CPU wird normalerweise von allen Desktop-Platinen unterstützt, zumindest im Retail-Bereich.

Abseits davon weist die Intel-Preisliste auch erstmals Einträge für 14nm-Prozessoren der Airmont-Architektur auf, welche im Desktop unter dem Codenamen "Braswell" antreten werden. Hierzu werden Celeron N3000, N3050 und N3150 sowie ein Pentium N3700 genannt – die ersten beiden Zweikerner, die letzten beiden Vierkerner. Die Taktraten sind mit zwischen 2.08 und 2.4 GHz unter dem TurboMode ganz ansprechend, die Preislagen mit 107$ für die Celerons bzw. 161$ für den Pentium dagegen eher nicht. Allerdings verkauft Intel diese Prozessoren üblicherweise nur an OEMs und Mainboard-Hersteller zu augenscheinlich stark rabattierten Preisen, so daß dann doch ganz gute Bundle-Angebote entstehen – wie bisher schon von den Silvermont-basierten Celerons und Pentiums her bekannt.

Inhalt abgleichen