12

Intel veröffentlicht Details zur Broadwell-Architektur

Auf der IFA hat Intel am Montag reichlich Details und weitere Informationen zur kommenden Broadwell-Architektur herausgegeben, welche erstmals bei Intel in der 14nm-Fertigung hergestellt wird. Leider machte gerade dieses neue Fertigungsverfahren Probleme bei der Produktionsausbeute, so daß Intel seinen ursprünglichen Plan von einem Broadwell-Release diesen Sommer nicht einhalten kann und sich das ganze sehr deutlich verschiebt: Noch Ende 2014 sollen die ersten Ultrabook-SoCs unter dem neuem Produktnamen "Core M" erscheinen, im ersten Quartal 2015 kommen dann die regulären Notebook-Modelle und im Sommer 2015 die regulären Desktop-Modelle, während die das Enthusiasten-Segment maßgeblich interessierenden Broadwell-K Modelle (mit ungelocktem Multiplikator) derzeit völlig vakant sind.

Intel konzentrierte sich bei seinen Ausführungen dann stark auf eben jenen Core M, welcher neben den Architektur-Verbesserungen von Broadwell auch noch andere nette Tricks unterstützt, um dem Ziel eines möglichst energieeffizienten Prozessors für den Ultrabook-Einsatz gerecht werden zu können. Dazu gehören auch reihenweise Detail-Verbesserungen beim Turbo, welche primär wieder der Laufruhe sowie der Akkulaufzeit im Ultrabook-Einsatz zu gute kommen werden. Der Core M soll wohl mit TDPs von 3W bis 6W antreten, was nochmals deutlich niedriger ist als bei bisherigen Ultrabook-Prozessoren. Konkrete Ausführungen zu den eigentlichen Verbesserungen der Broadwell-Architektur auf CPU- und iGPU-Seite gab es allerdings auch:

Danach kann man kurz gefasst mitnehmen, daß Broadwell auf CPU-Seite einen 5%igen Vorteil pro Rechenkern und auf gleichem Takt bieten wird – nicht untypisch für eine Refresh-Architektur, mehr war eigentlich nicht zu erwarten. Ob Intel neben dieser Pro/MHz-Verbesserung dann auch noch Taktraten-Vorteile mit Broadwell bieten kann, bleibt abzuwarten: Die 14nm-Fertigung sollte hierfür eigentlich prädestiniert sein, aber Intel ist auf der anderen Seite durch den schwachen Wettbewerb seitens AMD auch nicht gezwungen, all das zu zeigen, was man wirklich könnte.

Auf der iGPU-Seite gibt es ebenfalls einige Optimierungen sowie vor allem 20% mehr Ausführungseinheiten: Die GT2-Lösung kommt also mit 24 statt 20 EUs, die GT3-Lösung mit 48 statt 40 EUs. Zudem wird es erstmals bei Intel DirectX 11.2 geben – angeblich sogar in voller Erfüllung dieser Norm (DirectX 11.2 "Tier 2"). Wieviel dabei an Mehrperformance zu erwarten ist, läßt sich schwer einschätzen, dies kommt auch noch auf die konkreten Taktraten sowie den Effekt der Speicherbandbreite an. Speziell die GT3-Lösungen hängen bisher schließlich deutlich an der eher schwachen Speicherbandbreite des DualChannel-Interfaces mit nur DDR3/1600 (bei Haswell) – bei Broadwell sind diesbezüglich keine großen Verbesserungen geplant, allein eine höhere default-Speichertaktung läge im Bereich des Möglichen.

Da die Desktop-Modelle sowieso kein großes Thema bei Broadwell sind, kann es auch passieren, daß Intel im Desktop-Bereich mit Broadwell nichts besonders hinlegt – ein paar minimal höhere Takraten samt den Pro/MHz-Verbesserungen reichen schon aus, um sich gegenüber Haswell absetzen zu können, den Rest besorgt dann die mächtige Intel-Vertriebsmaschinerie. Im Notebook-Bereich könnte es hingegen gewisse Taktraten- und damit dann auch Performance-Zuwächse geben, schließlich muß sich die 14nm-Fertigung irgendwo (auch für den Endverbraucher) auszahlen.

Den größten Vorteil aus der 14nm-Fertigung hat aber sicherlich Intel, weil man die Chipflächen nochmals deutlich schrumpfen kann: So kommt ein Haswell-Zweikerner mit immerhin GT2-Grafiklösung noch auf 130mm² Chipfläche, bei Broadwell sind dies (trotz verbesserter Grafik) nur noch ~80mm². Für einen ausgewachsenen Prozessor, welchen man auch sofort als Core i3-5xxx auflegen könnte, ist dies spartanisch – viele HighEnd-SoCs von Apple & Co. sind schon größer als 100mm² (aber bei weitem nicht so leistungsfähig). Wenn Intel die Vierkern-Modelle im gleichen Maßstab schrumpfen kann, würde ein Core i7-5xxx am Ende bei einer Chipfläche von mickrigen ~110mm² herauskommen. (Vergleich Chipflächen Sandy Bridge, Ivy Bridge & Haswell)

Für den an Performance interessierten Desktop-Nutzer bietet Broadwell gerade wegen der großen Verschiebung wahrscheinlich nichts, weswegen es sich auf Broadwell zu warten lohnen würde. Immerhin soll die Broadwell-Nachfolgearchitektur Skylake zeitgleich zu den Desktop-Modellen von Broadwell im Sommer 2015 erscheinen, kann man also wahrscheinlich Broadwell im Desktop-Segment glatt überspringen. Daß Broadwell den dann letztmalig benutzten Sockel 1150 verwendet und Skylake dagegen den neuen Sockel 1151, kommt hier noch hinzu. Eine kurzfristig verfügbare Alternative hierzu wäre dann nur Haswell-E, welches schon Mitte September antreten soll – aber natürlich auch ein anderes Preisschild tragen wird.

12

Erste Spezifikationen & Benchmarks zur GM204-basierten GeForce GTX 870 aufgetaucht

Aus dem chinesischen Forum von Coolaler (maschinelle Übersetzung ins Deutsche) kommen erste Informationen zur GM204-basierten GeForce GTX 870, welche für Ende September zusammen mit der GeForce GTX 880 erwartet wird. Bei der Karte handelt es sich um die kleinere Ausführung des GM204-Chips mit also reduzierter Anzahl an Shader-Einheiten, aber dem vollen 256 Bit DDR Speicherinterface samt einer default-Speicherbestückung von 4 GB GDDR5-Speicher. Die bei Coolaler genannten Spezifikationen und Benchmarks dürften wohl darauf basieren, daß nVidia derzeit die Grafikkarten-Hersteller mit ersten Samples beliefert – sicher sind die Informationen aber keineswegs, auch ein Photoshop-Stunt bleibt noch im Bereich des Möglichen.

Allerdings klingen die vorliegenden Informationen teilweise etwas handzahm, was eher untypisch für Fakes ist: So wird die GeForce GTX 870 als mit nur 1664 Shader-Einheiten ausgerüstet beschrieben, was trotz daß es sich hier um den abgespeckten GM204-Chip handelt, doch erstaunlich wenig ist. Dies ergibt 13 der neuen Maxwell-Shader-Cluster (SMM), die von GPU-Z derzeit falsch ausgelesen Anzahl an Textureneinheiten dürfte demzufolge bei 104 liegen. Vor allem aber läßt sich spekulieren, daß der GM204-Chip im Vollausbau dann wahrscheinlich 15 SMMs tragen dürfte – 14 sind als zu geringer Abstand zwischen GeForce GTX 870 & 880 unwahrscheinlich, 16 aber auch noch im Bereich der Möglichkeiten, mehr dann aber nicht. Ausgehend von den wahrscheinlich 15 SMM wird der GM204-Chip (und damit die GeForce GTX 880) im Vollausbau dann wahrscheinlich mit 1920 Shader- und 120 Textureneinheiten antreten (bei 16 SMM wären es 2048 Shader- und 128 Textureneinheiten).

GeForce GTX 770 GeForce GTX 780 GeForce GTX 870 GeForce GTX 880
Chipbasis nVidia GK104, 3,54 Mrd. Transistoren in 28mn auf 294mm² Chipfläche nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 561mm² Chipfläche nVidia GM204, ~5 Mrd. Transistoren in 28nm auf ~370-430mm² Chipfläche
Architektur Kepler-Architektur, DirectX 11.0 & PhysX Maxwell-Architektur, DirectX 11.0 (oder mehr) & PhysX
Technik 4 Raster-Engines, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface 4-5 Raster-Engines, 2304 Shader-Einheiten, 192 TMUs, 48 ROPs, 384 Bit DDR Interface halbwegs sicher: 1664 Shader-Einheiten, 104 TMUs, 32 ROPs, sicher: 256 Bit DDR Interface vermutet: 1920-2048 Shader-Einheiten, 120-128 TMUs, 32 ROPs, sicher: 256 Bit DDR Interface
Taktraten 1046/1085/3500 MHz 863/902/3000 MHz 1051/1178/3500 MHz ?
Speicherausbau 2/4 GB GDDR5 3 GB GDDR5 4 GB GDDR5 4 GB GDDR5
3DC Perf.Index
(1920x1080 4xAA)
380% 440% geschätzt:
~440-470%
spekuliert:
~500-550%

Die klingt nach wenig und liegt sogar noch etwas niedriger als im konservativen Bereich der bisherigen Schätzungen – und dennoch dürfte dies die Performance-Ziele von nVidia mit der Maxwell-Architektur nur minimal tangieren. Immerhin holt Maxwell pro verbauter Shader-Einheit (und bei gleichem Takt) laut nVidia-Angaben ca. 35% Mehrperformance heraus – selbst wenn es real etwas weniger sind, ist dies immer noch ein sehr handfester Vorteil der Maxwell-Chips. Zudem scheint nVidia den GM204 auch noch mit klar höheren Taktraten ausliefern zu wollen: Die GeForce GTX 870 soll mit 1051/1178/3500 MHz antreten, was beim Boost-Takt ein Vorteil von +8,6% gegenüber der GK104-basierten GeForce GTX 770 sind, sowie von gleich +30,6% gegenüber der GK110-basierten GeForce GTX 780. Die Vorteile der Maxwell-Shadereinheiten sowie der höheren Taktraten zusammengenommen sollten problemlos ausreichen, um schon mit der GeForce GTX 870 in einem Performance-Feld mitzuspielen, welches bislang nur GK110-basierten Karten vorbehalten war.

Darauf deuten auch die ersten, im 3DMark11 entstandenen Benchmarks hin: Zusammen mit einem Core i7-4820K wurden mit der GeForce GTX 870 im Performance-Test 11919 Punkte erreicht (Graphics-Score: 13334), im Extreme-Test noch 4625 Punkte (Graphics-Score: 4303). Angesichts der Auflösung von nur 1280x720 im Performance-Test ist in dem Sinne nur letztgenannter Extreme-Test (mit einer Auflösung von 1920x1080) wirklich wertbar. Wenn man nur den Graphics-Score nutzt, kann man sogar etwaige Einflüße der jeweils benutzten CPU herausnehmen, womit – wenn auch nur in diesem einen Benchmark – eine gewisse Vergleichbarkeit mit den Ergebnissen anderer Benchmark-Reihen unter Verwendung des 3DMark11 erreicht werden kann:

P (insg.) P (GPU) X (insg.) X (GPU) (Quelle)
GeForce GTX 870 11919 13334 4625 4303 (Coolaler)
GeForce GTX 770 10475 10161 3599 3259 (TweakPC)
GeForce GTX 780 11672 11504 4286 3892 (TweakPC)
GeForce GTX 780 Ti 13564 13962 5119 4721 (TweakPC)

Dieser Vergleich deutet derzeit sogar in die Richtung, daß die GeForce GTX 870 klar besser als die GeForce GTX 780 herauskommt bzw. sich glatt in der Mitte zwischen GeForce GTX 780 & 780 Ti plazieren kann. Beschreien oder auf die Goldwaage legen sollte man dieses Ergebnis aber tunlichst nicht – die neuen Maxwell-Grafikchips könnten bewußt oder unbewußt besser für den 3DMark geeignet sein als die früheren Kepler-Grafikchips, dieses Ergebnis muß sich daher nicht in dieser Form im realen Spieleeinsatz wiederfinden. Wir würden eher davon ausgehen, daß sich die GeForce GTX 870 im besten Fall gut mit der GeForce GTX 780 anlegen kann, wohl auch etwas schneller als jene herauskommt.

Interessante Punkte zur GeForce GTX 870 dürften dann noch Stromverbrauch, Preispunkt und Performance unter höheren Auflösungen werden. Letztere ist bei GeForce GTX 870 & 880 besonders verkant, da der GM204-Chip nur mit einem 256 Bit DDR Speicherinterface antritt, jedoch in die Performance-Regionen von AMDs Hawaii-Chip sowie nVidias GK110-Chip geht, welche beiderseits größere Speicherinterfaces aufweisen. Die Maxwell-Architektur steuert hier mittels drastisch größerer Caches etwas dagegen, aber irgendwo wird auch diese Maßnahme ihr Limit finden. Demzufolge dürfte es besonders interessant werden, ob die wie gesagt Ende September zu erwartenden GeForce GTX 870 & 880 sich auch noch unter 2560x1600 bewähren und wie weit deren Eignung für die 4K-Auflösung von 3840x2160 reicht.

11

Hardware- und Nachrichten-Links des 11. August 2014

Die PC Games Hardware vermeldet die vermutliche Vorstellung der "nVidia Quadro Kx2 Serie" an Profi-Beschleunigern schon diese Woche auf der Siggraph 2014. Sehr gut möglich, daß nVidia hierbei den kürzlich genannten GK210-Chip erstmals in den Ring wirft – immerhin soll jener laut nVidia-Angaben im Sommer 2014 antreten, wofür es nicht mehr viele Gelegenheiten gibt. Die Vorbereitungen für den GK210-Chip selber laufen dagegen schon seit Februar diesen Jahres – womit man auch sehen kann, wie lange es zwischen erstem Silizium ("Tape-Out") und Markteinführung selbst bei einem Grafikchip einer bekannten Architektur mit bekanntem Fertigungsverfahren dauern kann. Ob der nachfolgende GM200-Chip, welcher wohl exakt zur Jahresmitte seinen Tape-Out hatte, angesichts der sechsmonatigen Vorbereitung beim GK210-Chip wirklich schon zum Jahresende 2014 antreten kann, bleibt demzufolge anzuzweifeln – eigentlich geht man bei derart großen Chips einer neuen Architektur von eher acht bis neuen Monaten zwischen Tape-Out und Markteinführung aus. Jener GM200-Chip wurde im übrigen in der zweiten Juli-Hälfte seitens nVidia erneut eifrig durch die Welt geschickt.

Im Rahmen der Diskussion über die kommende Tonga-basierte Radeon R9 285 wurde auch oftmals Unverständnis darüber geäußert, weshalb AMD jenen neuen Grafikchip nun noch in die Radeon R200 Serie einordnet, obwohl sich jener als "Radeon R9 370" Serie innerhalb der "Radeon R300 Serie" sicherlich besser verkaufen lassen würde. Hinzu kommt, daß es ziemlich wahrscheinlich ist, daß der Tonga-Chip nächstes Jahr – oder vielleicht schon in diesem Winter – sowieso für die "Radeon R9 370" Serie benutzt werden wird, daß also die Radeon R9 285 dann noch einmal als Rebranding zur "Radeon R9 370" neu aufgelegt werden wird. Der Grund für diese Entscheidung AMDs liegt schlicht darin, daß man neue Grafikkarten-Serien üblicherweise und auch sinnvollerweise immer von oben nach unten auflegt – die Topmodelle zuerst, danach Schritt für Schritt die kleineren Modelle.

Hierbei ist einzurechnen, daß insbesondere die Käufer hochpreisiger Segment für sich in Anspruch nehmen (können), immer das technologisch neueste zu erstehen: Eine jetzt releaste Radeon R9 370 würde also zwar dieser einzelnen Karte guttun, aber dem kompletten Rest des Radeon R200 Portfolios schaden, insbesondere den Top-Modellen der Radeon R9 290 Serie. Deren typische Käufer würden nach dem Release der Radeon R9 370 schlicht warten, bis AMD auch "ihr" Preissegment mit neuen Karten der "Radeon R300" Serie bedient – und somit AMDs Geschäft mit HighEnd-Grafikkarten so lange schwächen. Ähnlich ging in jüngerer Vergangenheit auch nVidia vor, als der GM107-Chip als "GeForce GTX 750" Serie veröffentlich wurde, obwohl aus technologischer und Effizienz-Sicht eine Einordnung als "GeForce GTX 850" Serie absolut verdient wäre. Wenn nVidia diesen Schritt gegangen wäre, hätte man damit aber den Rest der GeForce 700 Serie entwertet – nicht gerade verkaufsfördernd, wenn die GeForce 800 Serie, wie jetzt bekannt, erst ein halbes Jahr später kommt.

SemiWiki geben in einem Artikel, welcher primär beleuchtet, wo Apple wahrscheinlich die SoCs für die 2015er iPhone-Generation herstellen lassen wird, die aktuellen Fortschritte bei der kommenden 14nm/16nm-Fertigung wieder. Danach sieht es so aus, als würden sowohl Samsungs 14nm-Fertigung als auch TSMCs 16nm-Fertigung derzeit kleinere Terminschwierigkeiten haben – keine unlösbaren Probleme, aber es verzögert diese neuen Fertigungsverfahren wiederum etwas. Vor allem aber scheint klar, daß zwischen 20nm und 14nm/16nm mehr als ein Jahr Zeit liegt, was abweichend gerade von den blumigen Versprechungen seitens TSMC (und teilweise von AMD genauso) ist. Denn während TSMCs 20nm Fertigung dieses Jahr rechtzeitig für die im zweiten Quartal anlaufende Serienfertigung der 2014er iPhone-SoCs fertig war, werden nächstes Jahr im seitens Apple erneut geplanten zweiten Quartal weder Samsungs 14nm-Fertigung noch TSMCs 16nm-Fertigung zur Massenfertigung bereit sein.

Zu TSMCs 16nm-Fertigung nennt man sogar einen genaueren Termin, welcher derzeit auf das zweite Halbjahr 2015 für die Massenfertigung lautet. Hintergrund hierfür soll sein, daß TSMC den ursprünglichen 16nm-Prozeß als nicht ausreichend gegenüber Konkurrenz-Angeboten einschätzte und daher einen verbesserten "16FF+" Prozeß auflegen wird – was aber natürlich wieder etwas Zeit kostet. Aus der Sicht von Mobile-SoCs machen diese kleinere Verschiebungen allesamt noch keinen großen Unterschied aus, da man selbst auf "alten" Fertigungsverfahren schlagkräftige SoCs bauen kann – für den Grafikkarten-Markt wird es allerdings nach der kommenden letzten 28nm-Generation um die (echten) Volcanic-Islands-Chips sowie den zweiten Teil der Maxwell-Chips Ernst werden: Ohne ein neues Fertigungsverfahren sind dann weitere Fortschritte glatt unmöglich. Eine in der Winter-Saison 2015 zur Verfügung stehende 14nm/16nm-Fertigung würde den Grafikchip-Entwicklern also überaus gelegen kommen. Dafür darf dann aber auch nichts mehr schiefgehen, weitere Verzögerungen würden sogar den Ideen von einer zwischengeschobenen einzelnen 20nm-Generation wieder Aufschub geben.

RP-Online berichten über einen neuen Gesetzesentwurf zum Thema der WLAN-Störerhaftung, welchen die bundesdeutsche Regierung im Herbst diskutieren und verabschieden will. Wesentlicher Punkt der Neufassung ist die Abschaffung der Störerhaftung für gewerbliche freie WLANs, wie also von Hotels, Cafes, Bahnhöfen, etc. Jene hatten in der jetzigen unsicheren Rechtslage öfters einmal mit Urheberrechtsabmahnungen zu kämpfen, welche natürlich im Sinne eines freien WLANs nicht wirklich lösbar (außer durch extreme Zensurmaßnahmen) wären. Mittels der Neufassung des Gesetzes werden jene gewerblichen WLAN-Anbieter unter das Haftungsprivileg im Telemediengesetz fallen und sind demzufolge gleichlautend zu Internet-Providern nicht mehr für Urheberrechtsverstöße ihrer WLAN-Teilnehmer haftbar zu machen. Leider umfasst diese Neufassung nicht jedoch private WLANs oder auch Community-basierte WLANs (wie die Freifunker), die neuen Ausnahmen gelten ausschließlich für gewerbliche Anbieter.

11

nVidias "Big Chips" GK210, GM200 & GP100 bestätigt

In unserem Forum wurde in einer wissenschaftlichen Ausarbeitung der Cornell University eine Tabelle entdeckt, welche die Existenz der Enthusiasten- & Profi-Chips GK210 (Kepler-Architektur), GM200 (Maxwell-Architektur) und GP100 (Pascal-Architektur) sogar mit einem gewissen Erscheinungs-Zeitrahmen garniert bestätigt. Da einer der Autoren (Mike Clark) bei nVidia arbeitet, dürften die hierbei notierten Angaben nicht auf Gerüchten oder ähnlichen Drittquellen beruhen, sondern faktisch direkt von nVidia stammen – natürlich bezüglich der Zukunfts-Chips mit der Unsicherheit behaftet, ob man dies terminlich und technologisch alles so hinbekommt wie geplant, aber eben immer noch besser als jede andere Quelle.

Leider wenig wertbar sind die angegebenen Performance-Werte, da es sich hierbei augenscheinlich nicht um die sonst bei Grafikkarten-Spezifikationen notierten theoretischen Maximalwerte handelt, sondern um Benchmark-Werte eines speziellen GPGPU-Benchmarks. Die Werte der zukünftigen Grafikchips müssen demzufolge nicht zwingend auf eine entsprechend stark aufgebohrte Hardware hindeuten, sondern können auch auf Basis entsprechender Optimierungen zugunsten dieses speziellen Benchmarkszenarios entstehen. Dies trifft insbesondere für den GM200-Chip zu, welcher laut diesen Werten glatt doppelt so schnell wie der GK110-Chip werden soll. Dies erscheint aufgrund der Limitierungen der 28nm-Fertigung als faktisch unmöglich, wollte man dies allein über eine höhere Anzahl an Hardware-Einheiten erreichen – hier müssen zwingend noch andere Faktoren mitspielen. Deswegen sollte man die angegebenen Performance-Werte derzeit besser nicht in eine Aussage zur Anzahl der Hardware-Einheiten der jeweiligen Chips umdeuten.

GPU Architecture FLOPS / Watt Timeline
GK110 12 Current
GK210 14 Summer 2014
GM200 25 End of 2014
GP100 35 Beginning of 2016

Mitzunehmen sind aus dieser Aufstellung die Bestätigung dessen, daß nVidia tatsächlich noch einen GK210-Chip in der Vorbereitung hat – was oftmals (auch unsererseits) als eher unwahrscheinlich angesichts des in absehbarer Zeit antretenden GM200-Chips angesehen wurde, nun aber doch zuzutreffen scheint. Aufgrund der eher kurzen Lebensdauer des GK210-Chips bleibt es allerdings abzuwarten, ob nVidia jenen wirklich noch ins Gamer-Segment bringt – oder ob der GK210 vielleicht völlig dem Profi-Segment vorbehalten bleibt. Wirklich groß scheinen die Änderungen des GK210-Chips jedenfalls nicht zu sein, wenn der Performance-Sprung zum GK110 bei nur ca. 15% liegt. Terminlich sieht man den GK210-Chip noch in diesem Sommer erscheinen – was nicht mehr viel Zeit für nVidia läßt, es sollten sich also demnächst mehr Informationen zum GK210-Chip ergeben.

Der GM200-Chip als Top-Chip der Maxwell-Architektur soll dann einen viel erheblicheren Performance-Sprung mit sich bringen, was aber wahrscheinlich nur zum Teil aus einer höheren Anzahl an Hardware-Einheiten resultiert, da diesbezüglich die 28nm-Fertigung letztlich limitierend eingreift. Der Rest dürfte über wohl über diverse Optimierungen kommen – welche nicht zwingend auch im Gamer-Bereich einen Vorteil bringen müssen, dies bleibt abzuwarten. Terminlich wird der GM200-Chip von dieser Ausarbeitung auf das Ende des Jahres 2014 angesetzt, was gemäß der letzten Vorhersagen als recht zeitig erscheint – bisher ging man eher vom Ende des ersten Quartals bis dem zweiten Quartal 2015 aus. Gänzlich unmöglich ist ein Termin noch in diesem Jahr aber nicht, nVidia ist derzeit in jedem Fall voll bei der Evaluierung des GM200-Chips, nachdem diese Arbeit beim GM204-Chip inzwischen schon weitestgehend abgeschlossen wurde.

Eine erstmalige direkte Bestätigung eines Chips der erst nach Maxwell geplanten Pascal-Architektur findet sich in Form des GP100-Chips, welcher für den Jahresanfang 2016 geplant ist und dann sicher in einer fortschrittlicheren Fertigung als 28nm erscheinen wird (wahrscheinlich dürfte TSMCs 16nm-Fertigung bis zu diesem Zeitpunkt spruchreif sein). Ein klein wenig irritierend ist allenfalls der relativ niedrige Performance-Fortschritt zwischen GM200 und GP100 von nur 40% – für einen Grafikchip in einem neuen Fertigungsverfahren wäre dies arg wenig. Andererseits sollte man darauf nicht viel geben, möglicherweise stappelt nVidia hier bewußt tief bei einem klaren Zukunftsprojekt, möglicherweise liegen die Prämissen der Pascal-Architektur im professionellen Bereich dann auch wo anders als wie bei den aktuellen nVidia-Architekturen. In jedem Fall muß speziell dieser Performance-Wert absolut gar nichts zu der mit dem GP100-Chip zu erwartenden Gaming-Performance sagen. Kommt der GP100-Chip tatsächlich in der 16nm-Fertigung, ist in dieser Frage ein sehr kräftiger Sprung nach vorn zu erwarten, selbst eine Performance-Verdoppelung gegenüber dem GM200-Chip erscheint aufgrund des heftigen Vorteils beim Fertigungsverfahren als möglich.

In der Summe der Dinge sehen wir hiermit vor allem einen gewissen Ansatz von nVidias kurz- und mittelfristige Zukunftsplänen: Die Maxwell-Architektur kommt noch bis zum Jahresende 2014 und muß dann über das Jahr 2015 durchhalten, ehe selbige Anfang 2016 dann von der Pascal-Architektur abgelöst werden wird. Sofern die nVidia-Pläne aufgehen, ist hierin auch keine ausreichende Zeit mehr für eine Maxwell-basierte Refresh-Generation (dafür bräuchte es bei nVidia auch keine neuen Grafikchips) – die kommende GeForce 800 Serie dürfte also die einzige Maxwell-basierte Grafikkarten-Generation sein. Dies natürlich vorbehaltlich dessen, daß nVidia diese Zukunftspläne auch einhalten kann respektive daß die jeweils benötigten Fertigungsverfahren rechtzeitig zur Verfügung stehen.

10

Hardware- und Nachrichten-Links des 9./10. August 2014

Eine angeregte Diskussion läuft derzeit in unserem Forum über die Frage ab, ob ein ARM-basiertes Gerät heutzutage schon als PC ausreichen würde – bezogen beispielhaft auf das nVidia Jetson TK1 Entwickler-Kit, aber natürlich auch ganz generell gedacht. Die Meinungen sind in dieser Frage wieder einmal äußerst konträr – zum einen wegen weit auseinandergehender Performance-Ansprüche (Anspruch Surf-PC gegen Anspruch Performance-Maschine), zum anderen wegen der Beurteilung der wenigen vorliegenden Benchmarks von ARM- gegen x86-basierte Systeme im PC-Bereich. Hierzu sind leider viel zu wenige Zahlen zu finden, wobei man sich bei diesen wenigen vorliegenden Zahlen dann auch noch darüber streiten kann, ob die ARM-basierten Systemen wegen fehlender Optimierungen für typische PC-Software hier wirklich ihr volles Leistungspotential zeigen können. Sobald es sich um auch im Tablet-Bereich in Verwendung befindliche Benchmarks handelt, steht die ARM-Hardware dagegen üblicherweise wieder ganz vernünftig da.

Eventuell bringt eine theoretische Näherung hier jedoch mehr als die reinen Benchmark-Zahlen: Letztlich konkurriert die ARM-Hardware in ihrem natürlichen Einsatzgebiet von Smartphones & Tablets nicht mit ausgewachsenen Haswell-Prozessoren, sondern mit den LowPower-Architekturen von AMD und Intel: Jaguar/Puma sowie Silvermont. Von diesen liegt zum einen mehr vergleichende Benchmarks gegenüber ARM-Hardware vor, genauso auch ist von diesen ausgehend der ungefähre Performance-Abstand zu den großen Prozessoren des PC-Segments bekannt. Grob kann man hierbei sagen, das gutklassige ARM-Kerne in etwa auf die Performance der LowPower-Architekturen von AMD und Intel kommen, letztere aber noch sehr deutlich in der Pro/Kern-Performance (auf gleichem Takt) sowie in den real anliegenden Taktraten gegenüber herkömmlichen PC-Prozessoren zurückliegen. Von einer ähnlichen Performance kann also noch lange keine Rede sein. Allerdings steht durchaus die Frage im Raum, ob moderne ARM-Architekturen nicht inzwischen PCs für einfache Alltagsaufgaben befeuern könnten, da letztlich die LowPower-Architekturen von AMD und Intel oftmals als halbwegs gut genug für dieses Aufgabenfeld eingeschätzt werden.

Während beim Stadtmagazin eine feine rhetorische Lanze pro "Videospiele = Kunst" gebrochen wird, macht der (unter anderem für den Deutschen Computerspielpreis zuständige) Bundesminister für Verkehr und digitale Infrastruktur Alexander Dobrindt im Interview mit W&V mittels "Das Computerspiel ist ein Kulturgut" eine diesbezüglich klare Ansage seitens der Politik. Leider bedeutet dies nun aber nicht, daß sich damit der rechtliche Rahmen wirklich ändern würde, die könnte nur eine Gesetzesänderung oder ein höchstrichterliches Urteil erreichen – wobei letzteres im Zuge dieser neuen Stimmungslage nunmehr zumindest etwas wahrscheinlicher wird. Dabei könnte die Anerkennung von Videospielen als Kulturgut nicht nur Auswüchse der bundesdeutschen Zensurwut eindämmen (wie das in einem Indiana-Jones-Film jede Menge Symbole verfassungsfeindlicher Organisationen gezeigt werden dürfen, in einem Indiana-Jones-Spiel diese jedoch wegretuschiert werden müssen), sondern vor allem auch den Spieleentwicklern eine größere gesellschaftliche Wertschätzung zukommen lassen – welche dann auch wirtschaftlich in Form von einfacheren Krediten für Investitionen etc. und sicherer rechtlicher Rahmenbedingungen für den Spieleentwicklungs-Standort Deutschland von Vorteil wäre.

Das Wall Street Journal berichtet über ein Jahr Leistungsschutzrecht – in welchem in der Sache nicht viel passiert ist, denn irgendwelche Tantiemenzahlungen wegen des Leistungsschutzrecht sind nicht bekannt und auch nicht am Horizont sichtbar. Derzeit wird erst einmal der Rechtsstreit um die genaue Auslegung des Leistungschutzrechts ausgestritten, was Jahre dauern wird. Zwar will die Politik durchaus das Leistungsschutzrecht "evaluieren", sprich prüfen und gegebenenfalls korrigieren – die hierfür einzige relevante Aussage lautet jedoch: "Dazu müssten allerdings erst hinreichend Erfahrungen mit dem Gesetz vorliegen." Will sagen: Zuerst müssen die Rechtsstreitigkeiten abgeschlossen sein, nachfolgend ergibt sich eine echte Anwendungspraxis – und erst danach wird man das Leistungsschutzrecht von gesetzgeberischer Seite her wirklich prüfen. Und dies kann dementsprechend dauern, man sollte mit mindestens 5 Jahren rechnen,- es kann aber auch mehr sein, je nachdem wie langgezogen die Rechtsstreitigkeiten (eventuell bis hin zu EU-Gerichtshöfen) tatsächlich laufen.

9

Taktraten und Bilder zur Tonga-basierten Radeon R9 285 aufgetaucht

Videocardz zeigen erste Bilder einer "HIS Radeon R9 285 IceQ X2 2GB" sowie einer "Sapphire Dual-X Radeon R9 285 2GB" auf Basis des kommenden Tonga-Grafikchips. Zudem wurden erste Taktraten genannt, deren Quelle allerdings nicht offengelegt wurde – womit u.a. die Möglichkeit offensteht, daß es sich hierbei um Taktraten eines ab Werk übertakteten Hersteller-Designs handeln könnte. Nichtsdestotrotz dürften ≤918/2750 MHz durchaus in diese Richtung gehen, wo man die kleinere Tonga-Ausführung erwarten konnte – irgendwo auf dem Performance-Niveau der Radeon R9 280, welche deswegen schließlich derzeit auf attraktiven Abverkaufspreisen zu haben ist. Wahrscheinlich wird es zudem bei der Radeon R9 285 eine der Radeon R9 280 ähnliche Abspeckung der Shader-Einheiten geben – sprich, wohl gleichlautend 1792 Shader-Einheiten.

Die einzig sicheren Punkte zur Radeon R9 285 sind derzeit allerdings nur das 256 Bit DDR Speicherinterface, welches per default mit 2 GB Speicher ausgerüstet wird – und damit nur tauglich für das Performance-Segment erscheint, nicht aber für das HighEnd-Segment. Sicherlich dürften die Grafikkarten-Hersteller auch 4-GB-Versionen der Radeon R9 285 auflegen, aber meistens sind die Mehrpreise solcherart Karten nicht wirklich attraktiv, lohnt bei größerem Speicherbedarf eher eine generell höher angesetzte Karte. Andererseits sind 2 GB Grafikkarten-Speicher für einen Beschleuniger des Performance-Segments derzeit vollständig ausreichend, wie erst kürzlich mittels entsprechender Benchmarks belegt werden konnte.

Leider liegen noch viele weitere Dinge zum Tonga-Chip sowie zur Radeon R9 285 im Dunklen: Die Anzahl der Shader-Einheiten ist eine Annahme, über weitere Hardware-Details (etwaige Architektur-Änderungen, möglicherweise erhöhte Anzahl der Raster-Engines) ist noch gar nichts bekannt, auch das Feature-Level (GCN-Version, unterstützte DirectX-Version) fehlt noch. Trotzdem kann man aufgrund des aktuellen Angebots-Portfolios von AMD gut und gerne annehmen, daß AMD mit der Radeon R9 285 die Radeon R9 280 glatt ersetzen will – und daher vermutlich alle Stellschrauben exakt so gedreht haben dürfte, daß letztlich eine vergleichbare Performance herauskommt. Vermutlich dürfte es in den kommenden Tagen und Wochen noch weitere Leaks zur Radeon R9 285 und wohl auch zum größeren Tonga-Modell "Radeon R9 285X" geben, womit sich diese Frage klären lassen werden.

Radeon R9 280 Radeon R9 285 Radeon R9 280X GeForce GTX 760
Chipbasis AMD R1000/Tahiti, 4,31 Mrd. Transistoren in 28nm auf 365mm² Chipfläche AMD Tonga, geschätzt ~3,5 Mrd. Transistoren in 28nm auf geschätzt ~280mm² Chipfläche AMD R1000/Tahiti, 4,31 Mrd. Transistoren in 28nm auf 365mm² Chipfläche nVidia GK104, 3,54 Mrd. Transistoren in 28nm auf 294mm² Chipfläche
Architektur GCN 1.0, DirectX 11.2a, Mantle noch unsicher GCN 1.0, DirectX 11.2a, Mantle Kepler, DirectX 11.0, PhysX
Technik 2 Raster-Engines, 1792 Shader-Einheiten, 112 TMUs, 32 ROPs, 384 Bit DDR Interface vermutet: 1792 Shader-Einheiten, 112 TMUs, 32 ROPs, sicher: 256 Bit DDR Interface 2 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 32 ROPs, 384 Bit DDR Interface 3-4 Raster-Engines, 1152 Shader-Einheiten, 96 TMUs, 32 ROPs, 256 Bit DDR Interface
Taktraten ≤933/2500 MHz ≤918/2750 MHz ≤1000/3000 MHz 980/1033/3000 MHz
Speicher 3 GB GDDR5 2 GB GDDR5 3 GB GDDR5 2/4 GB GDDR5
Layout DualSlot DualSlot DualSlot DualSlot
Stromstecker 1x 6pol. + 1x 8pol. 2x 6pol. 1x 6pol. + 1x 8pol. 2x 6pol.
Perf.Index
(19x10 4xAA)
330% geschätzt
320-340%
380% 310%

Bestätigt wurde zudem erstmals handfest, daß der Tonga-Chip seine Performance auf kleinerem Stromverbrauch als der vorhergehende Tahiti-Chip erbringen wird: Die Radeon R9 285 wird nur über zwei 6polige Stromstecker verfügen, nicht mehr über den einen 6poligen und einen 8poligen Stromstecker der Radeon R9 280 & 280X Karten. Technisch wäre damit zwar auch noch eine TDP von 225 Watt möglich, aber der Unterschied bei den Stromsteckern deutet an, daß die Praxis-Leistungsaufnahme klar unterhalb des Niveaus der beiden Tahiti-basierten Grafikkarten liegen wird. Gut möglich, daß die Radeon R9 285 im Spiele-Betrieb nur wenig mehr als 150 Watt verbraucht – was dann eher in der Nähe des Stromverbrauchs-Niveau der Radeon R9 270X liegen würde.

Nachtrag vom 11. August 2014

Im Rahmen der Diskussion über die kommende Tonga-basierte Radeon R9 285 wurde auch oftmals Unverständnis darüber geäußert, weshalb AMD jenen neuen Grafikchip nun noch in die Radeon R200 Serie einordnet, obwohl sich jener als "Radeon R9 370" Serie innerhalb der "Radeon R300 Serie" sicherlich besser verkaufen lassen würde. Hinzu kommt, daß es ziemlich wahrscheinlich ist, daß der Tonga-Chip nächstes Jahr – oder vielleicht schon in diesem Winter – sowieso für die "Radeon R9 370" Serie benutzt werden wird, daß also die Radeon R9 285 dann noch einmal als Rebranding zur "Radeon R9 370" neu aufgelegt werden wird. Der Grund für diese Entscheidung AMDs liegt schlicht darin, daß man neue Grafikkarten-Serien üblicherweise und auch sinnvollerweise immer von oben nach unten auflegt – die Topmodelle zuerst, danach Schritt für Schritt die kleineren Modelle.

Hierbei ist einzurechnen, daß insbesondere die Käufer hochpreisiger Segment für sich in Anspruch nehmen (können), immer das technologisch neueste zu erstehen: Eine jetzt releaste Radeon R9 370 würde also zwar dieser einzelnen Karte guttun, aber dem kompletten Rest des Radeon R200 Portfolios schaden, insbesondere den Top-Modellen der Radeon R9 290 Serie. Deren typische Käufer würden nach dem Release der Radeon R9 370 schlicht warten, bis AMD auch "ihr" Preissegment mit neuen Karten der "Radeon R300" Serie bedient – und somit AMDs Geschäft mit HighEnd-Grafikkarten so lange schwächen. Ähnlich ging in jüngerer Vergangenheit auch nVidia vor, als der GM107-Chip als "GeForce GTX 750" Serie veröffentlich wurde, obwohl aus technologischer und Effizienz-Sicht eine Einordnung als "GeForce GTX 850" Serie absolut verdient wäre. Wenn nVidia diesen Schritt gegangen wäre, hätte man damit aber den Rest der GeForce 700 Serie entwertet – nicht gerade verkaufsfördernd, wenn die GeForce 800 Serie, wie jetzt bekannt, erst ein halbes Jahr später kommt.

Inhalt abgleichen