8

Hardware- und Nachrichten-Links des 7./8. Februar 2015

Zu nVidias GM200-Chip kommt aus unserem Forum leider die klare Bestätigung von einem informierten Nutzer (um das Posting richtig deuten zu können, muß man den vorherigen Thread verfolgt haben), daß der GM200-Chip keine DoublePrecision-Einheiten tragen wird bzw. daß die DoublePrecision-Leistung deutlich unter dem liegt, was man ansonsten von nVidias Enthusiasten-Chips gewohnt ist. Hierzu gab es mal eine sogar nVidia-basierte Meldung gleichen Inhalts – allein, man konnte dies bisher noch nicht wirklich glauben und wartete daher eine entsprechende Bestätigung ab, welche nunmehr vorliegt. Dies hat Vor- und Nachteile: Für die professionellen Anwender fällt ein Hauptargument weg, AMD könnte hier also – gerade wenn der Fiji-Chip mit 4096 Shader-Einheiten daherkommt – einigen Boden in diesem Marktsegment gutmachen. Im Gamer-Segment hat ein GM200 als reiner Gaming-Chip aber den Vorteil, daß jener sehr viel effizienter in dieser Aufgabe sein kann – was sich insbesondere in den angesetzten Taktraten niederschlagen dürfte.

Wenn man es beispielsweise zwischen GK104 und GK110 vergleicht, dann hat der GK110 zwar 87,5% mehr Shader-Einheiten, aber nur 60,4% mehr Rechenleistung – eben wegen der niedrigeren Taktraten des GK110-Chips. Beim GM200-Chip könnte nVidia durch den Wegfall der DoublePrecision-Einheiten hingegen in der Lage sein, ähnliche Taktraten wie beim GM204-Chip zu bieten und damit die höhere Anzahl an Shader-Einheiten zwischen GM204 (2048 SE) und GM200 (wohl 3072 SE) besser auszunutzen. Mehr Hardware-Einheiten werden durch diese Design-Entscheidung aber leider nicht in den GM200-Chip passen, eine kurze Überschlagsrechnung in unserem Forum auf Basis der bekannten Chipflächen von GM204 & GM206 ergibt, daß ein GM200-Chip ohne jede extra Einheiten für professionelle Zwecke auf 3072 Shader-Einheiten an einem 384 Bit DDR Speicherinterface um die 570mm² Chipfläche belegen sollte – exakt da, wo die bisherigen Schätzungen zur GM200-Chipfläche hingehen. Die 3072 Shader-Einheiten des GM200-Chip sind also schon das Plus, was man durch den Verzicht auf die DoublePrecision-Einheiten gewonnen hat – hätte man letztere doch eingebaut, müssten es weniger Shader-Einheiten (unterhalb von 600mm² Chipfläche) sein.

Ein wenig erstaunlich ist es schon, daß AMD nicht stärker versucht, aus der GTX970-Affäre Kapital zu schlagen. Dabei kann man argumentieren, daß dies vielleicht ein zu tiefes Niveau erreichen könnte – allein, wenn man es nicht übertreibt und im spaßigen bis seriösen Bereich bleibt, sollte sich da eigentlich etwas machen lassen. Es darf halt nicht in einen Bereich abgleiten, wo nVidia wirklich herabgesetzt oder aus einer Mücke ein Elefant gemacht wird – aber Spott darf sein, für den Anlaß hat nVidia nun mit aller Macht (speziell durch die Verweigerung einer echten Stellungnahme bzw. Nutzer-Kompensation) selber gesorgt. Zudem verhindert der Spott, daß die Marktbeobachter diese Affäre all zu schnell vergessen – und gerade im englishsprachigen Raum, wo das Thema offenbar nur teilweise mit der eigentlich gebührenden Aufmerksamkeit verfolgt wird, sollte man seitens AMD das Feuer ruhig noch einmal anfachen. Das Fixxer-3-Video wurde hierfür augenscheinlich zu früh gedreht, der enthaltene Hinweis auf die "vollen 4 GB Speicher" der Radeon R9 290 Karten nur am Ende als Text hinzugefügt.

AMD könnte aber in diese Richtung weitergehen und eventuell weitere Videos speziell zum Thema der "3,5-GB-Problematik" der GeForce GTX 970 auflegen bzw. bestellen. Im Marketing-Budget sollte so etwas in jedem Fall drin sein – und wenn man nahezu kostenlos kommen will, kann man immer noch Preise für die besten Anti-GTX970-Video und -Memes der Anwender ausloben bzw. entsprechende Galerien zur Verfügung stellen. Für die eher seriös denkenden Anwender könnte man dagegen etwas in die Richtung "Wie haben verstanden" als Video oder Präsentation erstellen – welches ausdrücken soll, daß AMD keine ähnlich komischen Hardware-Beschneidungen wie nVidia bei der GeForce GTX 970 ansetzen wird, daß es mit AMD also keine "3,5-GB-Situation" geben wird. Endscheidender Punkt ist nicht, was man macht, sondern daß man etwas macht – und so viele schöne Gelegenheiten bekommt AMD nun wirklich nicht auf dem Silbertablet präsentiert. Nochmals erstaunlich, daß dies AMD von einer deutschen Enthusiasten-Webseite gesagt werden muß bzw. daß AMD dies nicht schon längst am Rollen hat – dabei denkt man üblicherweise, Amerikaner seien speziell beim Marketing immer so fix, kreativ und vor allem hemmungslos.

Heise berichten ein hochinteressantes Urteil aus den USA zur Konstellation "Copyright vs. Grauimporte": Hierbei ist ein über 11 Jahre dauernder Rechtsstreit zu Ende gegangen, bei welchem darüber entschieden wurde, ob man mittels des Urheberrechts gegen Re-Importe vorgehen kann. Nach mehreren Urteilen in die eine und die andere Richtung scheint es nunmehr endgültig so zu sein, daß das Urheberrecht in den USA nicht als Hebel gegen Re-Importe eingesetzt werden kann. Re-Importe sind damit nicht zwangsweise gestattet, der Hersteller darf gern seine Distributoren mit entsprechenden Verträgen knebeln – aber das Urheberrecht ist hier gegenüber keine Waffe. Letztere Richteraussage bedeutet natürlich nur einen Teilsieg in dieser Frage, welche weitreichende Konsequenzen über viele Branchen hinweg hat: Je stärker ein Hersteller seinen Markt beherrscht, um so einfacher wird es für jene natürlich, seine Distributoren in solcherart Knebelverträge zu zwängen und damit dennoch Re-Importe auszuschließen. Trotzdem ist das Urteil ein gewisser Erfolg, weil sich damit Re-Importe nicht so einfach kriminalisieren lassen, wie dies noch beim Vorwurf des Urheberrechtsverstosses geht.

8 8

Ändert die GTX970-Affäre irgendetwas an den Kaufentscheidungen?

Nachdem nun ziemlich klar zu sein scheint, daß nVidia die Speicher-Problematik der GeForce GTX 970 schlicht aussitzen und sich nicht mehr öffentlich hierzu äußern will, darf die Frage gestellt werden, wie die Grafikkarten-Käufer diese Angelegenheit mit gewissem Abstand betrachten respektive ob sich hiermit irgendwelche Vorteile zugunsten von AMD ergeben könnten. Relevant ist hierbei nicht, ob man generell AMD bzw. nVidia kauft oder genereller Wechselkäufer ist – sondern allein, ob speziell die GTX970-Affäre an dieser Grundeinstellung etwas geändert hat.

Deswegen ist diese Umfrage auch in die drei Abschnitte "nVidia-Käufer", "Wechselkäufer" und "AMD-Käufer" unterteilt, wobei sich für letztere durch die GTX970-Affäre natürlich keine Änderungen ergeben können. Trotz daß für die AMD-Käufer in dieser Umfrage keine verschiedenen Umfrage-Optionen existieren, sollte jene aber trotzdem abstimmen – weil man damit als Zweitnutzen der Umfrage sehen kann, wie die prozentuale Verteilung zwischen nVidia-Käufern, Wechselkäufern und AMD-Käufer liegt.

AMD-Käufer: An meinem Kaufverhalten wird sich nichts ändern.
20% (627 Stimmen)
nVidia-Käufer: An meinem Kaufverhalten wird sich nichts ändern.
17% (529 Stimmen)
nVidia-Käufer: Werde wegen der GTX970-Affäre AMD mehr Beachtung geben.
14% (431 Stimmen)
nVidia-Käufer: Werde wegen der GTX970-Affäre versuchen generell AMD zu kaufen.
5% (169 Stimmen)
nVidia-Käufer: Werde wegen der GTX970-Affäre konsequent nur noch AMD kaufen.
2% (79 Stimmen)
Wechselkäufer: An meinem Kaufverhalten wird sich nichts ändern.
11% (352 Stimmen)
Wechselkäufer: Werde wegen der GTX970-Affäre AMD mehr Beachtung geben.
15% (469 Stimmen)
Wechselkäufer: Werde wegen der GTX970-Affäre versuchen generell AMD zu kaufen.
11% (351 Stimmen)
Wechselkäufer: Werde wegen der GTX970-Affäre konsequent nur noch AMD kaufen.
5% (159 Stimmen)
Gesamte Stimmen: 3166
8

Die Systemanforderungen zu Assassin's Creed: Rogue

Spielepublisher Ubisoft hat zeitgleich mit der Bekanntgabe des Releasetermins (10. März 2015) auch die Systemanforderungen für Assassin's Creed: Rogue veröffentlicht. Das Spiel ist der letzte Titel der AC-Franchise, welche noch auf der vorhergehenden Konsolen-Generation (Xbox 360 & Playstation 3) läuft, und spielt im Universum von Assassin's Creed III & IV. Aufgrund dieser Abstammung sind die Hardware-Anforderungen reichlich moderart, womit das Spiel auf den allermeisten der heutigen Gamer-PCs problemlos laufen sollte.

minimale Anforderungen empfohlene Anforderungen
Betriebssystem 64-Bit-OS: Windows Vista, 7, 8.0 oder 8.1  (Vista nicht offiziell erwähnt)
Prozessor AMD Athlon II X4 620
Intel Core 2 Quad Q6600
AMD FX-6100
Intel Core i5-2400S
RAM 2 GB
(wahrscheinlich nicht zwingend vorausgesetzt)
4 GB
DirectX DirectX 9.0c
Grafikkarte AMD Radeon HD 5670
Intel HD Graphics 4600
nVidia GeForce GTS 450
AMD Radeon HD 6870
nVidia GeForce GTX 560 Ti
VRAM 1 GB
(wahrscheinlich nicht zwingend vorausgesetzt)
1 GB
HDD 11,4 GB freier Festplattenspeicherplatz
Dienste keine

Insofern lohnt in diesem Fall kaum eine tiefere Betrachtung dieser Anforderungen, da jene letztlich überaus klar der letzten Spiele-Generation entstammen bzw. eine Grafikleistung vom Schlage Radeon HD 6870 (Perf.Index 190%) bzw. GeForce GTX 560 Ti (Perf.Index 210%) heutztage von jener Mainstream-Grafikkarte geboten wird. Wenigstens dürfte das Spiel damit absolut die Reserven für extensive UltraHD- und Downsampling-Spielereien auf heutigen HighEnd-Grafikkarten haben. Einzig auf der CPU-Seite scheint das Spiel mit der durchgehenden Anforderung von Vierkern-Prozessoren etwas anspruchsvoller zu sein, vermutlich dürfte jenes (wegen der allgemein moderaten Anforderungen) mit gutklassigen Zweikernern aus Intels modernem Core i3 Portfolio jedoch genauso gut laufen. Unklar ist allerdings noch, inwiefern die Anforderung eines 64-Bit-Betriebssystems angesichts von nur 2 GB Hauptspeicher-Anforderung ernst gemeint ist bzw. ob Assassin's Creed: Rogue den Startvorgang auf einem 32-Bit-Windows wirklich verweigern sollte.

7

AMD Radeon R300 Serie: Grenada als 380X, Fiji als 390X und Bermuda als 395X2

Über unser Forum kommen die ersten vielleicht wirklich zuverlässigen Informationen aus Kreisen der Grafikkarten-Hersteller, wie sich AMD die kommende Radeon R300 Serie vorstellt. Bislang schwirren hierzu eher nur Annahmen und Spekulationen durch die Gegend, nunmehr läßt sich erstmals ein halbwegs sicheres Bild zur Radeon R300 Serie zeichnen – welches zudem auch nicht wirklich überraschend kommt. Denn AMD scheint in der Tat innerhalb der Pirate-Islands-Generation erst einmal nur einen wirklich neuen Grafikchip zu bringen, dies wird der Fiji-Chip sein. Der oftmals hierzu auch genannte Bermuda-Chip scheint hingegen immer mehr auf schlicht die DualChip-Variante von Fiji hinauszulaufen – deswegen auch der viel spätere Erscheinungstermin. Folgendermaßen scheint also das Radeon R300 Portfolio auszusehen, welches ab dem Ende des zweiten Quartals im Markt zu erwarten ist:

Chip-Basis Performance-Segment Technik Release (Quelle der Information)
Radeon R9 395X2 Bermuda
(= 2x Fiji)
DualChip GCN 1.3, maximal 8192 Shader-Einheiten @ 2x4096 Bit DDR HBM-Interface, 2x4 GB HBM-Speicher (unsicher, ob im Vollausbau antretend) Herbst/Winter 2015 (Annahme des 3DCenter-Forums)
Radeon R9 390 & 390X Fiji Enthusiast GCN 1.3, 4096 Shader-Einheiten @ 4096 Bit DDR HBM-Interface, 4 GB HBM-Speicher Ende Q2/2015 (Grafikkarten-Hersteller)
Radeon R9 380 & 380X Grenada
(Hawaii-Rebranding)
HighEnd GCN 1.1, 2816 Shader-Einheiten @ 512 Bit DDR GDDR5-Interface, 4 GB GDDR5-Speicher Ende Q2/2015 (Grafikkarten-Hersteller)
Radeon R9 370 & 370X Tonga Performance GCN 1.2, 2048 Shader-Einheiten @ 256 Bit DDR GDDR5-Interface, 2/4 GB GDDR5-Speicher mglw. Ende Q2/2015 (eigene Spekulation)
Radeon R7 360 & 360X Trinidad
(mglw. Pitcairn-Rebranding)
Mainstream unsicher, da nicht klar ist, ob Trinidad ein eigener Chip ist oder nur ein Pitcairn-Rebranding; 256 Bit GDDR5-Interface, 2 GB Speicher angeblich März 2015 (Gerücht seitens der VR-Zone)

Direkt unterhalb des viel diskutierten und schon oftmals ausreichend beschriebenen Fiji-Chips, welcher sowohl für die schnellste SingleChip-Grafikkarte als auch für eine darauf basierende DualChip-Lösung verwendet werden soll, kommt mit dem Grenada-"Chip" ein Rebranding des Hawaii-Chips heraus, welcher im Verkauf dann die Radeon R9 380 Serie bilden wird. Radeon R9 290 & 380 werden also denselben Chip-Unterbau haben, unabhängig von AMDs Namensspielereien. Unter Umständen werden die Taktfrequenzen und die Abspeckungen der kleineren Lösung anders ausfallen, dementsprechend kann auch die Performance zwischen alter und neuer Serie leicht abweichen. Generell dürfte jedoch mit der Radeon R9 380 Serie das geboten werden, was die Radeon R9 290 Serie jetzt schon kann.

Nicht direkt genannt und daher von uns ergänzt wurde die Radeon R9 370 Serie, welche höchstwahrscheinlich auf Basis des Tonga-Chips gebildet wird. Alle anderen zur Verfügung stehenden AMD-Grafikchips sind technologisch zu alt und AMD wird jene sicherlich endlich ablösen wollen, weil mit jenen sowohl FreeSync als auch VSR nicht zufriedenstellend zu bewerkstelligen sind. Zudem muß der Tonga-Chip schließlich irgendeinen größeren Sinn ergeben, die bisherige Benutzung als vorwiegendes Apple-Produkt und im PC-Markt allein für die Radeon R9 285 ist schwer unbefriedigend. Mit dem Vollausbau des Tonga-Chips ist dann deutlich mehr zu erwarten als was die Radeon R9 285 bisher gezeigt hat, wahrscheinlich gibt es dann auch endlich 4-GB-Versionen dieses Grafikchips.

Basierend auf einem Gerücht seitens der VR-Zone soll für das Mainstream-Segment dagegen der Trinidad-Chip schon ab dem März antreten – wahrscheinlich dürfte jener dann die Radeon R7 360 Serie bilden. Unsicher ist zu diesem als mit 256 Bit DDR Speicherinterface samt 2 GB Speicher ausgerüstet beschriebenen Chip noch, ob es sich hierbei um eine wirkliche Neuentwicklung handelt – oder aber ob der Pitcairn-Chip der Radeon HD 7800 & Radeon R9 270 Serien hierfür ein weiteres Mal gemolken wird. Sollte letzteres zutreffen, müssten Trinidad-Nutzer dann allerdings weitgehend bzw. teilweise auf FreeSync sowie VSR verzichten, da der Pitcairn-Chip nur die originale GCN-Version 1.0 trägt.

Ein gewisses Problem dieses (möglichen) Radeon R300 Portfolios liegt zudem in den Speicherbestückungen: 2 GB erscheinen für Mainstream- und Performance-Segment inzwischen als grenzwertig, 4 GB dagegen als zu viel – 3 GB wäre hier jeweils die ideale Größe. Im HighEnd-Segment liegt man mit 4 GB richtig, im Enthusiasten-Segment mit 4 GB dagegen nur knapp auf dem Minimum, was man bieten sollte. Rein technisch scheint es dabei inzwischen sogar möglich zu sein, selbst in der allerersten HBM-Generation mehr als 4 GB Speicher zu bieten – doch alle herumschwirrenden Vorab-Exemplare des Fiji-Chips zeigen klar auf eine Speicherbestückung von nur 4 GB hin, zudem dürften gleich 8 GB HBM-Speicher AMD anfänglich wohl auch viel zu teuer kommen. Zugegebenermaßen glänzt nVidia in dieser Frage derzeit auch nicht unbedingt: Abseites des "3,5-GB-Problems" der GeForce GTX 970 sind auch die Performane-Lösungen der Maxwell-Generation in Form der GeForce GTX 960 mit nur 2 GB eigentlich zu schwach für einen längeren Einsatz ausgerüstet.

Ein weiteres Problem dieses (möglichen) Radeon R300 Portfolios liegt in dem Mischmasch verschiedener GCN-Versionen – mit dann eben Auswirkungen auf die Fähigkeiten bezüglich FreeSync und VSR. Es sind auch in diesem Portfolio wieder (mindestens) drei verschiedene GCN-Versionen gleichzeitig am Start, resultierend daraus, daß AMD nur einen wirklich neuen Grafikchip vorzustellen scheint (ob im Mainstream-Segment mit Trinidad etwas wirklich neues kommt, ist derzeit noch unklar) und der Rest des Portfolios aus der Weiterverwendung bekannter Grafikchips besteht. Wirklich befriedigend ist das nicht – und vor allem senkt dies die Absatzerwartungen der kleineren Radeon R300 Lösungen, denn niemand kauft wirklich gerne Rebrandings. Nur alleine mit einem durchschlagenden Erfolg des Fiji-Chips ist AMD jedoch angesichts der Kräfteverhältnisse im Grafikchip-Markt nicht weitergeholfen – da muß mehr kommen, um Platzhirsch nVidia endlich einmal entscheidend Marktanteile abjagen zu können.

Nachtrag vom 9. Februar 2015

In der kürzlichen Meldung über die Grafikkarten der kommende Radeon R300 Serie war noch ein kleiner Gedankenfehler enthalten (inzwischen gefixt): Der Fiji-Chip tritt natürlich nicht mit einem 1024 Bit DDR HBM-Speicherinterface an, sondern einem 4096 Bit DDR HBM-Interface. Dies ergibt sich aus der Vorberichterstattung zum Fiji-Chip sowie auch den vorliegenden Daten zur HBM-Technik, welche in der ersten HBM-Generation diese großen Interfaces regelrecht benötigen. Aber auch generell liegt der eigentliche Clou von HBM immer in den sehr breiten Interfaces, welche aufgrund ihrer absoluten Nähe zum Grafikchip (Speicher und Grafikchip liegen auf demselben Trägermaterial, in Zukunft kann der Speicher sogar auf den Grafikchip gestapelt werden) jedoch weit weniger komplex ausfallen können als ein GDDR5-Speicherinterface. Dafür sind allerdings auch die Taktraten von HBM-Speicher weit niedriger, erst in Kombination mit den sehr breiten Interfaces wird also der Bandbreitengewinn von HBM erreicht.

6

Hardware- und Nachrichten-Links des 6. Februar 2015

Laut Heise scheint nVidia nun zweifelsfrei nichts mehr offizielles in der Frage des "3,5-GB-Problems" der GeForce GTX 970 sagen zu wollen und sich dabei auch auf die in der Praxis recht geringen Rücklaufquoten bei den Hardware-Händlern stützen zu können. Eben die geringe Rücklaufquote führt bei nVidia womöglich zur Ansicht, daß ein Schuldeingeständnis samt Kompensation für alle Nutzer der GeForce GTX 970 eventuell mehr kostet als diese Rücknahmen im zwei- bis dreistelligen Bereich pro Grafikkarten-Hersteller. Dies kann man rein wirtschaftlich so sehen, rein praktisch wird dieser Makel nVidia aber lange anhaften – denn bisher haben es die Hersteller bei ähnlichen Problemlagen in aller Regel fertiggebracht, zu dem verursachten Problem zu stehen bzw. die Nutzer in irgendeiner Form zufriedenzustellen. nVidia ist dann halt diese Firma, die nicht die Nutzer zufriedenstellen will – jeder bettet sich rufmäßig eben so, wie er gerne liegt. Unabhängig davon, daß natürlich weiterhin auch nVidia-Grafikkarten gekauft werden, wird sich der Grafikkarten-Käufer dies (wohl noch lange) merken.

Golem bringen ein wenig Licht in den Fall des gestern schon erwähnten "Split Frame Renderings" (SFR), mittels welchem CrossFire/SLI-Kombinationen eventuell Zugriff auf den vollen Grafikkartenspeicher erlangen können, eine Radeon R9 295X2 demzufolge wie eine echte 8-GB-Grafikkarte agieren könnte. Danach existiert hierzu nun nicht nur eine pure Absichtserklärung seitens AMD, sondern im neuesten Mantle-SDK ist diese Funktionalität aktiv bzw. verbessert worden. Spieleentwickler können also im CrossFire-Modus unter Mantle auf den SFR-Modus zurückgreifen und damit die Radeon R9 295X2 als vollwertige 8-GB-Grafikkarte betreiben – mit auch dem Vorteil, daß jene somit speichermäßig selbst für eine ferne Zukunft als gewappnet erscheint. Einziges Problem ist natürlich, daß es letztlich an den Spieleentwicklern liegt, ob Mantle und SFR genutzt werden – geschieht dies nicht, läuft die Radeon R9 295X2 im AFR-Modus und verhält sich damit wie bekannt wie eine Grafikkarte mit nur 4 GB Grafikkartenspeicher. Und bis die Spieleentwickler möglicherweise eines Tages durchgehend auf SFR setzen, wird die Radeon R9 295X2 auch schon wieder in Vergessenheit geraten sein, dies ist eine sehr langfristige Angelegenheit.

Bei AnandTech konnte man die ersten DirectX-12-Benchmarks unter einer entsprechenden Version des Star-Swarm-Benchmarks antreten. Hierbei geht es nur um den Mantle-artigen CPU-Beschleunigungs-Effekt von DirectX 12, eventuelle Hardware-Features von DirectX 12 wären derzeit mangels entsprechender DirectX-12-Grafikkarten noch nicht austestbar. Der Star-Swarm-Benchmarks auf Basis von Oxides Nitrous-Engine kommt diesem Benchmark-Ansatz natürlich extrem entgegen, wird doch eine Weltraum-Simulation mit möglichst vielen Einheiten gezeigt, ideal also für CPU-Limitierungen. Und jene scheint der Software-Part von DirectX 12 sehr gut beschleunigen zu können, je nach Grafikkarte gibt es teilweise bis das 5fache an Performance. Diese Zahlen zeigen aber schon an, daß speziell diese Ergebnisse kaum ernst genommen werden können bzw. keine Relevanz für die Ergebnisse unter echten Spielen haben werden – der Star-Swarm-Benchmark ist halt bestmöglich darauf ausgerichtet, Mantle und DirectX 12 gut aussehen zu lassen. Das ebenfalls mitgetestete Mantle war im übrigen durchgehend leicht schneller als DirectX 12, wenn man es ganz genau nimmt, liegt Mantle bei der Performance also immer noch (etwas) vorn.

Im selben Zusammenhang interessant, aber bisher an dieser Stelle noch nicht ausreichend gewürdigt wurde der Versuch der Kronos Group, OpenGL mittels "glNext" zu modernisieren. Hierbei handelt es sich um eine Neuauflage von OpenGL, bei welcher zum einen Kompatibilitäts-Ballast von anno dazumal entsorgt und zum anderen auf die Anforderungen & Möglichkeiten heutiger Hardware besser eingegangen werden soll – grob gesagt ein grundsätzlich neu aufgelegtes OpenGL, mittels welchem die Kronos Group diese alternative Grafik-API endlich wieder voranbringen will. Die Voraussetzungen dafür sind zweifelsfrei da, der entscheidende Punkt wird wie immer sein, ob man die Hardware-Hersteller zu einem ausreichendem Support bewegen kann, weil man erst danach die Software-Entwickler mit ins Boot holen kann – ohne sinnvolle Treiber wird es keine Spiele-Entwickler geben, welche ein Spiel auf glNext entwickeln werden. Es ist sicherlich schön, daß man es seitens der Kronos Group erneut versucht, aber man darf durchaus die kommende GDC-Präsentation abwarten, ob hierbei konkreteres zum (alles entscheidenden) Support der Hardware-Hersteller und Software-Entwickler gesagt wird.  (Foren-Diskussion zum Thema)

Die DigiTimes berichtet über die Gegenmaßnahmen der Tablet-Hersteller angesichts der kürzlich vermeldeten sinkenden Tablet-Verkäufe im vierten Quartal 2014, zu welchem schließlich auch noch ein nur selten thematisierter Preisverfall hinzukommt. Die ersten Gegenmaßnahmen sind zugleich die einfachsten: Reduzierung der Forschungskosten und Reduzierung der Materialkosten, sprich härtere Preisverhandlungen mit den Zulieferern bzw. Einkauf von anderen Anbietern. Beides dürfte wenig zur Stabilisierung der Umsätze beitragen, sondern zuerst einmal der Stützung der Gewinnmarge dienen – auch ein wichtiges Thema, aber eine Trendwende im Tablet-Markt ist damit natürlich nicht zu erreichen. Zudem eröffnen niedrigere Fertigungskosten immer auch die Möglichkeit zu weiteren Preissenkungen, was angesichts stockender Absatzzahlen immer eine große Verlockung für die Verkaufsabteilungen sein dürfte. Derzeit sieht es damit eher so aus, als komme jetzt vielleicht das große Hauen und Stechen im Tablet-Markt, wo sich die Hersteller also heftige Preiskämpfe allein zum Zweck der Erringung oder des Behaltens von Marktanteilen liefern.

6

Angebliche AMD NextGen-Benchmarks zeigen deutlich mehr Performance als bei der GeForce GTX 980

Unter dem markanten Schlagsatz "The Return of the King" (wann schafft es das AMD-Marketing eigentlich, mal so etwas rauszuhauen?) haben sich im Chiphell-Forum neue Benchmarks einer zukünftigen HighEnd-Grafikkarte eingefunden. Die etwas kryptische Beschreibung deutet darauf hin, daß es sich hierbei weder um Benchmarks zu nVidias GM200- noch AMDs Bermuda-Chip handeln soll – was allein AMDs Fiji-Chip übrig läßt. Daß es ein AMD-Chip ist, deutet das verwendete Bild einer tropischen Insel schon erst einmal ziemlich eindeutig an (interessanterweise ein Bild von Treasure Island, weder von Fiji, noch von Bermuda). Allerdings sind diese (angeblichen) Benchmarks nunmehr wieder komplett abweichend von den bisherigen Zahlen bzw. entsprechend einem Performance-Niveau, welches bei den bisherigen Benchmarks nicht der Fiji-, sondern der Bermuda-Chip erreichte.

Andererseits war es schon immer zweifelhaft, wieso seinerzeit im Dezember 2014 bereits lauffähige Exemplare des Bermuda-Chips vorliegen sollten, denn jener Chip scheint nun eher ein Projekt des Jahresendes 2015 zu sein und setzt dabei wahrscheinlich sogar die 14nm-Fertigung voraus, welcher derzeit noch gar nicht spruchreif genug für lauffähige und vor allem auf echter Taktrate laufende Exemplare ist. Gut möglich, daß bei den früheren Benchmarks allesamt nur Fiji-Exemplare vorlagen und nur mangels Kenntnis falsch benannt wurden. Die sehr unterschiedliche Performance dieser Fiji-Exemplare läßt sich gut und gerne mittels verschiedener Taktungen erklären, zu dieser Zeit scheint sich AMD sowieso in einer Phase der Taktfindung zum Fiji-Chip befunden zu haben.

Angebliche AMD NextGen-Benchmarks, Teil 1
Angebliche AMD NextGen-Benchmarks, Teil 1
Angebliche AMD NextGen-Benchmarks, Teil 2
Angebliche AMD NextGen-Benchmarks, Teil 2

Lange Rede, kurzer Sinn: Wirklichen Sinn ergeben die neuen Benchmarks nur, wenn man die früheren Benchmarks nicht mehr ernst nimmt bzw. zumindest deren Benennung in Frage stellt. Was umgedreht aber auch wieder bedeutet, daß man die neuen Benchmarks nicht zwingend ernst nehmen muß, denn auch hierbei könnte es sich um glatte Fälschungen, einen Scherz seitens AMD oder aber Mißinterpretationen handeln. Nicht einfacher macht die Betrachtung dann der Punkt, daß alle diese Zahlen aus dem Chiphell-Forum von ein und demselben Poster stammen – welcher sich leider nur extrem unzureichend erklärt und letztlich nahezu mehr Fragen aufwirft als beantwortet.

Doch wenn man sich einmal auf diese Zahlen einlassen will, dann ergibt sich schlicht das Bild einer AMD NextGen-Grafikkarte, welche im Schnitt einiger Spiele-Benchmarks um immerhin 51,2% vor der Radeon R9 290X sowie um 34,5% vor der GeForce GTX 980 liegen soll und dabei durchaus nahe der Performance-Sphäre einer Radeon R9 295X2 kommt (letztere nur um 13,3% schneller). Erreicht werden soll dies zu einem Stromverbrauch, welcher gegenüber der Radeon R9 290X nahezu unverändert ist, was aber mit 295 Watt (reine Grafikkarte augenscheinlich) auch nicht gerade niedrig ausfällt. Andererseits wäre es gegenüber der Radeon R9 290X ein extremer Effizienzgewinn, wenn AMD hier 51,2% mehr Performance zu nur 2,4% mehr Stromverbrauch bieten würde. Die Stromersparnis durch Verwendung von HBM-Speicher wird hier natürlich auch mit hineinspielen.

Im 3DCenter Performance-Index würde AMDs NextGen-Karte damit auf einen Wert von ~760-780% kommen, was deutlich mehr als bei der schnellsten SingleChip-Grafikkarte in Form der GeForce GTX 980 (Perf.Index 570%) wäre und durchaus in die Nähe der DualChip-Grafikkarten Radeon R9 295X2 (Perf.Index 840%) und GeForce GTX Titan Z (Perf.Index ~840%) geht. Zudem wäre man damit in Reichweite der Performance von nVidias kommendem HighEnd-Chip GM200, dessen letzte Performance-Prognosen auf +30-40% zur GeForce GTX 980 stehen, AMDs NextGen-Grafikkarte würde hierbei mit +34,5% zur GeForce GTX 980 sehr gut mitspielen können. Ob dies alles so passend ist, steht aber wie gesagt zur Debatte – echte Sicherheiten gibt es zu diesen neuen Zahlen nicht, erst die Praxis späterer Benchmarks der Serienprodukte wird letztlich zeigen, ob diese Vorab-Zahlen uns in die richtige oder falsche Richtung verwiesen haben.

Inhalt abgleichen