27

Hardware- und Nachrichten-Links des 27. Februar 2015

Seitens Imagination Technologies kommt die Ankündigung des PowerVR GT7900 Grafikchip-Designs, mittels welcher der Chipdesigner eine ungewöhnlich leistungsstarke Grafiklösung für das bisher bewirtschaftete Feld von Mobile-Grafiklösungen (zur Lizenzierung durch andere Chipentwickler und Hardware-Hersteller) bereitstellt. Allerdings soll der GT7900 wohl eher für Android-basierte Konsolen gedacht sein, dafür bringt jener auch gleich 512 Shader-Einheiten auf 800 MHz Taktrate mit sich – ist also durchaus mit heutigen LowCost-Lösungen des PC-Bereichs vergleichbar und schlägt rein technisch damit die Rechenkraft der (allerdings nahezu 10 Jahren alten) LastGen-Konsolen Xbox 360 und Playstation 3. Problematisch für den GT7900 dürfte jedoch sein, daß es nach wie vor keinen GPU-Leistungsdruck in Android-Geräten gibt, man damit selbst eine Android-Konsole nicht zwingend mit der leistungsfähigsten Hardware ausrüsten muß – sondern aufgrund des Preisdrucks eher denn mit einer gerade noch so ausreichenden Hardware. Aus überlegener Grafikleistung hat bisher noch kein Mobile-SoC in der Praxis ein Geschäft machen können – dies kann insbesondere nVidia leidvoll bestätigen.  (Diskussionsthread im Forum)

AnandTech haben nun auch noch Intel-Grafikchips unter der DirectX-12-Version der StarSwarm-Demo getestet: Im deutlichen Gegensatz zu den Ergebnissen von regulären Grafikchips und jenen von AMD-APUs zeigten die Intel-Grafikchips erstaunlicherweise keinerlei Performance-Gewinne unter DirectX 12, sondern tendentiell sogar leichte Performance-Rückschritte. Dies überrascht dann doch einigermaßen – und wird seitens AnandTech darüber erklärt, daß Intels integrierte Grafikchips allesamt dasselbe FrontEnd tragen, egal ob kleine GT1- oder große GT3-Grafiklösung, was großartige Skalierungseffekte verhindern soll. Dies erklärt allerdings nicht, wieso es nicht wenigstens einen gewissen Ausschlag bei der DirectX-12-Variante gibt. So ist womöglich die nachgereichte Aussage Intels zielführender, wonach die für den Test benutzte Version der StarSwarm-Demo noch keine Optimierung für Intel-Grafikchips enthalten würde und eine neue, bereits vorliegende Version wesentlich besser mit Intel-Grafikchips laufen soll.

Heise zeigen einen Benchmark-Wert eines Airmont-basierten Atom-Prozessors, welcher unter der Plattform-Bezeichung "CherryTrail" zur Mitte des Jahres im Markt erwartet wird. Im Geekbench lief der Airmont-Atom auf nahezu gleicher Taktrate aber nur minimal schneller als die vorherigen Silvermont-basierten Atom-Prozessoren der bekannten BayTrail-Plattform. Dies hört sich enttäuschend an – und trotz daß dies ein Vorserien-Exemplar war, dürfte da kaum noch mehr IPC-Leistung hinzukommen. Mehr Performance könnte allerdings durch mehr Takt generiert werden, immerhin kommt CherryTrail bereits in der 14nm-Fertigung im Gegensatz zur 22nm-Fertigung von BayTrail – und gerade Vorserien-Exemplare werden gern eher konservativ niedrig getaktet. Zudem lag das Augenmerk von Intel bei CherryTrail auch weniger auf der CPU- als der GPU-Seite: Dort gibt es anstatt 4 gleich 16 Ausführungseinheiten, zudem wird das Feature-Level auf Broadwell-Niveau angehoben. Hier lohnt es sich also wirklich, die Benchmark-Resultate der finalen Prozessoren abzuwarten – zum einen bezüglich der wirklich ausgelieferten Taktraten und zum anderen bezüglich der Performance der integrierten Grafiklösung.  (Diskussionsthread im Forum)

Laut der ComputerBase hat es Halbleiterhersteller-Ausrüster ASML in Zusammenarbeit mit Auftragsfertiger TSMC geschafft, eine Produktionsanlage mit EUV-Lithographie so weit zu optimieren, das knapp über 1000 Wafer pro Stunde Tag gefertigt werden konnten. Damit ist man der wirtschaftlichen Fertigung einen großen Schritt näher gekommen – denn rein technisch ist EUV längst spruchreif, es ging in der letzten Zeit allein "nur" noch um die Frage der Wirtschaftlichkeit. Jene wird seitens ASML bei 1500 Wafer pro Stunde Tag als erreicht angesehen – wobei dies allerdings noch bei weitem nicht so viel ist wie mit der herkömmlichen Belichtungstechnik erreichbar, welche 4000 Wafer pro Stunde Tag schafft. Deswegen ist die EUV-Lithographie seitens der Halbleiter-Hersteller auch immer weiter in die Zukunft verschoben worden, Intel beispielsweise will selbst die 7nm-Fertigung noch mit herkömmlicher Belichtungstechnik versuchen. Als Zwischenweg denkt man im übrigen über eine teilweise Belichtung der kritischsten Strukturen (wahrscheinlich die CPU-Kerne) in EUV nach, während der Rest des Chips dann herkömmlich belichtet werden würde. Billig wird das ganze in keinem Fall werden – was jetzt für Intel als überlegener Platzhirsch nicht das Thema sein wird, aber allen Intel-Kontrahenten Probleme bereiten dürfte.

Sehr positiv wird die Entscheidung des US-Wettbewerbsbehörde FCC aufgenommen, Internet-Provider künftig als "übliche Zugangsanbieter" zu klassifizieren – ähnlich wie auch Energie- und Wasserversorger eingestuft werden. Damit stehen die Internet Provider zukünftig unter einer höheren Aufsicht und dürfen vor allem nicht mehr ihre Kunden benachteiligen – sondern müssen im Gegenteil dafür Sorge tragen, daß jeder Kunde uneingeschränkt ihren Dienst nutzen kann, genauso wie es bei Energie- und Wasserversorgern üblich ist. Damit werden im Sinne der Netzneutralität alle Ideen der US-Provider zu Daten-"Überholspuren" bzw. einem Zweiklassen-Internet geblockt – oder aber müssten solche Sonderformen zumindest explizit durch die FCC genehmigt werden, was allerhöchstens in Ausnahmen passieren dürfte. Die Internet-Provider sind mit dieser Neuregelung natürlich nicht zufrieden, versprachen doch gerade die Daten-"Überholspuren" zusätzliche Einnahmen. Allerdings hofft man seitens der Internet-Provider teilweise auch auf eine andere US-Regierung, welche die knappe Entscheidung der FCC (3:2 Stimmen) revidieren könnte. Für den Augenblick haben die USA in Fragen Netzneutralität jedoch erst einmal klar die Nase vorn, während sich Europa diesbezüglich noch sehr abmüht.

Shortcuts: HT4U berichten über seitens MSI zur Verfügung gestellte Grafik-Upgradekits für GT72-Notebooks – mittels welchem man jenen eine GeForce GTX 970M oder 980M spendieren kann. Angesichts dessen, daß sich das Thema externe Grafiklösungen nur sehr beschränkt vorwärts bewegt, ist dies eine gute Zwischenlösung – welche aber natürlich bedingt, daß man an den entsprechenden Notebooks überhaupt etwas (unter vertretbaren Verrenkungen) umbauen kann. TweakTown haben sich Radeon R9 295X2, Radeon R9 290X 8GB CrossFire und GeForce GTX 980 SLI unter der 8K-Auflösung angesehen – mit dem erwartbaren Ergebnis, daß die Frameraten allgemein mau sind, daß es hier und da generelle Probleme gibt und daß sich letztlich der CrossFire-Verbund aus den zwei 8-GB-Grafikkarten bei der Performance klar in Front positionieren kann. Und abschließend hat sich die PC Games Hardware noch die Performance von World of WarCraft nach dem letzten Patch 6.1 angesehen, welcher insbesondere die höherwertigen Anti-Aliasing-Modi in nunmehr reichhaltiger Anzahl zurückbringt.

27

Umfrage-Auswertung: Ist die Anschaffung eines 4K-Monitors geplant (2015)?

Die Umfrage dieser Woche drehte sich um die aktuelle Verbreitung sowie das generelle Interesse an 4K-Monitoren und ist damit die Kopie einer im April 2014 schon einmal durchgeführten Umfrage. Seinerzeit waren 4K-Monitore zwar schon ein Thema von Diskussionen und Benchmarks, die Verbreitung war aber noch arg gering bei gerade einmal 0,9% unter den 3DCenter-Lesern. Heuer nun sind es mit 5,1% deutlich mehr – ein gewisser Einstieg in den Markt ist also gefunden worden, auf welchem man nunmehr aufbauen kann. Dazu dürften auch jene 3,5% beitragen, welche sich demnächst einen solchen Monitor zulegen wollen, sowie die weiteren 16,9%, bei welchen diese Anschaffung mittelfristig ansteht. Auch diese beiden Werte sind größer als die Vergleichswerte vom April 2014, welche seinerzeit auf 2,5% bzw. 12,5% lauteten.

Während sich an der Anzahl der 4K-"Verweigerer" bei derzeit 25,9% und letztes Jahr 27,1% so gut wie gar nichts getan hat, hat es in der Frage, was als das (lösbare) Hauptproblem von 4K angesehen wird, einige Bewegung gegeben: Letztes Jahr sahen immerhin 36,5% der Umfrage-Teilnehmer den Preispunkt der 4K-Monitore als hauptsächlichen Bremsschuh an – und nur 20,5% den durch die 4K-Auflösung ausgelösten Aufdrückdruck bei der Grafikkarte. Heuer nun wird letzterem Punkt deutlich mehr Beachtung geschenkt, resultierend zum einen aus den gesunkenen 4K-Preisen, aber sicherlich auch aus dem Leistungshunger der aktuellen Spielegeneration: In der aktuellen Umfrage sehen daher gleich 26,9% den Grafikkarten-Aufrüstdruck als ersten Bremsschuh für 4K an, die Preise der 4K-Monitore dagegen nur noch 21,7%. Beide Probleme dürften sich mit der Zeit erledigen – wobei Grafikkarten für durchgehenden 4K-Genuß wohl noch etwas brauchen werden, vor einer neuen Fertigungstechnologie wird es schwer für die Grafikchip-Entwickler, die dafür benötigten Leistungssprünge zur Verfügung zu stellen.

26

Hardware- und Nachrichten-Links des 25./26. Februar 2015

Laut Tom's Hardware soll die DirectX-12-Schnittstelle einen Mischbetrieb von AMD- und nVidia-Hardware zur MultiGPU-Berechnung des Bildes unter dem SFR-Modus beherrschen. Allerdings lautet die eigentliche Information auch nur, das man bei SFR wegen der nicht statisch gleich großen Rechenlast auf allen Grafikchips eben auch sehr gut mit unterschiedlich starken Grafikkarten zurechtkommt – darunter notfalls auch welchen mit unterschiedlichen GPU-Architekturen. Dies dürfte aber wenig daran ändern, daß das (vom Spiel abgerufene) Featureset aller benutzten Beschleuniger vollkommen identisch sein muß – wie sollten sonst zwei unterschiedliche Beschleuniger ein insgesamt harmonisches Bild erzeugen können. Mit großen Feature-Unterschieden zwischen zwei Karten wird dies schon schwer werden – Hersteller-übergreifend erscheint in der Praxis als eher unmöglich, selbst wenn theoretisch vielleicht denkbar. Aller Vermutung nach hat die Quelle der THG aber auch nie einen Hersteller-übergreifenden Support ausdrücken wollen, sondern eher nur einen grundsätzlich Architektur-übergreifenden Support gemeint – welcher aber in der Praxis ebenfalls so seine Macken haben dürfte. SFR macht es einfacher, unterschiedlich schnelle Beschleuniger zu paaren, aber vorzugsweise sollten jene der gleichen Architektur mit demselben Detail-Featureset angehören.

Das nVidia-Statement zur GTX970-Affäre kommt in unserem Forum (und auch andernorts) nicht gut an, die meisten Nutzer fühlen sich eher noch mehr verschaukelt als vorher – auch weil der nVidia-CEO ziemlich breit zu verstehen gegeben hat, daß die Grafikkarten-Käufer doch eher glücklich sein sollten, eine 4-GB-Karte anstatt einer 3-GB-Karte bekommen zu haben und daß allein die "fehlerhafte" Kommunikation zum Launch das Problem gewesen sei. Doch auch mit der "richtigen" Kommunikation bleibt bestehen, daß nVidia die Karte allein des Showeffekts wegen mit 4 GB Speicher ausgerüstet hat und es besser gewesen wäre, die GeForce GTX 970 mit nur aktiven 3,5 GB in den Markt zu entlassen (eine Maßnahme, welche man im übrigen auch jetzt noch nachträglich per Treiber realisieren könnte).

Ironischerweise hat der nVidia-CEO mit seiner Aussage im übrigen zugegeben, daß die ganze Limitierung der GeForce GTX 970 keine Entscheidung der Techniker war, sondern bewußt vom Marketing derart vorgenommen wurde. Sprich, nVidia wollte das Speicherinterface der GeForce GTX 970 limitieren, um die Karte gegenüber der GeForce GTX 980 ausreichend langsamer zu machen – genauso, wie in einer kürzliche Kolumne bereits dargelegt. Zuerst kam also die Limitation – und dann die Idee, dem Nutzer irgendwie doch 4 GB Speicher verkaufen zu wollen, gerade auch mit Hinblick auf die Konkurenzprodukte Radeon R9 290 & 290X. An dieser Stelle hat nVidia sicherlich AMD einigen möglichen Umsatz weggenommen – erstaunlich eigentlich, daß sich AMD hierzu immer noch nicht geäußert hat. Denn schließlich wurden hier durch falsche Spezifikationen nicht nur Verbraucherschutzrechte der Grafikkarten-Käufer, sondern auch das Wettbewerbsrecht zuungunsten von AMD verletzt – und AMD hätte den verlorengegangenen Umsatz angesichts der aktuellen Marktverhältnisse wirklich gebrauchen können.

Laut WCCF Tech soll AMDs Nolan-APU nicht in der eigentlich angetrebten 20nm-, sondern noch der 28nm-Fertigung kommen. Nolan ist die erste x86-CPU von AMDs Skybridge-Projekt, mittels welcher eine gemeinsame Plattform von x86- und ARM-basierten LowPower-CPUs geschaffen werden soll. Der ARM-Counterpart von Nolan in Form von Amur soll hingegen tatsächlich schon in der 20nm-Fertigung erscheinen, AMD wird hierfür ARMs Cortex A57 Rechenkerne heranziehen. An der grundsätzlichen Funktionsweise und auch der Ausrichtung des Skybridge-Projekts dürfte dieser Wechsel der Fertigungstechnologie (geplant waren ganz eindeutig 20nm für beide APUs) nichts ändern, einzig allein großartige Performance-Fortschritte sind dann von Nolan (auf derselben Fertigungstechnologie) kaum noch zu erwarten. Dabei dürfte die 20nm-Fertigung eigentlich zur Verfügung stehen, sowohl beim bisherigen Auftragsfertiger TSMC als auch bei GlobalFoundries, welche den Xbox-One-SoC demnächst in 20nm fertigen wollen.

Nochmals laut WCCF Tech kommt AMDs x86 HighEnd-Architektur "Zen" zuerst in den Server-Markt, nicht ins Consumer-Segment. Dies wäre überraschend, denn im Server-Markt ist AMD bis auf Nachlieferungen zu bereits bestehenden Systemen eigentlich kaum noch präsent, haben die Bulldozer-basierten Prozessoren vieles von dem durch die guten K8- und K10-basierten Server-Prozessoren aufgebauten Kredit verbraucht. Andererseits ist die ganze Meldung von WCCF Tech ansonsten nur eine Zusammensammlung vorher bereits bekannter Gerüchte – gut zu sehen auch an der Nennung einer TDP von maximal 95 Watt, welche für das Server-Segment wenig Sinn ergibt – welche zudem mit dem groben Releasetermin 2016 eine "Neuigkeit" verkaufen will, welche vorher schon bekannt war. Gut möglich, das WCCF Tech hier nur eine neue Wasserstandsmeldung zum Thema herausbringen wollten, ohne echte neue Informationen zu besitzen. In jedem Fall wäre AMD gut daran beraten, zuerst die Hardware-Enthusiasten für eine neue Prozessoren-Architektur zu begeistern – denn der Versuch, im Server-Markt wieder ernsthaft Fuß zu fassen, dürfte einen wesentlich längeren Atem benötigen.

Shortcuts: Golem bringen die Ankündigung von Samsungs 10nm-Fertigung – zu einem leider offiziell nicht genauer genanntem Zeitpunkt und damit fast ohne Nachrichtenwert. Aber wenigstens deutet diese Bekanntgabe darauf hin, daß Samsung in Zukunft aktiv bei der Fertigungstechnologie voranschreiten wird und dabei weniger Auftragsfertiger-Kontrahenten TSMC als denn Branchenschwergewicht Intel im Blick hat. Die PC Games Hardware bringt eine Stellungnahme seitens MSI, welche der Streichung der Übertaktungsfunktion bei Overclocker-Notebooks dieses Herstellers einen Riegel vorschiebt. Damit scheint es immer mehr in diese Richtung hin zu laufen, als daß nVidia es den Notebook-Hersteller wohl offenläßt, ob jene im Grafik-BIOS des Notebooks eine Overclocking-Sperre implementieren – oder eben nicht, wie im Fall von MSI. Und letztlich ist zu den vielen neuen nVidia-Treibern bis hinunter sogar zur GeForce 6 hinzuzusagen, daß jene laut den Release Notes keine neuen Features oder Bugfixes für Spiele mit sich bringen, sondern augenscheinlich allein einen sicherheitskritischen Fehler beseitigen. Neue Features und Bugfixes gibt es bei beiden Grafikchip-Entwicklern regelmäßig nur bei den allerhöchsten Treiber-Versionen, nicht mehr bei solcherart nachgelegten Treibern.

26

Die Grafikkarten-Performance unter Evolve

Bei der ComputerBase, der PC Games Hardware sowie dem TechSpot hat man sich die Grafikkarten-Performance unter Evolve angesehen, dem 4vs1-Shooter der Turtle Rock Studios. Das Spiel setzt auf die Cryengine 3, verlangt aber weit weniger Hardware-Power als andere Titel mit dieser Spiele-Engine. Zu den hohen erreichbaren Frameraten trägt auch der Verzicht auf besonders leistungsfordernde Anti-Aliasing-Verfahren bei, das Spiel unterstützt für alle Grafikkarten nur die Weichzeichner FXAA, SMAA 1X und SMAA 1TX, letzteres mit einer temporalen Komponente und daher den anderen vorzuziehen. Nur nVidia-Grafikkarten steht zusätzlich TXAA zur Verfügung, welches in der Praxis jedoch erstaunlicherweise keine besseren Resultate als SMAA 1TX aufzeigt. Die nachfolgende Grafikkarten-Einstufung beeinhaltet dann einen glatten Durchschnitt der Benchmark-Ergebnisse der drei zur Verfügung stehenden Tests:

Evolve – 1920x1080 MaxQuality & SMAA 1TX  (Quellen: CB, PCGH & TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7790-2GB 650Ti-Boost 750-2GB
750Ti
30-39 fps 7850 260X 660
660Ti
40-49 fps 7870
7870-Boost
7950
265
270
270X
670 760 960
50-59 fps 7950-Boost
7970
280
285
680 770
ab 60 fps 7970-GHz 280X
290
290X
Titan 780
Titan Black
780Ti
970
980

Auf allgemein recht hohen Frameraten erreichen recht viele Grafikkarten ein gut spielbares Territorium – ab einer Grafikkarte der unteren Performance-Klasse ist man in der Regel dabei mit durchschnittlichen Frameraten ab 40 fps. Dabei kann sich AMD vor allem in der Breite des Portfolios etwas besser positionieren – gut auch ausgedrückt dadurch, daß an der absoluten Leistungsspitze Radeon R9 290X und GeForce GTX 980 untypischerweise nahezu gleichauf liegen. Bei den noch mitkommenden Mainstream-Grafikkarten haben wir bewußt nur die 2-GB-Modelle notiert, da das Spiel ziemlich verschwenderisch mit Grafikkartenspeicher umgeht und auf einen zu kleinen Grafikkartenspeicher auch schnell heftig reagiert. Bei einer Auflösung von 1920x1080 sollte man Evolve wirklich nicht unterhalb von 2 GB anfangen, laut der PC Games Hardware sind unter dieser Auflösung eigentlich eher 3 GB Grafikkartenspeicher zur Verhinderung unschöner Nachladeruckler empfehlenswert.

Evolve – 2560x1440 MaxQuality & SMAA 1TX  (Quellen: CB, PCGH & TechSpot)
AMD HD7000 AMD R200 nVidia GF600 nVidia GF700 nVidia GF900
25-29 fps 7870-Boost 270
270X
670
680
760 960
30-39 fps 7950
7950-Boost
7970
280
285
770
40-49 fps 7970-GHz 280X Titan 780
Titan Black
780Ti
970
50-59 fps 290
290X
980

Unter der Auflösung von 2560x1440 schrumpfen die zuvor beobachtbaren hohen Performance-Werte maßgeblich zusammen: Keine einzige Karte schafft es mehr über durchschnittliche 60 fps und nur noch HighEnd-Modelle kommen überhaupt oberhalb der Marke von durchschnittlich 40 fps heraus. Im unteren Feld kommen die Grafikkarten mit nur 2 GB zwar weiterhin recht "normal" bezüglich der reinen Frameraten mit, dürften aber inzwischen schwer mit Nachladerucklern zu kämpfen haben. Allgemein ist diese Auflösung wie gesagt das Feld echter HighEnd-Grafikkarten mit mindestens 3 GB Grafikkartenspeicher. Erneut schlagen sich die AMD-Modelle im übrigen leicht besser als die nVidia-Modelle, wobei letztere durch teilweise zu geringe Speichermengen zusätzlich gehandikapt sein dürften.

Die ComputerBase sowie die PC Games Hardware bieten zudem weitere Benchmarks unter 3840x2160 an, welche jedoch nur die weitgehende Unspielbarkeit mit allen Grafikkarten unter dieser Auflösung dokumentieren – einzig die Radeon R9 290X zuckt bei der PC Games Hardware in Richtung 35 fps, kommt bei der ComputerBase aber auch nur knapp unterhalb von 25 fps heraus. Der TechSpot bietet zudem noch einige Benchmarks zur CPU-Belastung unter Evolve an, welche zwar auf einen deutlichen Intel-Vorteil hinweisen – letztlich aber wegen einer eher geringen CPU-Belastung keine echten Probleme auf CPU-Seite aufzeigen, sofern ein leistungsfähiger AMD-Prozessor verbaut wird. Bei den Intel-Prozessoren darf es erstaunlicherweise sogar ein LowCost-Modell sein, selbst ein Celeron G1820 (mit nur 2.7 GHz) erreicht 60 fps. Abschließend sei noch auf die Spielbarkeits-Bewertungen der ComputerBase verwiesen, welche der Radeon R9 290X – bei vergleichbaren Frameraten zur GeForce GTX 980 – einen sogar besseren Spielbarkeits-Eindruck ausstellte, was das gute AMD-Ergebnis in diesem Titel nochmals unterstreicht.

24

Hardware- und Nachrichten-Links des 24. Februar 2015

Laut Heise hat es in der GTX970-Affäre in den USA nunmehr zu einer Sammelklage gereicht – welche zwar erst noch angenommen werden muß, aber dies deutet doch auf einiges Interesse der US-Nutzer an diesem Fall hin, nachdem die US-Medien kaum noch darüber berichteten. Ob die Sammelklage nach ihrer möglichen Annahme dann überhaupt durchkommt, steht zwar in den Sternen – falls dies jedoch passiert, wird es teuer, denn im US-Schadensersatzrecht wird gewöhnlich nicht nur der aufgetretene Schaden ersetzt, sondern vielmehr zumeist mit hochvolumigen zusätzlichen Strafzahlungen hantiert. Gut möglich ist daher, daß nVidia (nach juristischer Sondierung der Lage) sich versucht außergerichtlich zu einigen – dies würde zum einen die insgesamten Kosten (insbesondere der Gerichts- und Anwaltskosten) minimieren, zum anderen nVidia die Gelegenheit geben, den Fall ohne große Öffentlichtlichkeit zu erledigen.

Daß nVidia in eine solche Richtung gehen könnte, dafür spricht das nun endlich doch erschienene offizielle Statement des Firmengründers und CEOs Jen-Hsun Huang zum Fall der GeForce GTX 970. In jedem fehlt zwar eine echte Entschuldigung und auch die dargebrachte Geschichte, wie es zu diesem "Fehler" kam, darf angezweifelt werden – aber zumindest gibt es das unzweifelhafte Statement, eine solch unglückselige Affäre kein zweites Mal passieren zu lassen. Dies ist wie gesagt (deutlich) weniger als man sich erhofft hatte – und ob dies reicht, den Druck ein wenig vom Kessel zu nehmen, darf dann doch bezweifelt werden. Hart formuliert kann man sagen: nVidia hat genau das gesagt, was nVidia nützt – und nichts davon, was sich der User von einem solchen Statement erwartet hatte. Zudem fehlt derzeit noch eine Umsetzung dessen auf den offiziellen Spezifikations-Webseiten von nVidia, wo man immer noch die Daten aus den Launch-Zeiten wiedergibt. Ob das CEO-Statement am Ende ausreichend ist, die doch ziemlich klare Meinung der User zur GeForce GTX 970 sowie zu nVidia allgemein wieder zu flicken, wird dann die Zeit zeigen müssen.

Gemäß der PC Games Hardware scheint man nunmehr andere Wege zu gehen, um das Übertakten auf GeForce-basierten Notebooks zu verhindern: Die Notebook-Hersteller liefern nun teilweise Notebooks mit Übertaktungs-resistenten BIOS-Versionen aus. Ob dies von nVidia oder den Notebook-Hersteller angestoßen wurde, ist derzeit noch unklar – wobei die Notebook-Hersteller durchaus im Verdacht stehen, nVidia überhaupt erst zu der kürzlichen Anti-Overclocking-Aktion gedrängt zu haben. Andererseits wäre eine Übertaktungssperre per BIOS in diesem Sinne nicht verkehrt, als daß explizite Overclocker-Notebooks davon natürlich ausgenommen werden können. Zudem dürfte sich so etwas auch über modifizierte BIOS-Versionen wieder ausschalten bzw. die gewünschten Taktfrequenzen eben notfalls im modifizierten BIOS festlegen lassen. Das eigentliche Problem hätten dann nur noch die Normalnutzer – aber jene übertakten gewöhnlich gar nichts am Notebook.

Im Carrizo-Bericht von Golem wird auch der inzwischen als halb verschollen geltende Carrizo-L kurz erwähnt: Jene eigentlich auf der Jaguar/Puma-Architektur basierende APU soll den LowPower-Unterbau zu Carrizo bilden, mit allerdings interessanterweise demselben BGA-Sockel FT4 und damit grundsätzlich in dieselben Notebook-Mainboards passend. Dabei sollte Carrizo-L schon Ende letzten Jahres erscheinen, derzeit ist jedoch gar nichts von diesem Chip zu hören, welcher nunmehr kaum vor dem eigentlichen Carrizo-Launch irgendwann im zweiten Quartal spruchreif werden dürfte. In jedem Fall konnte Golem bestätigen, daß Carrizo-L insofern technisch gegenüber der Jaguar/Puma-Architektur unverändert ist, als daß dasselbe 64 Bit DDR Speicherinterface zum Einsatz kommt. Damit dürfte dann auch die integrierte Grafiklösung kaum größer als die bisherigen 128 Shader-Einheiten werden, viel mehr lohnt an diesem Speicherinterface nicht. Damit nähert sich Carrizo-L natürlich rapide einem Rebranding zu den Puma-basierten Mullins/Beema-APUs an – mit aber immer noch der Möglichkeit, daß es doch kleinere, bislang noch nicht bekannte Änderungen gibt.

24

Die Grafikchip- und Grafikkarten-Marktanteile im vierten Quartal 2014

Die Marktbeobachter von Jon Peddie Research haben mal wieder neue Daten zu den Marktanteilen bei Grafikchip und Grafikkarten veröffentlicht, diesesmal für das vierte Quartal 2014. Mit der ersten Meldung geht man den Markt aller Grafikchips an, inklusive auch der in modernen Prozessoren integrierten Lösungen, welche dann natürlich von der Menge her klar den Ton angeben. In diesem Feld dominiert seit Jahren unangefochten Intel aufgrund seiner Vielzahl an verkauften Prozessoren, was sich auch im vierten Quartal 2014 nicht änderte: Eigentlich bewegt sich alles auf geringer Streubreite genauso wie in den Vorquartalen – mit einem Unterschied: nVidia kann nun auch im insgesamten Markt den Platz vor AMD einnehmen, obwohl AMD hier mit seinen APUs die eigentlich viel besseren Aussichten hat. Sprich: nVidia verkauft inzwischen allein nur mit seinem GPU-Geschäft mehr Grafikchips als AMD, welche hierfür sowohl ihr GPU- als auch ihr APU-Geschäft ansetzen können.

Q4/2013 Q1/2014 Q2/2014 Q3/2014 Q4/2014
AMD 18,3% 16,7% 16,5% 14,1% 13,6%
Intel 65,1% 66,8% 69,9% 71,8% 71,4%
nVidia 16,6% 16,6% 13,6% 14,1% 15,0%

In der zweiten Meldung hat man sich allein den Grafikchips für Desktop-Grafikkarten zugewandt, wobei hier auch Grafikkarten für professionelle Zwecke mitgezählt werden (welche aber Stückzahlen-technisch kaum zu Buche schlagen). Trotz daß hier natürlich auch viele für OEM-PCs ausgelieferte Billig-Grafikkarten mitgezählt werden, kommt diese Statistik dann schon dem näher, was im Grafikkarten-Markt wirklich los ist. Und leider hat hier AMD im vierten Quartal 2014 einen nochmalig herben Rückschlag hinnehmen müssen: Nachdem man vom zweiten zum dritten Quartal 2014 schon 9,5% verlor, sind es diesesmal auch noch einmal 4,4% weniger. Ausgehend von dem niedrigen Niveau von nur noch 24% Marktanteil (!), auf welchem AMD sich derzeit befindet, sind auch diese 4,4% ein sehr beachtbarer Rückgang, welcher AMD schmerzlich fehlen dürfte.

Q4/2013 Q1/2014 Q2/2014 Q3/2014 Q4/2014
AMD 35,0% 35,0% 37,9% 28,4% 24,0%
nVidia 64,9% 65,0% 62,0% 71,5% 76,0%

nVidia erreichte somit derzeit einen Marktanteil von satten 76%, wofür extra die nachfolgende Marktanteils-Grafik nach oben hin erweitert werden musste – so hoch war nVidias Marktanteil in der Neuzeit noch nie, respektive AMDs Marktanteil in jener Zeit noch nie so niedrig. Der Grafikkarten-Marktanteil hat in den letzten zwei Quartalen eine derart ungünstige Entwicklung genommen, daß man durchaus erste Befürchtung hin in Richtung der weitgehenden Ausschaltung des Wettbewerbs erheben darf. Dies nicht unbedingt, weil einer der beiden Marktteilnehmer sich endgültig verabschiedet (auch wenn dies bei AMD nicht gänzlich auszuschließen ist) – sondern eher in die Richtung wie im CPU-Markt vorexerziert, wo einer der beiden Anbieter so weit enteilt ist, daß der andere Anbieter keine große Chance zum Aufschließen mehr hat.

Noch sind wir glücklicherweise von einer solchen Situation im Grafikchip-Markt um einiges entfernt. Und dennoch muß faktisch jetzt etwas passieren – denn es wäre zu bezweifeln, daß sich AMD solcherart niedrige Marktanteil in einem sich schließlich eher seitwärts bewegenden Markt lange leisten kann, ehe es zu ernsthaften Folgen kommt. Diese kann das Abspringen von Grafikkarten-Herstellern und OEM-Partnern sein, aber auch eine weitere Kürzung des Entwicklungsetats für Radeon-Grafikkarten könnte durch zu niedrige Einnahmen heraufbeschworen werden. AMD kann sich hier gut und gerne sein eigenes Schicksal im CPU-Bereich vor Augen führen, wo man teilweise nur deswegen nicht mehr bei großen OEMs und Distributoren gelistet ist, weil man derzeit einfach zu klein ist und sich der extra Aufwand nicht lohnt. Ein Duopol kann eben nur vernünftig funktionieren, wenn beide Anbieter halbwegs gut dabei sind, während ein Duopol aus einem großen und einem kleinen Anbieter immer dazu tendiert, in ein Monopol umzukippen.

Um eine solche Situation zu verhindern, befindet sich AMD allerdings in einer vergleichsweise glücklichen Ausgangssituation: nVidia hat die Maxwell-Generation schon weitestgehend ausgepackt, jetzt kommen für dieses Jahr nur noch der Enthusiasten-Chip GM200 sowie Programmergänzungen nach unten hin. AMD will hingegen dieses Jahr mit der Radeon R300 Serie eine komplette Grafikkarten-Serie herausbringen – und selbst wenn vieles davon auf bekannten Grafikchips basieren wird, gilt hier die alte Regel "neue Besen kehren gut" bzw. werden sich neu verpackte Produkte eben doch besser verkaufen lassen als ihre baugleichen, aber "älteren" Brüder. Zudem hat es sich nVidia mit Teilen der Enthusiasten-Szene wegen der GTX970-Affäre gerade gründlich verscherzt, daraus müsste AMD doch irgendwie Kapital schlagen können. Auch gilt am Ende, selbst wenn wir verpflichtet der unparteiischen Sicht dies eigentlich nicht so sagen dürften: Langsam aber sicher müssten die Grafikkarten-Käufer mal politisch kaufen – sprich in diesem Fall bewußt und unabhängig etwaiger Nachteile den kleineren Anbieter AMD, damit uns jener erhalten bleibt und der Grafikkarten-Markt mit nur einem Anbieter nicht in den völligen Stillstand umkippt.

Inhalt abgleichen