7

Hardware- und Nachrichten-Links des 6./7. Juli 2015

Laut Videocardz soll die kürzlich schon einmal erwähnte kleinere GM206-Variante "GM206-250" nunmehr nicht als "GeForce GTX 950 Ti", sondern als "GeForce GTX 950" in den Handel gehen – dies würde noch kleinere Modelle der GeForce 900 Serie in den eher unattraktiven "94x" Nummernkreis abschieben. Zudem wurde die Speicherkonfiguation der für den von nVidia derzeit glatt blank gelassenen 150-Dollar/Euro-Bereich vorgesehenen Grafikkarte bekannt: Es wird die GeForce GTX 950 – wie die GeForce GTX 960 sowie die im gleichen Preisbereich operierende Radeon R7 370 – mit 2 oder 4 GB GDDR5-Speicher geben, was dann auch das Speicherinterface ziemlich sicher auf 128 Bit DDR festschreibt. Die zwei Meldungen innerhalb kurzer Zeitspanne zu dieser Karte deuten an, daß jene nur noch ein paar Wochen entfernt ist – deren Release könnte beispielsweise bereits Ende Juli oder Anfang August sein. Damit sollten auch weitere erhellende Informationen zur GeForce GTX 950 in den nächsten Wochen das Bild zu dieser Karte klarer gestalten können.

HT4U haben nun endlich auch ihren Test zur Radeon R9 Fury X fertiggestellt – garniert mit einer deutlichen Warnung an die Hersteller, daß ein Tag "Testdauer" nicht nur "ein bißchen" wenig ist, sondern glatt nicht tolierbar, wenn man einen ernsthaften Hardware-Test vor hat zu liefern. Geboten werden im Test neben wie üblich vielen Benchmarks – welche die Radeon Fury X unter FullHD noch etwas schwächer als im Durchschnitt sehen, unter 4K dafür dann aber knapp vor der GeForce GTX 980 Ti liegend – auch umfangreiche Stromverbrauchs-Messungen mit durchschnittlichen und maximalen Werten: Die maximalen Werte schwanken dabei je nach Spieletitel zwischen nur 205 Watt (Skyrim) bis zu 311 Watt (HawX), der Durchschnitt der Maximal-Werte lag bei 272 Watt – und 283 Watt unter Weglassung der beiden Titel, welche nur auf ~200 Watt kamen. In einem Spiel (Metro: Last Light Redux) wurde zusätzlich der durchschnittliche Verbrauch gemessen: Das Maximum lag hier bei 301 Watt, der durchschnittliche Verbrauch bei 257 Watt.

Jener Wert selber erscheint immer noch ganz gängig – aber wenn man bedenkt, daß hierfür eben auch Spielszenen mit nur 84 Watt Strombelastung eingerechnet wurden, erscheinen durchschnittliche Stromverbräuche dann doch wieder als nicht so gute Idee. Am Ende geht es bei der Diskussion um den Stromverbrauch schließlich nicht nur um Vergleichsgrößen im Wettstreit zwischen AMD- und nVidia-Grafikkarten, sondern auch um den rein praktischen Aspekt der Netzteil-Wahl – und da spielt ein durchschnittlicher Verbrauch keine beachtbare Rolle, sondern sind natürlich allein die Spitzenverbräuche interessant. Der andere von HT4U hierzu vorgelegte Durchschnitts-Werte erscheint dabei als zielführender: Ein Durchschnitt der maximalen Stromverbrauchswerte mehrere Spieletitel. Damit geht man den Gedanken des Peak-Verbrauchs mit, eliminiert aber Ausreißer unter einzelnen Spieletiteln oder auch sich verändernde Bedingungen durch neue Spiele- und Grafikkarten-Generationen. Eventuell liegt die Zukunft aber auch schlicht in der Angaben beider Werte – je nachdem, was überhaupt in beachtbarer Menge publiziert wird.

Interessant sind daneben die angetretenen Benchmarks unter reduziertem Power-Limit: Dabei konnte man lustigerweise das Power-Limit der Karte deutlich nach unten drücken, ohne daß dies zu einer deutlich geringeren Performance führte. Der Furmark-basierte MSI Kombuster verlor selbst bei maximal 270 Watt Stromverbrauch kein Stück an Performance, Anno 2070 hingegen bei maximal 253 Watt Stromverbrauch auch nur 6% Performance, bei allerdings 17,5% weniger Maximal-Verbrauch. Eine gewisse Stromverbrauchs-Begrenzung der Radeon R9 Fury X hätte AMD durchaus besser gestanden, derzeit riegelt die Karte erst bei sagenhaften 350 Watt ab. 300 Watt hätten es an dieser Stelle ohne jeden bemerkbaren Performanceverlust auch getan, alles andere kann man schließlich dem geeigneten Hardware-Tweaker mittels der entsprechenden Tweak-Tools zur Verfügung stellen. Aber AMD wollte wohl auf Teufel komm raus die höchstmögliche Performance erzwingen – wohl aus dem einfachen Grund, daß nVidia die GeForce GTX 980 Ti bewußt so stark angesetzt hatte.

Prozessoren- und Grafikchip-Entwickler AMD hat eine Umsatzwarnung herausgegeben – welche aber auch von einem Wechsel von der 20nm- auf die FinFET-Technologie berichtet. Die Umsatzwarnung spricht von einem gegenüber dem Vorquartal nun nicht mehr um 3%, sondern um 8% zurückgegenden Umsatz – damit würde AMD erstmals seit langer Zeit bei einem Quartalsumsatz von unter einer Milliarde US-Dollar herauskommen. Ursache sollen schwache APU-Umsätze und ein allgemein schlechter PC-Markt sein – was jetzt nicht ganz unerwartet kommt, aber natürlich Nicht-Marktführer besonders trifft. Interessant werden an den Mitte des Monats zu erwartenden AMD-Geschäftszahlen sollten insbesondere die Gewinn/Verlust-Zahlen – weil AMD zuletzt wieder so schnell Berge an Geld verbrannt hat, daß man sich (bei Fortschreibung dieser Zahlen) irgendwann einmal um die reine Geschäftsfähigkeit des Unternehmens sorgen muß. Derzeit gibt AMD an, zum Ende des zweiten Quartals 830 Millionen Dollar in Cash oder Cash-ähnlichen Mitteln zu besitzen – dies sieht angesichts der Unternehmensgröße erst einmal ausreichend aus, darf aber auch eben nicht mehr bedeutsam kleiner werden.

Wie gesagt wurde versucht, diese Meldung etwas mit dem Teilaspekt des Wechsels von der 20nm- auf die FinFET-Technologie aufzuhübschen – wofür AMD auch noch einmal 33 Millionen Dollar ausgibt. Unklar ist leider, welche FinFET-Fertigung hierbei gemeint ist (16nm TSMC oder 14nm GlobalFoundries) – und welche Chips AMD überhaupt von 20nm auf 14/16nm verschiebt, denn nach der Aufgabe des Projekts Skybridge hat AMD eigentlich gar keine 20nm-Chips mehr im Programm oder in der Roadmap. Das einzige, was offensichtlich ist, wären die Konsolen-SoCs für Xbox One und Playstation 4 – wobei nur der Xbox-One-SoC überhaupt schon in einem 20nm-Design vorliegt. Am Ende könnte aber auch irgendein zukünftiges Chipprojekt gemeint sein, welches in der Designphase für 20nm ausgelegt war und nun einmal kurzerhand noch vor der Finalisierung auf die 14/16nm-Fertigung verschoben wird. An der eigentlichen 14/16nm-Planung von AMD im Prozessoren- und Grafikchip-Bereich ändert dies nichts: Dort sind die großen Eckpunkte des 2016er Portfolios in Form der Zen-Prozessoren und der Artic-Islands-Grafikchips bereits von Anfang an auf GlobalFoundries 14nm-Fertigung ausgerichtet gewesen.

Seitdem die DigiTimes darüber berichtet hat, daß sich die großen Auftragsfertiger Foxconn und Pegatron um Aufträger zur nächsten Nintendo-Konsole "NX" streiten, läuft die Gerüchteküche samt Spekulations-Maschine hierzu auf Hochtouren. Dabei wissen wir eigentlich nur sicher, daß Nintendo für 2016 etwas in Vorbereitung hat – wie dies genau aussieht, darüber schweigt Nintendo und hat wohl auch alle Leakquellen gut im Griff. In jedem Fall scheint man im Zeitplan zu liegen, wenn die Vorproduktion bereits in diesem Oktober starten soll – die DigiTimes berichtet hierzu über einen Launch der Nintendo NX vielleicht im Juli 2016, aber dies dürfte einfach nur gut spekuliert sein. Wohin die Reise gehen soll – und wie man gleich 20 Millionen Stück im ersten Jahr absetzen will (knapp so viel wie bei der Playstation 4) – darüber wird allenorts diskutiert, die zündende Idee hierzu ist aber noch nicht gefunden.

Denn eine Fortsetzung der Wii-Serie ist angesichts der sehr hohen Absatzprognose fast auszuschließen, eine 3DS-Fortsetzung ist eher unwahrscheinlich, weil das Handheld erst letztes Jahr aktualisiert wurde – und ob sich Nintendo wirklich mit den großen Spielekonsolen von Microsoft und Sony anlegen will, bliebe streng abzuwarten, ist aber aufgrund der bisherigen Traditionen bei Nintendo doch eher unwahrscheinlich. Für letzteres wäre auch ein dicker Hardware-Aufwand vonnöten – etwas, was auffallend würde, da Nintendo die Chips für CPU & GPU schließlich auch nur zukauft. Möglicherweise haut Nintendo ja auch etwas völlig neues, unerwartetes heraus – dies würde viel eher zum Unternehmen passen als eine platte HighEnd-Konsole in Konkurrenz zu den schon bestehenden HighEndKonsolen. Um VR scheint es in jedem Fall nicht zu gehen, dies sieht Nintendo laut einer kürzlichen Meldung bei Gulli derzeit noch als zu unreif an (einmal abgesehen auch vom extremen Leistungsbedarf).