2

Hardware- und Nachrichten-Links des 2. März 2015

AMD spricht im hauseigenem Blog etwas verklausuliert von einem gewissen Zurückdimmen der Mantle-API, rein praktisch unter anderen resultierend in dem Punkt, daß es entgegen der ursprünglichen Ankündigung kein öffentliches Mantle-SDK mehr geben wird. Zudem betrachtet man Mantle zukünftig wohl eher als Spielwiese für Experimente und Innovationen, während man im allgemeinen den Spiele-Entwicklern eher die Verwendung von DirectX 12 oder glNext empfiehlt. Je nachdem wie man diese Zeilen liest, kommt dabei ein "Ende von Mantle" oder aber eine "Umschichtung der Zielsetzung" heraus – eventuell wird AMD am 5. März genaueres sagen, dann will man dieses Thema auf der Game Developers Conference (GDC) ansprechen. In unserem Forum wird ja schon darüber diskutiert, daß glNext letztlich weitgehend Mantle entsprechen soll – aber auch das wird sich wohl erst nach der glNext-Präsentation ergeben, welche interessanterweise ebenfalls für den 5. März (auf der GDC) angesetzt ist. Vorher braucht man sicherlich nicht darüber spekulieren, wie diese wenigen AMD-Zeilen nun korrekt zu deuten sind.

Golem bringen genauere Daten zu den kommenden Atom x3/x5/x7 SoCs, welche seitens Intel derzeit unter den Codenamen "Sofia" (Atom x3) sowie "CherryTrail" (Atom x5 & x7) vorbereitet werden. Letztere werden auf der Airmont-Architektur in der 14nm-Fertigung basieren und stellen damit den klaren Nachfolger der bisherigen Atom-Prozessoren auf Basis der Silvermont-Architektur in der 22nm-Fertigung dar. Erstere – sprich die Sofia-SoCs – sind dagegen ein interessantes Mischkonstrukt: Die CPU-Kerne kommen noch aus der Silvermont-Architektur, die Grafiklösung stammt weder von Intel noch von ImgTec (PowerVR), sondern von ARM (Mali 400/450/720) – und hergestellt wird das ganze scheinbar unmodern in der 28nm-Fertigung nicht von Intel, sondern von TSMC. Für Intel ist dies eine sehr ungewöhnliche Herangehensweise – welche wohl allein dem Zweck der Kostenoptimierung dient, denn die Sofia-SoCs sollen in günstige Gerätschaften gehen und dafür sind die Herstellungspreise der bei Intel selber vom Band laufenden Prozessoren einfach zu hoch. Von einer überlegenen Performance kann man sich mit diesem Ansatz natürlich verabschieden, was aber für die angepeilten Preisbereiche keine wirkliche Rolle spielt.

Die PC Games Hardware hat sich angesehen, wie groß die Unterschiede zwischen Luxus- gegenüber Budget-Kühlern liegen, getestet wurden hierbei der Noctua NH-D15 als Luxus-Modell für ca. 85 Euro gegen EKL Alpenföhn Brocken Eco als Budget-Modell für ca. 28 Euro. Dabei gab es durchaus beachtbare Leistungsunterschiede: Das Luxus-Modell hat nachweislich die bessere Kühlleistung mit zwischen 5-10°C weniger CPU-Temperatur als beim Budget-Modell. Dies passiert allerdings auf beiderseits erstklassigen absoluten Temperaturen (von unter 65°C), der benutzte Xeon-Prozessor mit 150 Watt TDP lief somit noch weit unter seinem Temperatur-Grenzwert. Beide Kühler bieten damit auch die Reserven, auf einer sehr niedrigen Lüfterdrehzahl und damit geringer Geräuschentwicklung bei weiterhin vergleichsweise kühlen CPU-Temperaturen zu operieren. So gesehen lohnt sich das Luxus-Modell kaum, wird zumindest im Normalbetrieb kein wirklich beachtbarer Vorteil gegenüber dem Budget-Modell erzeugt. Der technisch vorhandene Vorteil des Luxus-Modells läßt sich wohl nur ausspielen, wenn die CPU bis an alle Grenzen übertaktet läuft und man trotzdem vergleichsweise niedrige CPU-Temperaturen sehen will.

Am Donnerstag schon verlinkt, aber noch einmal extra erwähnt werden muß der USB 3.1 Test bei Golem. Jener zeigt gut die Anfangsschwierigkeiten dieser neuen Schnittstelle auf: So gibt es auf heutigen Sockel-1150-Mainboards einfach zu wenige PCI Express Lanes, um USB 3.1 wirklich gut anzubinden. Die meisten Mainboard-Hersteller dürften wegen schlichter Lanes-Knappheit nur zwei PCI Express 2.0 Lanes für den USB 3.1 Controller abstellen, was die maximale Datenrate von theoretisch 1,25 GB/sec auf rund 1 GB/sec limitiert. In der Praxis kommen dabei – maßgeblich wegen des Controller-Overheads – maximal ~800 MB/sec heraus, wobei dies auch nur unter Deaktivierung der Stromsparmodi erreicht werden kann, im Normalzustand sind es nur ~700 MB/sec. Dies ist natürlich immer noch deutlich mehr, als man mit USB 3.0 erreichen kann, was praktisch bestenfalls ~450 MB/sec erzielt – und trotzdem suboptimal, weil damit unterhalb der Hälfte dessen, was USB 3.1 an Performancegewinn verspricht. Erst die kommende Skylake-Plattform wird diesem Problem begegnen können, dort werden dann im Mainboard-Chipsatz endlich auch PCI Express 3.0 sowie viel mehr PCI Express Lanes geboten werden.

2

Wieviel Performance kosten einzelne Grafik-Effekte unter Far Cry 4?

HardOCP haben sich intensiv mit der Grafikkarten-Performance unter Far Cry 4 auseinandergesetzt und bieten hierzu nicht nur Standardkost an, sondern mit einer Performance-Beurteilung verschiedener Grafik-Effekte sonst eher selten zu lesende Details. Somit läßt sich für Far Cry 4 erkennen, welche Grafik-Effekte besonders viel Performance verschlingen und damit am ehesten als Kandidaten zur Deaktivierung in Betracht kommen. Ausgehend von der Ultra-Grafik des Spiels haben HardOCP folgende Performanceverluste für die einzelnen Grafik-Effekte ermittelt:

Radeon R9 290X GeForce GTX 780 GeForce GTX 980
Godrays off -> Volumetric Fog -2,1% -5,1% -8,1%
Godrays off -> Enhanced Godrays -19,3% -8,2% -9,0%
Low Shadows -> Ultra Shadows -7,5% -12,1% -11,4%
Low Shadows -> Soft Shadows -21,0% -22,4% -22,2%
Ambient Occlusion off -> SSAO -1,5% -2,1% -2,2%
Ambient Occlusion off -> SSBC ±0 -3,7% -0,9%
Ambient Occlusion off -> HBAO+ -7,4% -6,5% -7,7%
Fur off -> Fur on -7,2% -7,7% -7,2%
Anti-Aliasing off -> SMAA -1,0% -5,9% -4,7%
Anti-Aliasing off -> 2x MSAA -15,1% -15,4% -16,5%
Anti-Aliasing off -> 4x MSAA -28,6% -29,6% -31,8%

Sehr deutlich lassen sich zwei Felder mitnehmen: Schatten und (Multisampling) Anti-Aliasing kosten richtig an Performance – letzteres sogar ohne daß es eine gute Kantenglättung ergeben würde (wegen der fehlenden Wirkung auf Vegetation). Speziell bei AMD kommen zudem noch die Sonnenstrahlen hinzu, welche bei nVidia nur gut die Hälfte an Performance kosten. Die exakten Prozentwerte an Performanceverlust gelten zwar nur für Far Cry 4, ähnliche Tendenzen dürfte es jedoch auch bei anderen aktuellen Spieletiteln geben. Insbesondere die Schattenberechnung sowie das Anti-Aliasing sind schon des längerem als größere Performancefresser bekannt. Natürlich wäre es schöner, wenn man dies mittels ähnlicher Artikel zu anderen Spieletiteln auch wirklich nachweisen könnte.

2

Aktualisierte Fertigungsverfahren-Roadmap: 20nm faktisch gestrichen, 14/16nm leicht später

Nach der Aktualisierung der AMD-Prozessoren Roadmap, der Intel-Prozessoren Roadmap sowie der AMD & nVidia Grafikkarten-Roadmap verdient nun auch noch die Fertigungsverfahren-Roadmap ein Update – auch wenn es gegenüber dem letzten Stand vom August 2014 nicht wirklich erbauliches zu berichten gibt. Denn primär hat sich alles wieder nur verschoben – wie dies allerdings nicht unüblich ist im Feld der Halbleiterfertigung, wo Termintreue vielleicht ein Ziel darstellt, welches aber mit zunehmend kleineren Fertigungsgrößen auch immer schwieriger zu halten ist. Zu beachten wäre bei dieser Roadmap sowie den begleitenden Ausführungen, daß sich jene ausschließlich auf große Prozessoren und Grafikchips konzentrieren, nicht auf SoCs und ähnlich kleine, Wattage-schwache Chips. Letztere lassen sich üblicherweise sehr viel früher in einem neuen Fertigungsverfahren herstellen als die wirklich großen Chips, da letztere meistens viel größere Chipflächen belegen, teilweise deutlich höhere Taktfrequenzen aufweisen und vor allem für einen gänzlich anderen Stromverbrauch gemacht sind.

Die Terminverschiebungen machen dabei auch vor Intel nicht halt, welche ihre 14nm-Fertigung im Bereich der "ernsthaften" Chips nun erst im Januar 2015 (Ultrabook-Modelle von Broadwell) in kaufbarer Form in den Markt entlassen konnten – und damit mehr als ein halbes Jahr nach dem ursprünglich anvisierten Releasetermin im Frühsommer 2014. Auch die nachfolgende 10nm-Fertigung wird eine rein praktische Verschiebung erfahren müssen: Obwohl bereits die 10nm-Testproduktion bei Intel anläuft und man zum Jahresende 2015 technologisch spruchreif sein will, soll die erste 10nm Prozessoren-Generation "Cannonlake" nun nicht mehr Mitte 2016, sondern erst im ersten Quartal 2017 antreten. Wenigstens scheint man für die nachfolgende 7nm-Generation nunmehr doch noch nicht auf die (sehr teure) EUV-Lithographie angewiesen zu sein, sondern dieses vielleicht 2019 in kaufbaren Produkten resultierendes Fertigungsverfahren noch mit der "normalen" Belichtungstechnologie anzugehen versuchen.

Bei dem führenden Auftragsfertiger TSMC scheint die existierende 20nm-Fertigung nun nirgendwo für große Prozessoren und Grafikchips genutzt zu werden, sondern primär nur für einige Mobile-SoCs. Selbst TSMC räumt der 20nm-Generation nur einen vergleichsweise kurzen Lebenszyklus von nur einem Jahr ein, wonach schon die 16nm-Fertigung zur SoC-Fertigung spruchreif werden soll. Für große Prozessoren und Grafikchips wird man jedoch nicht auf den Standard-Prozeß "16FF" setzen, sondern auf die verbesserte Variante "16FF+" – welche den Performance-Abstand zu den 14nm-Angeboten von Intel und Samsung/GlobalFoundries schließen soll, dafür aber eben auch einige Monate später kommt als der Standard-Prozeß. Damit musste der geschätzte Erscheinungstermin kaufbarer Produkte mit TSMCs 16nm-Fertigung leicht auf "Anfang bis Mitte 2016" korrigiert werden, da nunmehr entsprechende Releases direkt zum Jahresanfang 2016 nicht mehr garantiert werden können. Wahrscheinlich dürfte hierbei allein nVidia aktiv werden, während AMD versucht sein dürfte, alle kommenden Fertigungsaufträge zu GlobalFoundries umzuleiten.

Dabei wird GlobalFoundries ähnlich wie TSMC keine breite 20nm-Fertigung auflegen. Denn selbst wenn mit dem Xbox-One-SoC nun ein recht großer und vergleichsweise stromfressender Chip in der 20nm-Fertigung von GlobalFoundries kommen soll, so hat dies doch keine Bewandtnis bezüglich PC-Produkten ähnlicher Größe. Obwohl augenscheinlich verfügbar, wird AMD somit keine seiner Prozessoren und Grafikchips in der 20nm-Fertigung von GlobalFoundries auflegen, die Vorteile dieser Fertigung sollen (mangels 3D-Transistoren) zu gering sein. Daher steht bei GlobalFoundries auch schon die von Samsung lizenzierte 14nm-Fertigung im Blickfeld – zu welcher Samsung selber große Fortschritte erzielt hat, deren zeitnahe Umsetzung bei GlobalFoundries allerdings vollkommen in der Schwebe stehen. Deswegen kann man auch bei GlobalFoundries derzeit leider nur ungenau auf "Anfang bis Mitte 2016" bezüglich erster Prozessoren und Grafikchip in der 14nm-Fertigung schätzen.

GlobalFoundries Intel TSMC
45nm Januar 2009 (Phenom II) Januar 2008 (Core 2 Penryn) -
40nm - - April 2009 (RV740)
32nm Juni 2011 (Llano) Januar 2010 (Nehalem Clarkdale) -
28nm Januar 2014 (Kaveri) - Januar 2012 (Tahiti)
22nm - April 2012 (Ivy Bridge) -
20nm laut Roadmap H1/2014
kaufbare Produkte geschätzt Mitte 2015 (Xbox One)
- -
16nm - - laut Roadmap November 2013
kaufbare Produkte geschätzt Anfang-Mitte 2016
14nm laut Roadmap Ende 2014
kaufbare Produkte geschätzt Anfang-Mitte 2016
Januar 2015 (Broadwell) -
10nm laut Roadmap Ende 2015
kaufbare Produkte geschätzt 2018
laut Roadmap Ende 2015
kaufbare Produkte Q1/2017 (Canonlake)
laut Roadmap 2017
kaufbare Produkte geschätzt 2018
7nm ? laut Roadmap 2017
kaufbare Produkte geschätzt 2019
?
3D-Transistoren ab der 14nm-Fertigung (2015) ab der 22nm-Fertigung (2012) ab der 16nm-Fertigung (2015)
EUV-Lithographie ? wahrscheinlich ab 5nm derzeit bis einschließlich 10nm nicht geplant
450mm-Wafer ? Richtung 2023 ?
Alle Eintragungen beziehen sich allein auf große Prozessoren und Grafikchips, nicht auf SoCs oder sonstige kleinere Chips!
Die Namen insbesondere der neueren Fertigungsverfahren werden inzwischen weitgehend aus Marketing-Erwägungen festgelegt und haben nicht wirklich etwas mit der real verwendeten Technik bzw. Strukturgröße zu tun.

Bei beiden Intel-Kontrahenten sind die Fertigungsverfahren unterhalb von 14/16nm noch zu weit in der Ferne, um wirklich genauere Angaben machen zu können – die üblichen Vorhersagen beider Chipfertiger sind sowieso Marketing-getränkt und damit zumeist wenig glaubhaft. So wie es derzeit aussieht, bleibt es beim technologischen Vorsprung Intels gegenüber wenigstens TSMC und GlobalFoundries von ungefähr einem Jahr – was immerhin besser ist als zuletzt, wo Intel auch gern mal zwei Jahre voraus war. Offen muß bleiben, ob Samsung und deren wirklich aggressive Fertigungsverfahren-Roadmap hier noch mitspielen können: Für die SoC-Fertigung scheint es Samsung jetzt wissen und selbst mit Intel gleichziehen zu wollen – aber ob Samsung selber irgendwann Aufträge für große Prozessoren und Grafikchips bekommt, ist eher ungewiß. Wenn, dann würde hierfür fast nur nVidia in Frage kommen, denn Intel läßt nichts wichtiges fremdfertigen und AMD wird zukünftig immer nur GlobalFoundries bemühen, sofern jene nicht all zu sehr zurückhängen.

1

Hardware- und Nachrichten-Links des 28. Februar & 1. März 2015

Sehr deutlich eingetrübt werden dürfte die Freude über die Grafikkarten-Nachrüstkits für die GT72-Notebooks von MSI durch deren Preislagen: MSI will für das Nachrüstkit mit GeForce GTX 970M gleich 569 Euro haben, für jenes mit der GeForce GTX 980M sogar 899 Euro. Dies ist dann doch sehr teuer – vielleicht sogar basierend auf den hohen Preisen, welche die Grafikchip-Entwickler für Mobile-Grafikchips nehmen, aber dennoch preislich einfach abgehoben. Immerhin bekommt man mit der GeForce GTX 970M eine Performance wie auf dem Desktop mit der 200-Euro-Karte GeForce GTX 960, die GeForce GTX 980M liefert eine Performance etwas besser als die 250-Euro-Karte GeForce GTX 770. Natürlich sind die jeweiligen Mobile-Lösungen technologisch besser als die genannten Desktop-Vergleiche und sogar mit deutlich mehr Speicher ausgestattet – eine ziemliche Geldverbrennungs-Aktion bleibt es dennoch. Hier dürfte aber auch der Grund dafür zu sehen sein, weshalb die Grafikchip-Entwickler nie selber die Idee externer Grafikkarten aufgegriffen haben: Die margenträchtigen Preise bei Mobile-Grafikchips könnte man natürlich vergessen, sollten sich jemals externe Grafikkarten durchsetzen.

Netzpolitik und Golem berichten über einen neuerlichen Fall von unberechtigten Urherberrechts-Sperrverfügungen, welchen Google allerdings (weitestgehend) nicht stattgegeben hat und welche inzwischen auch zurückgezogen wurden, da auf einem Computerfehler basierend. Nichtsdestotrotz weist auch dieser Fall wieder auf das weiterhin bestehende Problem hin, daß Google hier zu wirtschaftlich und juristisch bedeutsamen Aktionen eingespannt wird – obwohl Google weder eine Richter- noch Staatsanwalts-Position begleitet, selbst wenn in der Urheberrechtsabteilung von Google reihenweise Juristen arbeiten dürften. Das zugrundeliegende Problem ist, daß durch die aktuelle Rechtssprechung den Rechteinhabern eine einseitige und erst nachträglich mit einem Widerspruch belegbare Sanktionsmöglichkeit gegeben wird, welche dann durch ein Unternehmen der freien Wirtschaft "geprüft" und durchgeführt wird – wobei Google jene Prüfung & Ausführung wohl auch nur deswegen macht, weil dies den Weg des geringsten Widerstands darstellt.

Wenn man hingegen den durch die Sanktion betroffenen Parteien die Möglichkeit geben würde, gegen eventuelle falsche Sanktionen seitens Google schadensersatzpflichtig zu klagen, würde Google die Sache umgehend anders betrachten und sich nicht mehr zum Hilfssheriff der Rechteinhaber machen lassen (bzw. nur unter rechtlicher wie finanzieller Absicherung vorab). Erstaunlich ist, daß sich dieses Behelfskonstrukt immer noch betreiben läßt, dabei liegen die rechtlichen Schwächen auf der Hand: Es werden Sanktionen von nicht-staatlicher Seite ausgesprochen, der (nachträglich) Klageweg ist für die Betroffenen kompliziert und teuer, während der (erstinstanzliche) Sanktionsweg für die Rechteinhaber einfach, billig und sogar folgenlos bei Mißbrauch oder Irrtum ist. Vom Rechtsgrundsatz des Gleichgewichts der Möglichkeiten ist dies um einige Dimensionen entfernt. Und am Ende werden sogar noch die Rechte der Internetnutzer auf ein möglichst unzensiertes Netz untergraben, denn bei 30 Millionen Löschanfragen an Google im Monat dürfte es jede Menge fälschlicher oder zumindest diskussionswürdiger Löschungen geben.

Gemäß Sputnik News (die Quelle ist möglicherweise suspekt, aber sofern die reinen Zahlen stimmen, reicht das ausnahmsweise) hat China seit dem Jahr 2013 im Zuge des NSA-Skandals die Listungen von US-Hardware in der offiziellen Beschaffungsliste für chinesische Behörden und staatliche Unternehmen massiv zurückgefahren. So sollen von den in den letzten zwei Jahren 2000 neu in die Liste aufgenommen Produkten fast alle nur Produkte chinesischer Hersteller sei. Der weltweit führende Netzwerk-Ausrüster Cisco, welcher vor zwei Jahren noch mit 60 Produkten in dieser Liste stand, ist derzeit mit gar keinem Produkt mehr gelistet – dabei dürfte es in der westlichen Welt wohl kein größeres IT-Netzwerk geben, welches gänzlich ohne Cisco-Produkte auskommt. Die Beschaffungsliste dient natürlich nur einem Teil der chinesischen Wirtschaft als Grundlage – aber die Zügel werden in China gerade angezogen und es würde daher nicht verwundern, wenn zukünftig (für größere Beschaffungen) generell nur noch derart "zertifizierte" Produkte eingekauft werden dürfen.

Der NSA-Skandal wird zudem auch nur der Auslöser gewesen sein für eine generelle Politik der Ausbootung ausländischer Hersteller zugunsten chinesischer Hersteller – daß jene über Jahrzehnte nun alles mögliche an Know-How haben ansammeln können und daß auch viele Fabriken westlicher Hersteller letztlich in China stehen, dürfte dies maßgeblich erleichtert haben. China hat augenscheinlich nicht nur das politische Interesse an einer IT-Eigenständigkeit, sondern inzwischen auch die notwendige Technlogie bzw. arbeitet man daran, die noch bestehenden Lücken aufzufüllen. Wie schon einmal an dieser Stelle angemerkt, könnte dies ein böses Erwachen für die westliche IT-Branche ergeben, welche immer noch an China als den großen Umsatzträger von Morgen glaubt: Wahrscheinlich werden die im Consumer-Markt starken Marken wie Apple etc. noch lange in China gut verkaufen können, weil da einfach der Lifestyle-Bedarf eben nach diesen Marken existiert. Aber außerhalb dessen – im Business- und Behördenumfeld, wo eigentlich immer die besten Geschäfte gemacht werden – muß sich niemand wundern, wenn angesichts dieser Entwicklung China eines Tages die Tür für die westlichen Hersteller zugunsten eigener chinesischer Hard- und Software komplett zumacht.

Kleine Korrektur zu den Freitag-News: Die genannten Waferausstoß-Zahlen mit und ohne EUV-Lithographie beziehen sich natürlich immer auf einen ganzen Tag (24 Stunden) – nicht auf eine Stunde, wie zuerst fälschlicherweise notiert.

28 28

Wie interessant ist Broadwell noch?

Nachdem Broadwell nun nur ein kurzer Lebenszyklus vergönnt sein wird (ausgenommen natürlich Broadwell-E, aber dies ist eine ganz andere Geschichte) und Skylake mit einem wohl ziemlich vollständigen Programm bereits ab August in den Markt kommen soll, darf die Frage gestellt werden, wie interessant Broadwell jetzt eigentlich noch ist – und ob nicht eher gleich auf Skylake gewartet wird. Diese Frage ist unterteilt in Mobile- und Desktop-Bedürfnisse und beeinhaltet wie gesagt nicht die jeweiligen Enthusiasten-Parts in Form der E-Architekturen, welche Intel zu komplett abweichenden Zeitpunkten (aka viel später) bringen wird.

27

Hardware- und Nachrichten-Links des 27. Februar 2015

Seitens Imagination Technologies kommt die Ankündigung des PowerVR GT7900 Grafikchip-Designs, mittels welcher der Chipdesigner eine ungewöhnlich leistungsstarke Grafiklösung für das bisher bewirtschaftete Feld von Mobile-Grafiklösungen (zur Lizenzierung durch andere Chipentwickler und Hardware-Hersteller) bereitstellt. Allerdings soll der GT7900 wohl eher für Android-basierte Konsolen gedacht sein, dafür bringt jener auch gleich 512 Shader-Einheiten auf 800 MHz Taktrate mit sich – ist also durchaus mit heutigen LowCost-Lösungen des PC-Bereichs vergleichbar und schlägt rein technisch damit die Rechenkraft der (allerdings nahezu 10 Jahren alten) LastGen-Konsolen Xbox 360 und Playstation 3. Problematisch für den GT7900 dürfte jedoch sein, daß es nach wie vor keinen GPU-Leistungsdruck in Android-Geräten gibt, man damit selbst eine Android-Konsole nicht zwingend mit der leistungsfähigsten Hardware ausrüsten muß – sondern aufgrund des Preisdrucks eher denn mit einer gerade noch so ausreichenden Hardware. Aus überlegener Grafikleistung hat bisher noch kein Mobile-SoC in der Praxis ein Geschäft machen können – dies kann insbesondere nVidia leidvoll bestätigen.  (Diskussionsthread im Forum)

AnandTech haben nun auch noch Intel-Grafikchips unter der DirectX-12-Version der StarSwarm-Demo getestet: Im deutlichen Gegensatz zu den Ergebnissen von regulären Grafikchips und jenen von AMD-APUs zeigten die Intel-Grafikchips erstaunlicherweise keinerlei Performance-Gewinne unter DirectX 12, sondern tendentiell sogar leichte Performance-Rückschritte. Dies überrascht dann doch einigermaßen – und wird seitens AnandTech darüber erklärt, daß Intels integrierte Grafikchips allesamt dasselbe FrontEnd tragen, egal ob kleine GT1- oder große GT3-Grafiklösung, was großartige Skalierungseffekte verhindern soll. Dies erklärt allerdings nicht, wieso es nicht wenigstens einen gewissen Ausschlag bei der DirectX-12-Variante gibt. So ist womöglich die nachgereichte Aussage Intels zielführender, wonach die für den Test benutzte Version der StarSwarm-Demo noch keine Optimierung für Intel-Grafikchips enthalten würde und eine neue, bereits vorliegende Version wesentlich besser mit Intel-Grafikchips laufen soll.

Heise zeigen einen Benchmark-Wert eines Airmont-basierten Atom-Prozessors, welcher unter der Plattform-Bezeichung "CherryTrail" zur Mitte des Jahres im Markt erwartet wird. Im Geekbench lief der Airmont-Atom auf nahezu gleicher Taktrate aber nur minimal schneller als die vorherigen Silvermont-basierten Atom-Prozessoren der bekannten BayTrail-Plattform. Dies hört sich enttäuschend an – und trotz daß dies ein Vorserien-Exemplar war, dürfte da kaum noch mehr IPC-Leistung hinzukommen. Mehr Performance könnte allerdings durch mehr Takt generiert werden, immerhin kommt CherryTrail bereits in der 14nm-Fertigung im Gegensatz zur 22nm-Fertigung von BayTrail – und gerade Vorserien-Exemplare werden gern eher konservativ niedrig getaktet. Zudem lag das Augenmerk von Intel bei CherryTrail auch weniger auf der CPU- als der GPU-Seite: Dort gibt es anstatt 4 gleich 16 Ausführungseinheiten, zudem wird das Feature-Level auf Broadwell-Niveau angehoben. Hier lohnt es sich also wirklich, die Benchmark-Resultate der finalen Prozessoren abzuwarten – zum einen bezüglich der wirklich ausgelieferten Taktraten und zum anderen bezüglich der Performance der integrierten Grafiklösung.  (Diskussionsthread im Forum)

Laut der ComputerBase hat es Halbleiterhersteller-Ausrüster ASML in Zusammenarbeit mit Auftragsfertiger TSMC geschafft, eine Produktionsanlage mit EUV-Lithographie so weit zu optimieren, das knapp über 1000 Wafer pro Stunde Tag gefertigt werden konnten. Damit ist man der wirtschaftlichen Fertigung einen großen Schritt näher gekommen – denn rein technisch ist EUV längst spruchreif, es ging in der letzten Zeit allein "nur" noch um die Frage der Wirtschaftlichkeit. Jene wird seitens ASML bei 1500 Wafer pro Stunde Tag als erreicht angesehen – wobei dies allerdings noch bei weitem nicht so viel ist wie mit der herkömmlichen Belichtungstechnik erreichbar, welche 4000 Wafer pro Stunde Tag schafft. Deswegen ist die EUV-Lithographie seitens der Halbleiter-Hersteller auch immer weiter in die Zukunft verschoben worden, Intel beispielsweise will selbst die 7nm-Fertigung noch mit herkömmlicher Belichtungstechnik versuchen. Als Zwischenweg denkt man im übrigen über eine teilweise Belichtung der kritischsten Strukturen (wahrscheinlich die CPU-Kerne) in EUV nach, während der Rest des Chips dann herkömmlich belichtet werden würde. Billig wird das ganze in keinem Fall werden – was jetzt für Intel als überlegener Platzhirsch nicht das Thema sein wird, aber allen Intel-Kontrahenten Probleme bereiten dürfte.

Sehr positiv wird die Entscheidung des US-Wettbewerbsbehörde FCC aufgenommen, Internet-Provider künftig als "übliche Zugangsanbieter" zu klassifizieren – ähnlich wie auch Energie- und Wasserversorger eingestuft werden. Damit stehen die Internet Provider zukünftig unter einer höheren Aufsicht und dürfen vor allem nicht mehr ihre Kunden benachteiligen – sondern müssen im Gegenteil dafür Sorge tragen, daß jeder Kunde uneingeschränkt ihren Dienst nutzen kann, genauso wie es bei Energie- und Wasserversorgern üblich ist. Damit werden im Sinne der Netzneutralität alle Ideen der US-Provider zu Daten-"Überholspuren" bzw. einem Zweiklassen-Internet geblockt – oder aber müssten solche Sonderformen zumindest explizit durch die FCC genehmigt werden, was allerhöchstens in Ausnahmen passieren dürfte. Die Internet-Provider sind mit dieser Neuregelung natürlich nicht zufrieden, versprachen doch gerade die Daten-"Überholspuren" zusätzliche Einnahmen. Allerdings hofft man seitens der Internet-Provider teilweise auch auf eine andere US-Regierung, welche die knappe Entscheidung der FCC (3:2 Stimmen) revidieren könnte. Für den Augenblick haben die USA in Fragen Netzneutralität jedoch erst einmal klar die Nase vorn, während sich Europa diesbezüglich noch sehr abmüht.

Shortcuts: HT4U berichten über seitens MSI zur Verfügung gestellte Grafik-Upgradekits für GT72-Notebooks – mittels welchem man jenen eine GeForce GTX 970M oder 980M spendieren kann. Angesichts dessen, daß sich das Thema externe Grafiklösungen nur sehr beschränkt vorwärts bewegt, ist dies eine gute Zwischenlösung – welche aber natürlich bedingt, daß man an den entsprechenden Notebooks überhaupt etwas (unter vertretbaren Verrenkungen) umbauen kann. TweakTown haben sich Radeon R9 295X2, Radeon R9 290X 8GB CrossFire und GeForce GTX 980 SLI unter der 8K-Auflösung angesehen – mit dem erwartbaren Ergebnis, daß die Frameraten allgemein mau sind, daß es hier und da generelle Probleme gibt und daß sich letztlich der CrossFire-Verbund aus den zwei 8-GB-Grafikkarten bei der Performance klar in Front positionieren kann. Und abschließend hat sich die PC Games Hardware noch die Performance von World of WarCraft nach dem letzten Patch 6.1 angesehen, welcher insbesondere die höherwertigen Anti-Aliasing-Modi in nunmehr reichhaltiger Anzahl zurückbringt.

Inhalt abgleichen