11

Hardware- und Nachrichten-Links des 10./11. September 2016

Unser Forum hat in Form von AMD Fiji Die-Shots mal wieder etwas sehr feines zu bieten: OC_Burner hat den Fiji-Chip von seinem Interposer befreit, nachfolgend freigelegt und dann derart beleuchtet, das man auch ordentlich etwas sehen kann – herausgekommen sind hochauflösende Bilder vom Fiji-Chip, den HBM-Speicherchips, dem Interposer und natürlich auch dem Weg dahin, inklusive Weichkochen des Chip-Packages auf einer Herdplatte und anschließendem Abschleifen der Chipcover-Schichten. Hierfür musste eine defekte Radeon R9 Nano herhalten – und OC_Burner (erreichbar u.a. über das Forum) sucht natürlich ständig weitere defekte Grafikkarten und Prozessoren, um deren Grafikchips nachfolgend freizulegen. Echte Überraschungen bieten die neue Die-Shots des Fiji-Chip im übrigen nicht, jener sind allerdings teilweise wohl sogar besser herausgearbeitet als das, was Chipworks früher einmal (frei verfügbar) herausgegeben hatte.

AMD Fiji Die-Shot (1)
AMD Fiji Die-Shot (1)
AMD Fiji Die-Shot (2)
AMD Fiji Die-Shot (2)

Bei Phoronix hat man sich mit der Radeon RX 480 unter Linux (sowie einer Radeon R9 Fury) bzw. deren Treibern im Vergleich zu Windows 10 beschäftigt. Hierfür kamen sowohl der AMDGPU-PRO-Treiber als auch der reine OpenSource-Treiber unter Mesa 12.1 zum Einsatz. Über das gesamte Benchmarkfeld varieren die Ergebnisse stark, die Endwertung wird trotz 9 Einzeltests sehr stark durch extreme Ausreißer geprägt: Alles zusammengerechnet erzielt der AMDGPU-PRO-Treiber mit der Radeon RX 480 nur 68,5% der Performance von Windows 10, der Mesa-12.1-Treiber auch nur auf 69,3%. Nimmt man allein den extremsten Ausreißer in Form von Tomb Raider aus der Wertung, geht das Ergebnis auf 94,2% bzw. 86,6% hinauf. Auch in diesen verbleibenden acht Benchmarks finden sich dann starke Ausreißer – die Werte sind also keineswegs auf die Goldwaage zu legen, sondern man kann eher nur die groben Tendenzen mitnehmen. Die grobe Tendenz ist demnach, das die Linux-Treiber zwar Performance kosten, dies aber bei weitem nicht mehr so stark ist wie früher einmal. Dafür wird es aber häufiger einmal vorkommen, das es eine gegenüber Windows völlig abweichende Performance gibt – und genau mit der Arbeit an diesem Phänomen dürfte man die Linux-Treiber langfristig dahingehend verbessern, letztlich eine bis auf 5-10% zu Windows vergleichbare Performance zu zeigen.

Netzpolitik beschäftigen sich in zwei Meldungen – No.1 & No.2, zu erwähnen hierzu auch die Wortmeldungen von Internet-Law und CRonline – mit einem kürzlichen Urteil des Europäischen Gerichtshofs, welches die Linkfreiheit in der EU in Gefahr stellt. Dabei ist das Urteil in Bezug auf den zugrundliegenden Fall durchaus nachzuvollziehen: Ein holländisches Online-Magazin hatte auf urheberrechtlich geschütztes Material auf einer dritten Webseite verwiesen. Nachdem der Urheberrechtsinhaber die Inhalte auf jener dritten Seite hatte löschen lassen und damit der Link des holländischen Online-Magazins ins Leere lief, setzten jene den Link nachfolgend auf eine andere Quelle mit demselben urheberrechtlich geschützten Inhalt. Da das holländische Online-Magazin vom Urheberrechtsinhaber schon beim ersten Link auf dessen Widerrechtlichkeit hingewiesen wurde, hat man beim zweiten Link somit bewußt und bekannterweise auf urheberrechtlich geschütztes Material verlinkt – konnte sich also nicht mit "Nichtwissen" ob der urheberrechtlichen Schutzansprüche herausreden.

Leider sind die europäischen Richter einigermaßen übers Ziel hinausgeschossen, da die Urteilsbegründung nicht Anstoß am Ablauf der Ereignisse nimmt – also dem Setzen des zweiten Links trotz klaren Wissens ob der urheberrechtlichen Schutzansprüche – sondern allein daran, daß es sich hierbei um ein kommerzielles Online-Magazin handelt. Vielleicht mag dies in anderen EU-Ländern anders geregelt sein, aber in Deutschland tritt eine "gewerblicher" Tätigkeit schon bei minimalsten Dingen ein, es muß noch nicht einmal eine Gewinnerzielungsabsicht hierfür vorhanden sein. Jenes Urteil auf Deutschland umgesetzt würde bedeuten, jede kleine Webseite oder Blog müsste eigentlich erst einmal jeden Link vollständig rechtlich gegenprüfen, ganz egal ob jener nur aus Dokumentationsgründen gesetzt wäre. Möglicherweise wollten dies die EU-Richter gar nicht aussagen, aber dies läßt sich gemäß vielfältiger Fachkommentare nunmehr aus diesem Urteil herausinterpretieren. Zugleich wird hierbei angemängelt, daß die in früheren Urteilen noch zu findende Ausnahmeregelung zugunsten der Pressefreiheit in diesem Urteil überhaupt nicht mehr berücksichtigt wurde – und daß allein dieser Punkt ausgereicht hätte, um die Sache wieder komplett umzudrehen. Es bleibt nur zu hoffen, das die Auswirkungen dieses Richterspruchs eher gering bleiben, weil sich lokale Richter vielleicht anders entscheiden und umgedreht nur wirklich wichtige Fälle bis zum EU-Gerichtshof kommen.

11 11

Als wie relevant wird AMDs Vorteil unter DirectX 12 & Vulkan angesehen?

Diese Umfrage bezieht sich auf den früheren Artikel mit einer positiven Performanceprognose zugunsten von AMD-Hardware unter der Nutzung der Grafik-APIs DirectX 12 & Vulkan. Hierbei wurde prognostiziert, das die Radeon RX 480 im Laufe der Zeit an der GeForce GTX 1060 vorbeiziehen wird, die Performancedifferenz zwischen Ist-Zustand und Zukunftsprognose liegt bei immerhin ~13% Zugewinn für AMD über die Zeit. Die sich daraus ergebende Frage lautet somit: Als wie relevant wird diese zukünftige Performance-Verbesserung zugunsten von AMD angesehen? Auf der einen Seite sind +13% nicht von der Hand zu weisen, auf der anderen Seite wird dies nicht über Nacht und die nächsten Monate passieren, sondern regelrecht Jahre benötigen – und in der Zwischenzeit wird die jetzt gekaufte Hardware schließlich benutzt. Manch ein Nutzer wird somit schon zur nächsten Grafikkarte gewechselt haben, wenn eines Tages die Radeon RX 480 wirklich die GeForce GTX 1060 überholt. Sehr wichtig zu dieser Frage ist also, wie kurz- oder langfristig man persönlich seine Grafikkarten nutzt bzw. wie schnell man jene wechselt.

Sehe es als "Gamechanger" an, welcher klar zugunsten von AMD spricht.
19% (385 Stimmen)
Sicherlich ein mittlerer Pluspunkt für AMD, aber noch kein "Gamechanger".
47% (956 Stimmen)
Sehe es eher als nur als kleineren Pluspunkt für AMD an.
19% (393 Stimmen)
Dies liegt zu weit in der Zukunft, um wirklich relevant zu sein.
14% (293 Stimmen)
Gesamte Stimmen: 2027
10

Schneller UltraHD Performance-Überblick der 28/16/14nm-Grafikkarten

Nach dem FullHD Performance-Überblick fehlt natürlich noch eine erneute Performance-Übersicht zum Thema der 4K-Performance. Der alten 4K-Übersicht fehlen natürlich noch die ganzen neuen 14/16nm-Beschleuniger, zudem gab es auch ein paar Performance-Neueinordnungen – so die Verbesserung der GeForce GTX Titan (Maxwell) sowie die Verbesserung der Hawaii-basierten Grafikkarten Radeon R9 290, 290X, 390 und 390X. Nach der Hinzutragung der ersten 14/16nm-Grafikkarten ein wenig fehlend sind noch Index-Werte zu Radeon RX 470 und 480-4GB, jene Karten wurden leider nur eher selten unter der UltraHD-Auflösung getestet (weil in der heutigen Zeit auch dafür nicht wirklich gut verwendbar). Die Speichermenge ist sicherlich ein großes Thema gerade unter der UltraHD-Auflösung – beispielsweise ist es fraglich, ob frühere Grafikkarten mit nur 3 GB Speicher heutzutage wirklich so gut unter UltraHD mitkommen können, wenn derzeit schon allein 4 GB Grafikkartenspeicher als zu wenig für die 4K-Auflösung angesehen werden.

AMD HD7000 nVidia GF600 AMD R200 nVidia GF700 AMD R300 nVidia GF900 14/16nm
Titan XP   173%
Pro Duo   ~163%
295X2   ~130% 1080   132%
Titan Z   ~122%
Titan XM   105% 1070   107%
Fury X   100% 980Ti   100%
7990 off.   ~95%
7990 inoff.   ~93% Fury   91%
Nano   86%
390X   82%
390   76% 980   77% 1060-6GB   76%
290X   74% 480-8GB   72%
290   68% 780Ti   68%
Titan Black   ~65%
Titan   ~62% 970   63%
7970-GHz   ~55% 280X   ~53% 780   55% 380X   ~54%
100% = Radeon R9 Fury X & GeForce GTX 980 Ti

Auch hier gilt wieder, das die Index-Werte natürlich fehlbar sein können, man kann man der Sache immer einen gewissen Spielraum von 1-2 Indexpunkten geben. Dafür ergibt sich durch die zugrundeliegende Verrechnung von mehreren Dutzend Hardwaretests mit mehreren tausend Benchmarkwerten eine höhere Sicherheit, das aus dem Rahmen fallende Testergebnisse hierbei nur einen marginalen Einfluß haben können. Der 4K-Index wird auf einzelne Prozentpunkte gerundet und ist damit nominell sogar genauer als der FullHD-Index – was aber auch so sein muß, da hierbei mit viel niedrigeren Indexwerten gearbeitet wird. Der Referenzwert von 100% soll auch andeuten, wo die Schwelle zu einer sinnvollen Nutzung dieser Grafikkarten unter der UltraHD-Auflösung liegt: Grafikkarten mit einem UltraHD Performance-Index von unter 100% sind also wenig dafür geeignet, diese Auflösung wirklich zu bewältigen. Die Erfassung von Performance-Werten von klar unterhalb dieser Schwelle liegenden Grafikkarten dient eher denn dazu, deren Performance-Charakteristik dokumentieren zu können – und soll nicht aussagen, das jene für die UltraHD-Auflösung wirklich geeignet wären.

9

Hardware- und Nachrichten-Links des 9. September 2016

Die ComputerBase vermeldet die neue 12FDX-Fertigung von GlobalFoundries, welche der Halbleiterhersteller für das Jahr 2019 an seinem deutschen Standort Dresden ansetzt. Der recht späte Termin deutet schon an, daß es sich hierbei keineswegs um einen Kontrahenten der 10nm-Prozesse von Intel, Samsung und TSMC handelt – sondern wie schon bei der vorhergehenden 22FDX-Fertigung eher um eine LowCost-Variante der 14nm-Fertigung, wo dann die Wirtschaftlichkeit noch stärker im Vordergrund steht. Wie schon bei der 22DFX-Fertigung ist die 12FDX-Fertigung nicht für echte Computerchips geeigent, sprich nicht einmal für kleinere Consumer-Prozessoren oder kleinere Grafikchips – Einsatzgebiet von 22FDX sind üblicherweise Netzwerk-, Analog-, IoT- und Wearables-Chips, bei 12FDX dürfte dies nicht anders sein. Zum späten Erscheinungstermin dürften sowieso alle Chips, welche wirklich viel Fläche benötigen und mit großen Wattagen daherkommen (PC-Prozessoren, Grafikchips & Konsolen-SoCs), schon längst auf der 10nm-Fertigung sein oder gar schon die 7nm-Fertigung anpeilen. 12FDX ist also ein Nachzügler zur reinen Kostenoptimierung der Fertigung für Klein- und Kleinstchips, wo Performance eher unwichtig ist, Kostenersparnisse jedoch immer gern mitgenommen werden.

Passend hierzu vermelden Fudzilla neuere Aussagen von Halbleiterfertiger TSMC, wonach die Massenfertigung der 7nm-Fertigung bei TSMC sogar schon im ersten Quartal 2018 starten soll. TSMC bekräftigt hiermit einmal mehr seine sehr aggressiven Zeitplanungen, wonach nach dem Loch der "ewigen" 28nm-Fertigung nunmehr tatsächlich aller zwei Jahre eine neue Fertigungsstufe zur Marktreife gebracht wird. Anzunehmenderweise kann man somit irgendwann im zweiten Halbjahr 2018 mit ersten unter der 7nm-Fertigung hergestellten Smartphone-SoCs rechnen – und somit üblicherweise ein Jahr später (2019) mit der Fähigkeit, auch große Grafikchips unter der 7nm-Fertigung bei TSMC herstellen zu können. Hieran dürfte sich letztlich wohl auch die Begründung ableiten, wieso GlobalFoundries die 10nm-Fertigung letztlich ausläßt: Wenn zwischen der 14/16nm-Fertigung und der 7nm-Fertigung nur drei Jahre liegen, will es allein aus wirtschaftlicher Sicht wohlüberlegt sein, hierzwischen noch eine weitere Fertigungsstufe zu quetschen – ganz unabhängig etwaiger technischer Voraussetzungen. TSMC als weltgrößer Auftragsfertiger kann sich dies wohl leisten – aber bei GlobalFoundries mit weiterhin nur AMD als Hauptabnehmer ist dies wohl eine ganze andere Kalkulation.

Die Diskussion zur Playstation 4 Pro geht weiter – und hat ihr Thema natürlich in der Frage der (nativen) UltraHD-Renderfähigkeiten der neuen Spielekonsole. Hierzu gab es erst einmal eher durchwachsene Nachrichten: Beispielsweise wird Tomb Raider: "20 Year Celebration" auf der PS4 Pro drei Darstellungsmodi zur Auswahl geben – wovon das beste allerdings natives UltraHD mit gerade einmal 30 fps sind, dafür allerdings nicht mit voll ausgefahrenen Grafikfeatures. In diese Richtung dürften wohl einige Spiele gehen, denn für natives UltraHD mit bestmöglicher Grafikqualität ist der Leistungssprung der PS4 Pro einfach zu gering. Daneben wurde allerdings eine neue Möglichkeit entdeckt, mittels welcher man die Rechenanforderungen für die UltraHD-Auflösung senken kann: "Checkerboard Rendering" arbeitet nur mit der Hälfte oder einem Viertel der Zielauflösung und skaliert das Bild dann auf Subpixel-Ebene nach oben zur Zielauflösung – siehe hierzu Foren-Postings No.1 & No.2. Das Resultate soll besser aussehen als bei bisherigen Upscaler-Technologien und vor allem in Hardware mittels der AMD-Grafiklösung der PS4 Pro errechnet werden können.

Natives UltraHD kann dies natürlich nicht schlagen – und vor allem wird hier auch wieder nur der typische Fernseher-Effekt mit benutzt, welcher solcherart Tricksereien gut verbirgt. Dasselbe Konzept übertragen auf den PC würde wohl für weitaus deutlichere Bildqualitätsunterschiede sorgen. Daneben sind noch japanische Berichte zu erwähnen, welche der AMD-Grafiklösung in der PS4 Pro nur ein Featurelevel wie GCN2 andichten. Dies dürfte jedoch ein Mißverständnis auf Basis der Videofähigkeiten sein, die Grafikfähigkeiten dürften eher in Richtung GCN4 gehen – schließlich ist die PS4 Pro kein Projekt mit jahrelanger Vorbereitungsphase, sondern wurde eher kurzfristig aus der Taufe gehoben und dürfte sich daher am neuesten orientieren, was AMD in seiner SemiCustom-Sparte (für dieses Jahr) zu bieten hat. Hier liegt dann auch der Grund, wieso es CPU-mäßig nicht nach vorn gegangen ist: Derzeit kann AMD in seiner SemiCustom-Sparte sicherlich noch keine Zen-basierte CPU anbieten, da die originalen Zen-Prozessoren schließlich noch nicht einmal releast sind. Microsoft hat mit seiner (ein Jahr später erscheinenden) Xbox Scorpio dagegen eine gewisse Chance darauf, erstmals eine Zen-basierte CPU in einer Spielekonsole bieten zu können – aber dies bliebe abzuwarten, dazu gibt es noch keinerlei belastbare Informationen.

9

Schneller FullHD Performance-Überblick der 28/16/14nm-Grafikkarten

Schon seit einiger Zeit mal wieder neu darzulegen ist die FullHD-Performanceübersicht der aktuellen Grafikkarten basierend auf unserem entsprechenden FullHD Performance-Index (eine Übersicht der UltraHD-Performance wurde extra erstellt). Die ältere Übersicht enthält noch keine der neuen 14/16nm-basierten Grafikkarten, zudem gab es auch bei den 28nm-Grafikkarten einige Verschiebungen der Index-Werte: Zu nennen wären hierbei die Verbesserung von GeForce GTX 980 Ti und GeForce GTX Titan X (Maxwell), die Verbesserung von Radeon R9 380 und 380X, die Verbesserung von Radeon R9 290, 290X, 390 und 390X sowie die Verbesserung von Radeon R9 Nano, Radeon R9 Fury und Radeon R9 Fury X. Die neue Übersicht legt nun den aktuellen Stand (des Irrtums) dar, mit allen aktuellen und früheren Grafikkarten ab der ersten 28nm-basierten Grafikkarte in Form der originalen Radeon HD 7970 aus dem Dezember 2011. Die 14/16nm-Grafikkarten wurden allein aus Platzproblemen in einer Spalte zusammengefasst – allerdings berühren sich die 14/16nm-Angebote von AMD und nVidia noch kaum, gibt es zudem noch vergleichsweise wenige 14/16nm-Beschleuniger, gerade wenn man dies mit dem umfangreichen Portfolio früherer Grafikkarten-Serien vergleicht.

AMD HD7000 nVidia GF600 AMD R200 nVidia GF700 AMD R300 nVidia GF900 14/16nm
Titan XP   ~1120%
Pro Duo   ~1080%
1080   960%
295X2   ~840% Titan Z   ~840%
Titan XM   780% 1070   800%
980Ti   750%
Fury X   680%
7990 off.   620% Fury   630%
7990 inoff.   ~600% Nano   610% 980   600%
690   580% 390X   580% 1060-6GB   590%
390   540% 480-8GB   550%
290X   530% 780Ti   530% 480-4GB   520%
Titan Black   500% 970   510% 1060-3GB   ~510%
Titan   480% 290   490% 470   480%
780   440%
7970-GHz   400% 280X   400% 380X   380%
770   380%
7970   360% 680   360% 380   370%
7950-Boost   330% 670   330% 280 & 285   340% 960   340%
7950   310% 760   310%
7870-Boost   300% 270X   300% 950   290%
7870   270% 660Ti   280% 270   270%
660   250% 265   245% 370   260% 950SE   ~260% 460   260%
7850   225% 650Ti-Boost   220%
260X   200% 750Ti   210%
7790   185% 750   185% 360   185%
650Ti   170% 260   175%
7770   145% 250X   145%
7750-900   120%
7750-GDDR5   110% 650   115% 250E   110% 740-GDDR5   ~110%
100% = Radeon HD 5750/6750

Wie üblich gilt, das die Index-Werte natürlich fehlbar sein können, allein schon aufgrund der angesetzten Rundungen kann man der Sache immer einen gewissen Spielraum von 5-10 Indexpunkten geben. Dafür ergibt sich durch die zugrundeliegende Verrechnung von weit über hundert Hardwaretests mit weit über zehntausend Benchmarkwerten eine höhere Sicherheit, das aus dem Rahmen fallende Testergebnisse hierbei nur einen marginalen Einfluß haben können. Zudem werden die Index-Werte von halbwegs aktuellen Grafikkarten immer mal wieder mittels neuer Grafikkarten-Launches nachgeprüft – wie zuletzt im Zuge des Launches der ersten 14/16nm-Grafikkarten sogar häufiger geschehen. Nur ältere Grafikkarten – wie die Radeon HD 7000 und GeForce 600 Serien – geraten dabei inzwischen etwas aus dem Fokus, weil hierfür keine neuen Benchmarkwerte mehr produziert werden. Angesichts der zurückgehenden praktischen Nutzung dieser Grafikkarten ist dies allerdings kein Beinbruch, ab einem gewissen Zeitpunkt muß man Alt-Hardware auch nicht mehr neu bewerten – viel wichtiger ist die Bewertung zu deren Nutzungszeiten, um die relativen Unterschiede der jeweiligen Grafikkarten erkennen und somit das seinerzeitig gültige Performancebild rekonstruieren zu können.

8

Hardware- und Nachrichten-Links des 8. September 2016

Die ComputerBase hat sich mit dem DirectX 12 Beta-Patch für Deus Ex: Mankind Divided beschäftigt – welcher seinen "Beta"-Status voll zu Recht hat, denn eine Beschleunigung findet mit diesem Patch nicht statt (und DirectX-12-exklusive Grafikfeatures werden wohl sowieso nicht genutzt). Vielmehr ist es sogar so, daß unter DirectX 12 gerade dort, wo DirectX 12 viel helfen sollte (im CPU-Limit) die Spielperformance teilweise stark leidet – sprich genau das Gegenteil davon eintritt, wofür DirectX 12 eigentlich gedacht ist. Die Performance-Nachteile sind dabei teilweise sehr erheblich – für eine GeForce GTX 1080 geht es unter FullHD von 87,2 fps auf 53,6 fps herunter – erst im Grafikkartenlimit und bei einem ausreichenden CPU-Unterbau gleichen sich die Frameraten von DirectX 11 und DirectX 12 dann wieder an. Die DirectX-12-Lösung von Deus Ex: Mankind Divided scheint mit sehr heißer Nadel gestrickt zu sein – und aufgrund der erheblichen Performancenachteile darf durchaus der Verdacht geäußert werden, ob man dies in späteren Versionen der DirectX-12-Umsetzung wirklich noch retten kann. Bislang kann das ganze jedenfalls als Negativbeispiel dafür stehen, was passiert, wenn man augenscheinlich auf Zwang einen DirectX-12-Support an ein Spiel "dranklatscht".

Für reichlich Diskussionen sorgt die am Mittwoch vorgestellte Playstation 4 Pro: Die potentiellen Käufer sind zu gewissen Teilen irritiert über den zum einen für eine Spielekonsole eher geringen Leistungssprung (128% mehr Rechenleistung zu 24% mehr Speicherbandbreite sind auf dem PC viel, für eine Spielekonsole jedoch mager) und dem gleichzeitigen Schlingerkurs von Sony, was man damit nun anfangen können soll. Zudem deutet sich hierbei schon an, daß das auf "UltraHD" ausgerichtet Marketing zur Playstation 4 Pro noch ein heftiger Bumerang für Sony werden wird, wenn dann UltraHD nicht wirklich als native Renderauflösung verwendet wird. Im Enthusiasten-Segment macht man sich deswegen – in Kenntnis der technischen Hintergründen – wohl viel weniger Sorgen, aber im Massenmarkt ist dieser Punkt durchaus für einige Aufreger wert (eine Meldung bei Gulli geht schon exakt in diese Richtung). Sony scheint hier plötzlich am falschen Ende der Auflösungs-Debatte zu stehen, welche man im Zweikampf zwischen PS4 und Xbox One noch klar angeführt hatte.

Gut möglich allerdings, das gerade mit der Playstation 4 Pro die Technik der dynamischen Auflösung weiter vorangetrieben wird – welche teilweise schon jetzt eingesetzt wird und einiges Potential hat, gerade das für Spielekonsolen wichtige Thema von durchgehend flüssigen Frameraten erheblich voranzutreiben. Bei der Nutzung dynamischer Auflösungen versucht die Spieleengine, vorab bzw. im laufenden Rendervorgang kritische Stellen zu identifizieren, wo die Framerate unterhalb eine gesetzte Marke fallen wird. Wird eine solche Sequenz identfiziert, wird jene dann intern mit einer niedrigeren Renderauflösung berechnet, um Leistung einzusparen und dafür die Framerate zu stärken. Im Sinne von auf Spielekonsolen sowieso üblichen Hochskalierern sowie des üblichen TV-Effekts, welcher sowieso nicht (wie auf dem PC) zu nativen Monitorauflösung zwingt, sieht man als Spieler diese letztlich nur für wenige Sekunden oder gar nur Sekundenbruchteile auftretende geringere interne Renderauflösung letztlich nicht. Unter Ausnutzung dieser Technik ist es jedoch möglich, generell höhere Renderauflösungen anzustreben oder alternativ mehr Grafikeffekte ins Spiel zu packen, da man bei der Frameraten-Kalkulation nunmehr nicht von den allerniedrigsten auftretenden Frameraten ausgehen muß.

Ob die Technik der dynamischen Auflösung eine Errettung für die Playstation 4 Pro in Richtung nativen UltraHD-Renderings darstellt, sei allerdings zu bezweifeln, dafür ist der Unterschied zwischen Auflösungs-Anspruch und dafür notweniger Hardware einfach (viel) zu groß. Bei der Xbox Scorpio könnten Hardware-Verbesserungen sowie dynamischen Auflösung zusammen vielleicht ausreichend dafür sein, um die UltraHD-Auflösung auch abseits von Marketing-Versprechungen halten zu können. Ob dies der Xbox Scorpio dann aber noch zu einem praktischen Vorteil verhilft, bliebe abzuwarten – denn am Ende kommt hier auch noch das Gesetz vom abnehmenden Grenzertrag ins Spiel: Gegenüber dem UltraHD-Ziel abgesenkte interne Renderauflösungen sind schließlich weitaus weniger beachtbar als gegenüber dem FullHD-Ziel abgesenkte interne Renderauflösungen – und selbst dort diskutieren die Konsoleros immer noch eifrig, um man dabei (auf einem Fernseher) nun wirklich Unterschiede unter geringen Auflösungsdifferenzen sieht.

Bei Dr. Windows hat man sich auf Basis vieler inoffizieller Informationen Gedanken über den weiteren Werdegang von Windows Mobile gemacht – der Smartphone-Variante von Windows 10, mittels welcher Microsoft eigentlich einmal groß in den Smartphone-Markt einsteigen wollte. Derzeit sieht es aber eher nach einem Ende aller Smartphone-Bemühungen aus, wenn selbst die Microsoft-eigenen Lumia-Geräte nur noch vereinzelt erscheinen und man wichtige Technikprojekte wie den Support weiterer Smartphone-SoCs auf Eis gelegt hat. Laut Dr. Windows konzentriert sich Microsoft derzeit eher auf zukünftige Geräte-Generationen, wo die Telefonierfähigkeit immer weiter in den Hintergrund rückt – und hofft, bei diesen insbesondere mit seinem Continuum-Feature punkten zu können. Ob dieser eher elitäre Ansatz dem grundsätzlichen Anspruch von Microsoft nach einer gewissen (bis zur maximalen) Marktbedeutung weiterhilft, sei jedoch arg bezweifelt – und die (große) Masse an Smartphones wird auch weiterhin an Konsumenten verkauft werden, bei welchen Spiel, Spaß und Kommunikation im Vordergrund steht, jegliche professionelle Features kaum genutzt werden. Insgesamt betrachtet war Microsoft mit seinen Windows-Phone-Ansätzen wohl bereits zu spät bzw. hat erst zu spät die notwendigen Schritte unternommen, um wirklich mitspielen zu können.

Der Smartphone-Markt ist in dieser Zeit aber schon auf Android als faktischen Monopolist umgeschwenkt, allein Apple kann sein iOS über seine einzigartige Stellung in diesem Markt noch halten. Microsoft befindet sich hier in derselben Falle, in welcher schon Intel bei seinen Smartphone-Bemühungen steckte: Niemand im Markt brauchte diese Angebote von Intel und Microsoft – und daß jene dann technisch nichts besonderes zu bieten haben, kommt erschwerend oben drauf. Heuer nun sind die Claims abgesteckt und es erscheint unwahrscheinlich, daß die Smartphone-Hersteller sich auf Experimente einlassen. Microsoft kann zwar immer noch ein paar Alibi-Angebote unter eigenem Namen in den Markt schicken, aber auch dafür ist der Markt schon zu gefestigt, als daß ein einzelner Hersteller jetzt noch von Null auf irgendwelche Spitzenpositionen gelangen könnte. Die großen Marken stehen mit Apple und Samsung bereits fest, dahnter scharen schon die (viel günstigeren) chinesischen Hersteller mit den Füßen – dies ist keine Situation, wo man in kurz- oder mittelfristiger Zukunft irgendeine Bedeutung mit halbgaren Alibi-Angeboten erreichen könnte. Bei Microsoft dürfte das Mobile-Geschäft also weiterhin bedeutungslos vor sich hin köcheln – wahrscheinlich nur am Leben gehalten von der grundsätzlichen Idee, zu einem späteren Zeitpunkt mal wieder mit einer echten Offensive einzusteigen.

Inhalt abgleichen