11

Umfrage-Auswertung: Wie ist der Ersteindruck zur GeForce GTX 1050 Ti?

Mit der Umfrage von letzter Woche wurde der Ersteindruck der Grafikkarten-Enthusiasten zur GeForce GTX 1050 Ti abgefragt. nVidias neue Mainstream-Lösung kam dabei auf ein eher durchschnittliches Ergebnis von nur 38,8% positivem Ersteindruck zu allerdings 35,8% durchschnittlichem Ersteindruck sowie 25,4% negativem Ersteindruck. Gegenüber der GeForce GTX 1060 (43,7% + 36,2% + 20,1%) sind diese Werte gar nicht einmal so abweichend – allerdings liegt die Radeon RX 460 sogar noch etwas besser (42,8% + 36,8% + 20,4%), was dann doch etwas überraschend ist. Gegenüber früheren Mainstream-Lösungen erreicht die GeForce GTX 1050 Ti ein allerdings vergleichbares Ergebnis, nur gegenüber den (in diesem Marktsegment) Spitzenwerten der GeForce GTX 750 & 750 Ti (49,4% + 26,5% + 24,1%) kann man natürlich nicht ankommen.

Dabei macht die GeForce GTX 1050 Ti von der Karte selber sowie deren Technik her eigentlich keine Fehler – selbst diejenigen, welche deren Performance als etwas zu schmal einordnen, kommen mit 26,5% der Umfrageteilnehmer mit durchschnittlichem & negativem Ersteindruck auf eine zwar beachtbare, aber nicht dominierende Größe. Entscheidend zur GeForce GTX 1050 Ti ist vielmehr deren Preislage bzw. der Vergleich mit bereits auf dem Markt befindlichen anderen Angeboten – denn gleich 63,2% der Umfrageteilnehmer mit durchschnittlichem & negativem Ersteindruck sahen die GeForce GTX 1050 Ti preislich einfach zu nahe an der Radeon RX 470.

Dies ist dann sicherlich keine Schuld der Karte, sondern einfach eine aktuelle Entwicklung des Marktes – an welcher nVidia natürlich jederzeit (mittels Preissenkungen) etwas ändern könnte. So lange sich die GeForce GTX 1050 Ti allerdings gut verkauft, wird man auf bessere Preispunkte zu dieser neuen Mainstream-Karte jedoch warten müssen – und derzeit geht es ja eher in die entgegengesetzte Richtung, das AMDs Angebote preislich etwas näher kommen. Insofern liegen die Umfrageteilnehmer mit ihrem Urteil zur GeForce GTX 1050 Ti sicherlich richtig, das diese nominell eigentlich gutklassige Mainstream-Karte preislich einigermaßen unglücklich dasteht und es daher in der Praxis schwierig ist, sich wirklich für die GeForce GTX 1050 Ti zu entscheiden.

Nichtsdestotrotz dürfte die GeForce GTX 1050 Ti ihre Käufer finden: Von den Umfrageteilnehmer stimmten immerhin 10,4% für ein potentielles Kaufinteresse – dies ist für eine Mainstream-Karte ein vernünftiger Wert, wenngleich wiederum etwas weniger als bei der Radeon RX 460 (11,0%). Zudem ist davon auszugehen, das die Karte über den starken Markennamen nVidia sowie den nominell niedrigen Preispunkt gerade in preissensitiven Märkten weggeht wie geschnitten Brot – nicht umsonst hat AMD exklusiv nur in China mit der Radeon RX 470D ein explizites Konkurrenzangebot zur GeForce GTX 1050 Ti aufgelegt. Und üblicherweise verkaufen sich solcherart Mainstream-Karten im Massenmarkt dann doch gänzlich anders (aka viel stärker) als es im Rahmen von 3DCenter-Umfragen zu prognostizieren wären.

  positiv durchschn. negativ Kaufint.
Radeon RX 480 45,5% 30,0% 24,5% 30,2%
Radeon RX 470 59,6% 29,1% 11,3% 26,2%
Radeon RX 460 42,8% 36,8% 20,4% 11,0%
Radeon R9 Fury X 40,6% 37,0% 22,4% 11,6%
Radeon R9 Fury 62,3% 23,3% 14,4% 18,5%
Radeon R9 Nano 68,3% 17,6% 14,1% 9,3%
Radeon R9 390X 28,6% 42,9% 28,5% 10,5%
Radeon R9 390 32,0% 35,9% 32,1% 13,9%
Radeon R9 380X 21,8% 47,0% 31,2% 8,1%
Radeon R9 380 36,5% 34,0% 29,5% 15,1%
Radeon R7 370 20,5% 27,6% 51,9% 6,7%
Radeon R7 360 24,5% 32,1% 43,4% 7,6%
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
  positiv durchschn. negativ Kaufint.
Titan X (Pascal) 19,6% 24,1% 56,3% 3,7%
GeForce GTX 1080 45,9% 28,6% 25,5% 12,2%
GeForce GTX 1070 44,0% 30,4% 25,6% 17,5%
GeForce GTX 1060 43,7% 36,2% 20,1% 22,6%
GeForce GTX 1050 Ti 38,8% 35,8% 25,4% 10,4%
GeForce GTX Titan X 23,5% 29,8% 46,7% 2,4%
GeForce GTX 980 Ti 52,2% 24,2% 23,6% 12,7%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
GeForce GTX 970 (Ersteindr.) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindr.) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 950 23,1% 33,1% 43,8% 4,9%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
9

Hardware- und Nachrichten-Links des 8./9. November 2016

Videocardz berichten über das Auftauchen einer Radeon R9 285X im Vollausbau des Tonga-Chips – mit also dem regulär seitens AMD nie genutzten 384 Bit breitem Speicherinterface samt den dazu passenden 3 GB Speicher (und natürlich 2048 Shader-Einheiten). Die Existenz dieses breiten Speicherinterface hatte sich allerdings früher schon aus Die-Shots zum Tonga-Chip sowie einer expliziten AMD-Bestätigung ergeben – neu ist hingegen die Bestätigung des Punkts, das AMD tatsächlich einmal eine "Radeon R9 285X" in der Planung und Release-Vorbereitung hatte. Jene scheint wohl kurz vor Launch zurückgepfiffen worden zu sein, die Gründe hierfür sind allerdings nebelhaft und liegen damit im Feld der Spekulationen: Kann sein, das AMD die Karte zu stromschluckend im Vollausbau war, kann sein, das die Karte die Radeon R9 280X zu sehr unter Druck gesetzt hätte – oder aber die Radeon R9 285X kam schlicht zu spät und wurde daher zugunsten der nachfolgenden Radeon R300 Serie besser nicht mehr aufgelegt.

Mit jener nachfolgenden Grafikkarten-Serie hat AMD dann mittels Radeon R9 380/380X das größere Tonga-Speicherinterface ebenfalls nicht ausgenutzt, was jedoch augenscheinlich vom faktischen Marktzwang zugunsten von 4 GB Speicher motiviert war – welches nur an ein 256bittiges Speicherinterface passt, nicht an ein 384bittiges. Dabei wäre zu überlegen, ob nicht eine Radeon R9 380 mit 384 Bit samt 3 GB Speicher nicht besser dagestanden hätte gegenüber nVidias 2-GB-Angeboten – und eine Radeon R9 380X mit 384 Bit samt 6 GB Speicher besser gegenüber nVidias 4-GB-Angeboten. Zudem ist Performance-technisch reichlich Platz nach oben, hätten Radeon R9 380 & 380X gern auch (mittels breiterem Speicherinterface) etwas schneller ausfallen können. Hier spielt sich dann doch wieder die (potentielle) Erklärung in den Vordergrund, das der Tonga-Chip mit genutztem 384 Bit Speicherinterface möglicherweise noch stromschluckender ausgefallen wäre – was schlecht zu dessen Midrange-Ausrichtung passt. Ganz viel mehr Perfomance scheint über das breitere Speicherinterface aber sowieso nicht herauszukommen, die genannten 3104 GPU-Punkte im 3DMark13 TimeSpy sind nur +5,9% besser als bei einer Radeon R9 380X (2931 GPU-Punkte) mit gleichem Shader-Count und aber nur 256-Bit-Speicherinterface.

Normalerweise könnte man dies trotzdem mitnehmen – AMD hat dies wie bekannt nicht getan und somit ist der Tonga-Chip nie in seinem Vollausbau erschienen. Jener ist damit im übrigen auch eine klare Kopie des Tahiti-Chips von Radeon HD 7950 & 7970 – mit mehr Raster-Engines und einer deutlich höheren GCN-Ausbaustufe, was mehr Effizienz und einen sogar etwas geringeren Stromdurst ermöglichte. Trotzdem bleibt der Tonga-Chips einer der seltsamsten Grafikchips der jüngeren Vergangenheit, denn normalerweise legt man (in derselben Chipfertigung) keine Grafikchips mit derart ähnlichen Chipdaten und Performancewerten auf. Gut möglich, das sich AMD vom Tonga-Chip etwas weitgehend anderes versprochen hat – womöglich viel mehr Perfomance durch höhere Taktraten oder auch ein stärkeres Durchschlagen der Vorteile der GCN3-Architektur. So wie der Chip letztlich eingesetzt wurde, wäre AMD ironischerweise mit einer abgespeckten Tonga-Variante mit physikalisch nur 1792 Shader-Einheiten und physikalisch nur 256 Bit breitem Speicherinterface sogar besser gefahren – die hieraus resultierende klar kleinere Chipfläche hätte letztlich sogar zu höheren Taktraten führen sollen, womit man eventuell sogar bei der Performance etwas besser herausgekommen wäre. (Forendiskussion zum Thema)

Zum Thema der Telemetriedaten-Sammlung durch nVidia gibt es bei der PC Games Hardware eine sehr gemäßigte Darstellung der Dinge, welche u.a. auf den wichtigen Umstand hinweist, das "GeForce Experience" diese Datensammlung schon seit den ersten Versionen anlegt – neu ist lediglich die Übermittlung in Echtzeit. Zudem muß genauso auch notiert werden, das nVidias Datenschutz-Bestimmungen explizit auf diese Datensammmlungen eingehen und der nVidia-Nutzer selbigen mit Abnicken der Treiber-AGB/EULA jedesmal zustimmt. Insofern ist die Diskussion in unserem Forum zum Thema nach wie vor stark zweigeteilt – viele Anwender weisen auch auf den korrekten Punkt hin, das in der heutigen IT-Welt sowieso massenweise solcherart Telemetriedaten erhoben und verschickt werden, dies also heutzutage einfach gängige Praxis ist. Das dem im konkreten Fall auch so sei, vermelden HT4U gemäß einer nVidia-Stellungnahme: Danach hat nVidia bestätigt, das ausschließlich Telemetriedaten erfasst werden und das jene normalerweise nur nVidia-intern Verwendung finden. Nach außen gehen diese Daten nur im Sinne "allgemeiner Datenerfahrungen" – was wohl dahingehend zu deuten ist, das damit zusammengefasste Datenübersichten gemeint sind (wie im Stil einer Umfrage: 5% nutzen das, 17% jenes, etc).

Dies war zwar so zu erwarten, aber gänzlich lassen sich die Gemüter damit auch nicht beruhigen – denn in solchen Fällen liegt das Ärgernis meistens schlicht nur in den Punkt, das der Anwender nicht explizit um Zustimmung gefragt wurde. Über diesen Punkt setzen sich die Hersteller & Diensteanbieter in letzter Zeit leider sehr gern hinweg – sicherlich bedingt auch durch den Umstand, das keine Statistik besonders gut ist, wenn jener erhebliche Personengruppen fehlen (man vergleiche die Fehlprognosen vor einer kürzlich abgelaufenen Präsidentenwahl). Die reine Höflichkeit gebietet es dennoch, die Anwender vorher zu fragen – und am Ende gilt sogar noch die Überlegung, das ein Hersteller für einen (bei Grafikkarten sowieso obligatorischen Treibersupport) sowieso keine zusätzlichen AGBs oder EULAs benötigt. Der Kauf ist schließlich schon abgeschlossen, der Treiber (auch ein neuer) Teil des ursprünglichen Produktangebots – und damit einer eigenständigen Rechtssituation (sprich eines eigenständigen Vertrags) gar nicht fähig. Angesichts des existierenden schwachen Verbraucherschutzes sowie eines noch schwächeren Gesetzgebers wird dieser Punkt leider nie durchgesetzt werden – aber hier würde natürlich der Hebel dazu liegen, um solcherart nachträglichen Veränderungen des Angebots einen rechtlich belastbaren Riegel vorzuschieben. (Forendiskussion zum Thema)

Gemäß BenchLife (maschinelle Übersetzung ins Deutsche) schickt Intel derzeit schon erste Samples von Skylake-X durch die Gegend. Der Nachfolger von Broadwell-E im Enthusiasten-Segment wird im neuen Sockel 2066 erscheinen und neue Mainboards mit Intels X299-Chipsatz voraussetzen. Allerdings ist Skylake-X nur ein Teil der kommenden neuen Enthusiasten-Generation, denn zeitgleich und für den gleichen Sockel sowie die gleichen Mainboards wird wie bekannt Kaby-Lake-X erscheinen. Zwischen beiden Modellen liegt dabei eine klare Trennung in der Anzahl der CPU-Rechenkerne: Kaby-Lake-X wird nur vier CPU-Rechenkerne und eine niedrigere Anzahl an PCI Express Lanes bieten, Skylake-X hingegen dann die von Broadwell-E her bekannten 6-10 CPU-Rechenkerne samt bis zu 44 PCI Express 3.0 Lanes. Über den Termin der neuen Enthusiasten-Plattform von Intel wird hingegen noch etwas gestritten: Frühere Intel-Roadmaps sprachen um zweiten Quartal 2017 (was üblicherweise einen Frühjahrtermin ergibt), neuere Informationen sprechen hingegen teilweise auch erst vom zweiten Halbjahr 2017. Die aktuellen Testsamples müssen hierzu nichts bedeuten, deren Aussendung viele Monate vor Launch ist ein vollkommen übliches Prozedere.

9

Umfrage-Auswertung: Radeon RX 480 8GB vs. GeForce GTX 1060 6GB - wohin geht die Entscheidung?

Mit einer Umfrage von Ende Oktober versuchten wir, die Stimmungslage der Anwender, Käufer und Marktbeobachter zum aktuellen Zweikampf von AMD Radeon RX 480 8GB gegen nVidia GeForce GTX 1060 6GB einzufangen. In der Hauptfrage der tendentiellen oder tatsächlichen Kaufentscheidung liegt dabei AMDs Polaris-basierte Karte deutlich vor nVidias Pascal-basierter Karte: Satte 20,7% Käufer auf AMD-Seite gegenüber nur 7,0% Käufer auf nVidia-Seite und genauso deutliche 42,2% Kauftendenz zugunsten von AMD gegenüber nur 23,1% Kauftendenz zugunsten von nVidia sprechen eine deutliche Sprache – welche die Radeon RX 480 8GB klar vor der GeForce GTX 1060 6GB sehen, sowohl in der Käufergunst als auch bei der tendentiellen Kaufneigung. Ob sich dies im Massenmarkt auch so zeigt, wäre allerdings zu bezweifeln – zum einen sprechen diverse Absatzzahlen bestenfalls von einem Verkaufs-Gleichstand, zum anderen steht nVidia allgemein viel besser im Massenmarkt bei Grafikkarten-Herstellern, Distributoren und Einzelhändler da, verschieben sich dort die Marktverhältnisse auch nur sehr langsam (und gewöhnlich zeitverzögert). Speziell im 3DCenter (und damit einem Teil der Grafikkarten-Enthusiasten) kann man jedoch von einem klaren Sieg AMDs sprechen.

Erreicht wird dieser Sieg hauptsächlich über den Mehrspeicher der Radeon RX 480 8GB sowie ihrer besseren Zukunftseignung unter DirectX 12 und Vulkan – wobei letztere Antwortoption etwas dominiert. Hier hat AMD also durchaus seinen großen Verkaufspunkt gefunden – welche man nun eigentlich medial besser ausschlachten sollte, gerade im Massenmarkt kommt eine solche Informationen eher selten an. Für die GeForce GTX 1060 6GB hat man sich hingegen logischerweise wegen deren Mehrperformance entschieden – noch höhere Stimmenanteile bekam allerdings der geringere Stromverbrauch der nVidia-Karte, was etwas überrascht. Schließlich liegt AMD bei der Energieeffizienz nun nicht mehr so weit wie früher vom Schuß noch – und trotzdem ist jenes Thema augenscheinlich weiterhin sehr relevant, hat AMD also weiterhin Nachholbedarf und nVidia einen gewichtigen Pluspunkt, welcher sich vor allem auch in höhere Verkaufszahlen umwandeln läßt.

9

Die Grafikkarten-Performance unter Call of Duty: Infinite Warfare

Neben der PC Games Hardware gibt es nunmehr auch von der ComputerBase, TechPowerUp und GameGPU weitere Artikel mit Grafikkarten-Benchmarks zu Call of Duty: Infinite Warfare. Die hierbei aufgestellten Zahlen gleichen sich weitgehend, insofern kann man die Ergebnisse gut miteinander verrechen bzw. mittels Interpolation die fehlenden Grafikkarten hinzufügen. Dank nicht besonders hoher Grafikkarten-Anforderungen wurde durchgehend unter der maximalen Bildqualität des Spiels gemessen – wenn etwas bei Call of Duty: Infinite Warfare wichtig ist, dann ist es die Menge des Grafikkartenspeichers: Unterhalb von 4 GB ist das höchste Texturensetting gar nicht anwählbar – und selbst mit 4 GB gibt es unter diesem hier und da noch starke Nachladeruckler zu verzeichen. Für die praktische Spielbarkeit ist unter Call of Duty: Infinite Warfare die Menge des Grafikkartenspeichers sogar die wichtigere Größe, unabhängig der gewählten Auflösung gibt es ein Nachladeruckler-freies Spiel erst ab 8 GB Grafikkartenspeicher.

Call of Duty: Infinite Warfare – FullHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7790 260X 360 650Ti-Boost 750Ti
30-34 fps 7850 265 660
35-39 fps 7870 270 370 660Ti 760 950SE
950
40-49 fps 7870-Boost
7950
7950-Boost
270X
280
285
460 670
680
770 960 1050
1050Ti
50-59 fps 7970
7970-GHz
280X 380
380X
780
ab 60 fps 290
290X
390
390X
Nano
Fury
Fury X
470D
470
480-4GB
480-8GB
Titan Titan Black
780Ti
970
980
980Ti
Titan XM
1060-3GB
1060-6GB
1070
1080
Titan XP

Jene Problematik mit der Grafikkartenspeicher-Menge zeigt sich allerdings noch nicht bei den reinen Performancewerten unter der FullHD-Auflösung. Hier kommen selbst einige 2-GB-Grafikkarten noch auf vernünftig nutzbare Frameraten: Sicherlich muß man dafür die Texturenqualität etwas reduzieren (bzw. wird vom Spiel automatisch dazu gezwungen) und eventuell sind auch die Nachladeruckler in der Praxis zu störend, um das ganze wirklich "spielbar" zu nennen – allein, an den reinen Benchmark-Zahlen ist noch kein Problem ablesbar. Vielmehr sind die aufgestellten fps-Werte sogar ausgesprochen hoch, wenn eine GeForce GTX 1050 Ti noch bei nahezu 50 fps durchs Ziel läuft und sogar die Radeon RX 460 noch die 40-fps-Marke durchschlägt. Hier zeigt sich dann das Alter der für alle CoD-Titel immer wieder verbesserten, aber letztlich technologisch doch nicht mehr modernen Engine.

Zwischen AMD und nVidia kommen hier die AMD-Beschleuniger etwas besser weg, wobei die Polaris-basierten Modelle sogar erhebliche Vorteile für sich vereinnahmen können. Aufgrund der allgemein sehr hohen Frameraten wird man dies allerdings unter der FullHD-Auflösung kaum mitbekommen – nur bei der Radeon RX 460 ergibt dies einen praktischen Vorteil, welche hier klar schneller als die nominell gleich schnelle Radeon R7 370 sowie die nominell sogar schnellere GeForce GTX 950 herauskommt.

Call of Duty: Infinite Warfare – WQHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7870 265
270
370 660Ti 760 950SE
950
30-34 fps 7870-Boost 270X 460 670
680
960 1050
35-39 fps 7950
7950-Boost
280
285
380 770 1050Ti
40-49 fps 7970
7970-GHz
280X 380X Titan 780
Titan Black
970
50-59 fps 290
290X
390 470D
470
780Ti 1060-3GB
1060-6GB
ab 60 fps 390X
Nano
Fury
Fury X
480-4GB
480-8GB
980
980Ti
Titan XM
1070
1080
Titan XP

Selbst unter der WQHD-Auflösung bleiben die vergleichsweise hohen Frameraten erhalten, kommen demzufolge noch viel mehr Beschleuniger gut mit. Selbst 2-GB-Grafikkarten schaffen diese Auflösung (rein nummerisch) ohne Frameratenverlust, obwohl für Call of Duty: Infinite Warfare wie gesagt viel mehr Grafikkartenspeicher zu empfehlen sind. Erneut haben AMD-Grafikkarten generell einen gewissen Vorteil, welcher bei der Polaris-Generation dann deutlicher wird – die Radeon RX 480 4GB kommt vor der GeForce GTX 1060 6GB heraus, die (nominell klar langsamere) Radeon RX 460 im selben Performancefeld wie GeForce GTX 680 und 960.

Call of Duty: Infinite Warfare – UltraHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7970-GHz 280X 380-4GB
380X
Titan 780
Titan Black
970 1060-3GB
30-34 fps 290 470D
470
480-4GB
780Ti 1060-6GB
35-39 fps 290X 390
390X
480-8GB 980
40-49 fps Nano
Fury
Fury X
980Ti
Titan XM
1070
50-59 fps 1080
ab 60 fps Titan XP

Erst mit der UltraHD-Auflösung ergibt sich ein erheblicher Anforderungssprung, welcher dann das Feld der flüssig laufenden Beschleuniger maßgeblich ausdünnt. Der Anforderungssprung ist sogar so erheblich, das am Ende nur die Titan X (Pascal) wirklich für 60 fps garantieren kann – unter WQHD kamen noch gleich 12 Grafikkarten oberhalb der 60-fps-Marke ins Ziel. Allerdings dürften UltraHD-Nutzer so oder so eine Grafikkarte des obersten Leistungsspektrum ihr Eigen nennen – mit jenen sind gutklassige Frameraten ab 40 fps unter UltraHD möglich. 2-GB-Karten verlieren unter UltraHD erstmals erheblich an Performance, wobei sowieso keiner dieser Modelle in die Nähe spielbarer Frameraten kommt. Der gewisse AMD-Vorteil ist zwar ebenfalls wieder zu sehen, allein die Polaris-Beschleuniger müssen nunmehr etwas zurückstehen – jenen fehlt natürlich primär die Speicherbandbreite für diese hohe Auflösung.

Inhalt abgleichen