9

Umfrage-Auswertung: Radeon RX 480 8GB vs. GeForce GTX 1060 6GB - wohin geht die Entscheidung?

Mit einer Umfrage von Ende Oktober versuchten wir, die Stimmungslage der Anwender, Käufer und Marktbeobachter zum aktuellen Zweikampf von AMD Radeon RX 480 8GB gegen nVidia GeForce GTX 1060 6GB einzufangen. In der Hauptfrage der tendentiellen oder tatsächlichen Kaufentscheidung liegt dabei AMDs Polaris-basierte Karte deutlich vor nVidias Pascal-basierter Karte: Satte 20,7% Käufer auf AMD-Seite gegenüber nur 7,0% Käufer auf nVidia-Seite und genauso deutliche 42,2% Kauftendenz zugunsten von AMD gegenüber nur 23,1% Kauftendenz zugunsten von nVidia sprechen eine deutliche Sprache – welche die Radeon RX 480 8GB klar vor der GeForce GTX 1060 6GB sehen, sowohl in der Käufergunst als auch bei der tendentiellen Kaufneigung. Ob sich dies im Massenmarkt auch so zeigt, wäre allerdings zu bezweifeln – zum einen sprechen diverse Absatzzahlen bestenfalls von einem Verkaufs-Gleichstand, zum anderen steht nVidia allgemein viel besser im Massenmarkt bei Grafikkarten-Herstellern, Distributoren und Einzelhändler da, verschieben sich dort die Marktverhältnisse auch nur sehr langsam (und gewöhnlich zeitverzögert). Speziell im 3DCenter (und damit einem Teil der Grafikkarten-Enthusiasten) kann man jedoch von einem klaren Sieg AMDs sprechen.

Erreicht wird dieser Sieg hauptsächlich über den Mehrspeicher der Radeon RX 480 8GB sowie ihrer besseren Zukunftseignung unter DirectX 12 und Vulkan – wobei letztere Antwortoption etwas dominiert. Hier hat AMD also durchaus seinen großen Verkaufspunkt gefunden – welche man nun eigentlich medial besser ausschlachten sollte, gerade im Massenmarkt kommt eine solche Informationen eher selten an. Für die GeForce GTX 1060 6GB hat man sich hingegen logischerweise wegen deren Mehrperformance entschieden – noch höhere Stimmenanteile bekam allerdings der geringere Stromverbrauch der nVidia-Karte, was etwas überrascht. Schließlich liegt AMD bei der Energieeffizienz nun nicht mehr so weit wie früher vom Schuß noch – und trotzdem ist jenes Thema augenscheinlich weiterhin sehr relevant, hat AMD also weiterhin Nachholbedarf und nVidia einen gewichtigen Pluspunkt, welcher sich vor allem auch in höhere Verkaufszahlen umwandeln läßt.

9

Die Grafikkarten-Performance unter Call of Duty: Infinite Warfare

Neben der PC Games Hardware gibt es nunmehr auch von der ComputerBase, TechPowerUp und GameGPU weitere Artikel mit Grafikkarten-Benchmarks zu Call of Duty: Infinite Warfare. Die hierbei aufgestellten Zahlen gleichen sich weitgehend, insofern kann man die Ergebnisse gut miteinander verrechen bzw. mittels Interpolation die fehlenden Grafikkarten hinzufügen. Dank nicht besonders hoher Grafikkarten-Anforderungen wurde durchgehend unter der maximalen Bildqualität des Spiels gemessen – wenn etwas bei Call of Duty: Infinite Warfare wichtig ist, dann ist es die Menge des Grafikkartenspeichers: Unterhalb von 4 GB ist das höchste Texturensetting gar nicht anwählbar – und selbst mit 4 GB gibt es unter diesem hier und da noch starke Nachladeruckler zu verzeichen. Für die praktische Spielbarkeit ist unter Call of Duty: Infinite Warfare die Menge des Grafikkartenspeichers sogar die wichtigere Größe, unabhängig der gewählten Auflösung gibt es ein Nachladeruckler-freies Spiel erst ab 8 GB Grafikkartenspeicher.

Call of Duty: Infinite Warfare – FullHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7790 260X 360 650Ti-Boost 750Ti
30-34 fps 7850 265 660
35-39 fps 7870 270 370 660Ti 760 950SE
950
40-49 fps 7870-Boost
7950
7950-Boost
270X
280
285
460 670
680
770 960 1050
1050Ti
50-59 fps 7970
7970-GHz
280X 380
380X
780
ab 60 fps 290
290X
390
390X
Nano
Fury
Fury X
470D
470
480-4GB
480-8GB
Titan Titan Black
780Ti
970
980
980Ti
Titan XM
1060-3GB
1060-6GB
1070
1080
Titan XP

Jene Problematik mit der Grafikkartenspeicher-Menge zeigt sich allerdings noch nicht bei den reinen Performancewerten unter der FullHD-Auflösung. Hier kommen selbst einige 2-GB-Grafikkarten noch auf vernünftig nutzbare Frameraten: Sicherlich muß man dafür die Texturenqualität etwas reduzieren (bzw. wird vom Spiel automatisch dazu gezwungen) und eventuell sind auch die Nachladeruckler in der Praxis zu störend, um das ganze wirklich "spielbar" zu nennen – allein, an den reinen Benchmark-Zahlen ist noch kein Problem ablesbar. Vielmehr sind die aufgestellten fps-Werte sogar ausgesprochen hoch, wenn eine GeForce GTX 1050 Ti noch bei nahezu 50 fps durchs Ziel läuft und sogar die Radeon RX 460 noch die 40-fps-Marke durchschlägt. Hier zeigt sich dann das Alter der für alle CoD-Titel immer wieder verbesserten, aber letztlich technologisch doch nicht mehr modernen Engine.

Zwischen AMD und nVidia kommen hier die AMD-Beschleuniger etwas besser weg, wobei die Polaris-basierten Modelle sogar erhebliche Vorteile für sich vereinnahmen können. Aufgrund der allgemein sehr hohen Frameraten wird man dies allerdings unter der FullHD-Auflösung kaum mitbekommen – nur bei der Radeon RX 460 ergibt dies einen praktischen Vorteil, welche hier klar schneller als die nominell gleich schnelle Radeon R7 370 sowie die nominell sogar schnellere GeForce GTX 950 herauskommt.

Call of Duty: Infinite Warfare – WQHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7870 265
270
370 660Ti 760 950SE
950
30-34 fps 7870-Boost 270X 460 670
680
960 1050
35-39 fps 7950
7950-Boost
280
285
380 770 1050Ti
40-49 fps 7970
7970-GHz
280X 380X Titan 780
Titan Black
970
50-59 fps 290
290X
390 470D
470
780Ti 1060-3GB
1060-6GB
ab 60 fps 390X
Nano
Fury
Fury X
480-4GB
480-8GB
980
980Ti
Titan XM
1070
1080
Titan XP

Selbst unter der WQHD-Auflösung bleiben die vergleichsweise hohen Frameraten erhalten, kommen demzufolge noch viel mehr Beschleuniger gut mit. Selbst 2-GB-Grafikkarten schaffen diese Auflösung (rein nummerisch) ohne Frameratenverlust, obwohl für Call of Duty: Infinite Warfare wie gesagt viel mehr Grafikkartenspeicher zu empfehlen sind. Erneut haben AMD-Grafikkarten generell einen gewissen Vorteil, welcher bei der Polaris-Generation dann deutlicher wird – die Radeon RX 480 4GB kommt vor der GeForce GTX 1060 6GB heraus, die (nominell klar langsamere) Radeon RX 460 im selben Performancefeld wie GeForce GTX 680 und 960.

Call of Duty: Infinite Warfare – UltraHD @ MaxQuality  (Datenbasis: ComputerBase, PCGH, TechPowerUp & GameGPU)
AMD HD7000 AMD R200 AMD R300 AMD R400 nVidia GF600 nVidia GF700 nVidia GF900 nVidia GF1000
25-29 fps 7970-GHz 280X 380-4GB
380X
Titan 780
Titan Black
970 1060-3GB
30-34 fps 290 470D
470
480-4GB
780Ti 1060-6GB
35-39 fps 290X 390
390X
480-8GB 980
40-49 fps Nano
Fury
Fury X
980Ti
Titan XM
1070
50-59 fps 1080
ab 60 fps Titan XP

Erst mit der UltraHD-Auflösung ergibt sich ein erheblicher Anforderungssprung, welcher dann das Feld der flüssig laufenden Beschleuniger maßgeblich ausdünnt. Der Anforderungssprung ist sogar so erheblich, das am Ende nur die Titan X (Pascal) wirklich für 60 fps garantieren kann – unter WQHD kamen noch gleich 12 Grafikkarten oberhalb der 60-fps-Marke ins Ziel. Allerdings dürften UltraHD-Nutzer so oder so eine Grafikkarte des obersten Leistungsspektrum ihr Eigen nennen – mit jenen sind gutklassige Frameraten ab 40 fps unter UltraHD möglich. 2-GB-Karten verlieren unter UltraHD erstmals erheblich an Performance, wobei sowieso keiner dieser Modelle in die Nähe spielbarer Frameraten kommt. Der gewisse AMD-Vorteil ist zwar ebenfalls wieder zu sehen, allein die Polaris-Beschleuniger müssen nunmehr etwas zurückstehen – jenen fehlt natürlich primär die Speicherbandbreite für diese hohe Auflösung.

7

Hardware- und Nachrichten-Links des 7. November 2016

Golem berichten zur Verfügbarkeit von AMDs neuen Profi-Lösungen – und bringen auch deren offiziellen Spezifikationen, welche eine gewisse Überraschung bereithalten. Denn wie schon bei den Embedded-Lösungen sind diese neuen, Polaris-basierten Profi-Lösungen klar energieeffizienter als die vergleichbaren Gamer-Grafikkarten angelegt. Einiges davon kann sicherlich über eine großzügige Auslegung des der bis-zu-Angaben bei der Rechenleistung realisiert werden – sprich, das die Profi-Karten im Normalbetrieb durch drosselnde Taktraten keine solch hohen Rechenleistung im Normalbetrieb erreichen. Alternativ könnte der Stromverbrauch seitens AMD auch auf durchschnittlichen Lasten ermittelt worden sein, liegen im Profi-Bereich eventuell auch einige Einsparpotentiale vor, wenn man üblicherweise nur für Spielegrafik benötigte Hardwareeinheiten unter Profi-Anwendungen gar nicht erst nutzt. All dies kann eventuell den Energieeffizienz-Vorteil von Radeon Pro WX 4100 und Radeon Pro WX 7100 erklären – bei der Radeon Pro WX 5100 wird es dann jedoch eng.

Radeon Pro WX 4100 Radeon RX 460 Radeon Pro WX 5100 Radeon RX 470D Radeon Pro WX 7100 Radeon RX 480
Chipbasis AMD Polaris 11 AMD Polaris 10 AMD Polaris 10
Technik 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 16 ROPs, 128 Bit GDDR5-Interface 2 Raster-Engines, 896 Shader-Einheiten, 56 TMUs, 16 ROPs, 128 Bit GDDR5-Interface 4 Raster-Engines, 1792 Shader-Einheiten, 112 TMUs, 32 ROPs, 256 Bit GDDR5-Interface 4 Raster-Engines, 2304 Shader-Einheiten, 144 TMUs, 32 ROPs, 256 Bit GDDR5-Interface
Rechenleistung bis zu 2,4 TFlops SP bis zu 2,15 TFlops SP bis zu 3,9 TFlops SP bis zu 4,3 TFlops SP bis zu 5,7 TFlops SP bis zu 5,8 TFlops SP
Bauform SingleSlot, LowProfile DualSlot SingleSlot DualSlot SingleSlot DualSlot
Stromstecker keiner keiner keiner 1x6pol. 1x6pol. 1x6pol. oder 1x 8pol.
Board Power <50W <75W <75W 110W <130W 150W

Denn die Karte weist die Hardware-Daten der Radeon RX 470D (mit etwas geringerer Taktrate) auf – und erbringt ihre TDP von <75W auch wirklich, da jene Karte ohne extra PCI-Express-Stromstecker aufgelegt wird. In diesem Fall existiert also die Möglichkeit einer "kreativen" Ermittlung der TDP-Kennziffer nicht mehr, vielmehr sollte die Radeon Pro WX 5100 im Normalfall sogar mit etwas unterhalb von 75 Watt auskommen, um Reserven für Spitzenlasten bzw. grenzwertige Mainboards zu haben (ohne deswegen abzustürzen). Sicherlich ist die Peak-Rechenleistung der Radeon Pro WX 5100 auch noch einmal runde 10% niedriger als bei der Radeon RX 470D, aber bei nominellen Verbrauchswerten von (sicher erreichten) <75W gegen (schöngefärbte, weil praktisch höhere) 110W ist hierbei doch ein sehr erheblicher Vorteil in der Energieeffizienz zu sehen – zumindest auf dem Papier. Denn die wahrscheinlichste Auflösung des ganzen liegt nach wie vor in deutlich geringeren normalerweise anliegenden Taktraten, sprich einem erheblichen Unterschied zwischen normalerweise erreichter Rechenleistung und der offiziell angegebenen Peak-Rechenleistung bei diesen Profi-Modellen von AMD.

Golem und die c't haben mit Sony ausführlich über die Technik der Playstation 4 Pro gesprochen, was jede Menge an Detailinformationen (beispielsweise zur Vega-Verwandtschaft) abwirft. So verfügt die neue Sony-Konsole über einen PS4-Modus, mittels welchem unangepasste PS4-Titel abgespielt werden können. Dafür wird der PS4Pro-SoC auf exakt jene Hardware-Daten heruntergefahren wie der originale PS4-SoC, sprich es sind nur 1152 Shader-Einheiten aktiv und die Taktraten von CPU, GPU und Speicher entsprechen dann der originalen Playstation 4. Mehr fps und andere neue Funktionen stehen damit dann wirklich nur bei einer auf die PS4Pro angepassten Spielversion zur Verfügung – wobei dies der Normalzustand sein soll, der PS4-Modus ist nur eine Fallback-Lösung. Vor allem aber ging Sony ziemlich detailliert auf die neuen Rendering-Tricks ein, mittels welchem man UltraHD-Rendering auf der Playstation 4 Pro erreichen will, ohne (mangels entsprechender Hardware-Power) die volle native Renderauflösung bieten zu müssen.

Neben den normalen Upscaling gibt es hierbei zwei Rendering-Modi, welche einen Mix aus UltraHD- und niedrigeren Auflösungen darstellen: Geometry-Rendering, welches sinngemäß mehr FullHD als UltraHD ist, sowie Checkerboard-Rendering, welches sinngemäß ein halbes UltraHD mit allerdings intelligenten Aufhübschungen ist. Sofern Checkerboard-Rendering auf 3840x2160 zum Einsatz kommt, sollen die Optikdifferenzen zu nativem 4K-Rendering im übrigen eher marginal sein, insofern ist dies durchaus eine effiziente Lösung. Allerdings reicht die Performanceeinsparung dieses Rendering-Modus noch nicht aus, um in der Spielepraxis durchgehend (nominelles) UltraHD aufbieten zu können. Denn die Mehrzahl der genannten Spieletitel wird nur Checkerboard-Rendering auf 3200x1800 einsetzen und den restlichen Sprung zu UltraHD dann mittels Upscaling ableisten – wie gut dies aussieht, muß die Praxis ergeben. Klar ist damit aber auch jetzt schon, das wenn die neue Konsole schon zum Start Schwierigkeiten mit der 4K-Auflösung hat, das dies in Zukunft nicht wirklich besser werden wird.

Wirklich Sinn macht die Playstation 4 Pro trotz dieser Einschränkungen allerdings wirklich nur mit einem UltraHD-Fernseher – denn die Spieleverbesserungen an einem FullHD-Gerät wollten nicht gefallen, da jene kaum sichtbar waren. Allenfalls gibt es in einigen Titel klar bessere Frameraten – dies ist auch ein gewisser Punkt, aber ob dies ausreichend ist, darf bezweifelt werden. Eher könnte man argumentieren, das der geringe Preisunterschied von 100 Euro ziemlich automatisch für die Playstation 4 Pro spricht – was natürlich um so besser funktioniert, wenn ein 4K-Fernseher schon vorhanden bzw. dessen Anschaffung bereits geplant ist. Trotz einiger Klimmzügen, um die UltraHD-Auflösung letztlich zu erreichen, ist der insgesamt erzielte Bildqualitätsgewinn gegenüber der bisher von der originalen Playstation 4 gebotenen Grafik ausreichend genug, um die Pro-Konsole in der Vorhand zu sehen. Für den PC bedeutet dies im übrigen, das man langsam aber sicher über UltraHD als neuen Auflösungs-Standard nachdenken muß – spätestens wenn Microsofts Xbox Scorpio mit noch etwas höherer Hardwarepower antritt, wird "4K" (trotz aller technologischen Trickerseien) womöglich als neuer Standard im Konsolenbereich angesehen werden.

7

Zweiter Test zum Core i5-7600K zeigt erneut ~9% Mehrperformance

Vom chinesischen PCOnline (die Webseite ist derzeit teilweise schwer zu erreichen, eine Kopie der Benchmark-Diagramme findet man bei WCCF Tech) kommt ein zweiter Test zum Core i5-7600K, der ungelockten Vierkern-Variante von Intels Kaby Lake. Interessanterweise gleichen sich die Ergebnisse bis aufs Komma gegenüber dem ersten Test seitens Expreview – beide Tests ermittelten eine um 9,1% höhere CPU-Performance des Core i5-7600K gegenüber seinem Skylake-Vorgänger in Form des Core i5-6600K. Angesichts des Taktratengewinns zwischen beiden Prozessoren von +8,6% bis +7,7% sieht dies stark nach einer minimalstmöglichen Erhöhung der Pro-MHz-Leistung um grob 1-2 Prozentpunkte aus – bei PCOnline ermittelte man bei einem taktnormierten Vergleich gerundet einen Prozentpunkt, was gut zu dieser Annahme passt. Dabei muß gar nicht einmal eine wirklich höhere IPC (Instruktion per Clock) vorliegen, die geringe Mehrperformance auf gleichem Takt kann sich auch durch eine bessere Ausnutzung des Turbo-Modus bzw. einen selteneren Hang zur Drosselung bei besonders schweren Lasten ergeben – einfach weil Intels 14nm-Fertigung bei Kaby Lake inzwischen noch etwas ausgereifter ist als bei Skylake.

Core i5-6600K Core i7-6700K Core i5-7600K
Technik Skylake, 4C, 3.5/3.9 GHz Skylake, 4C+HT, 4.0/4.2 GHz Kaby Lake, 4C, 3.8/4.2 GHz
Taktraten-Differenz - - zu 6600K: +8,6% bis +7,7%
zu 6700K: -5,0% bis ±0%
CPU-Performance 91,7% 120,8% 100%
(+9,1% bzw. -17,2%)
CPU-Performance taktnormiert @ 4 GHz 100% - 101%
(+1%)
iGPU-Performance 97,6% 105,1% 100%
(+2,5% bzw. -4,8%)
Performance-Werte laut den Benchmarks von PCOnline

Hinzu haben PCOnline noch einen Test der integrierten Grafik oben drauf gelegt, welcher aber eher nur aussagt, das sich da noch weniger bewegt: Selbst die geringen 5%igen Differenzen ergeben sich mehrheitlich nur durch eine große Differenz in einem einzelnen Benchmark, welcher (augenscheinlich CPU-Limitiert) auf das HyperThreading des mitgetesteten Core i7-6700K in erheblichem Maße anspringt. Die anderen Benchmarks sehen meistens keinerlei Ausschlag zwischen den integrierten Grafiklösungen der drei getesteten Prozessoren – in gewissem Sinne logisch, da jeweils die gleiche Anzahl an GPU-Recheneinheiten verbaut ist und deren (maximale) Taktraten wohl ziemlich ähnlich liegen. Hier besteht dann ein deutlicher Unterschied zu Mobile-Gefilden, wo unter niedrigen TDP-Vorgaben die maximalen CPU/iGPU-Taktraten selten ausgefahren werden können und Kaby Lake mit seiner verbesserten Fertigung dann in der Praxis gerade bei der iGPU-Performance klar besser darsteht als Skylake. Im Desktop wird so etwas wie gesagt kaum passieren können, da hier die Prozessoren-TDP nicht derart limitierend eingreift.

In der Summe der Dinge haben wir damit zwei fernöstliche Tests des Core i5-7600K vorliegen, welche trotz unterschiedlicher Benchmark-Sets dieselben +9,1% Performance gegenüber dem Skylake-Pendant Core i5-6600K aufzeigen – was die Frage zur Skylake-Performance eigentlich schon fast vollständig beantwortet, mangels technischer Neuerungen sind von Kaby Lake nun eigentlich keine Performance-Überraschungen mehr zu erwarten. Eher interessant erscheint da schon ein von XFastest (maschinelle Übersetzung ins Deutsche) verbreitetes Overclocking-Ergebnis, bei welchem man den Core i5-7600K auf stattliche 5.1 GHz gebracht hat (mit einem Performancegewinn von +20,6% unter dem CineBench R15 bei 21-34% Übertaktung). Ein solches Ergebnis ist natürlich exzellent, um wieder einmal den Overclocking-Hype anzufachen – aber an dieser Stelle weist unsere Forum vollkommen korrekt auf ähnliche gute Ergebnisse im Vorfeld früherer Intel-Generationen hin, die sich dann jedoch in der Praxis wie bekannt nicht bestätigen lassen konnten. Die Hoffnung auf einen Overclocking-Schub durch Kaby Lake sollte man angesichts dieser Erfahrungen doch eher auf kleiner Flamme halten.

6

Hardware- und Nachrichten-Links des 5./6. November 2016

Laut einer Meldung von Major Geeks hat nVidia umfangreiche Telemetriefunktionen in seine Treiber integrierte, welche dauerhaft jede Menge an Daten zu nVidia übertragen. Die Telemetriefunktionen kommen über die Installation von "GeForce Experience" daher – sobald man selbiges nVidia-Tool bei der Installation abwählt, sollte man normalerweise in Ruhe davor sein. Ganz neu ist das ganze allerdings auch nicht: Auf Reddit hat man schon vor vier Monaten hierüber diskutiert, seinerzeit ging das Thema dann aber eher unter. Bislang ist leider immer noch ein wenig unklar, ob diese Datensammlung darüber hinausgeht, was der Anwender in den nVidia-Tools so treibt bzw. wie dessen grundsätzliche Hardware- und Software-Konfiguration aussieht. Die Erwähnung von Adobe- und Google-IDs bzw. eines Google Analytics-Trackers sehen diesbezüglich nicht gut aus für nVidia – denn mit diesen Diensten kann man die gewonnenen Daten einem expliziten Nutzer zuordnen (im genauen einer eindeutigen Werbe-ID, ob ein Realname zu jener ID vorliegt, spielt keine Rolle).

Davon abgesehen steht natürlich die generelle Nutzerforderung im Raum, über solcherart Datensammlungen informiert zu werden bzw. eher sogar eine Abwahlmöglichkeit zu besitzen. Ob nVidias Verhalten dem Buchstaben der bundesdeutschen Datenschutzgesetzgebung enspricht, wäre also schon einmal zu bezweifeln. Hinzu kommt der technologische Punkt, daß das Windows-Systems hiermit durch weitere automatisch oder per Taskplaner startende Dienste vollgemüllt wird – aus einer eigentlich mal so gedachten reinen Treiber-Installation ist inzwischen ein umfangreiches Paket an Software geworden, die nicht in jedem Fall wirklich zum Nutzen des Anwenders arbeiten. Die Meldung von Major Geeks klärt somit auch noch darüber auf, welche dieser Windows-Dienste zur nVidia-Telemetrie man gefahrlos deaktivieren kann – was man allerdings nach jedem Treiberupdate immer wieder neu durcharbeiten muß. Gänzlich sicher geht man sowieso nur, wenn man jene Telemetriefunktionen beim Internetzugriff mittels einer Firewall auflaufen läßt – was natürlich nur unter Verzicht auf Treiber-Autoupdate und der Cloud-Funktionalität von GeForce Experience realisierbar ist. (Forendiskussion zum Thema)

Bei Phoronix hat man sich die Linux-Performance der GeForce GTX 1050 Ti angesehen. Hierbei zeigt sich nVidias neue Mainstream-Lösung erstaunlicherweise noch nicht so stark wie unter Windows, da die (nominell langsamere) GeForce GTX 960 um immerhin -3,7% nicht geschlagen wird. Gegenüber den AMD-Karten ist das Verhältnis besser, die GeForce GTX 1050 Ti kommt unter diesen Linux-Benchmarks um satte 71,0% vor der Radeon RX 460 heraus (Windows: +38%), gegenüber der Radeon RX 470 liegt man nur um -23,1% zurück (Windows: -25%). Ganz grob betrachtet (die Radeon RX 460 lief bei Phoronix wirklich sagenhaft schlecht, deutlich langsamer als eine nominell gleich schnelle Radeon R7 370) gleicht sich dieses Performance-Bild unter Linux allerdings dem von Windows an, die meistens Differenzen liegen im Rahmen von ±10%, was beim Wechsel auf ein gänzlich anderes Betriebssystem mit zumeist auch anderen Grafik-APIs durchaus normal ist bzw. im Rahmen des Akzeptablen liegt. Hauptproblemfeld von Linux im Gaming-Einsatz ist schon seit einiger Zeit nicht mehr die reine Performance, sondern der eher zögerliche Linux-Support seitens der Spieleentwickler.

Inhalt abgleichen