2

Neue Gerüchte zur GeForce GTX 1080 Ti sehen 3328 Shader-Einheiten mit 12 GB GDDR5-Speicher für diese Karte

Bei Reddit berichtet man aus zwei fernöstlichen Quellen über neue Spezifikationen zur GP102-basierten GeForce GTX 1080 Ti, welche etwas abweichend zu den im November genannten Spezifikationen mit "nur" 10 GB GDDR5X-Speicher ausfallen. Die Quellenlage der neuerlichen Gerüchte ist mit zwei Forenmeldungen nicht gerade dick, wenigstens der eine Forenposter soll sich aber in der Vergangenheit als vergleichsweise belastbare Quelle erwiesen haben (gute, nahezu komplett zutreffende Informationen zur seinerzeitigen GeForce GTX 980 Ti). Übereinstimmend wird dabei mit dem 5. Januar 2017 der Start der kommenden CES als Ankündigungsdatum der GeForce GTX 1080 Ti genannt – was kein Auslieferungsdatum ist, jenes soll voraussichtlich auf Ende Januar liegen. Die Preislage wird einerseits mit 699-799 Dollar, andererseits mit 799 Dollar angegeben – wobei unklar ist, ob hiermit die Herstellerdesigns oder nVidias "Founders Edition" gemeint waren.

Für die Hardware existiert dann nur noch eine Quelle (in diesem Fall die vorgenannt belastbare): Dabei wird die GeForce GTX 1080 Ti als mit 3328 Shader-Einheiten, 96 ROPs sowie 384 Bit Speicherinterface ausgerüstet beschrieben und soll mit 12 GB GDDR5-Speicher (nicht GDDR5X!) daherkommen. In diesem Punkt liegt der größte Unterschied zu den früheren Gerüchten, denn jene sprachen von nur 10 GB Speicher, dafür allerdings der schnelleren GDDR5X-Bauform. Jene früheren Gerüchte konnten allerdings zur Untermauerung auf Test-Lieferungen seitens nVidia in der Zauba Import/Export-Datenbank verweisen, die 10-GB-Karte muß also zu Testzwecken durchaus real gewesen sein (oder es war ein heftiger Schreibfehler). Nichtsdestotrotz erscheint die nun im Raum stehende 12-GB-Lösung für nVidias Zwecke als sinnvoller, denn nVidia muß sich bei der Speichermenge gegenüber den Enthusiasten-Usern möglichst klar von den 8 GB der GeForce GTX 1080 absetzen – wofür 10 GB einfach zu wenig sind, 12 GB viel eher den Kern der Sache einer absoluten Enthusiasten-Grafikkarte treffen. Nicht undenkbar, das nVidia jenes 10-GB-Modell nur deswegen auf die Reise geschickt hat, um die Meinung der Enthusiasten-Gemeinde zu "nur" 10 GB Speicher vorab anzutesten.

Daß es dann nur GDDR5-Speicher anstatt GDDR5X-Speicher werden wird, dürfte nVidias Versuch einer klaren Abgrenzung zur Titan X (Pascal) geschuldet sein – mit 12 GB GDDR5X-Speicher wäre die GeForce GTX 1080 Ti trotz kleinerer Anzahl an (freigeschalteten) Shader-Einheiten über höhere Chiptaktraten jederzeit über das Auslieferungs-Niveau einer Titan X (Pascal) zu bringen gewesen. nVidia hätte hier die Grafikkarten-Hersteller vielleicht sogar limitieren müssen, damit jene nicht schon in Form von Herstellerdesigns schnellere GeForce GTX 1080 Ti Karten als eben die Titan X (Pascal) geschaffen hätten – was jene wohl liebend gern tun würden, nachdem man die Grafikkarten-Hersteller vom Absatz der Titan X (Pascal) (wird rein durch nVidia selbst vertrieben) ausgeschlossen hatte. Durch die Verwendung von GDDR5-Speicher anstatt von GDDR5X kann die GeForce GTX 1080 Ti auch bei hochgezüchteten Herstellerdesigns zwar sogar eine höhere Rechenleistung als die Titan X (Pascal) erreichen, bei der Speicherbandbreite sind jedoch die Werte von nVidias Topmodell glatt unerreichbar.

GeForce GTX 1080 GeForce GTX 1080 Ti Titan X (Pascal)
Chipbasis nVidia GP104 nVidia GP102 nVidia GP102
Architektur Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Technik 4 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 64 ROPs, 256 Bit GDDR5X-Interface, 2 MB Level2-Cache (Vollausbau) angbl. 3328 Shader-Einheiten (= 208 TMUs), 96 ROPs, 384 Bit GDDR5-Interface (Salvage) 6 Raster-Engines, 3584 Shader-Einheiten, 224 TMUs, 96 ROPs, 384 Bit GDDR5X-Interface, 3 MB Level2-Cache (Salvage)
Taktraten 1607/1733/2500 MHz
(Ø-Chiptakt: 1694 MHz)
unbekannt 1417/1531/2500 MHz
(Ø-Chiptakt: ~1580 MHz)
Speicherausbau 8 GB GDDR5X angbl. 12 GB GDDR5 12 GB GDDR5X
4K Perf.Index 132% gesch. ~155-165% 173%
Listenpreis 599$/699$ gesch. 799$/899$ 1200$
Release 17. Mai 2016 angbl. Ende Januar 2017 2. August 2016

Abzuwarten bleibt allerdings, ob das ganze für die Spielepraxis wirklich einen entscheidenden Nachteil darstellt. Die Titan X (Pascal) legte auf die GeForce GTX 1080 zu real anliegenden Taktraten 30% mehr Rechenleistung samt 50% mehr Speicherbandbreite oben drauf – und erzielte damit unter UltraHD 31% mehr Real-Performance. Eine GeForce GTX 1080 Ti mit den vorgenannt kolportierten Hardware-Daten könnte (je nach angesetztem Chiptakt) bei 21-27% mehr Rechenleistung zu 20% mehr Speicherbandbreite gegenüber der GeForce GTX 1080 herauskommen, das ist nominell dann doch ein beachtbarer Unterschied zur Titan X (Pascal). Angenommen jedoch, es wird ein eher höherer Chiptakt (welcher mit Herstellerdesigns dann sowieso erreich- und sogar überbietbar ist), sind dies im Idealfall aber auch nur 4% weniger Rechenleistung – unter nicht rein an der Speicherbandbreite hängenden Szenarien wäre damit fast das Leistungspotential der Titan X (Pascal) erreichbar. Nur dort, wo deren große Speicherbandbreite wirklich erforderlich ist, dürfte die Titan X (Pascal) eine GeForce GTX 1080 Ti zu diesen Hardware-Daten entsprechend klarer abhängen.

Die bei der früheren Meldung zur GeForce GTX 1080 Ti genannte Spanne für deren geschätzten UltraHD Performance-Index (mit 160-165%) muß demzufolge gemäß dieser neuen Hardware-Daten auf nunmehr (weiterhin geschätzt) 155-165% erweitert werden – wobei die Marke von 165% (und damit sehr nahe an der Titan X (Pascal) bei 173% liegend) als nur im Idealfall erreichbar erscheint. Irgendwo wird die Verwendung von GDDR5-Speicher anstatt von GDDR5X-Speicher dann doch seine Auswirkungen haben müssen, selbst wenn man mit gleich 4000 MHz DDR Speichertakt rechnet (ein noch höherer GDDR5-Speichertakt könnte die Situation etwas entschärfen, dies bliebe abzuwarten). Jener Hardware-Unterschied zur Titan X (Pascal) dürfte dann effektiv dafür sorgen, das nur besonders hochgezüchtete GeForce GTX 1080 Ti Karten teilweise die Performance einer Titan X (Pascal) ereichen können, spätestens mittels Overclocking wird am Ende jedoch immer noch mehr aus einer Titan X (Pascal) herausholbar sein.

Offen muß derzeit noch bleiben, zu welchem Preis nVidia das ganze ansetzt: Die beiden genannten Preisnotierungen liegen erfreulicherweise unterhalb der 1000-Dollar-Marke, dürften aber am Ende dennoch nur den Preis der Herstellerdesigns wiedergeben (den höheren Preis der "Founders Edition" versteckt nVidia gewöhnlich zu Vor-Relase-Zeiten). Ergo könnte die GeForce GTX 1080 Ti letztlich zu einer Preisnotierung von 799$ für die Herstellerdesigns und 899$ für das Referenzdesign daherkommen – in Euroland ist damit für die "Founders Edition" angesichts derzeitiger Dollar/Euro-Kurse mühelos die 1000-Euro-Marke zu durchbrechen und auch die Herstellerdesigns dürften anfänglich nicht für unter 900 Euro über die Ladentheken gehen. Angesichts dieser (vermutlich) hohen Realpreise bei nur (geschätzt) 17-25% Performanceaufschlag auf die GeForce GTX 1080 wäre nVidia wohl noch nicht einmal gezwungen, die GeForce GTX 1080 entsprechend preiszusenken – dies erscheint erst bei niedrigeren Preislagen zur GeForce GTX 1080 Ti als notwendig.

1

Hardware- und Nachrichten-Links der Neujahrsfeiertage 2017

Der Jahresstart ist die Zeit der Teaser auf kommende Groß-Ereignisse: Den Anfang wird nVidia machen mit einem Live-Event im Vorfeld der CES, welches terminlich auf die Nacht vom 4. auf den 5. Januar um 03:30 morgens deutscher Zeit angesetzt ist. Angekündigt wurde "something big" – dies kann vom Ego des nVidia-CEOs über irgendetwas im Profi-Bereich bis zu einer GeForce GTX 1080 Ti natürlich alles bedeuten. Wahrscheinlich um letzterer Möglichkeit vorzubeugen, hat AMD laut der extra aufgelegten Webseite VE.GA ein "Vega Architecture Preview" für den 5. Januar um 15:00 deutscher Zeit angesetzt. Interessant ist hierbei die Nennung von "Radeon Vega" in prinzipiell einem Wort – dies könnte man fast so deuten, als würde AMD den Begriff "Vega" nicht nur als internen Codenamen nutzen, sondern vielleicht sogar als Verkaufsnamen, möglicherweise als neuen Eigennamen der Vega-basierten Beschleuniger (äquivalent zu "Fury" bei den Fiji-basierten Grafikkarten). Viel mehr als ein Preview darf man sich allerdings wirklich nicht versprechen, nach wie vor ist AMDs Vega-Generation eher denn ein Thema des zweiten Quartals – während nVidias GeForce GTX 1080 Ti praktisch jederzeit erscheinen könnte, dies passiert allein nach nVidias Gusto.

Eine Twitter-Meldung der Hardware-Webseite Bits 'n' Chips wirft derzeit einige Wellen auf, denn mittels jener wird angedeutet, AMDs Ryzen-Prozessoren könnten sowohl bei AMDs Hausfertiger GlobalFoundries als auch (gleichzeitig) bei Samsung hergestellt werden. Hierbei sei hinzugesagt, das GlobalFoundries 14nm-Fertigung auf einer Samsung-Lizenz basiert und von dort auch 1:1 übernommen wurde. Man kann also regelrecht ohne neue Maske zwischen den beiden Fertigern wechseln – was einen großen Unterschied zur ansonsten anzutreffenden Situation darstellt, wo ein alternativer Chipfertiger erst einmal eine neue, kostenspielige (und mehrere Wochen bis Monate dauernde) Produktionsvorbereitung erfordert. Nichtsdestotrotz ist laut den harten diesbezüglichen Wortgefechten in unserem Forum unsicher, ob jene Fremdfertigerung von CPUs zu AMDs aktuellem Waferabkommen mit GlobalFoundries passt. Es gibt da durchaus ernstzunehmende Hinweise, das laut diesem Abkommen AMD-CPUs nur bei GlobalFoundries gefertigt werden dürften – und bei Nichtbeachtung AMD entsprechende Strafzahlungen einkalkulieren muß.

Andererseits könnte hier im Gegensatz zu früher eher die Situation aufgetreten sein, das AMD die vereinbarte Wafer-Mindestabnahme schon längst erfüllt – und das nunmehr GlobalFoundries selber nicht genügend 14nm-Wafer für die gleichzeitige Fertigung der Polaris-Grafikchips und der Ryzen-Prozessoren liefern kann (und potentiell kommen ja auch noch die Vega-Grafikchips hinzu). Gut möglich, daß GlobalFoundries 14nm-Kapazitäten damit schon längst erschöpft sind und AMD somit nahezu zwingend auf Samsung als Zweitfertiger angewiesen ist. Für diesen speziellen Fall könnten im Waferabkommen mit GlobalFoundries durchaus auch entsprechende Passagen existieren, welche AMDs Strafzahlungen minimieren, unter Umständen hat GlobalFoundries mit der Samsung-Zweitfertigung auch überhaupt gar kein Problem, weil dies dem wirtschaftlichen Erfolg von AMD weiterhilft – mit welchem der wirtschaftliche Erfolg von GlobalFoundries eng verknüpft ist, ganz abgesehen vom von der GlobalFoundries-Muttergesellschaft noch gehaltenem AMD-Aktienpaket. Lange Rede, kurzer Sinn: Es ist davon auszugehen, das unabhängig der konkreten Formulierungen des Waferabkommens hier sicherlich ein Weg gefunden wurde, welcher für alle Beteiligten tragbar ist.

Dabei muß am Ende AMD noch nicht einmal zwingend die Fertigung von Ryzen-Prozessoren zu Samsung auslagern – es würde genauso gut möglich sein, das man Ryzen exklusiv bei GlobalFoundries fertigt und dafür die Fertigung von Polaris-Grafikchips zu Samsung verschiebt. Mittelfristig dürfte sicherlich alles wieder bei GlobalFoundries landen, aber AMDs Hausfertiger ist derzeit eher noch beim Aufbau von großen 14nm-Kapazitäten und kann daher kurzfristig die Unterstützung durch Samsung sicherlich gebrauchen. Neben dieser Chipfertiger-Spekulation muß aber auch klar sein, das egal ob Ryzen-Prozessoren oder Polaris-Grafikchips nun von GlobalFoundries oder Samsung gefertigt werden, sich daraus mit hoher anzunehmender Sicherheit keinerlei Unterschiede in der Taktbarkeit der diversen gefertigten Chips ergeben werden. Die 14nm-Fertigungen von GlobalFoundries und Samsung sind wie gesagt derart identisch, das man ohne neue Maske von der einen zu anderen Foundry wechseln kann – was letztlich nahezu identische Ergebnisse ergeben sollte. Ob es in der Praxis dann vielleicht doch kleinere Differenzen gibt, wird sich erst ermitteln lassen, wenn entsprechende Produkte in breitem Umlauf sind (und man auf Basis einer großen Datenmenge vergleichen kann).

Außerhalb von Hardware-Themen ist das Jahr 2017 auch eines jener noch drei Jahre, in welchen Windows 7 noch supportet wird (das offizielle Support-Ende liegt auf dem 14. Januar 2020). Und selbst wenn es nichts direkt miteinander zu tun hat, kann man diese Terminlage auch als jenen Zeitraum ansehen, in welchem endlich etwas entscheidendes in Richtung Linux-Gaming passieren sollte. Wenn nicht, dann wird im Jahr 2020 auch der letzte Windows-10-Verächter letztlich doch zu Windows 10 oder potentiellen Nachfolgern gewechselt sein und Microsoft dürfte nachfolgend anfangen, sein erneut gefestigtes Monopol in klingende Münze umzuwandeln – mit automatisch eingespielten Feature-Update in Windows 10 kann man schließlich ganz schnell aus einem freien ein unfreies Betriebssystem mit zwangsweisem Windows-Store und dem Ausschluß von Win32-Anwendungen machen (im Sinne von Microsoft würde es sogar reichen, wenn DirectX-12-Titel nur noch als Windows-Store-App ausgeführt werden dürfen).

Da es bereits ausreichend Linux-Distributionen für jeden Geschmack gibt und die Grafikchip-Entwickler mit ihren Linux-Treibern inzwischen auch einen zumindest vernünftigen Job machen, muß das Hauptaugenmerk hierbei auf einem breiteren Linux-Spielesupport der Spieleentwickler liegen, welcher derzeit den größten Bremspunkt für Linux-Gaming darstellt. Der Weg hierzu führt wohl über eine stärkere Nutzung der Vulkan-API, welche zwar keinen automatischen Linux-Support mit sich bringt, jenen allerdings sehr viel einfacher erreichbar macht (da die Vulkan-API im Gegensatz zu DirectX 12 Plattform-unabhängig ist). Normalerweise sollten die Spieleentwickler (und vor allem die großen Spieledistributoren) durchaus selbst erkennen können, das die weitere Stärkung von Microsoft bzw. DirectX 12 jene direkt in die (zukünftige) totale Abhängigkeit vom Windows-Store führt – nicht wegen DirectX 12 selber, sondern weil es selbiges eben nur unter Windows 10 gibt und Windows 10 von Microsoft prinzipbedingt nach Gutdünken verändert werden kann.

1

Neuer Artikel: Das Hardware-Jahr 2017 in der Vorschau

Mit dem Ende des Hardware-Jahres 2016 beginnt das Hardware-Jahr 2017 – und damit ein neuer Kampf der Hersteller um Kunden, Marktanteile und Verkaufserfolge. Nachdem die Fortschritte in der langen Periode der 28nm-Fertigung zumeist eher nur scheibchenweise erzielt wurden, konnte das Hardware-Jahr 2016 zumindest teilweise mit großen Fortschritten im Grafikchip-Bereich durch den (dort) erstmaligen Einsatz der 14/16nm-Fertigung glänzen – so wie im übrigen zum Jahresanfang 2016 prognostiziert, auch wenn natürlich nicht alle der damaligen Prognosen letztlich eingetroffen sind. Aber das große Gesamtbild für das Jahr 2016 "GPUs interessant, CPUs eher nicht" hat sich durchaus bestätigt – letzteres sicherlich auch begünstigt durch die jüngere Entwicklung, das sich die CPU-Generationen Intel Kaby Lake und AMD Zen/Ryzen nunmehr ins Jahr 2017 verschoben haben.

Im Jahr 2017 dürfte es damit nochmals interessanter werden: Erstens einmal stehen die beiden genannten CPU-Generationen nun endgültig auf dem Speiseplan, insbesondere AMDs neue CPU-Architektur zieht dabei derzeit schon alle Blicke auf sich und wird inzwischen allgemein als Startschuß für einen neuen Wettbewerb im CPU-Segment gesehen. Und dann werden natürlich vor allem noch weitere 14/16nm-basierte HighEnd-Grafikchips mittels AMDs Vega-Generation erwartet, welche zum einen AMDs 14/16nm-Portfolio komplettieren werden und zum anderen erstmals in der 14/16nm-Generation einen Wettbewerb im Marktsegment der HighEnd-Grafikkarten auslösen sollten. Oder anders formuliert: Das Jahr 2017 steht in allen beiden wichtigen Chip-Feldern für die Wiederentdeckung des Wettbewerbs – dadurch, das alle drei Chipentwickler jeweils aktuelle Angebote in allen Marktsegmenten aufzubieten haben werden. Doch der Reihe nach ... zum Artikel.

1 1

Welche neue Hardware wird im Jahr 2017 am meisten erwartet?

Grundlage dieser Umfrage sind die im kürzlichen Artikel "Das Hardware-Jahr 2017 in der Vorschau" notierten Hardware-Innovationen für das Jahr 2017.

AMD Bristol Ridge
1% (10 Stimmen)
AMD Ryzen
68% (1197 Stimmen)
AMD Raven Ridge
2% (31 Stimmen)
AMD Polaris-Refresh
1% (10 Stimmen)
AMD Vega
15% (272 Stimmen)
Intel Kaby Lake
1% (17 Stimmen)
Intel Kaby-Lake-X & Skylake-X
2% (29 Stimmen)
nVidia GeForce GTX 1080 Ti
3% (61 Stimmen)
nVidia Pascal-Refresh
3% (60 Stimmen)
Nintendo Switch
3% (51 Stimmen)
Microsoft Xbox Scorpio
1% (26 Stimmen)
Gesamte Stimmen: 1764
30

Hardware- und Nachrichten-Links des 29./30. Dezember 2016

Bei PC Perspective hat man sich angesehen, was eine einfache GeForce GTX 1050 Ti mit einem normalen OEM-PC alles anstellen kann. Hierzu hatte man zwei reguläre Komplett-PCs am Start – einmal ausgerüstet mit dem Zweikerner Core i3-6100 und einmal ausgerüstet mit dem Vierkerner Core i7-6700. Beide PCs wurden ansonsten mit der integrierten Intel-Grafiklösung HD Graphics 530 ausgeliefert, welche natürlich (bei weitem) nicht an der Spitze von Intels integrierten Lösungen angesiedelt ist und demzufolge keinen Gegner für die GeForce GTX 1050 Ti darstellen kann. Unter den verschiedenen angestellten Benchmarks erreichte die nVidia-Grafik grob eine 7- bis 10fache Performance gegenüber der integrierten Grafik. Dabei mussten die angesetzten modernen Spiele für die integrierte Intel-Grafik auf Low-Presets heruntergedreht werden, um überhaupt noch sinnvolle Frameraten auswerfen zu können – was dann oftmals in dreistelligen fps-Werten mit der GeForce GTX 1050 Ti resultierte. Anders formuliert sind mit dieser Mainstream-Grafikkarte von nVidia mittlere bis hohe Details zu spielbaren Frameraten möglich, während die integrierte Grafik selbige nur unter Low-Bildqualität und dem (deutlichen) Herunterdrehen der Auflösung erreichen dürfte. Der entscheidende Punkt der ganzen Übung ist aber sicherlich die Demonstration dessen, das man selbst einen normalen Komplett-PC problemlos mit einer GeForce GTX 1050 Ti in einem (kleinen) Gaming-PC verwandeln kann – und im Fall des Core i3-6100 reichte dafür selbst das nominell schwache 240-Watt-Netzteil aus.

Von BenchLife (maschinelle Übersetzung ins Deutsche) kommt eine wilde Meldung ob eines Kaby-Lake-Refreshs, welchen Intel angeblich gegen Herbst 2017 als "Core iX-8000" Serie herausbringen will. Dafür liegt allerdings eine gewisse Bestätigung mittels einer Intel-Unterlage vor, welche gerade auch diese neue Prozessoren-Serie explizit nennt. Trotzdem ist die Deutung dieser Meldung durchaus noch offen – denn Kaby Lake ist ja faktisch schon ein Refresh und Intel benötigt angesichts von AMDs kommenden Ryzen-Prozessoren sicherlich keine weiteren Refreshs, sondern eher dringend die Coffee-Lake-Generation mit mehr CPU-Kernen auch im normalen Consumer-Segment. Sinn macht das ganze nur dann, wenn damit letztlich nur gemeint wäre, das speziell Kaby Lake-R eben auch Teil der gemeinsamen Generation von Coffee Lake und Canon Lake werden wird – sprich mit in die Core iX-8000 Serie übernommen würde. Eine echter Kaby-Lake-Refresh (mit einem kompletten Portfolio an neuen Kaby-Lake-Modellen) würde hingegen Intels bisherig bekannte Releasestrategie komplett auf den Kopf stellen und vor allem die Coffee-Lake-Generation noch weiter nach hinten verschieben.

Bei 3DNews (maschinelle Übersetzung ins Deutsche) hat man aus dem Zen-Bericht von Canard PC weitere Details zur Zen-basierten Raven-Ridge-APU gezogen. So sollen diese nativen Vierkerner mit integrierter GCN5-Grafiklösung (aka Vega-basiert) mit nur halb so viel Level3-Cache antreten wie gleichartige Ryzen-Prozessoren – sprich für eine volle Raven-Ridge-APU gibt es 4 MB Level2-Cache, während ein Ryzen-Prozessor mit nur 4 CPU-Kernen 8 MB Level3-Cache aufzubieten hätte. Angesichts dessen, das AMDs bisherige APUs gänzlich auf einen Level3-Cache verzichten müssen, ist dieser Einschnitt allerdings verkraftbar. Genauso wenig dürfte die Halbierung des PCI-Express-Interfaces auf 8 Lanes wirklich wichtig sein, da man eine APU kaum mit einer so potenten Grafikkarte koppelt wird, als daß dies einen beachtbaren Unterschied ausmachen würde. Beide Abspeckungen dürften aber dazu beitragen, das die Raven-Ridge-APUs Chip-technisch nicht derart dicke Silizium-Brocken werden wie die bisherigen Carrizo-basierten AMD-APUs (250mm² Chipfläche).

Denn immerhin geht AMD bei Raven Ridge auch bei der integrierten Grafiklösung wieder nach vorn und wird hier gemäß früheren Roadmaps gleich 768 Shader-Einheiten (12 Shader-Cluster) verbauen – gegenüber bisher 512 Shader-Einheiten in den Carrizo-basierte APUs. Gemäß 3DNews will man damit eine Rechenleistung von 2 TFlops erreichen, der iGPU-Takt soll bei 1200 MHz liegen – dies ergibt allerdings nur 1,84 TFlops, der Rest dürfte über die CPU kommen bzw. wurde dies eventuell auch einfach nur großzügig aufgerundet. Auch so erscheint die iGPU-Taktrate vergleichsweise hoch, schließlich erreicht AMD bei seinen aktuellen Polaris-Grafikkarten auf diesen Taktraten schon Bereiche schlechter Energieeffizienz, wäre eine etwas niedrigere Taktrate bei einer APU durchaus zu erwarten. Andererseits könnte diese Taktraten-Angabe auch nur der maximale Boosttakt sein, welcher allenfalls in Desktop-Systemen (mit hoher TDP) oder vielleicht sogar nur sporadisch erreichbar ist, AMD hat ja durchaus eine gewisse Historie an hochgejubelten Rechenleistungs-Angaben. Ob es damit auch eine reale Mehrperformance gibt, dürfte sowieso viel eher daran liegen, welchen DDR4-Speicher AMD an seine Raven-Ridge-APUs bindet bzw. ob die GCN5-Architektur neue Tricks zur Speicherbandbreite-sparenden Grafikberechnung beherrscht.

30

Neuer Artikel: Eine Performance-Einordnung der GeForce GTX 1060 3GB

Wohlweislich ohne großen Launch hatte nVidia am 18. August 2016 die GeForce GTX 1060 3GB ins Angebots-Portfolio aufgenommen, die Karte wurde auch umgehend von den einzelnen Grafikkarten-Herstellern adaptiert und nachfolgend breit verfügbar. Was primär fehlte, war ein großer Strauß an Launch-Tests – was nVidia sehr gut in den Kram passte, denn da wollte man sicherlich nicht gerade fachmännisch nachgewiesen bekommen, das diese zweite GP106-basierte klar langsamer als die GeForce GTX 1060 6GB ust bzw. das die nur 3 GB Grafikkartenspeicher schon hier und da limitierten. Leider sind erst im Laufe der Zeit eine beachtbare Anzahl an (sinnvollen) Tests zur GeForce GTX 1060 3GB hinzugekommen – welche wir hiermit auswerten und damit die Performance der GeForce GTX 1060 3GB endlich einmal präzise angeben wollen ... zum Artikel

470 480-4GB 480-8GB 1050Ti 1060-3GB 1060-6GB
gemessene FullHD-Performance 81,7% 88,3% 93,5% 60,7% 90,5% 100%
3DC FullHD Performance-Index 480% 520% 550% 360% 530% 590%
(Differenz gegenüber bisherigem Stand) - - - - (+20) -
Straßenpreis 190-220€ 220-250€ 240-270€ 150-170€ 210-240€ 270-300€
Inhalt abgleichen