20

AMDs Polaris-Webinar bringt gewisse Daten zur neuen Display- und Multimedia-Engine

Ein wenig untergegangen im Launch der GeForce GTX 1080 sowie der Bekanntgabe der offiziellen Spezifikationen zur GeForce GTX 1070 ist AMDs am 18. Mai abgelaufenes Webinar zur Polaris-Architektur. AMD hatte jenes vorab nicht groß promotet und auch keine genauere Einblicke in kommende Produkte versprochen, sondern nur einen Überblick über die Polaris-Architektur – und genau dies ist es dann auch geworden. Eventuell kann man aus der Richtung, wie Polaris seitens AMD promotet wird, dessen Designschwerpunkte erahnen – hierzu ritt AMD deutlich auf dem Punkt von "Asynchronous Compute" herum, welches man als Schlüsselfeature der vierten GCN-Iteration bezeichnete. Am Ende ist das ganze ohne Daten & Zahlen jedoch nur (höchst) ungenauer Spekulatius und kann man sich nur zielsicher mit den wenigen von AMD genannten Polaris-Fakten auseinandersetzen. Jene versprechen – aber auch kein Wunder in einer neuen Chip-Generation – eine neue, modernere Display- und Multimedia-Engine:

AMD Polaris Architektur-Features
AMD Polaris Architektur-Features
AMD Polaris Display-Engine
AMD Polaris Display-Engine
AMD Polaris Multimedia-Engine
AMD Polaris Multimedia-Engine

Dies müsste allerdings trotzdem noch in eine konkrete Featureliste gegossen werden, um es wirklich mit nVidias neuen Fähigkeiten beim GP104-Chip vergleichen zu können. Andererseits gilt auch hier und vor allem, das Polaris nun einmal kein GP104-Kontrahent ist, jegliche GP104-Fähigkeiten eigentlich für den Vergleich zu Polaris keine Rolle spielen. Nach wie vor wird der größere Polaris-10-Chip im Bereich von 300-350 Dollar Listenpreis erwartet, der kleinere Polaris-11-Chip hingegen im Bereich von 150-200 Dollar Listenpreis (jeweils bezogen auf die größte angebotene Chipvariante). AMD hat sich hierzu natürlich nicht offiziell geäußert, dies ergibt sich aber recht automatisch aus allen herumschwirrenden Hardwaredaten, AMDs eigener Roadmap (mit zwei noch schnelleren Vega-Chips im Herbst 2016 sowie Anfang/Mitte 2017) sowie auch AMDs zwischen den Zeilen stehenden Andeutungen.

Klar bestätigt wurden hingegen beim Polaris-Webinar die beiden Polaris-Chips Polaris 10 (Performance-Segment) und Polaris 11 (Mainstream-Segment), welche beiderseits in mehreren Varianten sowohl für Desktop- als auch Mobile-Bedürfnisse erscheinen sollen. Als weitere Bestätigung hierfür gibt es in unserem Forum eine Liste mit bekannten Device-IDs für die beiden Polaris-Chip, welche immerhin 11 Device-IDs für Polaris 11 sowie 9 Device-IDs für Polaris 10 ausweist. Da für das Desktop-Segment hierfür nur 2-3 Stück gebraucht werden, scheint AMD schon sehr aktiv im Mobile-Segment zu sein – was ja auch erwartet wurde für diesen lange vorbereiteten und schon zum Jahresanfang angekündigten Launch. Für die Desktop-Modelle versprach AMD hingegen eine größere Vielfalt an verschiedenen Modellen der Grafikkarten-Hersteller, welchen keine Beschränkungen beim Erreichen besonders hoher Taktraten (zuungunsten dann natürlich der Energieeffizienz) auferlegt werden sollen. Sollte dies eintreffen, könnte sich nachfolgend auch bei AMD ein guter Wettbewerb der Grafikkarten-Hersteller in Richtung besonders interessanter ab-Werk-Übertaktungen entwickeln – wie jener schon den aktuellen Markt an nVidia-Grafikkarten prägt.

20

AMD legt das "Total War: Warhammer" Spielebundle für Radeon R9 390 & 390X sowie FX-Prozessoren auf

Nach dem Auslaufen des Hitman (2016) Spielebundles bekommen die Radeon R9 390 & 390X Grafikkarten von AMD ein neues Spielebundle spendiert, in welchem es diesesmal den ab 24. Mai verfügbaren Rundenstrategietitel "Total War: Warhammer" kostenlos oben drauf gibt. Wie schon beim letzten Spielebundle für Radeon R9 390 & 390X werden auch hier die Käufer von FX-Prozessoren mit bedacht, das neue AMD-Spielebundle gilt somit auch für Käufer von AMDs Achtkern-Prozessoren der FX-Baureihe, sofern in der Boxed-Version erworben. Das neue Spielebundle soll bis zum 15. August laufen – oder bis die von AMD eingekauften Lizenzschlüssel alle weggegangen sind, je nachdem was zuerst eintrifft.

Wie üblich bei Spielebundle-Aktionen gilt auch hier, daß den genannten AMD-Grafikkarten & AMD-Prozessoren – gekauft bei einem an der Aktion teilnehmenden Händler – entsprechende Coupons beiliegen, welche auf einer speziellen AMD-Webseite dann in Download-Codes eingelöst werden können. Bei der Hardware-Bestellung ist auf das Vorhandensein eines entsprechenden AMD-Coupons in der Angebotsbeschreibung zu kontrollieren, da nicht jeder Händler an dieser Aktion teilnimmt und selbst bei den teilnehmenden Händler nicht jedes Produktangebot Teil dieser Aktion sein muß.

Aktionszeitraum Inhalt des Spielebundles
Radeon R9 390 & 390X 1. November 2015 bis spätestens 31. Dezember 2015 Spiel "DiRT Rally"  (Einlöse-Webseite)
Radeon R9 Fury 17. November 2015 bis spätestens 31. Januar 2016 (verlängert bis zum 31. März 2016) Spiel "Star Wars Battlefront"  (Einlöse-Webseite)
Radeon R9 Fury X 14. Dezember bis spätestens 31. Januar 2016 (verlängert bis zum 31. März 2016) Spiel "Star Wars Battlefront"  (Einlöse-Webseite)
Radeon R9 390 & 390X
FX-6xxx & FX-8xxx Prozessoren
16. Februar 2016 bis spätestens 30. April 2016 Spiel "Hitman (2016)"  (Einlöse-Webseite)
Radeon R9 390 & 390X
FX-8xxx Prozessoren (boxed)
17. Mai 2016 bis spätestens 15. August 2016 Spiel "Total War: Warhammer"  (Einlöse-Webseite)
19

Hardware- und Nachrichten-Links des 18./19. Mai 2016

Zur aktualisierten Performance-Prognose zur GeForce GTX 1070 wäre noch der Gedanke hinzuzutragen, das sich an dieser Karte wohl noch viel besser zeigt, das der GP104-Chip kein Upgrade für GM200-Besitzer darstellen kann. Die GeForce GTX 1070 wird laut dieser Prognose ziemlich exakt in das Performance-Feld der GM200-basierten GeForce GTX 980 Ti & Titan X hineingehen. Die größere GeForce GTX 1080 ist zwar wiederum schneller, aber nicht schnell genug, um jene GM200-basierten Karten klar hinter sich zu lassen. Ausgehend vom GM204-Chip wird hingegen ein Schuh draus: Die GeForce GTX 1070 kommt ca. 40-65% vor der GeForce GTX 970 heraus (je nach benutzer Auflösung), die GeForce GTX 1080 hingegen ca. 60-70% vor der GeForce GTX 980. Dies sind sinnvolle Aufrüstungen (selbst wenn eine glatte Performance-Verdopplung natürlich besser wäre), welche nur im Fall der GeForce GTX 1080 etwas durch den hohen Preispunkt ausgebremst werden. Hier hat nVidia einer letztlich nur für das HighEnd-Segment gedachten Karte (welches nach dem Enthusiasten-Segment nur das zweithöchste Preis- und Performance-Segment darstellt) einen Enthusiasten-Preis mit auf die Reise gegeben, was den hohen gegenüber der GeForce GTX 980 erreichbaren Performancegewinn maßgeblich eintrübt.

Die Diskussion über den Preispunkt der GeForce GTX 1080 bestimmte dann auch (seitenlang) die Forendiskussion zum Launch dieser Karte. Die Meinungen und Argumente hierzu gehen durchaus weit auseinander, eine klare Linie ist noch nicht erkennbar – was natürlich auch gar nicht sein muß, die Karte ist zu dieser Preislage halt generell diskussionswürdig. Warum sich der hohe Preispunkt eventuell technisch rechtfertigen läßt, wurde im übrigen in einer Liste festgehalten. Ein weiterer Diskussionsschwerpunkt ist die Übertaktungseignung der neuen nVidia-Karte, zu welcher es widersprüchliche Aussagen gibt. Die These, das es bis auf 2500 MHz Chiptakt hinaufgeht, scheint inzwischen etwas beerdigt zu sein – aber dennoch geht man weiterhin davon aus, das (dauerhaft) über 2000 MHz machbar sein sollten, gute Übertaktungen wohl 2200 MHz erreichen könnten. Die bislang beste Übertaktung liegt bei 2164/2800 MHz, erreicht (weiterhin im Referenzdesign) mit einem Hybrid-Kühler bei Gamers Nexus. Hier ist allerdings noch sehr viel in der Schwebe, weil eben die Herstellerdesigns zur GeForce GTX 1080 noch nicht vorliegen.

Jene müssen augenscheinlich vor allem bei den Power- und Temperatur-Limits kräftig zulegen, um wirklich viel aus der GeForce GTX 1080 herauszukitzeln – höhere Chipspannungen reichen nicht aus, da selbst bei exzellenter Kühlung auf der jetzigen Founders Editions umgehend das Power-Limit greift. Interessant hierzu auch: Eine Speicherübertaktung hilft der Karte exzellent weiter – augenscheinlich hat jene für ihr Performance-Segment nur arg knapp an Speicherbandbreite. Dabei gilt allerdings zu beachten, das bei zu hohen Speichertakten die Karte sogar langsamer wird, man sich hier also manuell nicht an die höchste erreichbare, sondern die höchste sinnvolle Speicherübertaktung herantasten muß. Davon abweichend wäre zur Technik noch wichtig der Hinweis, das "Fast Sync" faktisch wie TripleBuffering wirkt – nur das nVidia nunmehr nicht auf dessen Vorhandensein im Rahmen von DirectX oder OpenGL angewiesen ist, sondern jenes mittels des Treibers selbsttätig anbietet. Und abschließend sei noch auf die Statements zweier ausgewiesener Grafikkarten-Experten hingewiesen: aths zur GeForce GTX 1080 (langjähriger früherer 3DCenter-Mitarbeiter) und FormatC zur GeForce GTX 1080 (Hardwaretester bei Tom's Hardware).

Bezüglich der Lieferbarkeit und Preislage der GeForce GTX 1080 gibt es hingegen (zumeist) erfreuliches zu vermelden: Zwar werden vereinzelt Vorbesteller-Abzockpreise (1073 Euro bei BA-Computer sowie Haym) gelistet, dafür aber berichten HardOCP, das am 27. Mai nicht nur die Founders Edition, sondern bereits sogar erste Herstellerdesigns in den Handel gehen sollen. Dies wäre dann deutlich vor der nVidia-Ankündigung, welche Herstellerdesigns erst zwei Wochen nach Verfügbarkeit der Founders Edition genannt hatte. An den zur Verfügung stehenden GP104-Chips liegt es augenscheinlich nicht – nVidia hatte jene nur zurückgehalten, aber in ausreichender Menge produziert sind jene wohl durchaus. Die wichtigste Information dürfte aber jene sein, das laut einer Aussage in einem Stream von PC Perspective Grafikkartenhersteller EVGA tatsächlich ein Herstellerdesign für 599 Dollar vorbereitet. Sollte sich die Preislage der GeForce GTX 1080 an diesem Punkt einpendeln, dann müsste man jene noch einmal neu betrachten – was aber bereits angekündigt worden war.

Ausgehend von NeoWin frisst sich derzeit die Nachricht durchs Web, das neue Windows-10-Geräte mit dem für diesen Sommer angekündigten "Anniversary Update" dann auch einen vorhandenen und aktivierten TPM 2.0 Baustein auf dem Mainboard voraussetzen. Dies kommt allerdings auch nicht wirklich überraschend, sondern wurde von Microsoft schon vor dem Launch von Windows 10 derart kommuniziert. Das unglückselige Kapitel TCPA & Trusted Computing findet damit seinen vorläufigen Höhepunkt – den Abschluß wird wohl bilden, das der Windows-10-Nachfolger gleich vom Start weg auf aktive TPM-Module aufsetzt. Einschränkenderweise sei zu erwähnen, das es sich hierbei nicht um eine Hardware-Anforderung von Windows 10 handelt, sondern um eine Microsoft-Anforderung für das "Designed for Windows" Siegel. Komplett-PCs und Notebooks ohne ein solches Siegel sind jedoch arg selten, wahrscheinlich bindet Microsoft an dieses Siegel diverse Lizenz-Rabatte, was es für die OEM-Hersteller damit auch wirtschaftlich interessant macht.

Eine gewisse Ausweichmöglichkeit besteht weiterhin in den Produkten für den Selbstbau-PC – hierbei müsste man beim Mainboard seiner Wahl auf ein Modell ganz ohne TPM (hat dann aber auch keine Microsoft-Zertifizierung) oder mit einer Abschaltmöglichkeit im BIOS achten. Windows 10 wird dies nicht stören, da das ganze wie gesagt keine Anforderung des Betriebssystems selber ist, jenes das TPM nicht zum Funktionieren benötigt (später könnten allerdings Anwendungen auftauchen, die ein aktives TPM voraussetzen). Mit Wink an die Mainboard-Hersteller sei hierbei auf eine frühere Umfrage verwiesen, welche einen erheblichen Bedarf an solcherart Mainboards unter den 3DCenter-Lesern aufzeigt. Dabei könnte man ironischerweise Trusted Computing und somit auch ein TPM durchaus zu nutzvollen Dingen einsetzen – allein, davon wird seit über 10 Jahren geredet, irgendein Nutzwert für den Endanwender hat sich noch nicht eingefunden. Vielmehr bestehen angesichts der jüngsten Tendenzen eher große Bedenken, daß das ganze vielmehr zum klaren Nachteil der Endanwender ausgenutzt wird. Zu beachten ist hierzu auch die Warnung des BSI, das solcherart Computer (normalerweise) keine Zulassung für den Behördeneinsatz erhalten können.

19

Die offiziellen Spezifikationen und eine aktualisierte Performance-Prognose zur GeForce GTX 1070

Mit dem Launch der GeForce GTX 1080 hat nVidia auf seinen Webseiten nun auch offizielle Angaben und Spezifikationen zur GeForce GTX 1070 veröffentlicht, womit die bisherigen Spezifikations-Angaben ergänzt und die darauf basierende Performance-Prognose aktualisiert werden kann. Wichtigster Punkt ist die Bekanntgabe der groben Hardware-Daten, welche auf 1920 Shader-Einheiten an einem 256 Bit GDDR5-Speicherinterface lauten. Der Shader-Count ist damit nochmals etwas niedriger als zuletzt gedacht, dies sind gerade einmal drei Viertel der Shader-Einheiten der GeForce GTX 1080 – eine ungewöhnlich hohe Abspeckung. Dafür konnte nVidia die Taktraten ziemlich weit oben lassen, jene lauten offiziell auf 1506/1683/4000 MHz – woraus sich wieder die vorher schon so genannte offizielle (theoretische) Rechenleistung von ~6,5 TFlops ergibt. Wie die realen Taktraten der Karte unter Last ausfallen, müssen dann die Hardwaretests zum offiziellen Launch am 10. Juni 2016 nachprüfen.

GeForce GTX 970 GeForce GTX 980 GeForce GTX 980 Ti GeForce GTX 1070
Chipbasis nVidia GM204, 5,2 Mrd. Transist. in 28nm auf 398mm² Chipfläche nVidia GM200, 8 Mrd. Transist. in 28nm auf 601mm² Chipfläche nVidia GP104, 7,2 Mrd. Transist. in 16nm auf 314mm² Chipfläche
Architektur Maxwell 2, DirectX 12 Feature-Level 12_1 Pascal, DirectX 12 Feature-Level 12_1
Technik 4 Raster-Engines, 1664 Shader-Einheiten, 104 TMUs, 56 ROPs, 224 Bit GDDR5-Interface 4 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 64 ROPs, 256 Bit GDDR5-Interface 6 Raster-Engines, 2816 Shader-Einheiten, 176 TMUs, 96 ROPs, 384 Bit GDDR5-Interface 1920 Shader-Einheiten, 120 TMUs, 256 Bit GDDR5-Interface
Taktraten 1050/1178/3500 MHz
(Ø-Chiptakt: 1178 MHz)
1126/1216/3500 MHz
(Ø-Chiptakt: 1144 MHz)
1000/1075/3500 MHz
(Ø-Chiptakt: 1114 MHz)
1506/1683/4000 MHz
Rechenleistung 3,92 TFlops 4,69 TFlops 6,27 TFlops ~6,5 TFlops
Bandbreite 196 GB/sec 224 GB/sec 336 GB/sec 256 GB/sec
Speicherausbau 4 GB GDDR5
(nur 3,5 GB performant nutzbar)
4 GB GDDR5 6 GB GDDR5 8 GB GDDR5
Ref./Herst./OC // // // //?
Stromstecker 2x 6pol. 2x 6pol. 1x 6pol. + 1x 8pol. 1x 8pol.
TDP 145W  (GCP) 165W  (GCP) 250W  (GCP) 150W  (GCP)
Ausgänge DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-I, HDMI 2.0 (kein HDCP 2.2), 3x DisplayPort 1.2 DualLink DVI-D, HDMI 2.0b, 3x DisplayPort 1.4
FullHD Perf.Index 520% 600% 730% geschätzt ~720-760%
4K Perf.Index 64% 77% 100% geschätzt ~100-105%
Listenpreis 329$ 499$ 649$ 449$
(Herstellerdesigns ab 379$)
Release 19. September 2014 31. Mai 2015 10. Juni 2016

Da das Speicherinterface im Gegensatz zur GeForce GTX 970 augenscheinlich nicht abgespeckt wurde und mit gleich 4000 MHz DDR Speichertakt läuft, kommt sogar eine Speicherbandbreite leicht oberhalb des Niveaus der GeForce GTX 980 heraus. Aufgrund des vollen Speicherinterfaces ist auch eine Abspeckung bei der (bislang ungenannten) Anzahl der Raster Operation Units (ROPs) eher unwahrscheinlich – da jene üblicherweise derart fest an das Speicherinterface gebunden sind, das eine niedriger Anzahl an ROPs automatisch auch ein kleineres Speicherinterface oder aber wenigstens ein kleineres nutzbares Speicherinterface nach sich zieht. Rein praktisch braucht die GeForce GTX 1070 aufgrund der klar niedrigeren Rechenleistung nicht die vollen 64 ROPs des GP104-Chips, aber wegen dieser Seitenwirkung auf das Speicherinterface ist es eher unwahrscheinlich, das nVidia hier herumspielt (es sei denn, man hätte einen Weg gefunden, dies richtiggehend zu entkoppelt).

Eine eher mögliche Abspeckung könnte dann bei den Raster-Engines liegen: nVidia verbaut beim GP104-Chip vier Stück hiervon, der GeForce GTX 1070 fehlen jedoch glatt ein Viertel der Shader-Einheiten der GeForce GTX 1080 – an dieser Stelle könnte man natürlich auch eine Raster-Engine deaktivieren. Gebraucht würde jene für die GeForce GTX 1070 nicht wirklich, nach Deaktivierung ergibt sich das exakt gleiche Verhältnis von Shader- zu Raster-Power wie bei der GeForce GTX 1080. Echte Performance-Auswirkungen sind hiervon nicht zu erwarten – oder anders formuliert: Mit allen vier Raster-Engines wäre die GeForce GTX 1070 wohl auch nicht schneller. Insofern erscheint dies als logische Abspeckung, auch wenn es derzeit dafür natürlich noch keinerlei Belege hierfür gibt. In nachfolgender Übersicht der Rohleistungen (basierend erst einmal auf dem offiziellen Boosttakt von 1683 MHz) wurde diese Annahme bereits eingearbeitet:

Sehr gut bereits an diesen Rohleistungen zu sehen ist die grundsätzliche Ausrichtung der GeForce GTX 1070 – zwar als Nachfolger der GeForce GTX 970, aber mit wesentlich mehr Performance. Jene sollte klar das Performance-Niveau der GeForce GTX 980 übersteigen und eher in Richtung der GeForce GTX 980 Ti gehen. Die primären Differenzen zur GeForce GTX 1080 sind hiermit ebenfalls gut erkennbar: Die größere GP104-Variante bringt 34,2% mehr Rechenleistung zu 25,0% mehr Speicherbandbreite mit sich. Dies ist ein vergleichsweise hoher Unterschied, bei GeForce GTX 970 zu 980 lagen diese Werte bei +19,5% bzw. +14,3%, was dann zu einer Performance-Differenz von ca. 15% unter FullHD und ca. 20% unter UltraHD führte – letzteres sicherlich auch beeinflußt durch den nur 3,5 GB bei der GeForce GTX 970 performant nutzbaren Speicher. Einen solchen Effekt dürfte es beim Vergleich von GeForce GTX 1070 zu 1080 nicht geben, insofern sollte die Performance-Differenz beider Karten eher leicht unterhalb der Differenz bei der Rohleistung liegen.

Ein anderer Hinweis zur Performance der GeForce GTX 1070 ist direkt der nVidia-Webseite zu entnehmen: Dort soll auf Basis zweier Benchmark-Titel die GeForce GTX 1070 um 71% vor einer GeForce GTX 970 liegen. Normalerweise sind Hersteller-eigene Angaben und auf Basis so weniger Testtitel keine ernsthafte Betrachtung wert – aber im Fall der GeForce GTX 1080 hat sich im nachhinein gezeigt, das die nVidia-eigenen Performanceangaben ziemlich treffsicher waren. Mit dem gleichen Benchmark-Set hatte nVidia der GeForce GTX 1080 einen Performance-Vorteil gegenüber der GeForce GTX 980 von 72% prophezeit, in der Realität der Launchtests waren es dann gemittelt +70% unter UltraHD. Beide Ansätze zur Performance-Prognose ergeben dann einen 4K Performance-Index von zwischen 100 bis 110%, wobei wir für die GeForce GTX 1070 lieber etwas defensiv schätzen wollen und jene damit derzeit auf ~100-105% einordnen. Hieraus folgt ein FullHD Performance-Index, der irgendwo zwischen ~720-760% liegen dürfte.

Dies ergibt ein Performanceniveau wie von GeForce GTX 980 Ti und Titan X her bekannt – die GeForce GTX 1070 ist zwar der Nachfolger der GeForce GTX 970, löst aber von der Performance her diese beiden Enthusiasten-Lösungen ab. Und hierbei wird es endlich auch interessante Preisvorteile geben, denn die GeForce GTX 1070 ist mit einem Listenpreis für die Founders Edition von 449 Dollar klar besser angesetzt als GeForce GTX 980 Ti (649$, Straßenpreis derzeit bei 600-640€) und natürlich GeForce GTX Titan X (999$, Straßenpreis derzeit bei 1000-1100€). Sollten die Grafikkarten-Hersteller dann auch noch den angekündigten Preis von 379 Dollar für die Herstellerdesigns umsetzen können, kommt die GeForce GTX 1070 fast schon als Preisbrecher daher. Bei dieser zweiten GP104-Karte wird sich dann jener Effekt finden lassen, welcher üblicherweise Grafikkarten auf neuer Fertigungstechnologie auszeichnet – das es mit diesen klar mehr Performance zum selben Preispunkt gibt. Kommt alles ungefähr so heraus, wie wir vorstehend prognostiziert haben, dürfte die GeForce GTX 1070 somit das weit interessantere Produkt basierend auf dem GP104-Chip von nVidias Pascal-Generation werden.

Nachtrag vom 20. Mai 2016

Die PC Games Hardware hat sich von nVidia bestätigen lassen, das das Speicher-Subsystem der GeForce GTX 1070 in keiner Form beschnitten ist – bis auf die Nutzung von GDDR5-Speicher anstatt von GDDR5X-Speicher natürlich. Hierzu hat man sich die explizite Bestätigung eingeholt, das es auch in den Details – Anzahl der Raster Operation Units, Menge des Level2-Caches, Level der Farbkomprimierung – keine Unterschiede zur GeForce GTX 1080 geben wird. Dies war schon vermutet worden (und zwar auch allein deswegen, weil nVidia nicht noch einmal so ein Ärgernis wie bei der GeForce GTX 970 erleben will) – aber eine offizielle Bestätigung ist natürlich viel besser als wohlfeile Annahmen. nVidia braucht bei der GeForce GTX 1070 auch keine derartigen Abspeckungen, weil allein der Wechsel von GDDR5X auf GDDR5 (trotz deutlich höheren Speichertakts) die Speicherbandbreite in diesem konkreten Fall um 20% reduziert. Zusammen mit dem 25%igen Verlust an Shader-Einheiten von GeForce GTX 1080 zu 1070 wird sich immer ein vergleichsweise hoher Performance-Abstand zwischen beiden Karten ergeben, da braucht es keine zusätzlichen Abspeckungen an Nebenpunkten.

18

Neuer Artikel: Launch-Analyse nVidia GeForce GTX 1080

Immerhin gut viereinhalb Jahre nach dem Launch der ersten 28nm-Beschleuniger (AMDs Radeon HD 7970 im Dezember 2011) kommt mit der GeForce GTX 1080 eine erste Grafikkarte basierend auf einer moderneren Fertigungstechnologie in den Markt. Dies ist ein selbst in Zeiten geringer werdender Fortschritte in der Chipfertigung vergleichsweise langer Zeitraum – welcher verbunden war mit einer langen Zeit des Wartens auf die 14/16nm-Generation, nun aber Hoffnung darauf macht, das sich diese lange Wartezeit jetzt in Form kräftiger Performanceschübe bezahlt macht. Ob die GeForce GTX 1080 diesen hohen Erwartungen gerecht werden kann, werden wir nachfolgend im Rahmen dieser Launch-Analyse herauszuarbeiten versuchen, welche wie immer als primären Punkt eine Zusammenfassung bzw. Zusammenrechnung möglichst vieler der Benchmark-Ergebnisse der Launchreviews bieten wird ... zum Artikel.

17

Hardware- und Nachrichten-Links des 16./17. Mai 2016

Bei den kürzlich notierten Spezifikationen zur Radeon R9 470X auf Basis von AMDs Polaris-11-Chip hatten wir leider nur unsere eigene Performance-Prognose genannt, nicht aber jene der chinesichen Quelle. Selbige setzte die Radeon R9 470X deutlich höher an als wir mit dem Performance-Niveau der Radeon R9 270X (Perf.Index 300%) – und zwar auf einem Performance-Niveau zwischen Radeon R9 380 (Perf.Index 360%) und Radeon R9 380X (Perf.Index 390%). Diese zwei gegensätzlichen Ansichten kann man durchaus so stehenlassen – denn natürlich wäre es besser, wenn AMD dieses höhere Performanceziel mit dem Polaris-11-Chip erreichen kann. Immerhin basieren Radeon R9 380 & 380X auf dem Tonga-Chip und sind mit Stromverbrauchswerten nahe bei 200 Watt nur mit Augenzudrücken für das Mainstream-Segment geeignet, bedürfen also sicherlich einer (energieeffizienteren) Ablösung. Allerdings sprechen unserer Meinung nach die Rohdaten der genannten Radeon R9 470X mit 95% der Rechenleistung und nur 62,5% der Speicherbandbreite einer Radeon R9 270X nicht gerade dafür, sich wirklich gleich mit Tonga-basierten Beschleunigern anlegen zu können.

Gegenüber einer Radeon R9 380 sind es beispielsweise nur 73,6% der Rechenleistung und 61,4% der Speicherbandbreite für die Radeon R9 470X – dies ist ein heftiger Rohleistungsunterschied, welcher nicht ganz so einfach über reine Verbesserungen an der Grafikchip-Architektur überbrückt werden kann. Sollte AMD dies tatsächlich gelingen, würde die Polaris-Generation (GCN 2.0) eine glatt um 35% höhere IPC gegenüber GCN 1.2 hinlegen, die Verbesserung bei der real nutzbaren Speicherbandbreite müsste in einem ähnlichem Rahmen ausfallen (ganz perfekt muß die Speicherbandbreite nicht passen, da die Radeon R9 470X für eher normale Auflösungen gedacht ist und damit niedriger angesetzt erscheint als Radeon R9 380 & 380X). Ein solch hoher Effizienzsprung würde AMD zwar gut bekommen, bleibt aber wirklich entsprechende Testergebnisse abzuwarten – vorab so etwas zu prophezeien, weckt nur unerfüllbare Erwartungen, was das letzte ist, was AMD gebrauchen kann. Man kann beide Prognosen wie gesagt so stehenlassen – aber zur Prognose von ITHome im Hinterkopf behalten, das jene angesichts der vorliegenden Hardware-Daten und vor allem den genannten niedrigen Taktraten doch sehr optimisch aussieht.

In einem Blogbeitrag gibt Microsoft einige Verbesserungen im Update-Prozeß von Windows 7 & 8.1 bekannt: So werden alle nicht sicherheitskritischen Updates zukünftig nicht mehr als Einzelpatches angeboten, sondern als monatliches Paket – womit sich die Zahl der insgesamten Patches verringert, der Verwaltungsaufwand insbesondere für Admins geringer wird. Zudem wird es für Windows 7 nun doch ein inoffizielles Service Pack 2 geben, hochtrabend "Windows 7 SP1 Convenience Rollup" genannt. Jenes enthält alle Patches für Windows 7 ab dem Service Pack 1 bis zum Stand April 2016, sowohl sicherheitskritische als auch nicht sicherheitskritische. Nicht enthalten sind allein Patches für .NET und den Internet Explorer, wobei man diese beiden Punkte bei einer Windows-7-Neuinstallation über eine Installation der jeweils aktuellsten Programmversionen sowieso eleganter lösen kann. Das Windows 7 SP1 Convenience Rollup steht allerdings allein über den Microsoft Update Catalog zur Verfügung, welcher derzeit nur mit dem Internet Explorer bedienbar ist – aber auch dieses Problem will Microsoft in Zukunft durch Verzicht auf ActiveX-Techniken aus der Welt schaffen.

Laut Heise soll das seit dem Jahr 2010 laufende EU-Wettbewerbsverfahren gegen Google nun noch in diesem Sommer abgeschlossen werden – und mit einer hohen Kartellstrafe von 3 Milliarden Euro enden. Hiermit sollen wohl Benachteiligungen ausgeglichen werden, welche durch die gerade in der EU marktbeherrschende Stellung von Google als Suchmaschinen-Anbieter für dessen Wettbewerber entstanden sind. Die Summe der (vermutlichen) Strafzahlung mag sogar dreimal höher sein als das, was Microsoft einst im Browser-Krieg zahlen musste – und dürfte Google dennoch nicht wirklich interessieren, dies ist zum jetzigen Stand noch nicht einmal ein ganzer Quartalsgewinn. Gerade Google sitzt zudem auf Barreserven von 80-100 Milliarden Dollar und weiss faktisch nicht mehr wohin mit dem Geld – da wird alles aufgekauft, was irgendwie interessant erscheint, egal des Preispunkts. Die EU-Strafzahlung dürfte somit einen rein buchhalterischen Schmerz auslösen, Googles Geschäft aber mitnichten behindern oder gar eine Verhaltensänderung seitens Google auslösen – und im Gegensatz zum inzwischen breit gefächerten Browser-Markt ist das Defakto-Monopol von Google bei den Suchmaschinen eher noch fester als zum Anfang des EU-Wettbewerbsverfahrens.

Inhalt abgleichen