1

Hardware- und Nachrichten-Links des 30./31. Januar & 1. Februar 2015

Laut der PC Games Hardware hat nVidia die ursprüngliche Aussage, man wolle das "3,5-GB-Problem" der GeForce GTX 970 mit einem neuen Treiber fixen oder zumindest minimieren, weitestgehend wieder zurückgezogen. Offenbar war mit der usprünglichen Meldung nur die allgemeine Treiber-Arbeit gemeint, nicht aber eine Möglichkeit, dieses spezielle Problem angehen zu können. Damit ist nVidia allerdings um so mehr unter Druck, endlich einmal etwas zum Problem zu sagen – und in jedem Fall gilt, daß eine kurze Wortmeldung, daß man das Problem wahrgenommen habe und an einem Statement arbeiten würde, längst überfällig ist. AMD nutzt die Sache nun inzwischen weidlich aus – zum einen mit dem bekannten "4GB means 4GB" Meme, zum anderen mit dem "Fixxer 3" Video, welches ursprünglich sicher nur allgemein gegen nVida schiessen sollte, nun aber natürlich auch einen vielsagenden Hinweis auf die vollen 4 GB Speicher bei AMDs Topmodellen enthält. Zu einer Umtauschaktion hat sich AMD nun aber doch nicht entschließen können, vielmehr gibt (gab) es nur die Verlosung von 16 Stück Radeon R9 290X per Twitter.

Daneben sei rein zur Technik des "3,5-GB-Problem" der GeForce GTX 970 gesagt, das offenbar alles an der Deaktivierung des letzten Stücks Level2-Cache bei der GeForce GTX 970 hängt: Dadurch wird der (nicht deaktivierte) letzte Speichercontroller nicht mehr gecacht, was dann sehr erhebliche Performance-Auswirkungen nach sich zieht, wenn man jenen letzten Speichercontroller ernsthaft benutzten wollte. Deswegen hat auch die GeForce GTX 970 dieses Problem – und die von den Hardware-Abspeckungen nahezu gleiche GeForce GTX 980M eben nicht: Bei jener Mobile-Lösung wurde im Gegensatz zur GeForce GTX 970M nichts am Level2-Cache beschnitten (volle 2 MB Level2-Cache), ergo läuft jene als GeForce GTX 970 @ realem 256 Bit DDR Speicherinterface. Damit wird der Fall der GeForce GTX 970 aber nochmals singulärer: nVidia wusste ganz genau, was man da tat – und daß dies entsprechende Auswirkungen auf die GeForce GTX 970 haben musste. Das Argument, daß vielleicht alle Abspeckungen des GM204-Chips derart aussehen, ist also nicht valide – man kann den GM204-Chip durchaus so beschneiden, das es nicht zum "3,5-GB-Problem" der GeForce GTX 970 führt.

Fudzilla berichten diesbezüglich über eine Preissenkung zur Radeon R9 290X, welche AMD derzeit anscheinend in den USA anbietet. Lange Zeit klar oberhalb von 300 Dollar liegend, sollen nun US-Preise Richtung 299 Dollar möglich sein – wobei der offizielle Listenpreis anscheinend immer noch nicht angerührt wurde, welcher weiterhin beim Launch-Stand von 549 Dollar steht. Jenseits des großen Teichs mag diese neue Preissituation die Grafikkarten-Käufer erfreuen, in der alten Welt sehen wir dagegen derzeit noch nichts von einer Preissenkung bei der Radeon R9 290X – womöglich auch resultierend aus dem schwachen Euro-Kurs. In solchen Situationen werden gern Hersteller-Preissenkungen (in Dollar) dazu ausgenutzt, den durch die Wechselkurs-Verschiebungen faktisch zu günstigen Euro-Preis wieder zu stabiliseren – sprich, man geht die US-Preissenkung nicht mit und hat dafür wieder einen Euro-Preis, welchem dem neuen Wechselkurs entspricht. Aktuell rechnen sich 299 Dollar eben in ~316 Euro um (in Euroland zuzüglich Mehrwertsteuer) – und genau da lag die Radeon R9 290X schon vor einer Woche. Während man in den USA also durchaus 30-50 Dollar Preissenkung erzielen konnte, haben Europäer nur den Vorteil, daß die Radeon R9 290X nicht (durch den schwachen Euro-Kurs) im Preis steigen muß.

Bei PC Perspective hat man sich angesehen, was von dem kürzlich vermeldeten Fall zu halten ist, wonach angeblich nVidias G-Sync auf jedem Monitor mit DisplayPort 1.2 laufen könnte. Nicht gänzlich unerwartet passt in der Darstellung der ursprünglichen Quelle bei Gamenab einiges nicht zusammen – und trotzdem trifft in diesem Fall der Spruch "wo Rauch da auch Feuer" zu: So konnte im konkreten Fall tatsächlich G-Sync auf einem Notebook ohne entsprechendes G-Sync-Modul aktiviert werden (um die Existenz des G-Sync-Moduls wirklich sicher nachzuprüfen, wurde das Notebook extra auseinandergenommen). Allerdings nutzt hierbei der G-Sync-Treiber letztlich die sowieso schon vorhandene eDisplayPort-Technologie des konkret verwendeten Notebooks – wobei eDP auch bei vielen anderen Notebooks aus reinen Stromspargründen verbaut wird. Die Leistung von Gamenab bestand dann lediglich darin, zu entdecken, daß ein Alpha-Treiber G-Sync bereits auf diesem Notebook aktivieren kann – der angeblich von Gamenab vorgenommene Treiber-Hack existierte jedoch zu keinem Zeitpunkt.

nVidia bestätigte PC Perspective nachfolgend, daß man daran arbeiten würde, G-Sync auch auf Notebooks ohne extra G-Sync-Modul aktivieren zu können – wohl unter Ausnutzung der Möglichkeiten von eDP, ohne allerdings daß dies nVidia direkt erwähnt hätte. Laut nVidia soll es trotzdem aber noch einen Unterschied zu der Variante mit extra G-Sync-Modul geben, sprich ohne G-Sync-Modul gäbe es wohl nur ein "G-Sync Lite". Wieviel daran wahr ist, muß sich zeigen – da G-Sync und das ebenfalls auf den Möglichkeiten von eDP basierende FreeSync letztlich den gleichen Zweck haben, liegen die größten Unterschiede eher denn in der Intelligenz der Software, was wiederum als reine Treibersache erscheint. Der eigentliche Clou an dieser Nachricht ist jedoch, daß nVidia somit faktisch AMDs FreeSync kopieren wird – möglicherweise zuerst nur im Mobile-Bereich, später aber vielleicht auch im Desktop-Bereich. nVidia wird das ganze sicherlich unter die Fahne "G-Sync Lite" stellen und sich damit ans Rever heften, nur damit man AMDs FreeSync bzw. den offiziellen "AdaptiveSync" Standard nicht erwähnen muß. Im Endeffekt wird nVidia aber dennoch nichts anderes tun, als einen Treiber zur Verfügung zu stellen, um Monitore mit FreeSync bzw. AdativeSync auch mit nVidia-Grafikkarten nutzen zu können. Für nVidia ist dies eine clevere Auflösung der Problematik, daß FreeSync nun definitiv breit (und günstig) in den Markt kommt und man mit der eigenen (ursprünglichen) G-Sync-Technologie dagegen kaum eine Chance haben dürfte.

Gemäß der SweClockers (maschinelle Übersetzung ins Deutsche) will AMD mit der kommenden x86 HighEnd-Architektur – von SweClockers "Zen" genannt, auch wenn bezüglich dieses Begriffs noch nicht alle Unklarheiten beseitigt sind – den neuen Sockel FM3 spendieren. Dieser soll zudem auch von den kommenden Exacavator-basierten APUs mit Codenamen "Bristol Ridge" benutzt werden, womit AMD seit langem einmal wieder einen einheitlichen Mainboard-Sockel nutzen würde. Im Sinne dessen, es den Mainboard-Herstellern einfacher zu machen und dem Käufer eine gewisse Upgrade-Fähigkeit zu bieten, macht dies durchaus Sinn – andererseits dürfte es nicht so einfach sein, klaren Mainstream-APU und klaren HighEnd-CPU die jeweils passende Featurepalette auf denselben Mainboards zu bieten. Auch bei Intel benutzt man zwar denselben Sockel, dennoch sehen Mainboards für OEM-PCs mit zweikernigen Pentium- oder Core-i3-Prozessoren gänzlich anders aus als Mainboards für vierkernige K-Modelle.

Heise berichten über angebliche "4K Blu-Ray" Spezifikationen, welche in Japan aufgetaucht sind. Jenes UltraHD-Diskformat soll Anfang 2016 kaufbar werden, weshalb jetzt schon mit Hochdruck an der Finalisierung aller technischen Daten gearbeitet werden dürfte – großartige Änderungen sind also nicht mehr zu erwarten, sofern diese Angaben wirklich authentisch sind. Genannt wurde eine maximale Auflösung von 3840x2160 mit bis zu 60 Bilder in der Sekunde bei 10 Bit Farbtiefe und einer Farbabtastung von allerdings nur 4:2:0 – sprich derselbe Unterabtastung, welche auch die offiziellen UltraHD-Ausbaustufen (teilweise) haben. Hierbei ärgert es einige, daß nicht das Kinoformat 4096x2160 geboten wird – aber jenes ist in der heutigen Praxis kaum im PC- oder/und Fernseher-Bereich verbreitet. In der Summe wird exakt das geboten, was am besten kompatibel zu aller schon vorhandenen Technik ist, ohne aber deswegen die technischen Möglichkeiten von UltraHD wirklich vollkommen auszureizen. Zur augenscheinlichen Strategie "Kompatibilität zuerst" passt auch, daß sogar HDR möglich ist – allerdings derart gestaltet, daß der Datenstream von Decodern ohne HDR-Funktionalität trotzdem verarbeitet werden kann.