2

News des 2./3. Juni 2010

Bit-Tech berichten ein paar weitere Details zur GF104-basierten GeForce GTX 460 von der Computex: Danach hat die Karte eine TDP von 180 Watt und tritt mit 768 MB GDDR5-Speicher an, was auf ein 192 Bit DDR breites Speicherinterface hindeutet. Die Kartenlänge wurde im übrigen mit gleich zur Radeon HD 5770 (22cm) angegeben, wenngleich die GeForce GTX 460 – schon vom Namen her – wahrscheinlich einen etwas höheren Preisbereich als diese anpeilt. Sehr interessant ist die Information, wonach die GeForce GTX 460 unter Übertaktung angeblich die Performance einer GeForce GTX 480 erreichen können soll – dies ist auf den ersten Blick arg unwahrscheinlich (die GeForce GTX 460 dürfte langsamer als die GeForce GTX 465 sein und zwischen GeForce GTX 465 und 480 liegen problemlose 50 Prozent Differenz), kann aber durchaus Sinn ergeben, wenn man einrechnet, daß diese Rede eigentlich nicht auf die GeForce GTX 460 bezogen war, sondern eher auf den zugrundeliegenden GF104-Chip.

Denn wenn man diesen entsprechend hoch ansetzt und zudem einrechnet, daß aufgrund der kleineren Chipfläche gegenüber dem GF100-Chip entsprechend höhere Taktraten möglich sein sollten, dann kann es durchaus passieren, daß eine hochgezüchtete GF104 einer GeForce GTX 480 nahekommt. Dafür müssen neben den Taktraten aber vor allem ein paar Bedingungen bei der Anzahl der Hardware-Einheiten erfüllt sein: So ist dieses Ziel weder mit 256 Shader-Einheiten noch mit einem nur 192 Bit DDR breiten Speicherinterface zu erreichen (die von Bit-Tech zur GeForce GTX 460 angeblich notierten 240 Shader-Einheiten sind eine reine Annahme seitens Bit-Tech, keine Information). Wenn der GF104-Chip so hoch hinaus will, ist das zuletzt eher in den Vordergrund gerückte Modell von 384 Shader-Einheiten und 256 Bit DDR Speicherinterface beim GF104-Chip vonnöten – was ja nicht bedeuten muß, daß bei der GeForce GTX 460 alle diese Hardware-Einheiten aktiv sind.

Vielmehr könnte der GF104-Chip dieselbe Rolle zum GF100-Chip einnehmen wie weiland der G92-Chip zum G80-Chip: Zuerst in abgespeckter Form als günstigere Varianten veröffentlicht und später im Vollausbau dem größerem Chip durchaus sehr nahekommend. In unserem Forum spekuliert man zur GeForce GTX 460 jedenfalls über 336 Shader-Einheiten und wie gesagt das 192 Bit DDR Speicherinterface. Die leichte Beschneidung bei den Shader-Einheiten (von 384 auf 336) sichert nVidia anfänglich eine gute Produktionsausbeute und das verkleinerte Speicherinterface senkt zum einen die Kartenkosten (weniger aufwendige Platine, kleinerer Speicherausbau) und verhindert zudem effektiv, daß die GeForce GTX 460 der GeForce GTX 465 zu nahe kommt – denn vermutlich kann die GeForce GTX 460 mit höheren Taktraten als die GeForce GTX 465 antreten oder aber diese höheren Taktraten im Übertaktungsbetrieb problemlos erreichen (wegen des kleineren benutzten Grafikchips).

Die ganze Theorie zu den 384 Shader-Einheiten an einem 256 Bit DDR Speicherinterface hat dann natürlich auch Auswirkungen auf die Hardware-Einheiten der nachfolgenden kleineren nVidia-Chips GF106 und GF108: Wenn man davon ausgeht, daß die in dieser früheren Roadmap genannten Speicherinterfaces bei diesen kleinen Chips stimmen, dann ergibt sich folgenden – rein logische – Auflösung: GF106 mit 192 Shader-Einheiten und einem 192 Bit DDR Speicherinterface und GF108 mit 96 Shader-Einheiten und einem 128 Bit DDR Speicherinterface. Überall dürfte es aber Grafikkarten-Varianten mit mal mehr und mal weniger deutlichen Abspeckungen geben – beim GF106 ist schon bekannt, daß es hier auch Grafikkarten mit nur 128 Bit DDR Speicherinterface geben wird, zugleich dürfte nVidia schon aus Gründen der besseren Produktionsausbeute auch überall Chipvarianten mit deaktivierten Shader-Einheiten ausliefern.

Technik Performance Besonderheiten
GF100 512 Shader-Einheiten, 64 TMUs, 384 Bit DDR Interface (Abspeckungen: 480/60/384, 448/56/320, 352/44/256) Konkurrenz zu Radeon HD 5850/5870, im Vollausbau klar überhalb von Radeon HD 5870 Verhältnis SP zu TMU 8:1, mit Spezialeinheiten für professionelle Einsatzzwecke (z.b. DoublePrecision)
GF104 384 Shader-Einheiten, 64 TMUs, 256 Bit DDR Interface (Abspeckungen: 336/56/192) Konkurrenz zu Radeon HD 5770/5830 (Ersatz GeForce GTX 275/285), im Vollausbau und mit hohen Taktraten eventuell bis hinauf zur Radeon HD 5870 Verhältnis SP zu TMU: 6:1, ohne Spezialeinheiten für professionelle Einsatzzwecke (damit relativ auf die Hardware-Einheiten gesehen kleinere Chipfläche)
GF106 192 Shader-Einheiten, 32 TMUs, 192 Bit DDR Interface (Abspeckungen: ?/?/128) Konkurrenz zur Radeon HD 5750 (Ersatz GeForce GTS 250 & GTX 260)
GF108 96 Shader-Einheiten, 16 TMUs, 128 Bit DDR Interface Konkurrenz zu Radeon HD 5570/5670 (Ersatz GeForce GT 240 & 9800 GT)

Die vorstehende Aufstellung ist wie gesagt rein logisch begründet, ohne aber daß hierzu durchgehend belastbare Anhaltspunkte vorliegen. Es muß somit keinesfalls bedeuten, daß alles genauso kommt – wenn die Vergangenheit eines gelehrt hat, dann dies, daß die Grafikchip-Entwickler eigentlich regelmäßig wenigstens mit ein paar Details überraschen konnten. Insofern ist obiges schlicht der Stand des jetzigen Halbwissens und der Annahmen (Spekulationen) drumherum. Dazu gehören ganz besonders auch die Anzahl der Textureneinheiten bzw. das Verhältnis von Shader-Einheiten zu Textureneinheiten, welche bei den Grafikchips GF104, GF106 und GF108 unserer Annahme nach höher ausfällt als beim GF100-Chip. Wir gehen hierbei davon aus, daß es nVidia klar ist, daß die Texturierpower des GF100-Chips eigentlich zu gering ist (der Versuch einer höheren Taktrate bei den TMUs scheitere bekanntlich) und daß man dies bei den etwas später entstandenen Grafikchips GF104, GF106 und GF108 dementsprechend schon hat fixen können.

Unter anderem Golem berichten über die erste Demonstration von AMDs Fusion-Prozessor Llano mit integrierter DirectX-11-Grafikeinheit auf der Computex. Llano ist AMDs kommendes neuen Mainstream-Prozessorendesign und basiert weitgehend auf dem aktuellen K10-Kern – die "echten" CPU-Neuentwicklungen sind dagegen das HighEnd-Projekt "Bulldozer" unter dem Corenamen "Orochi" und das Netbook/Nettop-Projekt "Bobcat" unter dem Corenamen "Ontario". Davon abgesehen ist es etwas verwunderlich, wieso alle Welt – auch bei Intel – immer auf der angeblich so hohen Performance der kommenden integrierten Grafiklösungen herumreitet: Bisher hat keiner der beiden Prozessorenentwickler handfeste Hinweise darauf gegeben, daß es diesbezüglich mal zu einem wirklich ernsthaften Performance-Durchbruch kommen wird – und daß die neue integrierte Grafik aktuelle Spiele flüssig darstellen können soll, hören wir eigentlich schon seit zehn Jahren bei jeder neuen Generation erneut.

Damit soll nicht in Abrede gestellt werden, daß die integrierten Grafiklösungen von AMD und Intel sich jeweils nach vorn entwickeln und jeweils mehr Performance – unter Umständen sogar deutlich mehr Performance – als die jeweilige Vorgängergeneration bieten. Allein, angesichts des geradezu extremen Abstandes zwischen der Performance von integrierten Lösungen und den Anforderungen für ein flüssiges Spiel bei aktuellen Titeln unter einer zumindest hohen Bildqualität auf heutigen Auflösungen bestände einfach die Aufgabe, die integrierten Lösungen nicht nur doppelt so schnell zu machen (was bisher kaum zwischen zwei Generationen erreicht wurde), sondern um den Faktor 3 bis 5 zu beschleunigen. Und hier wird man knallhart an die Grenzen des Budgets stoßen – schließlich wird die integrierte Grafik bei Intel (jetzt schon) und bei AMD (zukünftig) kostenlos beim Prozessor mit oben drauf gelegt, darf also in der Produktion eigentlich gar nichts kosten.

Damit ist niemals mehr zu erwarten als das, was gerade im LowCost-Markt Standard ist – und selbst das wäre schon sehr viel, weil dann könnte zumindest ATI seine sehr umsatzträchtigen LowCost-Grafikkarten nahezu einmotten. Doch selbst wenn: Bei ATI beläuft sich die aktuelle LowCost-Performance auf 80 Shader-Einheiten an einem 64 Bit DDR Speicherinterface (Radeon HD 5450). Wenn Fusion heute herauskommen würde, würde der Prozessor maximal exakt so eine Grafiklösung tragen (in 2011 wird es möglicherweise mehr, aber dann hat ATI ja auch schon neue LowCost-Grafikkarten im Markt) – und würde eine integrierte ATI-Grafik mit 80 Shader-Einheiten an einem 64 Bit DDR Speicherinterface (oder ein vergleichbares nVidia-Modell) heutzutage irgendwen hinter dem Ofen hervorholen?! Die Erwartungen des Marktes an die integrierten Grafiklösungen von Intel und AMD sind unserer Meinung nach maßlos überzogen, beide Prozessorenentwickler werden hier nach bisherigen Wissen beim Status Quo bleiben und nur LowEnd-Performance liefern, im allerbesten Fall LowCost-Performance.

Gulli und der Heise Newsticker berichten über die schriftliche Begründung des BGH-Spruchs gegenüber privaten Betreibern von freien WLANs – welcher der Presse und Öffentlichkeit hoffentlich den Zahn zieht, jenes Urteil wäre in irgendeiner Form ein kleiner Sieg für die Betreiber freier WLANs gewesen. In der schriftlichen Urteilsbegründung wird nämlich noch einmal klar ausgeführt, daß der private Betreiber eines freien WLAN-Netzes der vollen Störerhaftung für Rechtsverletzungen von Fremdnutzern unterliegt – daß dies im allerersten Fall mit einer Abmahnung nur zu 100 Euro abgegolten werden kann, ist da nur ein sehr schwacher Trost, denn die eigentliche Konsequenz ist doch letztlich, daß man als Privatbürger somit keine freien WLANs mehr betreiben darf. Eine klare Aussage, wie dies bei gewerblich oder behördlich aufgestellten freien WLANs aussieht, fehlt allerdings, so daß diesbezüglich jetzt ziemliche Rechtsunsicherheit herrscht.