24

News des 24. April 2007

Die ersten wohl glaubwürdigen Performance-Resultate zum ATI R600 Grafikchip in Form der Radeon HD 2900 XT hat man bei DailyTech anzubieten. Vorher sagte man noch aus, daß der R600-Chip nun doch 320 Shader-Einheiten haben wird – angesichts dieser hohen Zahl (G80: 128) kann wohl schon jetzt als gesichert gelten, daß sich G80 und R600 vom Aufbau und Leistungsfähigkeit der Shader-Einheiten her massiv unterscheiden werden, eine Leistungsbestimmung rein über die Anzahl der Shader-Einheiten also zwecklos ist (funktioniert nur innerhalb derselben Generation eines Herstellers). Eine Aussage zum Chiptakt der Radeon HD 2900 XT wurde nicht getroffen, allerdings soll der Speichertakt bei nunmehr 825 MHz liegen – verbaut wird bei dieser Karte wie erwartet 512 MB GDDR3-Speicher. GDDR4-Speicher wird es hingegen erst bei der Radeon HD 2900 XTX geben, welche allerdings erst im Juni zu erwarten ist ...

... Die Benchmarks selber wurden unter 1280x1024 mit einer leider nicht näher spezifizierten "Maximum Quality" erstellt – hinter welcher sich nach Sichtung von Vergleichswerten aller Wahrscheinlichkeit nach 4x Anti-Aliasing samt 16x anisotropen Filter verbirgt. Als Vergleichskarte wurde der Radeon HD 2900 XT eine GeForce 8800 GTS 640MB gegenübergestellt, welche die neue ATI-Karte auch passabel, aber nicht mit großem Abstand schlagen konnte (10 Prozent über fünf Tests, wobei nur zwei davon größere Ausschläge zugunsten der ATI-Karte zeigten). Hier bleibt noch stark abzuwarten, ob sich die Radeon HD 2900 XT auch mit der GeForce 8800 GTX wird anlegen können – oder ob dies eine Aufgabe für die Radeon HD 2900 XTX bleibt. Der echte Launch der neuen ATI-Karten soll wie schon berichtet am 14. Mai stattfinden, im Handel sollen die Karten (bis auf die Radeon HD 2900 XTX) dann ab 19. Mai sein, wie die DigiTimes berichtet.

Im G84-Test der X-bit Labs gibt es erste gemessene Stromverbrauchswerte der neuen nVidia-Karten – auch inklusive der G80-Varianten, welche sich früher noch gegen entsprechende Messungen sträubten. So kommt die GeForce 8800 GTS 640MB auf 106 Watt Stromverbrauch unter 3D und die GeForce 8800 GTX auf 132 Watt, während sich die GeForce 8600 GTS mit 47 Watt begnügt (und eine GeForce 8600 GT somit auf ca. 40 Watt zu schätzen ist). Während die Verbrauchsangaben zu den G80-Varianten damit im Rahmen der Erwartungen liegen, überrascht der Stromverbrauch der GeForce 8600 GTS doch ein wenig – immerhin ist diese Karte mit einem extra Stromanschluß ausgerüstet, was auf einen Verbrauch in der Nähe von 60 Watt hindeutet. Auf der anderen Seite steigt innerhalb der Mainstream-Karten von nVidia aber dennoch auch mit der GeForce 8600 GTS der Stromverbrauch weiterhin an, denn der vorhergehende Mainstream-Chip G73 verbraucht in Form der GeForce 7600 GT nur ganz 36 Watt ...

... Zwar ist die GeForce 8600 GTS auch klar schneller als eine GeForce 7600 GT, aber das Effizienz-Verhältnis Performance/Stromverbrauch dürfte mit der GeForce 8600 GTS nicht oder nur geringfügig gesunken sein. Dies wäre allerdings angesichts immer weiter steigender Grafikchip-Leistung wirklich nötig, ansonsten stehen wir in ein paar Jahren bei 300 Watt Stromverbrauch bei HighEnd-Beschleunigern und 100 Watt bei Mainstream-Grafikkarten. Abseits dessen bestätigen sich zudem noch die überaus hohen Leistungsaufnahmen des G80-Chips im reinen 2D-Betrieb von 52 Watt für eine GeForce 8800 GTS 640MB und satten 70 Watt für eine GeForce 8800 GTX. Von dem hierzu seitens nVidia geplanten Treiber, welcher die Stromaufnahme der G80-Varianten im 2D-Betrieb kräftig senken soll, ist leider derzeit immer noch nichts zu sehen.

Gemäß Fudzilla schlägt ein AMD QuadCore-Prozessor auf K10-Basis auf 2.5 GHz einen aktuellen QuadCore-Prozessor von Intel auf (mehr als) 3.0 GHz – was das Verhältnis bei der Pro/MHz-Leistung wieder zugunsten von AMD umdrehen würde. Allerdings ist unklar, woher diese Angabe stammt (wohl Eigenwerbung von AMD) und worauf sie sich bezieht: Höchstwahrscheinlich ist hiermit eher die Leistung unter für Serverprozessoren typischen Anwendungen gemeint, da AMD die K10-Architektur wie bekannt zuerst für den Servereinsatz herausbringen wird. Wie die Leistungssituation auf dem Desktop und dort gerade bei den dort viel stärker verkauften DualCore-Modellen aussieht, ist mit diesem Angabe also noch überhaupt nicht gesagt.

Shortcuts: Wie Hartware berichten, ist es mit einer Ausrüstung im Wert von weniger als 2000 Dollar inzwischen möglich, auch die Restabstrahlung von TFT-Monitoren anzuzapfen und damit solcherart Displays selbst durch drei Wände hindurch noch abzuhören. Bedenklich an diesen (schon länger) existierenden Möglichkeiten ist vor allem, daß die Preise für die dafür benötigte Ausrüstung im Laufe der Zeit ins Bodenlose gefallen sind: Was früher nur Geheimdienste konnten, ist inzwischen oftmals auch dem engagierten Bastler möglich. WinFuture bringen mal wieder das Thema eines Miet-Betriebssystems ins Gespräch, bei Microsoft denkt man ja schon länger in eine solche Richtung. Ob es hierbei allerdings wirklich zu einem Kostenvorteil für die Kundschaft kommt, wäre arg zu bezweifeln, denn wenn dann ergibt ein solches Modell für (gleich welchen) Software-Hersteller nur Sinn, wenn die Einnahmen langfristig höher ausfallen.