21

News des 21. November 2007

Bei Legion Hardware hat man sich speziell den Vergleich Radeon HD 3850 256MB vs. GeForce 8600 GTS angesehen. Normalerweise denkt man nicht sofort an diesen Vergleich, wenn es um den neuen RV670-Chip geht, allerdings ist die Radeon HD 3850 256MB preislich so niedrig angesetzt (und die GeForce 8600 GTS nach wie vor preislich so hoch), daß beide Grafikkarten derzeit nur 30 Euro oder runde 24 Prozent Mehrpreis trennen. Dafür bekommt man aber ein deftiges Stück mehr an Performance: Laut den Messungen von Legion Hardware unter 1440x900 und 1680x1050 bei 4x Anti-Aliasing (wo verfügbar) satte 94 Prozent zugunsten der Radeon HD 3850. Hier lohnt sich natürlich auf jeden Fall der Griff zur teureren Karte.

Zudem liegt hier auch die wesentliche Stärke der neuen RV670-Beschleuniger: Nicht die Radeon HD 3870 im 200-Euro-Preissegment ist der wirkliche Bringer, da diese dort harte Konkurrenz in Form der GeForce 8800 GT hat, welche doch klar schneller ist. Vielmehr ist die Radeon HD 3850 im 150-Euro-Preissegment besonders interessant, weil sie dort momentan und vor dem Erscheinen der GeForce 8800 GT 256MB (wohl erst nächstes Jahr lieferfähig) allein auf weiter Flur steht und vor allem den bisherigen Mainstream-Beschleunigern in Form von Radeon HD 2600 XT und GeForce 8600 GTS maßlos davonrennt. Ähnliches hatten wir ja bereits in unserem aktuellen Artikel ausgedrückt, die Benchmarks von Legion Hardware untermauern diese Aussagen nun noch einmal.

Einen weiteren erheblichen Rückschlag erhalten die neu vorgestellten Phenom-Prozessoren durch die aktuellen Straßenpreise, welche deutlich von den Listenpreisen abweichen. So gibt AMD den Phenom 9500 (2.2 GHz) mit 169 Euro Listenpreis an, real kostet der Prozessor aber zwischen 220 und 230 Euro. Gleiches beim Phenom 9600 (2.3 GHz): Hier beträgt der Listenpreis 190 Euro, der Straßenpreis liegt zwischen 250 und 270 Euro. Die Straßenpreise waren nach dem Launch zwar auch schon so überzogen, aufgrund nicht vorhandener Lagerbestände war das aber kaum zu werten. Jetzt aber, nachdem die ersten Lieferungen bei den Händlern eintreffen, sollte sich der Preis jedoch wieder einpendeln – was aber offensichtlich nicht passiert. Entweder gibt AMD den Großhändlern bei den Phenom-Prozessoren nicht die üblichen Rabatte oder aber die Einzelhändler wollen sich hier noch die nächsten Wochen eine goldene Nase an den Phenom-Prozessoren verdienen.

Wie dies allerdings zu dieser Preislage funktionieren soll, bleibt schleierhaft. Denn zu den genannten Preisen verlieren die Phenom-Prozessoren den fast einzigen Vorteil, welche sie derzeit innehaben: Den der günstigsten QuadCore-Prozessoren. Wenn aber der Phenom 9500 zwischen 220 und 230 Euro kostet und der Phenom 9600 zwischen 250 und 270 Euro, dann kann man auch gleich einen Intel Core 2 Quad Q6600 nehmen, der für um die 220 Euro problemlos lieferbar ist und klar mehr Leistung als die genannten AMD-Prozessoren bietet. AMD braucht hier zwingend die besseren Preise bei den Phenom-Prozessoren, um konkurrenzfähig zu sein – ansonsten gibt es fast gar keine Gründe, die noch für die neuen AMD-Prozessoren sprechen.

Selbst das ewige Pro-AMD-Argument, die bessere Aufrüst-Kompatibilität, zieht diesesmal nicht wirklich: Sicherlich laufen die Phenom-Prozessoren prinzipiell in jedem AM2-Mainboard, in aller Regel wird hier nur ein BIOS-Update zur korrekten Erkennung des neuen Prozessor benötigt. Allerdings ist die AM2-Plattform nun auch nicht unbedingt alt, sie stammt gerade einmal von Mitte 2006. Zu diesem Zeitpunkt gab es schon Intels 975X-Chipsatz, der P965-Chipsatz folgte dann wenig später. Auch diese Mainboard-Chipsätze unterstützen prinzipiell Intels Vierkern-Prozessoren, wenngleich es einige gewisse Quote an 975X/P965-Mainboards gibt, auf welche diese grundsätzliche Regel nicht zutrifft. Aber generell kann man durchaus sagen, daß in diesem speziellen Fall der Phenom-Prozessor keinen echten Vorteil bei der Aufrüst-Kompatibilität hat, auch wenn AMD in diesem Punkt gewöhnlich deutlich besser dasteht.

Auflösen kann AMD das Problem des wirklich schwachen Phenom-Starts sicherlich nur durch eine schnelle Steigerung der Taktfrequenzen, welche es AMD dann auch ermöglichen würde, Phenom-Prozessoren in höheren Preislagen anbieten zu können. Leider liegt genau hier die derzeitige Crux von AMD als Prozessorenbauer: Der 65nm-Prozeß von AMD kommt überhaupt nicht voran. Der derzeit beste Athlon 64 X2 in Form des 6400+ mit 3.2 GHz wird weiterhin in 90nm gefertigt, die schnellsten 65nm-Prozessoren von AMD takten gerade einmal bei 2.7 GHz und haben dort auch keine besseren Taktreserven als die 90nm-Modelle. Insofern ist es kein Wunder, wenn AMD bei den ersten QuadCore-Modellen in 65nm derzeit nicht über 2.4 GHz hinauskommt.

Ergo muß AMD endlich einmal diese Reserven, welche der 65nm-Prozeß eigentlich hat, ausschöpfen. Wenn man mit dem Athlon 64 X2 Design in 90nm schon auf 3.2 GHz kommen kann, dann müssten auf 65nm durchaus 4 GHz erreichbar sein – wenn es nicht so ist, dann passt in der 65nm-Produktion von AMD irgendwas noch nicht. Wahrscheinlich stellt aber schlicht jeder neue Fertigungsprozeß die Prozessorenbauer auch vor ganz spezielle Anforderungen, auch Intel hatte seinerzeit einige Probleme mit den ersten eigenen 90nm-Modelle (Pentium 4 Precott, wurde sehr heiß und deswegen auch als "Preshott" verschrieen). Zumindest kann man es als gesichert ansehen, daß AMD noch wirklich reichlich Reserven bei den Taktfrequenzen hat, wenn man denn die Möglichkeiten des 65nm-Prozeß endlich einmal ausschöpfen würde. Hier ist sicherlich AMDs Hauptaufgabe in den kommenden Wochen und Monaten zu sehen.

Gleichzeitig mit dem Phenom-Launch hat Intel auch einen weiteren neuen Prozessor in Form des Core 2 Extreme QX9770 mit 3.2 GHz vorgestellt, zudem es inzwischen auch einige Testberichte gibt. Allerdings wird es diesen Prozessor planungsgemäß erst Anfang nächsten Jahres zu kaufen geben, faktisch handelt es sich bei diesem Paperlaunch nur um den Versuch, AMDs Phenom-Launch (völlig unnötigerweise) noch ein wenig zu stören. Der Core 2 Extreme QX9770 selber stellt die erste FSB1600-CPU des Desktop-Segments dar, theoretisch läuft er damit nur in Mainboards des noch nicht vorgestellten X48-Chipsatzes. Da dieser derzeit jedoch noch nicht verfügbar ist, wurden die aktuellen Tests allesamt auf X38-Platinen durchgeführt, welche zwar den FSB1600 offiziell nicht unterstützen, inoffiziell per Overclocking jedoch verfügbar machen können.

Generell dürften sogar die meisten P35-Platinen den FSB1600 im Overclocking-Modus unterstützen, immerhin beherrscht der P35 genauso wie der X38 den FSB1333 und ist es von dort aus kein großer Sprung mehr auf den FSB1600. Allerdings dürfte dies eine klare Einzelfall-Entscheidung sein: Einige Mainboard-Hersteller werden sicherlich bei ausgewählten Platinen oder neueren Board-Revisionen einen offiziellen Support anbieten, bei allen anderen Mainboards wäre dann ausprobieren und hoffen angesagt. Ob sich dieser Aufwand für den Core 2 Extreme QX9770 überhaupt lohnt, wäre allerdings zu bezweifeln: Gegenüber dem Core 2 Extreme QX9650 gibt es halt den Sprung von FSB1333 auf FSB1600 sowie 200 MHz CPU-Takt, was 5 bis 10 Prozent Mehrperformance ergibt. Dafür will Intel zu dem sowieso übertriebenen 999-Dollar-Preis des QX9650 gleich noch einmal einen kräftigen Mehrpreis sehen: Gemäß früheren Informationen soll der QX9770 mit stolzen 1399 Dollar Listenpreis antreten ;).

Aktuell sind auf verschiedenen Nachrichten-Seiten Meldungen zu lesen, wonach ab 2010 das Internet langsam werden würde. Bezogen wird sich dabei auf eine von der Internet Innovation Alliance (IIA) finanzierte Studie, welche sich – wie Golem richtigerweise ausführen – in der Vergangenheit immer wieder für die Aufgabe der Netzneutralität stark gemacht hat. Bei der Netzneutralität bzw. der Aufgabe dieser geht es darum, daß Internet Service Provider von großen Webseiten oder Diensten extra Geld für die bevorzugte Beförderung ihrer Daten verlangen. Dies soll zwar vorerst nur für Premium-Dienste mit großem Bandbreitenbedarf geschehen, ist der Einstieg in eine solche Technologie aber erst einmal geschehen, ist durchaus zu befürchten, daß langfristig ein Zweiklassen-Internet entsteht, welches von den großen und finanzstarken Webseiten bestimmt wird.

Insofern sind die Ergebnisse dieser Studie aufgrund des finanziellen Hintergrunds mit großer Vorsicht zu genießen, hier sollen wohl in allererster Linie nur Internet-technisch unbedarfte Politiker zugunsten einer Gesetzesänderung gegen die Netzneutralität sturmreif geschossen werden. Natürlich ist es wirklich so, daß gerade durch die Anbindung von Handys und anderen Kleingeräten ans Internet der weltweite Datenverkehr zunimmt, auch steigt die Nutzung von bandbreitenträchtigen Multimedia-Inhalten weiterhin ungebremst. Dies bedeutet allerdings auch wieder nicht, daß die Internet Service Provider da tatenlos danebenstehen und nichts machen. Denn was würde denn passieren, wenn wie in der Studie behauptet, daß Internet in Nordamerika auf 56k-Niveau herunterbricht? Die Nutzer würden ihre Verträge kündigen und von diesen Providern, die nicht investiert haben, zu diesen gehen, die eben in neue Kapazitäten investiert haben.

Offensichtlich hat die Studie hier einfach nur blind hochgerechnet, was wir 2010 für Bandbreitenanforderungen haben werden und dem die jetzige Netzkapazität gegenübergestellt. Dies geht dann einfach davon aus, daß bis 2010 die Internet Service Provider und Backbone-Betreiber faktisch überhaupt nichts mehr in ihre Netze investieren – was so ziemlich die unwahrscheinlichste aller Annahmen ist. Gerade in Europa und Nordamerika, wo also demnächst (durch bezahlbare mobile Breitbandtarife) ein Handyinternet-Boom zu erwarten ist bzw. dieser schon anläuft, kann sich kein Internet Service Provider erlauben, einfach nichts zu tun und kassieren. Die Verbraucher haben hier (zumeist) Wahlfreiheit und würden halt sofort den Provider wechseln, falls dessen Leistung mit der Zeit immer weniger werden würde. Insofern sind die Internet Service Provider ganz automatisch zu den entsprechenden Investitionen gezwungen, dafür braucht es keine den Teufel an die Wand malende Studie und auch keinerlei Aufgabe der Netzneutralität.