8

News des 8. April 2010

HT4U berichten über Bestrebungen einiger Grafikkarten-Hersteller, die Preise für Radeon HD 5850 & 5870 Karten nun etwas zu senken, obwohl ATI selber diesbezüglich derzeit gar nichts tun will. Technisch möglich ist dies sicherlich, da ein halbes Jahr nach Marktstart nun sicherlich einige Optimierungsmöglichkeiten in der Fertigung dieser Karten entdeckt wurden und genutzt werden. Ob dies allerdings einen bedeutsamen Effekt zugunsten des Straßenpreises ergeben kann, so lange ATI mit der Nachlieferung an RV870/Cypress-Chips nicht nachkommt, darf doch bezweifelt werden. Derzeit werden die Preise der Radeon HD 5850 & 5870 Karten sowieso viel eher durch ihr Verhältnis zu den Preisen der GeForce GTX 470 & 480 Karten definiert – und so lange dieses von den Grafikkartenkäufern als gut und zugunsten der ATI-Modelle angesehen wird, dürfte sich an den Preisen nichts wesentliches ändern.

Bezüglich unserer gestrigen Idee zu einer "GeForce GTX 490" haben wir Rücksprache mit einem damit befassten Zubehör-Hersteller genommen, welcher die technische Durchführbarkeit einer solchen Produktidee bezweifelt. Zwei Probleme tauchen hier auf, wenn man eine Grafikkarte mit einem Spieleverbrauch von 360 Watt ("GeForce GTX 490" auf dem Niveau von GeForce GTX 470 SLI) bauen wollte: Zum einen, daß die gesamte Wärmeentwicklung im Gegensatz zu einem SLI-Gespann nicht mehr auf dem Raum von vier PCI-Express-Steckplätzen, sondern nur noch auf dem Raum zweier solcher Steckplätze entsteht – die auf einer "GeForce GTX 490" eingesetzte Kühlung muß also in dem Sinne doppelt so leistungsfähig sein wie die einer GeForce GTX 470. Die GeForce GTX 295 und die Radeon HD 4870 X2 mit ihrem Spieleverbrauch von jeweils 300 Watt stellen nun aber so ziemlich das Maximum dessen dar, was derzeit die Kühltechnologie hergibt.

Viel weiter ist die Sache kaum zu treiben, die von uns angesetzten 360 Watt für eine DualChip-Grafikkarte mit dem Leistungsniveau eines GeForce GTX 470 SLI-Gespanns sind schon als enorm schwierig realisierbar zu betrachten – die 460 Watt, welche bei einer DualChip-Grafikkarte mit dem Leistungsniveau eines GeForce GTX 480 SLI-Gespanns anfallen würden, sind bezüglich der Kühllösung dagegen vollkommen außerhalb jeder Diskussion. Der zweite Punkt betrifft die stabile Stromversorgung einer solch stromhungrigen Karte. Hier gibt es zwar keine technische Limitierung zu beachten, dafür geht es allerdings in die Grenzbereiche der jeweiligen Spezifikationen, womit nur noch teure Markenware eine stabile Stromversorgung garantieren kann. Dabei wäre nicht nur der Punkt der ausreichend hohe Stromstärke auf der 12-Volt-Leitung zu beachten, sondern auch die – selten beachtete – Qualität der Stromkabel.

Diese müssen unter Umständen Stromstärken von nahezu 20A (pro Kabel) bewältigen, was zwar noch innerhalb der Spezifikationen liegt, aber von bisherigen Grafikkarten nie wirklich ausgereizt wurde. Für die ganze Idee von Grafikkarten überhalb von 300 Watt Spieleverbrauch wären also doch einige technische Hürden und Unsicherheiten zu bewältigen – gut möglich, das 300 Watt auch weiterhin das Limit bei Grafikkarten bleiben wird. Damit würde es für nVidia ziemlich schwer werden, die geplante DualChip-Lösung "GeForce GTX 490" zu realisieren. Möglicherweise muß man die Performance noch etwas unterhalb der eines GeForce GTX 470 SLI-Gespanns drücken – was dann aber wieder zu knapp werden könnte, um die reguläre Radeon HD 5970 zu schlagen. Oder aber man wartet auf ein neues Chip-Stepping mit besseren Verbrauchswerten – wobei es eher unwahrscheinlich ist, daß nVidia nur mit neuen Steppings und ohne neue Fertigungsgröße den GF100-Stromverbrauch wirklich erheblich nach unten drücken kann.

Laut der PC World schickt Intel nunmehr Samples seines experimentellen 48-Kern-Prozessors an akademische Einrichtungen heraus. Damit soll dann nicht mehr nur seitens Intel an solcherart Prozessorendesigns geforscht und optimiert werden, sondern es steht offenbar schon der nächste Schritt an: Die langsame Gewöhnung der Software an solche generell abweichenden Prozessorendesigns, welche natürlich ein deutliches Umdenken seitens der Software-Programmierer erfordern. Schließlich ist zum einen ein einzelner Kern eines solchen Prozessors deutlich weniger leistungsfähig als heutige Prozessorenkerne in Core-2-, Nehalem- oder K10-Prozessoren, dafür stehen dann aber eben gleich 48 Stück (und zukünftig noch mehr) davon zur Verfügung.

Dies erfordert (zur sinnvollen Ausnutzung eines solchen Prozessors) eine gänzlich andere Herangehensweise seitens der Software-Programmierer, die üblichen Ansätze zur DualCore- und QuadCore-Optimierung helfen hier auch nicht mehr weiter. Anstatt Software auf 2, 4 oder 6 Prozessorenkerne auszulegen, muß diese auf eine prinzipiell unlimitierte Anzahl an Prozessorenkernen ausgelegt werden – jeder einzelne Schritt muß dabei möglichst unlimitiert parallelisierbar sein. Dies ist eine sehr hohe Aufgabe, welche eher denn Jahrzehnte an Entwicklungsarbeit erfordert als denn nur einzelne Jahre. Und genauso lange könnte es auch noch dauern, ehe uns 48-Kern-Prozessoren wirklich in regulären PCs begegnen – ohne die passende Software wird Intel diese nicht in den Markt entlassen können, selbst wenn man die Prozessoren selber vielleicht schon viel früher produzieren kann.

Durchaus im selben Fahrwasser liegt eine Meldung seitens Golem, wonach die Uni North Carolina an einem neuen Speichermanagement für MultiCore-Prozessoren arbeitet: Danach soll dies nicht mehr der jeweilige Rechenkern für seine aktuelle Aufgabe selber übernehmen, sondern einfach ein Rechenkern (oder auch mehrere) dediziert dafür abgestellt werden, die Aufgabe des Speichermanagments für alle anderen Rechenkernen komplett zu übernehmen. Damit könnten sich die anderen Kerne auf die eigentliche Rechenaufgabe konzentrieren und diese demzufolge schneller abarbeiten – auch eine Methode der Leistungssteigerung bei Prozessoren mit vielen oder sehr vielen Rechenkernen. Diese Auslagerung von gewissen Arbeiten auf einzelne Kerne läßt sich zudem möglicherweise auch noch für andere Arbeitsaufgaben andenken – und könnte zudem langfristig auch spezielle Kerne hervorbringen, welche dann kaum noch als echter Rechenkern benutzbar sind, aber dafür besonders gut in ihren Spezialaufgaben sind.