27

News des 27. November 2008

TweakPC haben ein umfangreiches Interview mit ATI/AMD, Intel, Matrox und nVidia zur Zukunft von CPU und CPU geführt. Dabei wurden den Herstellern zum einen einige Hersteller-spezifische Fragen und zum anderen ein identischer Fragenkatalog gestellt, so daß sich jede Menge an kleinen Informationen ergeben (und natürlich auch reichlich Marketing-nahe Sprüche, aber das ist wohl nie ganz zu vermeiden). Bemerkenswert sind vielleicht die Aussagen zur Frage, wie sich die Zukunft zwischen Raytracing und Rasterizing entwickeln wird: Während ATI/AMD und nVidia hier von einer Kombination beider Renderingtechnologien ausgehen, läßt Intel doch durchblicken, daß man langfristig eher nur auf das Raytracing-Verfahren setzt.

Microsoft will in Windows 7 laut einem Artikel auf dem MSDN einen Direct3D10-Softwarerenderer namens "WARP10" bringen, mittels welchem sich Anwendungen und Spiele nach DirectX10 und 10.1 auch unter älterer Hardware oder sogar ganz ohne Grafikkarte ausführen lassen sollen. Allerdings ist die Zielstellung seitens Microsoft derzeit weniger, damit auch wirkliche Spiele (außerhalb der "Casual Games") mittels dieses Softwarerenderers darzustellen – diese Möglichkeit soll zwar zur Verfügung stehen, ist allerdings eher für Entwickler gedacht, die ihre Arbeit unter jeglicher Plattform (beispielsweise einer virtuellen Umgebung) betrachten wollen. Technisch soll die Darstellung von DirectX 10/10.1 Spielen allerdings möglich sein – als Beispiel führt man Crysis auf, welches ganz ohne Grafikkarte nur über die CPU gerendert wurde.

Warum dies in nächster Zeit allerdings keine Option für den realen Einsatz sein wird, sieht man an den Frameraten: Selbst mit einem Core i7 auf 3.0 GHz wurden unter 800x600 und LowestQuality nur 7,4 fps erreicht, ein Core 2 Duo mit 3.0 GHz kommt gerade einmal auf 3,5 fps. Es darf sogar die Frage gestellt werden, ob dieser Weg jemals möglich sein wird, denn zwar steigt das Leistungspotential von CPUs jährlich unvermindert an, allerdings dafür auch die Leistungsansprüche der jeweils aktuellen Computerspiele. Zudem scheint es keine Möglichkeit der Mitnutzung von Grafikkarten unterhalb des DirectX10-Standards zu geben, insofern wird es also nicht möglich sein, durch WARP10 mit DirectX9-Grafikkarten Direct3D10-Spiele zu nutzen. Wenn, dann gehen die Berechnungen anscheinend immer nur über die CPU – mit dem entsprechenden Performanceverlust.

Die PC Games Hardware hat in einem sehr interessanten Test die Leistungsfähigkeit verschiedener Core-2-basierender Prozessoren anhand ihrer Unterschiede beim Level2-Cache verglichen. Dazu wurde nahezu jede Core-2-basierte DualCore-Prozessorenserie zum Test herangezogen und einheitlich auf 2 GHz Takt mit FSB800 getaktet, um rein die Unterschiede in der Größe und Anbindung des Level2-Caches zu vermessen. Auffällig ist dabei erst einmal, daß unter CPU-nahen Benchmarks (1024x768 ohne AA/AF) sich überall noch Performanceunterschiede ergeben, selbst beim Sprung von 4 auf 6 MB Level2-Cache. Gleichfalls auffallend ist, daß der Absturz unterhalb von 2 MB Level2-Cache unverhältnismäßig groß ist.

Letzteres läßt sich sogar unter eher Grafikkarten-limitierten Benchmarks (1920x1200 mit 8xAA und 16xAF) konstatieren, wo die Unterschiede zwischen 2, 3, 4 und 6 MB Level2-Cache zumeist eher unbedeutend sind, aber auch wieder ein großer Unterschied zwischen 1 und 2 MB Level2-Cache sowie zwischen 512 kB und 1 MB Level2-Cache vermessen wurden. In der Realität werden die Unterschiede allerdings sogar noch etwas größer ausfallen, da die verschiedenen Intel-CPUs bekannterweise mit differierenden FSB-Taktungen von FSB800 bis FSB1333 antreten. Insofern läßt sich die klare Empfehlung geben, daß es für ein Gamer-System besser kein Core-2-basierter Prozessor mit weniger als 2 MB Level2-Cache sein soll. Darüber gewinnt man dann allerdings auch nicht mehr viel – jedenfalls nicht durch den größeren Level2-Cache.

Ähnlich dem Gedanken der Hybrid-GPU in den neueren Mainboard-Chipsätzen von AMD und nVidia berichten The Inquirer von ersten Entwicklungen in Richtung Hybrid-CPU bei Notebooks. Dahinter verbergen sich Geräte mit zwei deutlich unterschiedlichen Prozessoren, wovon – wie bei Hybrid-GPU – eine für Standard-Aufgaben und eine für leistungsfordernde Aufgaben benutzt werden sollen. Denkbar ist hier einmal der Ansatz, daß das Gerät zwei Nutzungsmodi hat, welche man beim Booten (oder auch davor) auswählt – oder aber der natürlich schwieriger zu realisierende Ansatz, daß im laufenden Betrieb dynamisch die jeweils passende CPU zum Einsatz kommt.

Der Sinn der Angelegenheit liegt natürlich wieder beim Stromsparen und damit der Verlängerung der Akkulaufzeit. Allerdings ist gerade in diesem Punkt der Nutzen der Idee zweifelhaft, denn heutige Mobile-Prozessoren verbrauchen im Normalbetrieb nur wenige Watt, da sie in der meisten Zeit nur idlen. Sicherlich kann man auch dies noch einsparen, aber das Einsparpotential ist doch deutlich zu gering, um damit wirklich noch bedeutende Verbesserungen bei der Akkulaufzeit zu erreichen. Heutige CPUs sind eben beim Idle-Strombedarf heutigen Grafiklösungen um einige Dimensionen voraus und tragen somit kein besonderes Potential zum Stromsparen mehr in sich. Technisch wäre eine Hybrid-CPU-Lösung dagegen sicherlich interessant, aber ohne echten Vorteil dürfte sich der Ansatz wohl kaum durchsetzen.