29

News des 29. Mai 2007

Im Forum der chinesischsprachigen Webseite Coolaler sind erste Benchmarks zur Radeon HD 2600 XT GDDR4 aufgetaucht, welche angesichts des Umstandes, daß erste Sample-Exemplare seitens der Grafikkartenhersteller nun inzwischen fertig sein sollten (um sie auf der Computex nächste Woche zeigen zu können), durchaus glaubwürdig sind. Auch passen die gemessenen Werte ganz gut zu den Vorab-Erwartungen, welche die GDDR4-Version der Radeon HD 2600 XT mit Taktraten von 800/1100 MHz noch vor der GeForce 8600 GTS (675/1000 MHz) sehen. Zwar ist es nicht ganz einfach, zu den Messungen der Radeon HD 2600 XT Vergleichswerte mit einem möglichst ähnlichen PC-System zu finden, folgenden lies sich allerdings ermitteln ...

... So scheint die Radeon HD 2600 XT GDDR4 der GeForce 8600 GTS im 3DMark06 maßgeblich davonzurennen, der für die neue ATI-Karte gemessene Wert von 8866 3DMarks unter 1280x1024 ähnelt viel eher dem Ergebnis der GeForce 8800 GTS 320MB (8812 3DMarks) als dem der GeForce 8600 GTS (5878 3DMarks). Irrtum: Das waren vorstehend leider nur 3DMark05-Werte bei der Radeon HD 2600 XT. Korrektur: Unter dem 3DMark06 liegt allerdings die GeForce 8600 GTS (5878 3DMarks) vorn, hier gibt es für die Radeon HD 2600 XT GDDR4 "nur" 5027 3DMarks unter 1280x1024. Unter Company of Heroes erreicht die Radeon HD 2600 XT GDDR4 mit 39 fps unter 1280x1024 zwar nicht die Höhen einer GeForce 8800 GTS 320MB (64,3 fps), in jedem Fall aber mehr als die GeForce 8600 GTS (34,3 fps). Leider waren in der Kürze der Zeit keine Vergleichswerte zu F.E.A.R. auftreibbar, welche wegen dem Einsatz von 4x Anti-Aliasing besonders interessant wären. Allerdings haben Coolaler hier mit SoftShadows gemessen, was jedoch in dieser Leistungsklasse eher unüblich ist und auch nur eher unspielbare Frameraten auf der Radeon HD 2600 XT GDDR4 ergibt.

Zum Thema der Unterstützung von angeblich nur vier Prozessorkernen in Windows Vista, welches in den News des 24. Mai erwähnt wurde, gibt es einiges nachzutragen: So finden sich inzwischen verschiedene Aussagen, welche bestätigen, daß die letzte Woche genannte Meldung durchaus fehlinterpretiert wurde, als man aus dieser auf eine Nicht-Unterstützung von mehr als vier Prozessorkernen schloß. Letztlich hat der Microsoft-Mitarbeiter ja auch nur gesagt, daß Windows Vista nicht für mehr als vier Kerne gedacht sei – dies ist etwas anderes, als wenn die Unterstützung für mehr als vier Prozessorkerne generell fehlen würde. Allerdings hat Windows Vista in der Tat wohl doch ein absolutes Limit an unterstützten Prozessorkernen, welches anscheinend bei acht Kernen liegt ...

... Allerdings ist dies auch wieder nur eine interpretierte Information, denn in den entsprechenden Meldung seitens der Infoweek oder von Silicon.de heißt es "nur", Windows Vista würde 16 Kerne nicht mehr unterstützen. Die Unterstützung von bis zu acht Kernen scheint allerdings brauchbar zu sein, wie dem V8-Preview seitens der X-bit Labs zu entnehmen. Dort hing es natürlich maßgeblich von der Software ab, ob zwischen vier und acht Kernen noch ein Unterschied ermittelt werden konnte, bei passender Software stellten sich jedoch überzeugende Leistungsgewinne mit acht Kernen unter Windows Vista ein. Insofern scheint das neue Betriebssystem für die Aufgaben der nächsten Zeit durchaus gerüstet zu sein ...

... Natürlich hätte man es seitens der Prozessorenhersteller lieber, wenn alle Software gleich vollständig multi-threaded geschrieben würde, entsprechende Klagen seitens Intel sind auch der vorverlinkten Meldung von Silicon.de zu entnehmen. Einmal abgesehen vom absolut erheblichen Aufwand hierfür sei an dieser Stelle aber auch eingeworfen, daß es eher unwahrscheinlich ist, daß die ManyCore-Entwicklung überhalb von acht Kernen wie bisher schrittweise weitergehen wird – sprich, daß danach einfach Prozessoren mit 16 und später 32 Kernen folgen werden. Eben weil die Software mit den vielen Kernen an ihre Grenzen stößt, ist eher zu erwarten, daß die Prozessorenbauer nach dem "OctoCore-Prozessor" (mit acht Kernen) erst einmal Schluß machen werden, Intel hat in der Vergangenheit schon in diese Richtung hin gedeutet ...

... Der nächste Sprung könnte dann ein eher revolutionärer sein: Nicht vom 8-Kern-Prozessor zum 16-Kern-Modell, sondern gleich zu solchen Ungetümen wie dem 80-Kern-Prozessor (wobei hier jeder Core dann aber auch weniger leistungsstark ist als bei heutigen Prozessoren). Dies erfordert dann natürlich eine eigentlich völlig andere Software-Architektur, wo wirklich alles auf parallelisierbare Threads aufbaut – und für den Übergangszeitraum entsprechende Virtualisierungslösungen, damit ältere Software nicht grausam langsam auf dieser grundlegend neuen Architektur läuft. Dies alles werden die Prozessorenhersteller aber natürlich erst in den Markt entlassen, wenn die Softwarehersteller wenigstens halbwegs so weit sind – und insofern sind die vorgenannten Forderungen seitens Intel nach noch stärker parallelisierbarer Software dann doch wieder zu verstehen.

Der Heise Newsticker berichtet über den Entwurf zu einer Pflichtabgabeverordnung im Sinne des Gesetzes über die Deutsche Nationalbibliothek und bringt damit gleichzeitig das eigentlich schon seit letztem Jahr existierende Thema auf den Tisch, daß sich die deutsche Bundesregierung eine Archivierung des bundesdeutschen Netzinhaltes (sofern es eine solche Klassifizierung im Internet überhaupt geben kann) durch eben die Deutsche Nationalbibliothek vorstellt (bzw. unter Androhung von Geldstrafen angeordnet hat). Leider löst die neue Verordnung auch nicht wirklich alle drängenden Fragen zum Thema: Klar ist bislang nur, daß man in der Tat jede Webseite archivieren will, deren Informationsgehalt über reine Öffentlichkeitsarbeit, Warenangebote, Arbeitsbeschreibungen oder Bestandsverzeichnisse hinausgeht ...

... Ausgeschlossen werden sollen nur Webseiten, an deren Archivierung kein öffentliches Interesse besteht – dies dürfte wohl auf die private Homepage zutreffen, aber ansonsten würde jede andere Webseite und vor allem auch Internetforen unter die Archivierungspflicht fallen. Eine weitere Einschränkung wurde wohl aus rein praktischen Erwägungen getroffen: Webseiten, welche zwingend auf eine im Hintergrund laufende Datenbank angewiesen sind, sollen natürlich nicht archiviert werden. Ob sich diese Einschränkung wirklich auf jede dynamisch generierte Webseite oder auf Internetforen anwenden läßt, sei hiermit allerdings bezweifelt, denn schließlich lassen sich die generierten Seiten immer noch im HTML-Format abspeichern und benötigen dann keine Datenbank-Anbindung mehr, um betrachtet werden zu können. Diese vorgenannte Einschränkung dürfte somit nur bei wirklichen Ausnahmefällen zutrefft sein ...

... Völlig unklar ist allerdings noch, in welchen Formaten die Deutsche Nationalbibliothek den ganzen Spaß haben will – bisher wurde hierzu nur gesagt, daß man die Archive mittels eines ZIP-Formats gepackt verschicken soll. Über das gewünschte Format der archivierten Dateien selbst sagt diese Regelung natürlich noch gar nichts aus. Ungeklärt bleibt bisher auch, ob man bei größeren Webseiten diese als "ein Werk" mit dementsprechend intern funktionierender Navigation übergeben soll, oder ob seitens der Deutschen Nationalbibliothek Einzelseiten gewünscht sind, d.h. jede einzelne Webseite extra. Mit einer höheren Wahrscheinlichkeit ist man sich allerdings bei der Deutschen Nationalbibliothek selber noch nicht darüber im klaren, wie das ganze laufen soll. Insofern dürfte es in nächster Zeit wohl kaum zur Anwendung der im Gesetz vorgesehenen Geldbußen kommen, wollte ein Webseiten-Betreiber nicht mit der Deutschen Nationalbibliothek bei der Archivierung seiner Webseite kooperieren ...

... Es ist dagegen viel wahrscheinlicher, daß die Deutsche Nationalbibliothek schon lange vorher von alleine kapituliert, wenn ihr das wirkliche Ausmaß dieser Aufgabe begreiflich wird. Denn prinzipiell halten wir die Archivierung auch nur eines Teils des Internets nur über entsprechend automatisierte Dienste wie beispielsweise dem Internet Archive machbar. Sobald man allerdings – wie in Deutschland wie selbstverständlich geplant – Webseiten händisch zur Nationalbibliothek senden soll, welche dort wahrscheinlich ebenso händisch eingeordnet werden, ergibt dies in kürzester Zeit einen nicht mehr zu bewältigen Arbeitsaufwand, welcher nur zu einem Stop des ganzen Projekts führen kann. Eine Archivierung des deutschsprachigen Webs ist nun per se nichts schlechtes und dürfte vor allem künftigen Wissenschaftler-Generationen einen guten Einblick über das Leben unserer Zeit geben – doch so, wie es derzeit angefangen wird, ist es nicht anderes als ein übler Schildbürger-Streich (samt Verschwendung von Steuergeldern).