14

News des 13./14. April 2009

Laut The Inquirer soll der TapeOut des GT300-Chips von nVidia im Juni über die Bühne gehen – sofern alles klar geht, was bei Neuentwicklungen und im absoluten HighEnd-Bereich natürlich niemand so genau vorhersagen kann. Nach dieser ersten Pressung der Designvorlagen in ein lauffähiges Silizium dauert es üblicherweise je nach Komplexität des Designs und den jeweils auftretenden Schwierigkeiten drei bis sechs Monate bis zu einer Lieferfähigkeit aus der Massenproduktion, so daß der angepeilte Releasezeitpunkt vom Jahresende haltbar erscheint, aber jetzt auch nicht mehr viel dazwischenkommen darf. Wie weit ATI dagegen mit seinem DirectX11-Gegenprojekt RV870 ist, kann derzeit mangels greifbarer Informationen kaum gesagt werden, die Spekulationen über einen Releasezeitpunkt reichen vom dritten Quartal bis zum Jahresende.

Gemäß Fudzilla gibt es Hinweise, daß Intel den P55-Chipsatz als erstes Aushängeschild der Erweiterung der 5er Chipsatz-Serie für die kommenden Mainstream-Prozessoren der Nehalem-Prozessorenarchitektur auf Basis des Lynnfield-Cores vom bisherigen Termin August/September auf den Oktober verschoben hat. Dies würde natürlich gleichzeitig implizieren, daß auch die neuen Mainstream-Prozessoren entsprechend später antreten werden – was derzeit eine noch komplett unbestätigte Information ist, aber als Gerücht erst einmal so entgegegenommen werden kann. Angeblich will Intel in die neue Chipsatz-Plattform noch mehr Features integrieren, um den Konsumenten dem Umstieg von der sehr erfolgreichen Core-2-Prozessorenserie schmackhafter zu machen – nicht gerade kleine Lagerbestände an CPUs und Chipsätzen könnten bei dieser möglichen Entscheidung aber auch eine Rolle gespielt haben.

HT4U berichten über die dieses Jahr von Intel noch geplanten ersten Mobile-Prozessoren auf Nehalem-Basis. Interessanterweise will Intel diesen einen offiziellen Speichersupport von bis zu DDR3/1333 spendieren – da hierfür derselbe Prozessorkern wie im Desktop benutzt wird (der schon vorgenannte Lynnfield-Core), könnte dieser höhere Speichertakt eventuell dann auch für die Desktop-Modelle offiziell werden. Zwar ist dies angesichts der Möglichkeiten der Speicherhersteller und der praktischen Erfahrungen im Nehalem-Einsatz immer noch recht wenig, aber zumindest bewegt sich bei dem Thema endlich einmal etwas.

Wie die InformationWeek berichtet, planen 83 Prozent der US-Unternehmen Windows 7 nicht vor dem Jahr 2011 einzusetzen – und damit das erste Jahr des Release komplett verstreichen zu lassen. Auf den ersten Blick ist diese Zahl nicht besonders beeindruckend, da im Unternehmenseinsatz die goldene Regel gilt, keine neue Betriebssysteme vor dem ersten Service Pack zu adaptieren – aufgrund des der Verweigerung Windows Vista gegenüber entstandenem Investitionsstaus' ist die Zahl aber dennoch als recht hoch einzuschätzen. Primärer Grund hierfür dürfte schlicht die Wirtschaftskrise sein, welche die Firmen ihre geplanten Investitionen aufschieben läßt.

Während im Firmenbereich ja auch immer noch die Kompatibilität zur existierenden Softwarelandschaft eine wichtige Rolle spielt, pirscht sich still und heimlich ein weiterer Grund gegen Windows 7 heran, bei welchem gerade der lange Abstand zu Windows XP – bisher eher ein Pro-Argument – zum Nachteil für das kommende Betriebssystem wird: Denn viele Anwender und Firmen konnten nun erstmals die Erfahrung machen, wie es ist, eine Betriebssystem-Generation komplett auszusetzen – und erstaunlicherweise und entgegen der Microsoft-Propaganda ging das Leben trotzdem weiter. Dort, wo weniger der Neuheitswert zählt (Endkundenmarkt), sondern wo Produktivität und Kosten/Nutzen-Rechnungen zählen, könnte man nun durchaus auf die Idee kommen, daß Windows 7 zwar hübsch und besser als Windows Vista ist, aber Windows XP nach wie vor für alle anstehenden Aufgaben ausreichend ist.

Im Firmeneinsatz, wo man jeden Dollar/Euro zweimal umgedreht, ehe man diesen ausgibt, erscheint Windows 7 breitflächtig (d.h. bis auf begründete Ausnahmen) als nicht zwingend: Zwar etwas besser, aber den finanziellen Aufwand für Lizenzen, Hardware-Neuanschaffungen, Kompatibilitätssorgen, Überstunden der IT-Abteilung und notwendigen Mitarbeiterschulungen nicht wert. Selbst wenn man seinen Hardware-Bestand komplett renoviert, wäre es zu überlegen, bei Windows XP zu bleiben – die Umstellungssorgen sind einfach deutlich geringer. Es offenbart sich hier letztlich ein Grundproblem von Microsoft: Daß man in der Evolution der Betriebssysteme eigentlich längst zu einem für normale Bürocomputer sowie den üblichen Heimrechner befriedigenden Stand gekommen ist und Neuentwicklungen nicht mehr so richtig notwendig sind.

Denn von Windows XP bis Windows 7 unterscheiden sich die grundsätzlichen Funktionalitäten der Betriebssystemen eigentlich nicht mehr. Microsoft hat dies jeweils durch neue Oberflächen und neue Dateiordnungsmodelle versucht zu verschleiern, aber diese Features operieren eher denn oberflächlich, wären also auch durch Service Packs oder zusätzliche Programme zurüstbar. Und an den neueren Microsoft-Oberflächen scheiden sich sowieso die Geister – die Entwicklung verlief dabei ziemlich deutlich von einer klaren Arbeitsoberfläche (2000) hin zu einer Händchenhalte-Oberfläche für den eher unbedarften Anwender (Vista), was ganz deutlich nicht jedem gefällt. Wenn Microsoft mal etwas wirklich neues bringen wollte, könnte man genau hier ansetzen: Weg mit dem DDR-liken Zwang zur absolut einen Oberfläche, die das Non-Plus-Ultra (bis zum nächsten Betriebssystem) darstellen soll.

Andere Betriebssystem wie Linux zeigen schließlich, das ein Betriebssystem sich selber gar nicht auf eine Oberfläche festlegen muß, sondern daß dies notfalls sogar komplett voneinander getrennt sein kann. Microsoft muß dies nicht vollkommen nachmachen, aber es wäre deutlich zu empfehlen, bei der Arbeit an neuen Betriebssystemen nicht immer wieder nur die eine einzige Kundengruppe von Otto Aldikäufer ins Visier zu nehmen. Schon allein mit mehreren, gut abgestimmten Oberflächen (im selben Betriebssystem) würde man sich einen großen Gefallen tun und könnte die Kundenzufriedenheit über viele Kundengruppen hinweg enorm steigern. Ansonsten kommt man vom (nicht unverdienten) Ruf des "Klicki-Bunti" so schnell nicht wieder los. Und auch der Unternehmensbereich – um zum Ausgangspunkt zurückzukehren – wäre dankbar, wenn man zwar ein neues Betriebssystem mit neuen Fähigkeiten erwerben könnte, dessen Oberfläche aber notfalls auch einfach mal zurück auf den bekannten Windows-XP-Standard zu schrauben wäre.

Zum Fall Wikileaks.de bringen Gulli einige neue Informationen, welche die ganze Sache erhellen. Zum einen handelt es sich – wie schon von uns vermutet – bei der Nichterreichbarkeit dieser Domain nicht um einen Zensurakt, sondern vielmehr um die Auswirkung der Kündigung des Domainproviders, welcher die Domain nicht mehr verwalten will und sie daher in eine Art Warteschleife zurück zur Denic gegeben hat. Damit verliert der Domaininhaber nicht die Rechte an seiner Domain und kann sich einen neuen Domainhoster suchen. Allerdings – und das ist der irritierende Punkt – soll es sich hierbei nicht um eine kurzfristige Kündigung, sondern um eine reguläre Kündigung gehandelt haben.

Diese soll bereits zum Jahresende 2008 ausgesprochen und mit Kündigungsfrist dann erst zum 31. März 2009 wirksam geworden sein – so zumindest die Aussage des vormaligen Domainproviders. Dem Domaininhaber war diese Kündigung aber offensichtlich unbekannt – und sofern diese nicht auf dem Postweg verlorenging (wäre schon ein irrer Zufall ausgerechnet bei dieser Domain), lügt eine der beiden Parteien. Nicht ganz von der Hand zu weisen ist hierbei die Idee, daß der Domainprovider schlicht und ergreifend eine zurückdatierte Kündigung aufgesetzt hat, weil eine kurzfristige Kündigung nicht den Vertragsbedingungen entsprochen hätte – so etwas soll schon vorgekommen sein, um unliebsame Kunden loszuwerden. Aber momentan ist dies natürlich pure Spekulation, sinnvollerweise sollten beide Parteien ihren Standpunkt durch beweiskräftige Dokumente belegen.

Shortcuts: Gemäß BSN legt ATI den eigenen Grafikkarten-Partner keine Steine in den Weg, wenn diese eine eigene "Radeon HD 4890 X2" kreiieren wollen. Dies wird ohne ein Referenzdesign – und da der RV790-Chip nicht Pin-kompatibel zum RV770-Chip ist – jedoch kein billiges Unterfangen, vor allem weil maximal 10 Prozent Mehrleistung winken. Es bliebe demzufolge abzuwarten, ob einer der Grafikkarten-Hersteller sich an diesem mutigen Projekt alleine versucht. Die PC Games Hardware berichten über Voxel-Rendering am Beispiel der kommenden Tech-6-Engine von id Software, ein sehr interessanter Lesestoff. Das von id Software eingesetzte Raycasting-Verfahren dürfte Parallelbeschleunigern wie Intels Larrabee wohl stark entgegenkommen, wobei sich ja letztlich auch ATI und nVidia zunehmend in diese Richtung hin entwickeln. Und letztlich nochmals die PC Games Hardware berichtet noch über diverse neue Overclocking-Weltrekorde bei Phenom II, Core 2 und Core i7 Prozessoren.