8

News des 8. Oktober 2010

Beim chinesischen Chiphell ist eine Radeon HD 6800 Präsentation zu sehen, nach welcher diese Grafikkarten-Serie erneut als auf dem Barts-Chip basierend bezeichnet wird. Da diese Präsentation umfangreicher und vor allem chinesischsprachig ist, sind einer Fälschung kaum große Chancen einzuräumen – ergo geht es derzeit wohl wirklich in diese Richtung, daß AMD untypischerweise nicht mit dem größten Chip startet und diesem dann auch noch eine sehr optimistische Namenswahl gibt. Die große Frage zur Radeon HD 6800 Serie wird somit sein, wie nahe diese an der Performance der Radeon HD 5800 Serie herankommt – von den technischen Ansetzungen her erscheint dagegen eine (klare) Überbietung der Radeon HD 5800 Serie eher ausgeschlossen. Direkt daran anschließen dürfte sich dann zudem die Frage, wie AMD der Presse und den Grafikkartenkäufern erklärt, daß man nach den sehr überzeugenden Radeon HD 4800 & 5800 Serien mit der Radeon HD 6800 Serie nun so halbwarm starten wird.

Denn dies ist der erstaunlichste Punkt: Wenn man schon das Risiko dieser optimistischen Namenswahl eingeht, dann sollte man wenigstens den HighEnd-Chip Cayman einsatzbereit haben und zuerst bringen – was hier aber nicht zutrifft. Wieso AMD in einer solchen Eile handelt, will nicht wirklich einleuchten, weil derzeit nVidia keinerlei Druck auf AMD aufbauen kann, so schnell wie möglich etwas tun. AMD könnte also auch einfach bis zum Jahresende warten und dann einen konventionellen Launch aufbauen, wo zuerst die schnellsten Produkte und danach erst die kleineren Chips in den Markt kommen. Mit der gewählten Strategie geht AMD ein hohes Risiko ein – und dies ausgerechnet noch bei den ersten Grafikchip und -karten, die nicht mehr unter dem ATI-, sondern dem AMD-Logo in den Markt gehen. Bleibt nur zu hoffen, daß AMD dieses Risiko auch rechtfertigen kann – beispielsweise mit einer überraschend guten Performance oder aber wenigstens einem erstklassigen Preispunkt bei der Radeon HD 6800 Serie.

Wie HT4U berichten, gibt es ernstzunehmende Gerüchte, wonach die Sandy-Bridge-Prozessoren von Intel eventuell schon in diesem Oktober vorgestellt werden sollen. Wir geben für den Augenblick aber nicht viel darauf, denn Intel hat es derzeit absolut nicht notwendig, seine Zeitpläne nach vorn zu verlegen: Wie vorgestern ausgeführt, steht die AMD-Konkurrenz in Form von Llano (Q3/2011) und Bulldozer (Q2/2011) erst später an und nur AMDs Bobcat-Architektur (Q1/2011) hat einen ähnlichen Termin wie Intels Sandy-Bridge-Prozessoren (CES in der ersten/zweiten Januarwoche 2011). Mit AMDs Bobcat überschneidet sich Intels neue Architektur jedoch kaum, so daß dies kein echter Grund sein kann – und ansonsten fällt uns kaum etwas ein, was eine Vorverlegung des Sandy-Bridge-Launches begünstigen würde. Davon abgesehen ist Intel eigentlich nicht dafür bekannt, Launches um so große Zeiträume zu verschieben, insofern sind dem Gerücht trotz der seriösen Quelle nur geringe Chancen zu geben.

Die ComputerBase vermeldet hingegen Sandy-Bridge-Prozessoren mit einer TDP von nur 20 Watt – bei genauerem Hinsehen trifft dies aber nur auf ein einzelnes Server-Modell zu, bei welchem zudem auch noch die integrierte Grafikeinheit gänzlich deaktiviert scheint. Daneben bietet die Meldung jedoch einige gute Zusammenstellungen zu den einzelnen Sandy-Bridge-Modellen und deren Kenndaten – und desweiteren eine Klarstellung zur integrierten Sandy-Bridge-Grafik: Diese nennt sich im Vollausbau mit zwölf "Execution Unit" dann "Intel HD Graphics 200", eine abgespeckte Variante mit sechs "Execution Unit" läuft unter "Intel HD Graphics 100". Jene "Execution Unit" dürften wohl in irgendeiner Form für Shader-Einheiten bzw. kleinere Shader-Cluster stehen, wobei die bisherigen Messungen (mit dem Ergebnis ungefähr im Rahmen einer Radeon HD 5450) vermutlich allesamt auf der bestmöglichen Sandy-Bridge-Grafik basieren.

Laut SemiAccurate ist Intel unzufrieden mit dem aktuellen USB 3.0 Standard, weil dieser bezüglich der über USB möglichen Stromversorgung zu geizig sein soll. Zudem will es Intel ermöglichen, daß per USB verbundene Geräte Strom miteinander austauschen können – unabhängig davon, wer davon der PC ist. So soll beispielsweise auch ein Netbook-Akku über eine angeschlossene USB-Festplatte aufgeladen werden können, sofern diese Festplatte wiederum eine eigene Stromversorgung hat. Dafür ist natürlich eine deutlich höhere Stromlast über USB vonnöten – Intel redet hier von bis zu 35 Watt und später mit einem veränderten Stecker dann gar 200 bis 300 Watt. Doch während letzteres noch deutlich in der Zukunft liegt, will Intel die Stromversorgung von bis zu 35 Watt zwischen USB-Geräten offenbar in absehbarer Zukunft realisieren – was aber dennoch offenläßt, ob das ganze (zeitnah) in Form eines Updates zu USB 3.0 oder aber (mit einigem zeitlichen Abstand) in Form einer gänzlich neuen USB-Spezifikation daherkommt.

Ziemlichen Wirbel hat der Vorschlag Microsofts hervorgerufen, infizierte Computer aus dem Internet zu verbannen. Bislang ist das ganze allerdings erst noch im Status einer freien Idee und weit entfernt von einer Umsetzung. Nichtsdestotrotz wird heftig darüber diskutiert – mit zumeist keiner besonders positiven Resonanz. Als problematisch wird dabei insbesondere gesehen, daß die gänzliche Kappung eines Internet-Anschlusses in der heutigen Zeit eine viel zu drastische Maßnahme ist – und zudem unter Umständen auch rein technisch überzogen sein kann, wenn beispielsweise ein Gerät im Haushalt virenverseucht ist, andere Gerät an demselben Internetanschluß aber nicht. Zudem muß Microsoft natürlich noch erklären, wie ein solcher Vorschlag zur ansonsten gern von der Industrie propagandierten Zukunft von Kühlschränken, Fernsehern, etc. mit Internetanschluß passen soll.

Daneben läßt sich unserer Meinung nach die angestrebte technische Lösung in Form von durch den eigenen PC ausgestellten "Virenfrei"-Zertifikaten nur in dieser Form gegenüber Schadprogrammen absichern, wenn man alle PCs mit Trusted Computing ausstattet und die Schadprogramm-Scannlösung in diese hinein verlagert. Denn ohne Trusted Computing und damit einen Bereich im PC, auf welchen Schadprogramme zweifelsfrei nicht zugreifen können, könnten sich Schadprogramme die Zertifikate zur Beglaubigung der (angeblichen) Virenfreiheit schließlich auch selber ausstellen – oder einfach die Scannergebnisse komplett verfälschen. Allerdings ist das aktuelle Trusted Computing im Consumer-Bereich noch weit davon entfernt, so etwas leisten zu können – dafür würde man wohl leistungsfähigere TPM-Module benötigen, welche ein ganzes Antiviren-Programm inklusive ständig aktualisierter Viren-Datenbanken aufnehmen können.

Zudem bedingt die ganze Idee natürlich auch die generelle Durchsetzung von Trusted Computing im Consumer-Markt – denn ohne daß nahezu alle installierten Computer diese Fähigkeit aufbieten können, kann man so ein Vorhaben schon rein rechtlich nicht auf den Weg bringen. Wenn, dann dürfte diese Idee von Microsoft also noch viele Jahre von einer Realisierung entfernt sein – und dann könnte die Situation auch schon wieder ganz anders aussehen. Wir denken jedenfalls, daß für diese Microsoft-Idee zu viele technische und rechtliche Hürden zu nehmen sind, als daß es sich lohnen würde, diese überhaupt anzupacken. In der IT-Branche werden schließlich höchst selten Ideen realisiert, welche eine Vorbereitungszeit von zehn oder mehr Jahren erfordern – dafür ist die IT-Welt zu schnelllebig und sind damit die Erfolgsaussichten bei solch langatmigen Projekten deutlich zu vage.