15

Intel Geschäftsergebnisse Q3/2014: Rekordumsatz und beste Aussichten für das Gesamtjahr

Prozessorenentwickler Intel hat im abgelaufenen dritten Jahresquartal 2014 einen neuen Rekordumsatz sowie ebenso starke Gewinne gepostet, wie Intel mitteilte. Der erzielte Umsatz von 14,5 Milliarden Dollar überbietet den bisherigen Rekordwert aus dem dritten Quartal 2011 von 14,2 Mrd. Dollar beachtbar und liegt vor allem auch auch gut eine Milliarde Dollar höher als im Vergleichszeitraum des Vorjahres. Auch mit dem operativen Gewinn von 4,5 Mrd. Dollar sowie dem nominellen Gewinn von 3,3 Mrd. Dollar konnte Intel Werte aufstellen, die nahe an den jeweiligen Rekordständen liegen. Intel hat somit eines der besten Quartale in der Unternehmensgeschichte abgeschlossen, was angesichts der Rahmenbedingungen von allgemein schwachem PC-Markt sowie der deutlichen Verzögerung der Broadwell-Architektur nochmals bemerkenswerter wird.

Q3/2013 Q4/2013 Q1/2014 Q2/2014 Q3/2014
Umsatz 13483 Mio. $ 13834 Mio. $ 12764 Mio. $ 13831 Mio. $ 14554 Mio. $
Gewinn 2950 Mio. $ 2625 Mio. $ 1947 Mio. $ 2796 Mio. $ 3317 Mio. $
operativer Gewinn 3504 Mio. $ 3549 Mio. $ 2533 Mio. $ 3844 Mio. $ 4540 Mio. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Damit ist Intel weiterhin auf dem schon zum Jahresanfang zu sehendem Kurs, neue Rekordergebnisse für das Gesamtjahr aufstellen zu können – nachdem die letzten beiden Jahre eher eine Stagnation auf hohem Niveau bzw. sogar teilweise eine leichte Abschwächung des Intel-Geschäfts gesehen haben. Angesichts der allgemeinen Rahmenbedingungen des PC-Markts ist diese Entwicklung jedoch keineswegs selbstverständlich, Intel wächst in dem Sinne anti-zyklisch, was eine sehr ungewöhnliche Situation darstellt. Die einzige sinnvolle Erklärung hierfür ist, daß Intel zu Lasten seiner Kontrahenten wächst – großflächig zuungunsten von AMD, aber dieses Jahr auch zuungunsten der üblichen Hersteller von Tablet-Chips, wo sich Intel zum einen über eigene Tablet-Chips und zum anderen über vielfältige Angebote an Hybrid-Geräten verlorengegangenen Boden wieder zurückgeholt hat.

Entgegen aller sich aus diesen Zahlen vielleicht ergebenden Eurphorie müssten die mittelfristigen Wachstumsaussichten für Intel jedoch eigentlich begrenzt sein: Im Geschäft mit PC-Prozessoren kann man gegenüber AMD kaum noch mehr Umsatz herausholen, während bei den Tablet/Smartphone-Prozessoren zwar noch Wachstumsaussichten für Intel zuungusten der Konkurrenz existieren, der Tablet/Smartphone-Markt selber jedoch dem klaren Ende seiner Expansionsphase entgegensteuert, es also nicht mehr automatische Zuwächse im hohen zweistelligen Bereich pro Jahr geben wird. Die Hersteller von Tablet/Smartphone-Bauteilen können somit in Zukunft nicht mehr gemeinsam mit dem Markt wachsen, sondern primär nur noch gegeneinander – was zu abschmelzenden Durchschnittspreisen respektive Gewinnen für alle Marktteilnehmer führen wird.

Einzelne Hersteller könnten noch durch Erringung viel größerer Marktanteile wachsen, aber niedrigere Durchschnittspreise werden den wirtschaftlichen Erfolg hieraus effektiv limitieren. Insbesondere Intel ist als Firma einfach schon viel zu groß und zu marktbeherrschend, um allein mit seinem Hauptgeschäft an Prozessoren für PCs, Tablets und Smartphones noch großartige mittelfristige Wachstumsaussichten zu haben. Andererseits liegt in der mittelfristigen und gerade der langfristigen Zukunft zu viel Ungewißheit, könnten neue Technologien und Produkte alles komplett vom Kopf auf die Füße stellen. Sichere Zukunftprognose kann man daher insbesondere für die IT- und Halbleiter-Industrie kaum erstellen – es ist meistens nur ein Fortdenken der aktuellen Situation möglich, welche jedoch regelmäßig von der späteren Realität überholt wird.

Nachtrag vom 5. Oktober 2014

Die Detailzahlen weisen für die "Mobile and Communications Group", welche das Geschäft mit Smartphone- und Tablet-Chips sowie LTE- wie WLAN-Modulen umfasst, einen Umsatz von nur 1 Million Dollar samt einem Verlust von 1,043 Milliarden Dollar auf (kein Schreibfehler). Anders formuliert: Intel hat hier Produkte im Wert von einer Milliarde Dollar faktisch kostenlos abgegeben – womit beantwortet wäre, wo die realen Preispunkte der Smartphone-/Tablet-Chips von Intel liegen und wie man sich den zuletzt ganz positiven Marktanteil in diesem Teilmarkt hat erkämpfen können. Intel verwendet hier tatsächlich die reichlich sprudelnden Gewinne aus dem PC-Geschäft (soviel zu der Mär über das schlechte PC-Geschäft), um das Smartphone-/Tablet-Geschäft zu faktisch 100% zu subventionieren – eigentlich eine klar wettbewerbswidrige Strategie, welche man wenn dann nur wirklich kurzfristig ansetzen kann. Aber Intel hat natürlich seine (guten) Erfahrungen damit gemacht, zuerst einmal die Konkurrenz aus dem Markt zu drängen und später bei eventuellen Klagen der Wettbewerbshüter ein paar Bußgelder abzudrücken – welche die dann einmal verfälschte Wettbewerbssituation auch nicht mehr geraderücken können.

14

Hardware- und Nachrichten-Links des 14. Oktober 2014

Die PC Games Hardware kann Entwarnung bezüglich der Hardware-Anforderungen von "The Evil Within" geben, welche sich ursprünglich ziemlich monströs angehört hatten, sich nunmehr jedoch als übertrieben herausstellen: So benötigt das Spiels augenscheinlich keine Grafikkarte mit "zwingend" 4 GB Grafikkartenspeicher, laut der PCGH kam man unter FullHD auf eine Speicherbelegung von maximal 1,6 GB, unter UltraHD waren es dann maximal 2,5 GB. Auch deuten die ersten Performance-Messungen darauf hin, daß man nicht wirklich eine HighEnd-Grafikkarte benötigt, wenn Radeon R9 280X und GeForce GTX 770 in ersten Performance-Messungen jeweils 59 fps erreichen konnten. Gerade angesichts dessen, daß das Spiel original mit einem 30-fps-Lock ausgeliefert wird (Anleitung zum Entfernen des 30-fps-Locks), dürfte im Auslieferungszustand wohl noch viel schwächere Hardware gut mitspielen können.

Ein Thread im Forum von Hardwareluxx sammelt Meldungen über Spulenfiepen bei der GeForce GTX 970, welches angesichts der Menge an entsprechenden Meldungen scheinbar doch wieder ein Problem darstellt. Genannt wurden hierzu mehr oder weniger alle Hersteller – genauso brachten andere User zu zuvor als "anfällig" genannten Karten auch aber wieder Positivmeldungen, so daß das Problem noch nicht einmal bei jedem baugleichen Modell auftreten muß. Damit kann es sogar passieren, daß eine wegen Spulenfiepens beim Händler umgetauschte Grafikkarte nach der Ersatzlieferung mittels einer baugleichen Grafikkarte keine solchen Probleme mehr aufweist. Noch ist nicht ganz klar, wie hoch die Menge entsprechender Fälle wirklich ist, im 3DCenter-Forum gibt es bislang keinen entsprechenden Thread und auch die früheren Meldungen über Spulenfiepen liegen im 3DCenter-Forum schon eine gewisse Zeit zurück. In jedem Fall gilt es zu beobachten, ob sich in dieser Sache noch weitere Entwicklungen ergeben.

Die ComputerBase zeigt eine Liste an angekündigten und verfügbaren Monitoren mit nVidias G-Sync – welche immer noch sehr kurz ausfällt, aktuell verfügbar sind gerade einmal drei Modelle. Zudem fehlen auch weitere Ankündigungen für die Zukunft, die Monitor-Hersteller planen augenscheinlich keine großen Mühen mehr für G-Sync, nachdem AMDs Alternativ-Technologie "FreeSync" in den DisplayPort-Standard 1.2a übernommen wurde und nächstes Jahr wahrscheinlich gleich mit einer Vielzahl an Monitoren am Markt vertreten sein wird. Selbst wenn die AMD-Lösung den späteren Start hat, spricht für jene die Lizenzfreiheit und damit vor allem die niedrige Kostenlage: Die Mehrkosten für die Monitorhersteller sollen bei FreeSync nur bei 10-20 Dollar liegen, während die Mehrkosten von G-Sync aufgrund der vorliegenden Preissituation rein praktisch bei 160 bis 200 Euro liegen. Und am Ende ist es nicht einmal unwahrscheinlich, daß nVidia in diesem Augenblick einknickt, wenn sich wirklich FreeSync-Monitore in Masse am Markt einfinden – und mittels eines Treiber-Updates eventuell auch noch GeForce GTX 970 & 980 dafür tauglich macht.

WinFuture vermelden eine Analysten-These, wonach Microsoft bisher bei Windows 10 bewußt den Ball flach gehalten und sich zuerst auf die Business-Kunden konzentriert hat, um den PC-Hersteller nicht das Weihnachtsgeschäft 2014 zu vermiesen – was passieren könnte, wenn man jetzt bezüglich Windows 10 auf die große Pauke gehauen hätte und die normalen PC-Käufer darauffolgend anfangen würde, schon jetzt auf Windows 10 zu warten. Die These klingt griffig bzw. passt zu der zu beobachtenden Situation – und stellt vor allem aber noch einmal einen deutlichen Hinweis darauf dar, daß Windows 10 keinesfalls zeitnah erscheinen wird, sprich auch nicht im Frühjahr 2015. Microsoft hat einfach die erste Ankündigung diesesmal früher angesetzt als bislang üblich, der Zeitpunkt von der ersten Ankündigung bis zum Produktlaunch wird dann halt länger dauern – vermutlich bis Herbst 2015, so daß Windows 10 für die PC-Käufer erst ein Thema des Weihnachtsgeschäfts 2015 sein wird.

14

Umfrage-Auswertung: Welches Seitenverhältnis hat der Monitor?

Die Umfrage der letzten Woche stellte das Seitenverhältnis des benutzten Monitors zur Frage. Erstaunlicherweise kam hierbei nicht die totale Dominanz der derzeit bei neuen Produkten zumeist angebotenen 16:9-Auflösung heraus, wenngleich jenes Seitenverhältnis mit 49,0% trotzdem natürlich den Spitzenplatz belegte. Aber es sind dennoch noch massenweise 16:10-Monitore im Einsatz oder werden sogar beim Neukauf bewusst so gewählt, womit dieses Seitenverhältnis mit 40,8% kaum weniger Zuspruch erhält. Glücklicherweise ist es bei neueren Spieletiteln so, daß sich die Spieleentwickler inzwischen damit arangiert haben und weniger Fälle auftreten, wo die zwischen 16:9 und 16:10 leicht unterschiedlichen Seitenverhältnisse vom Spiel nicht beachtet werden.

Sehr viel weniger Zuspruch haben dagegen andere Seitenverhältnisse: Aus der Vergangenheit kommen die 4:3-Monitore noch auf 4,0% und die 5:4-Monitore noch auf 1,9% Nutzerzuspruch, während das neuere superbreite 21:9-Seitenverhältnis doch schon auf beachtbare 3,5% kommt. Andere Seitenverhältnisse sind mit 0,8% der Stimmen kaum von größerer Bedeutung. Die Umfrage konnte natürlich auch nicht auf Sonderformen wie Multimonitoring abfragen, die Frage bezog sich allein auf das Seitenverhältnis eines Monitors. Hierzu läßt sich abschließend sagen, daß 16:9 und 16:10 derzeit als nahezu gleichwertig und vor allem marktdominierend anzusehen sind, andere Monitor-Seitenverhältnisse demgegenüber sehr viel weniger Relevanz haben. Einzig allein 21:9 könnte in der Zukunft vielleicht noch bedeutsamer werden, da jenes Seitenverhältnis jetzt schon bei 3,5% Nutzerzuspruch steht.

13

Hardware- und Nachrichten-Links des 13. Oktober 2014

HT4U bieten eine Auflistung von GeForce GTX 970 Modellen samt deren Besonderheiten an, welche auch Angaben zum jeweils angesetztem Power Target sowie zur maximalen Erhöhbarkeit desselben umfasst. Leider sind letztere Angaben wegen der mangelhaften Informationspolitik der Hersteller unvollständig, gerade von den stark ab Werk übertakteten Karten fehlen oftmals die entsprechenden Angaben. Erkennen läßt sich jedoch, daß entgegen der nVidia-Vorgabe eines Power Targets von 150 Watt auch die gar nicht oder niedrig ab Werk übertakteten Modelle generell mindestens ein Power Target von 160 Watt tragen – und hieraus natürlich auch eine gewisse Mehrperformance beziehen, wie kürzlich erst dargelegt. Faktisch kann man die Performance dieser Modelle mit Power Target von 160 Watt jedoch als die Referenz zur GeForce GTX 970 betrachten, in Ermanglung dessen, daß es wirkliche Referenzmodelle zu dieser Karte am Markt zu kaufen gibt. Wenn man also mit einem Herstellerdesign die Performance der regulären GeForce GTX 970 zu simulieren versucht, sollte man nicht nur die Referenz-Taktraten einstellen, sondern eben auch das Power Target der Karte auf 160 Watt herabsetzen.

Mit der neuen Version 1.4.775 bekommt der 3DMark13 einen weiteren Benchmark hinzu – "FireStrike Ultra". Hierbei handelt es sich um die bekannte FireStrike-Benchmarksequenz, allerdings in der UltraHD-Auflösung von 3840x2160 gerendert. Passenderweise wird jene nur auf entsprechenden Monitoren nativ dargestellt, auf kleineren Monitoren per Downsampling jedoch entsprechend heruntergedreht – womit man diesen Test auch dazu benutzen kann, die 4K-Fähigkeit der eigenen Hardware zu testen, ohne bereits einen 4K-Monitor zu besitzen. Aufgrund der extrem nach oben gezogenen Anforderungen an die Grafikkarte dürften jedoch nur absolute HighEnd-Grafikkarten sowie MultiChip-Lösungen gute Werte unter diesem "FireStrike Ultra" Test abliefern – Futuremark gibt als Anforderung gleich einmal 3 GB Grafikkartenspeicher für diesen Einzeltest an, was bei Grafikkarten mit weniger Speicher wohl für sehr deutlich spürbare Limitationen sorgen dürfte. Im Sinne der klaren Bedeutungszunahme der 4K-Auflösung in der letzten Zeit ist jener Test dennoch nützlich und dürfte uns daher wohl lange begleiten.

Die PC Games Hardware berichtet über eine Theorie, wie es zu der zuletzt feststellbaren deutlichen Steigerung der Anforderungen an Grafikkartenspeicher in PC-Spielen gekommen sein könnte: Danach könnten unoptimierte Konsolen-Portierungen hieran Schuld haben, bei welchen die Spieleentwickler nicht mehr zwischen Hauptspeicher und Grafikkartenspeicher getrennt haben, da es diese Trennung bei den aktuellen Konsolen bekannterweise nicht mehr gibt. Ergo würden in der PC-Version des Spiels der Grafikkartenspeicher auch für Sachen verwendet werden, welche dort gar nicht liegen müssen, demzufolge früher volllaufen und dann für Performance-Probleme sorgen. Dies ist eine mögliche Variante, eventuell machen es sich die Spieleentwickler auf dem PC auch ganz einfach und trennen die vorliegenden Berechnungsdaten gar nicht auf, sondern schieben einfach jeweils eine komplette Kopie in Hauptspeicher und Grafikkartenspeicher.

Andererseits ist ein gewisser Anstieg der Anforderungen auch schlicht dadurch zu erklären, daß die Spieleentwickler nun mit der aktuellen Konsolen-Generation dramatisch mehr Speicher zur Verfügung haben als bisher – und sich daher keine größeren Begrenzungen bei Texturenqualität und anderen speicherbelastenden Effekten mehr auferlegen müssen. Diese Entwicklung ist dabei noch lange nicht zu Ende, denn weder wird auf den aktuellen Spielekonsolen deren Speicher bislang voll ausgenutzt, noch wurden bisher großartige Speicherspar-Technologien angesetzt, wie sie auf der letzten Konsolen-Generation zwangläufig genutzt werden mussten. Zudem besteht nach wie vor ein bemerkbarer Auflösungs-Unterschied zwischen Konsolen und PC, welcher mit steigender Bildqualität wohl sogar noch größer werden wird – die Konsolen werden im Laufe der Zeit bei der Auflösung wohl noch häufiger abspecken müssen, während der PC hingegen Richtung UltraHD marschiert. Dies kann in einigen Jahren schnell in Richtung des doppelten bis dreifachen Speicherbedarfs auf dem PC resultieren – der aktuelle zu beobachtende Effekt ist daher möglicherweise nur der Anfang.

Heise und der Spiegel berichten über Aussagen seitens des Cyberabwehrzentrums von Europol, daß es weltweit wohl nur 100 maßgebliche Malware-Programmierer geben dürfte. Hiermit sind dann sicherlich nicht die (viel größere) Gruppe der Nutzer von Malware-Baukastensystemen gemeint, sondern nur noch deren Programmierer – und natürlich dann noch jene Hacker, welche aufgaben-spezifische Malware entwickeln können. Natürlich besteht seitens Europol ein hohes Interesse daran, diese Malware-Programmierer ausfindig zu machen – die dazu geäußerte Idee, es ausgerechnet mit Hintertüren in Programmen und Diensten zu versuchen, ist absurd und (angeblichen) IT-Fachleuten vollkommen unwürdig. Schließlich dürften jene Spitzen-Hacker noch mit zu denjenigen gehören, welche sich am am besten vor einer solchen Maßnahme schützen können – im völligen Gegensatz zum Normalbürger. Zudem zwingt die heutige Zeit, sich immer auch mit den Mißbrauchsmöglichkeiten einer neuen Methode zu beschäftigen – denn was einmal vorhanden ist, wird zwingend mißbraucht werden. In diesem Sinne handelt Europol hiermit komplett entgegen seines Auftrages: Um ein IT-Problem zu lösen, soll ein noch viel größeres geschaffen werden.

Nochmals Heise berichten darüber, daß das NSA-Programm "Tarex" neben den USA auch in Südkorea, China und Deutschland läuft. Unter Tarex sind verschiedene Maßnahmen zusammengefasst, eine davon ist die Infiltration des Postverkehrs zum Zweck der Manipulation von Hardware für überwachte Personen und Einrichtungen – besonders beliebt sind hierbei wohl Internet-Router, wo die NSA dann ihre eigene Überwachungsschnittstelle mit anbringt. Einen direkten Beweis dafür, daß selbiges auch in Deutschland geschehen ist, gibt es zwar nicht – aber man darf es als Hinweis darauf betrachten, daß dies durchaus passiert kann. Damit müssen Personen und Einrichtungen mit erhöhtem Sicherheitsbedarf (hierzu kann wegen der Wirtschaftsspionage-Aktivitäten der NSA auch jedes Unternehmen mit eigener Forschungsabteilung zählen) leider davon ausgehen, daß neu gekaufte IT-Gerätschaften nicht manipulationssicher sind, sondern vor Einsatz entsprechend kontrolliert werden und im Idealfall auch gleich mit vom Hersteller unabhängigen Betriebssystemen betrieben werden sollten. Für Unternehmen wird zudem die Mitarbeiter-Prüfung umfangreicher, denn das Tarex-Programm beinhaltet auch das Einschleussen von NSA-Mitarbeitern in Unternehmen zum Zweck der Installation von Überwachungstechnik direkt vor Ort.

Shortcuts: Die PC Games Hardware berichtet über Meldungen, die jüngsten AMD-Preissenkungen wären nur ein temporärer Alleingang der Boardhersteller – und würden zudem nach einer gewissen Zeit wieder eingestellt, was dann wieder in höheren Preisen für AMD-Grafikkarten resultieren würde. Letzteres ist aufgrund der aktuellen Marktsituation jedoch kaum vorstellbar, womit das ganze wohl nur eine gute PR-Masche zum weiteren Ankurbeln der Verkäufe sein dürfte. Fudzilla berichten hingegen über ein angeblich neues "Never Settle" Bundle – was wir allerdings in dieser Form für unwahrscheinlich halten, da AMD gerade erst ein neues Bundle vorgestellt hat, wovon noch nicht einmal alle Spieletitel veröffentlicht wurden. Da AMD seine Spiele-Bundles bisher niemals komplett umgeworfen hat, so lange die Laufzeit des aktuellen Bundles noch nicht überschritten war (das aktuelle Bundle läuft bis zum 31. Januar 2015), dürfte es dieses Jahr wenn dann nur Ergänzungen des aktuellen Bundles durch neue Spieletitel geben – aber weniger denn ein komplett neues Bundle.

13

nVidia Maxwell: Auswirkungen verschiedener Power Targets auf Performance und Stromverbrauch

Tom's Hardware haben sich mit der Auswirkung verschiedener, weit voneinander entfernter Power Targets auf Performance und Stromverbrauch der neuen Maxwell-Grafikkarten am Beispiel einer GeForce GTX 970 beschäftigt. Jene Karten bieten wie bekannt weitreichende Möglichkeiten zur Beeinflußung der Performance und damit des Stromverbrauchs über das gesetzte Power Target. Selbiges liegt bei einem Referenzdesign bei nur 150 Watt mit eigentlich nur +6% Spielraum, verschiedene Herstellerdesigns haben jedoch völlig andere Power Targets bis hin zu 250 Watt bei der benutzten Gigabyte-Grafikkarte. Damit könnten folgende Performance-Werte und damit Stromverbräuche erzielt werden:

Power Target eingestellter Chip-Takt höchster Boost-Takt durchschnittlicher Boost-Takt Performance (Thief) Stromverbrauch
145W 1300 MHz 1291 MHz 1266 MHz 43,5 fps 131,4W
175W 1300 MHz 1481 MHz 1461 MHz 48,0 fps 160,5W
200W 1300 MHz 1531 MHz 1519 MHz 49,5 fps 183,3W
225W 1350 MHz 1544 MHz 1531 MHz 50,1 fps 205,3W
250W 1375 MHz 1564 MHz 1552 MHz 51,0 fps 229,1W

Leider liegen nur die Performance-Messungen eines einzelnen Spiels (Thief) vor, was etwas mager für eine abschließende Aussage ist. Dennoch läßt sich die Beobachtung einer klaren Tendenz mitnehmen: Zwar lassen sich die neuen Maxwell-Grafikkarten auf extreme Power-Target-Werte setzen und verbrauchen dann auch entsprechend viel Strom, der Performance-Gewinn sinkt jedoch ab einem gewissem Maß in völlig uninteressante Bereiche ab. Im Fall der benutzten GeForce GTX 970 lohnt kaum mehr als ein Power Target von 175 Watt – für ein Power Target von 200 Watt bekommt man nur 3,1% mehr Performance für einen gleich um 14,2% höheren Stromverbrauch. Für den Sprung von 200W auf 225W Power Target sieht es noch drastischer aus: Für 12,0% mehr Stromverbrauch bekommt man nur 1,2% mehr Performance.

Im Fall der GeForce GTX 970 & 980 bringt das Setzen extremer Power Target also relativ wenig bis gar nichts – dies sind Reserven für Extrem-Übertakter mit entsprechenden Kühlmaßnahmen, aber im Hausgebrauch nicht sinnvoll nutzbar. Viel mehr als 20% bis maximal 35% über das jeweilige TDP-Limit muß man GeForce GTX 970 & 980 nicht setzen. Danach fängt der Bereich an, wo die Grafikkarte mehr Watt nicht in mehr Pixel, sondern nur noch in mehr Abwärme umwandelt, wo die die Grenzen der Maxwell-Effizienz dann deutlich erreicht sind.

12

Hardware- und Nachrichten-Links des 11./12. Oktober 2014

Während Golem und Hardwareluxx sich die Windows 10 "Technical Preview" aus Betriebssystem-Sicht angesehen haben, haben sich OCaholic mit der Gaming-Performance unter Windows 10 beschäftigt. Dank vorhandener Index-Bildung erfährt man umgehend, daß Windows 10 derzeit bei der Gaming-Performance minimal zurückhängt – allerdings in einem für Betriebssysteme üblichen Rahmen von -1,7% bis -2,0% gegenüber Windows 7, also im vernachlässigbaren Rahmen. Der Grund hierfür könnte schon allein an den vielfältigen Protokollierungs-Funktionen der "Technical Preview" liegen, welche dann im finalen Betriebssystem natürlich fehlen werden. Ergo darf man jetzt schon davon ausgehen, daß Windows 10 im Gaming-Einsatz nicht wirklich langsamer als bisherige Microsoft-Betriebssysteme sein wird – schneller natürlich auch nicht, aber dies ist gar nicht zu erwarten. Windows 8.1 liegt im übrigen im selben Test um +0,4% bis +2,1% vor Windows 7 – sicher auch nicht unbedingt die Aussage "schneller" wert, aber doch ein Hinweis darauf, wohin die Treiber-Entwicklung der Grafikchip-Entwickler sowie die Arbeit der Spielentwickler zuletzt zielte.

TweakPC bringen eine offizielle Intel-Aussage zur Garantie für Asus' Mainboards mit OC-Sondersockel für Haswell-E, welche wenig Hoffnung läßt, daß sich hier eine Einigung zwischen Asus und Intel erreichen lassen würde. Intel lehnt seine (freiwillige) Garantie schlichtweg ab, wenn die Intel-Prozessoren nicht auf validierten Plattformen laufen – was im Fall des OC-Sondersockels von Asus und Gigabyte eben nicht mehr zutrifft. Daß Asus und Gigabyte hier nur sowieso vorhandene Kontaktstellen nutzen, die Intel sogar selber zur internen Produktvalidierung benutzt, spielt rechtlich keine Rolle. Validiert ist seitens Intel halt nur der Sockel 2011-v3 – und kein anderes Produkt oder andere Nutzungsform. Die Hersteller-Garantie ist damit zumindest für die Intel-CPU weg – und die Mainboard-Hersteller dürften sich schwer tun, jene auch noch zu übernehmen. Andererseits dürften die praktischen Auswirkungen des Falls eher gering sein, denn hierbei handelt es sich schließlich um eine Maßnahme zum extremen Übertakten – bei welchem die Garantie der Intel-CPUs sowieso weg wäre.

Internet-Law berichten über eine Empfehlung seitens der bundesdeutschen Datenschützer, daß Google die Anbieter von Inhalten, die wegen des "Rechts auf Vergessen" aus dem Google-Suchindex entfernt wurden, nicht darüber benachrichtigen darf. Wo hier ein Datenschutz-Verstoß liegen soll, bleibt unklar, denn eigentlich müsste es in die völlig andere Richtung gehen: Zur Wahrung der eigenen Interessen und weil man nicht ständig jeglichen eigenen Inhalt darauf kontrollieren kann, ob Google jenen ausgelistet hat, müsste Google die betroffenen Inhalteanbieter zwingend über die Delistung informieren – wie auch seitens Internet-Law rechtlich begründet wurde. Das eigentlich zugrundeliegende Problem ist jedoch, daß mittels des "Rechts auf Vergessen" Google zu einem faktischem Richter erhoben wurde, ohne aber das Google hierfür Aufwandsentschädigung o.ä. erhält. Google muß sich also mit dem zivilrechtlichen Streit dritter Personen herumschlagen, muß Richter und Henker in einem spielen, und wenn dann mal etwas falsch läuft – was es bei über 100.000 Fällen sicher passiert – führt der Weg wieder nur über Google.

Vollkommen logisch, daß es sich Google demzufolge so einfach wie möglich macht und natürlich niemanden über Delistungen informiert, damit man etwaigen Rechtsstreitigkeiten möglichst aus dem Weg gehen kann. Allerdings verletzt man damit auch automatisch die Rechte der Inhalteanbieter, welche – wie schön von Internet-Law dargelegt – aufgrund der marktbeherrschenden Stellung von Google einen faktischen Listungsanspruch gegenüber Google haben. Auch wenn das "Recht auf Vergessen" von der Idee her durchaus etwas für sich hat, zeigen sich hiermit die praktischen Schwierigkeiten dieses Rechts. Normalerweise dürfte Google als Suchmaschinen-Anbieter nicht selber darüber entscheiden, müsste jeder Fall einzeln vor Gericht mit Rede und Widerrede behandelt werden. Angesichts der damit auflaufenden hohen Kosten dürfte man wohl schnell zur Einsicht kommen, daß nicht jede Rechtsidee sinnvoll in die Praxis übertragen werden kann.

Inhalt abgleichen