22

Hardware- und Nachrichten-Links des 22. August 2014

Mal wieder eine kleine Information zu nVidias GM200-Chip kommt aus unserem Forum: Danach sprechen diverse Details dafür, daß der GM200-Chip weiterhin das 384 Bit DDR Speicherinterface des GK110-Chips benutzen wird. Da nVidia innerhalb der Maxwell-Architektur bislang auch sonst keine großen Sprünge beim Speicherinterface hingelegt hat, wäre dies nur folgerichtig. Denn wenn der GM107-Chip mit nur 128 Bit DDR Speicherinterface auf seine Leistung kommt und der GM204-Chip mit nur 256 Bit DDR Speicherinterface die GK100-basierte GeForce GTX 780 Ti erreichen können soll, dann wird auch der GM200-Chip mit "nur" 384 Bit DDR Speicherinterface zurechtkommen, selbst wenn für das professionelle Segment mehr natürlich besser wäre. Aber unter der 28nm-Fertigung – und angesichts dessen, daß schon der GK110-Chip auf eine Chipfläche von 561mm² kommt – muß nVidia gerade beim GM200-Chip sparsam mit Chipfläche umgehen, um nicht in unbeherrschbare Grenzbereiche zu kommen. Die wirklich großen Sprünge sind diesbezüglich dann erst mit einer zukünftigen Grafikchip-Generation unter einem neuen Fertigungsverfahren möglich.

Videocardz berichten über neue Tesla-Grafikkarten seitens nVidia, wo auch erstmals Maxwell-Chips verwendet werden. Hinzu kommt noch eine Tesla K80 mit gleich zwei GK110-Chips – sprich eine "GeForce GTX Titan Z" für den Profi-Einsatz. Interessant ist hierbei, daß noch immer keine der zuletzt herausgekommenen oder angekündigten Profi-Lösungen auf den GK210-Chip setzen, welchen nVidia jedoch kürzlich halb-offiziell für den Sommer 2014 notiert hat. Da gemäß derselben Information der GM200-Chip für das Jahresende 2014 droht – und dies gemäß neuesten Hochrechnungen sogar als realistisch erscheint – wird das Zeitfenster für den GK210-Chip zusehens kleiner. Unter Umständen tritt hier einmal eine Umkehrung der bisherigen Ereignisse auf und der GM200-Chip kommt nicht zuerst ins Profi-Segment, sondern zuerst ins Consumer-Segment – damit der GK210-Chip noch etwas Platz hat sich zu entfalten. Eine andere These zum GK210-Chip sagt, daß dieser Chip eventuell nur auf speziellen Kundenwunsch für die Nachrüstung bereits bestehender Großrechner-Systeme aufgelegt wird (beim GK110-Chip laufen im Profi-Einsatz teilweise Buffer/Caches voll, was die einzige größere Änderung beim GK210-Chip sein soll), sprich eventuell nie in offiziell vorgestellten Produkten resultieren wird.

Golem berichten über einen neuen Ansatz im Kampf gegenüber den natürlichen Latenzproblemen von CloudGaming: So gibt es bei Microsofts "Project DeLorean" einen Vorhersage-Mechanismus, welche die nächste Spieleraktion mit hoher Wahrscheinlichkeit vorhersagen und dementsprechend vorrendern kann. Der Vorhersage-Mechanismus arbeitet dabei anhand des aktuellen Nutzer-Verhaltens sowie von durch frühere Nutzung erzeugten generellen Tendenzen und soll im Endeffekt bis zu 250ms Latenz einfach so "verschleiern" können. Prinzipiell erscheint die Idee als nutzvoll im Sinne der Latenzvermeidung – andererseits steigt damit aber auch der Rechenaufwand und damit die Kosten für die Cloud-Anbieter. Zudem ist es nicht besonders wahrscheinlich, daß damit wirklich ein Vergleich gegenüber gewöhnlichem Offline-Gaming angetreten werden kann: CloudGaming unter dem DeLorean-Ansatz mag sich weniger schwammig anfühlen als bisheriges CloudGaming, wird aber wohl immer noch einen deutlichen Unterschied zum Offline-Gaming aufweisen. Das zusätzlich hinzukommende Ruckeln qualifiziert das ganze sowieso nur als für Smartphones etc. geeignet – eine PC-Eignung war hierbei allerdings auch nicht die von Microsoft gewählte Zielsetzung.

Wie die FAZ ausführt, sind im Streit um das Leistungsschutzrecht die Verlage vorerst mit ihrer Kartellbeschwerde beim Kartellamt abgeblitzt. Allerdings hat das Kartellamt durchaus einige Hintertüren aufgelassen – wenn beispielsweise der Fall auftreten sollte, daß ein Verlagsangebot von Google wegen des Streits um die Leistungsschutzrecht-Vergütungshöhe aus Google-Index entfernt werden würde, dann könnte man dennoch einschreiten. Das Problem der bisherigen Kartellbeschwerde lag also wohl primär darin, nicht klar genug die Position der Verlage bzw. deren Bedrohungslage ausgedrückt zu haben. Möglicherweise reagiert das Kartellamt auch eher ungern, wenn die Verlage in der Praxis gegenüber Google klein beigeben – sondern eben erst dann, wenn ein klarer Fall in Form der De-Listung seitens Google vorliegt. Damit spielt diese Kartellbeschwerde für den Augenblick erst einmal keine Rolle mehr, könnte aber jederzeit erneut gestellt werden – zudem gibt es auch noch andere Schlachtfelder, auf welchen die Auseinandersetzung um das Leistungsschutzrecht weitergeführt wird.

Zugleich machte das Kartellamt in seiner Antwort auch auf einen gewichtigen Punkt des bundesdeutschen Kartellrechts aufmerksam: Eine marktbeherrschende Stellung ergibt hierzulande nicht automatisch Maßnahmen seitens des Kartellamts, so wie dies in den USA weitgehend der Fall ist (bzw. sein sollte). In Deutschland greift man erst zu Aktionen, wenn ein Machtmißbrauch in der Praxis nachgewiesen wurde – was üblicherweise schwer nachzuweisen ist und vor allem viel länger dauert. Demzufolge kommt auch vom Kartellamt der Vorschlag an die Politik, zukünftig im Internet-Bereich bereits regulierend eingreifen zu dürfen, wenn eine marktbeherrschende Stellung schon erreicht wurde. Dies könnte ein sehr großer Hebel gegenüber Amazon, eBay, Facebook & Google werden – wogegen sich diese Unternehmen jedoch über ihre Lobbyisten heftig wehren dürften.