26

Umfrage-Auswertung: Spielt DRM beim Spielekauf eine Rolle?

Die Umfrage von letzter Woche widmete sich dem heiklen Thema "DRM beim Spielkauf" – wobei DRM natürlich nicht nur diverse technische Kopierschutzmaßnahmen, sondern auch die zwangsweise Account-Verbindung mit Steam, Origin, GfWL & Co. umfaßt. Die Meinungen zu diesem Thema verteilen sich – wie gut an der Grafik zu sehen – ziemlich stark, wobei es dennoch eine starke Tendenz gibt, DRM beim Spielekauf aus dem Weg zu gehen. Zum totalen Boykott sind aber nur 20,6% der Umfrage-Teilnehmer bereit, während weitere 36,8% bevorzugt DRM-freie Titel kaufen und nur selten DRM-Titel erwerben. Eine mit insgesamt 18,9% nicht gerade kleine Gruppe hilft sich bei DRM-Titeln mit Cracks weiter – wobei anzunehmen ist, daß die Dunkelziffer hier wohl höher ist als die Umfrage ausdrückt, nicht jeder dürfte bei einer solchen Antwortoption wirklich ehrlich antworten.

Am Ende interessieren nur ganze 23,7% der Umfrage-Teilnehmer das Thema DRM beim Spielekauf und in der Spielepraxis gänzlich nicht – dies ist erstaunlich wenig angesichts der großen Erfolg insbesondere der Steam-Plattform. Andererseits zeigt es den Verfechtern der DRM-Praxis an, das DRM-Systeme vielleicht einen Markterfolg haben können, dennoch aber seitens der Spielekäufer eher nur zwangsweise toleriert werden. Sobald man es jedoch übertreibt, wird die deutlich zu sehende grundsätzlich negative Stimmung gegenüber dem Spiele-DRM dann zu einer anderen Verhaltensweise der Spieler führen – was für die DRM-Anbieter bedeutet, es keinesfalls zu übertreiben und nach Möglichkeit sowohl technisch als auch rhetorisch eher ab- als aufzurüsten.

25

Hardware- und Nachrichten-Links des 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

Gestern schon verlinkt, aber noch nicht extra erwähnt wurde die Meldung seitens Golem über erste kommende ASIC-Rechner für Litecoin – und das sich damit abzeichnende Ende des Litecoin-Minings im Heim-Bereich. Der jetzt für das zweite bis dritte Quartal 2014 angekündigte ASIC-Rechner soll die Rechenleistung von 100 HighEnd-Grafikkarten erreichen und wird damit exakt diesen Effekt auslösen, welcher auch schon Bitcoins passiert ist: Die Rechenschwierigkeit zur Erzeugung neuer Coins geht extrem nach oben, womit der Ertrag mit normaler Hardware ins Bodenlose fällt. Die ASICs selber sind wiederum ein arg zweischneidiges Schwert: Jene lassen sich derzeit sehr einfach bewerben, weil sie unter jetzigen Bedingungen wie Gelddruckmaschinen aussehen. Sobald die Geräte jedoch breit verfügbar sind, wird komplett neu gerechnet und kann sich daher auch sehr schnell die Situation ergeben, daß man die satten 10.000 Dollar Anschaffungskosten nicht wieder hereinbekommt.

Vor der Anschaffung von ASIC-Minern sollte man sich die einfache Grundregel durch den Kopf gehen lassen, daß niemand eine Gelddruckmaschine verkauft, wenn man sie auch zuerst selber nutzen und dann einfach später ausliefern kann. Sinnvoll ist das Hantieren mit ASIC-Beschleunigern zur Coin-Erzeugung wohl nur, wenn man direkt an der Quelle sitzt. Ganz allgemein betrachtet wird die ASIC-basierte Erzeugung dem Projekt Litecoin nicht gut tun, weil somit die Masse der interessierten Nutzer von einer sinnvollen Coin-Erzeugung ausgeschlossen wird. Deswegen hatte man sich bei Litecoin schon bewußt für ein Rechenverfahren entschieden, welches eher schlecht auf ASICs umzusetzen ist. Diese löbliche Idee hat in der Praxis jedoch nicht lange genug gehalten – und nun geht Litecoin, lange bevor man irgendeine monetäre Infrastruktur außerhalb von Coin-Börsen aufgebaut hat, in die Hände weniger Profi-Miner.

Gerade, um am Platzhirsch Bitcoin vorbeizukommen, ist dies eine schlechte Ausgangslage – hierfür wird eine breite Masse an Beteiligten benötigt. Litecoin scheint somit zumindest als Anwärter auf den Coin-Thron auszuscheiden. Ein wirklicher Kontrahent für Bitcoins Platz an der Sonne müsste zuerst sicherstellen, daß das Mining wirklich nicht von spezieller Hardware übernommen werden kann – wie auch immer man dies anstellt. Denn nur darüber, daß die breite Masse mitrechnen kann, wäre ein solcher Publikumserfolg möglich, welcher jenen von Bitcoin überbietet und damit Bitcoins nach wie vor (vergleichsweise) überragende Stellung im Geschäftsverkehr und im Einzelhandel angreifen könnte. Und nur die Verbindung zur Realwirtschaft ist es, welche letztlich zwischen "(vergleichsweise) echtem Geld" und "Spielgeld im Hype-Modus" unterscheidet.

25

nVidia kündigt Pascal-Architektur für das Jahr 2016 an

Auf der GPU Technology Conference (GTC) hat nVidia neben der GeForce GTX Titan Z auch noch einen gewissen Ausblick auf seine langfristigen Pläne gegeben, welche im Jahr 2016 in der neue Grafikchip-Architektur "Pascal" münden sollen. Bislang stand "Volta" an dieser Stelle auf der nVidia-Roadmap, die Pascal-Architektur ist augenscheinlich nur ein neuer Name für das, was man mit Volta vorhatte. Gleichzeitig wurde das Projekt allerdings auch präzisiert: War bislang zu Volta nur die Nutzung von 3D-Speicher bekannt, spezifizierte man dies für Pascal mit einer angestrebten Speicherbandbreite von rund 1000 GB/sec genauer aus. Dies ist grob das Dreifache einer GeForce GTX 780 Ti (336 GB/sec) oder Radeon R9 290X (320 GB/sec) und stellt damit einen gehörigen Schub an Speicherbandbreite dar, welche in den letzten Jahren niemals so schnell in so kurzer Zeit gewachsen ist.

Ein gänzlich neuer Punkt zu Pascal ist die generelle Überarbeitung der Verbindung zur CPU mittels einer neuen Verbindungsart namens "NVLink". Hiermit will nVidia die Bandbreite zur CPU um das 5fache bis 12fache steigern, zudem wird damit "Unified Memory" zur gleichzeitigen Nutzung von Haupt- und Grafikkartenspeicher durch CPU und GPU möglich. NVLink wurde in Zusammenarbeit mit IBM entwickelt und soll auch bei IBMs eigenen Server-Prozessoren zum Einsatz kommen – der entscheidende Punkt ist dabei, daß es damit augenscheinlich in Konkurrenz zu PCI Express geht. Ob sich dies daher im Consumer-Bereich durchsetzen wird, steht absolut in den Sternen, denn dann müssten Intel, AMD und die Mainboard-Hersteller nur für nVidia eine Extrawurst braten – sehr unwahrscheinlich. Gut möglich, daß das NVLink-Interface vorerst nur eine Bedeutung für den professionellen Bereich bekommt und im Consumer-Segment glatt negiert wird.

Ganz generell scheint vieles von dem, was sich nVidia für die Pascal-Architektur ausgedacht hat, in Richtung professioneller Einsatz zu gehen – dazu gehören NVLink, aber auch das vielbeschworene "Unified Memory", welches im Spielebereich auf dem PC nicht wirklich benötigt wird. Selbst der 3D-Speicher mit seiner hohen Bandbreite ist für den professionellen Einsatz überaus nützlich, da dort oftmals mit extrem großen Datenmengen hantiert wird. Von der Ausrichtung der Architektur her scheint der Gaming-Einsatz jetzt zwar nicht gleich in den Hintergrund zu rücken, aber auch nicht mehr die eine große Maßgabe zu sein – womöglich auch daraus resultierend, daß für den Gaming-Zweck die Grafikchip-Architekturen gut genug sind und es (fast) nur noch um mehr Hardware-Einheiten unter Mithilfe neuer Fertigungsverfahren geht.

Stichwort Fertigungsverfahren bei Pascal: nVidia gab hierzu nichts bekannt, deswegen schossen sofort die Spekulationen ins Kraut. Meistens wird hierbei die 20nm-Fertigung angenommen, da Pascal nun nicht mehr all zu weit weg liegt und Auftragsfertiger TSMC schließlich noch immer nichts in 20nm lieferbar hat. Dagegen spricht, daß nVidia neue Architekturen immer auf neuen Fertigungsverfahren aufsetzt und nur die zwischenliegenden Refresh-Generationen auf Basis derselben Fertigung daherkommen. Sprich: 20nm ist bei nVidia für Maxwell und den Maxwell-Refresh zu erwarten, Pascal sollte dann also schon 16nm sein. Da 16nm bei TSMC auch nichts anderes als 20nm mit 3D-Transistoren ist und selbst nach vorsichtiger Schätzung Ende 2015 bereitstellen sollte, erscheint die 16nm-Fertigung für Pascal als die derzeit wahrscheinlichste Auflösung. Dazwischen werden wie gesagt noch mindestens zwei Grafikkarten-Generationen von nVidia liegen: Maxwell zum Jahresende 2014 sowie ein Maxwell-Refresh innerhalb des Jahres 2015.

25

nVidia kündigt GK110-basierte DualChip-Lösung "GeForce GTX Titan Z" an

Auf der GTC hat nVidia soeben die kommende DualChip-Lösung "GeForce GTX Titan Z" angekündigt, welche im Gegensatz zur früheren DualChip-Lösung GeForce GTX 690 nicht auf zwei GK104-, sondern auf zwei GK110-Chip basieren wird. Dabei setzt nVidia sogar den Vollausbau des GK110-Chips mit jeweils 2880 Shader-Einheiten an einem 384 Bit DDR Speicherinterface an, für eine DualChip-Lösung ist dies ungewöhnlich viel. Erkauft wird sich das ganze jedoch mit einem sehr niedrigen Chiptakt von knapp unter 700 MHz – eine genaue Taktangabe gibt es zwar noch nicht, aber dies läßt sich aus den seitens nVidia genannten 8 TeraFlops Rechenleistung schließen.

Damit kommt die GeForce GTX Titan Z auf eine Rechenleistung, die nur 42% oberhalb einer (einzelnen) GeForce GTX Titan Black bzw. auch nur 50% oberhalb einer (einzelnen) GeForce GTX 780 Ti rangiert, was eine eher magere Steigerung angesichts der mit DualChip-Grafikkarten immer einhergehenden gewissen Ineffizienz darstellt. Viel mehr als 35% Mehrperformance gegenüber einer GeForce GTX Titan Black ist von der GeForce GTX Titan Z nicht zu erwarten – was zwar locker für den Spitzenplatz bei einzelnen Grafikkarten langt, aber immer noch weit langsamer ist als zwei GeForce GTX Titan Black Karten unter SLI leisten können. Letztere sind zudem klar günstiger zu haben, da die GeForce GTX Titan Z für den monströsen Preis von 2999 Dollar in den Handel gelangen soll.

Unter diesen Voraussetzungen dürften sich kaum sinnvolle Anwendungszwecke für die GeForce GTX Titan Z finden lassen. nVidia sieht die Grafikkarte zwar auch für den professionellen Bereich vor, dort werden jedoch – wegen der angepassten Treiber – eher gern Quadro- und Tesla-Modelle genommen. Im Endeffekt handelt es sich bei der GeForce GTX Titan Z um ein Prestigeprojekt, mit dem man zeigt, was man maximal kann – nicht, was wirklich sinnvoll wäre. Genauere Daten und einen voraussichtlichen Release- bzw. Liefertermin gibt es bislang leider noch nicht.

Nachtrag vom 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

24

Hardware- und Nachrichten-Links des 24. März 2014

Angeblich soll nVidia-Chef Jen-Hsun Huang am dienstäglichen 25. März auf der GPU Technology Conference (GTC) genaueres zu den kommenden 20nm-Maxwells sagen – so sagt es zumindest Videocardz, wenngleich sich auf den nVidia-Webseiten keinerlei dieserart konkreten Aussagen zum Inhalt des zweistündigen Vortrags finden lassen. Den GTC-Livestream kann man sich bei Twitch geben, der nVidia-Vortrag soll dann um 9 Uhr Ortszeit stattfinden, in Mitteleuropa wäre dies 18 Uhr. Ob sich wirklich größere Details zu nVidias 20nm-Grafikchips darin befinden, wäre allerdings zu bezweifeln – üblicherweise stellen die Grafikchip-Entwickler ihre neuen Architekturen erst kurz vor Release vor und machen monatelang vorher sich nicht bewußt das Geschäft mit der noch aktuellen Generation durch eine zu zeitige Präsentation der nächsten Generation kaputt. Gut möglich, daß es einige allgemeine Aussagen zu Maxwell und die Weiterentwicklung dieser Architektur gibt, konkrete Daten zu kommenden Grafikkarten sind jedoch arg unwahrscheinlich.

Die PC Games Hardware hat sich mit Grafikkarten-Benchmarks unter Titanfall beschäftigt – und dabei als erstes feststellen müssen, daß das Spiel ein heftiger Speicher-Verschwender ist. Unter 1920x1080 mit 4x Multisampling Anti-Aliasing werden tatsächlich ganze 3 GB Grafikkartenspeicher benötigt, um nicht Performance-Nachteile zu haben – gut zu sehen an dem Ergebnis einer GeForce GTX 680 4GB, welche eine (nominell leicht schnellere) GeForce GTX 770 2GB um ganze 42% (!) abhängt. Da es keine bemerkbare Differenz zwischen 3 und 6 GB Grafikkartenspeicher gab, scheint Titanfall unter 1920x1080 4xAA exakt jene 3 GB Grafikkartenspeicher zu benötigen, um auf Touren zu kommen. Dabei leistet sich das Spiel den Lapsus, den Grafikkartenspeicher direkt beim Spielstart völlig unnötigerweise mit 2 GB an Ingame-Videos vollzuknallen – aber selbst wenn man diesen Punkt manuell umging, blieb die Speicherbelastung hoch und die Performance von 2-GB-Grafikkarten mäßig.

Es ist zu hoffen, daß man sich seitens des Entwicklers noch einmal diesen Punkt ansieht und eventuell entschärft – denn aufgrund der benutzten Source-Engine sollte eine solch hohe Speicherbelastung eigentlich nicht notwendig sein. Davon abgesehen zeigen die Titanfall-Benchmarks der PCGH derzeit in diese Richtung, daß das Spiel mit AMD-Hardware deutlich besser zurechtkommt: Eine Radeon R9 280X kommt in die Nähe der GeForce GTX Titan, eine Radeon R9 290X versägt die GeForce GTX 780 Ti sehr deutlich. Die erreichten fps-Raten sind bei den genannten Grafikkarte allesamt gut, unterhalb der von der PCGH aus Flüssigkeits-Erwägungen heraus empfohlenen 60 fps geht es nirgendwo. Die Grenze für jene 60 fps liegt voraussichtlich unterhalb der Radeon R9 280 sowie der GeForce GTX 680/770 4GB, womit Titanfall zumindest unter 1920x1080 4xAA doch schon eine Spielwiese für echte HighEnd-Grafikkarten darstellt.

Online.Spiele.Recht beschäftigen sich mit einem Gerichtsurteil, welches das Verbot des Weiterverkaufs von Steam-Accounts unterstützt. Das Landgericht Berlin bezieht sich bei seiner Entscheidung auf die Zusatzleistungen, welche Steam einem Steam-Account zukommen läßt – Multiplayer-Server, Matchmaking, automatische Updates und mehr. Weil hiermit dann so etwas wie in Dienstleistungsverhältnis zwischen Steam und Spielekäufer zustandekommt, kann der Account nicht übertragen werden. Das Gericht mißachtet hierbei schmählicherweise zwei gewichtige Punkte: Erstens sind die Zusatzleistungen seitens Steam aufgedrängt, werden vom Käufer beim Spielekauf gar nicht nachgefragt. Und zweitens handelt es sich selbst bei diesem Dienstleistungsverhältnis um einen absoluten Standardvertrag, welchen Steam absolut jedem seiner Kunden anbietet. Es sprich somit nichts gegen die Übernahme dieses Vertrags durch einen anderen Steam-Kunden, die Vertragsbedingungen sind schließlich überall identisch.

Am Ende hat das Gericht vor allem nicht das große ganze Bild betrachtet: Laut bundesrepublikanischer und europäischer Rechtssprechung sollen Kaufgegenstände grundsätzlich übertragbar, sprich weiterveräußerbar sein. Ausnahmen hiervon sind nur statthaft, wenn dies im konkreten Fall eine ungebührliche Härte für den Verkäufer darstellen würde. Bei Computerspielen trifft dies nicht zu – daß Steam ziemliche Probleme hätte, das ganze umzusetzen, hängt primär daran, daß Steam selber den ganzen Fall unnötig verkompliziert hat. Einen Grund, den Weiterverkauf von Spielen zu untersagen, gibt es außerhalb dem Eigeninteresse von Steam absolut nicht. Selbst die Idee, Computerspiele wie DVD-Filme rechtlich als reine "Nutzungsgegenstände" einzuordnen, an denen man nur eine Nutzungslizenz hat, jedoch kein Eigentum erwirbt, ändert daran nichts – auch DVD-Filme sollen und sind weiterverkaufbar, man verkauft dann eben seine Nutzungslizenz weiter. Der Mißbrauch der Steam-Nutzungslizenz zu einem Gebilde, an dem dann das grundsätzliche Recht auf Weiterveräußerung wegen formaljuristischer Winkelzüge scheitert, hätte eigentlich vom Gericht erkannt werden müssen.

Inhalt abgleichen