25

Hardware- und Nachrichten-Links des 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

Gestern schon verlinkt, aber noch nicht extra erwähnt wurde die Meldung seitens Golem über erste kommende ASIC-Rechner für Litecoin – und das sich damit abzeichnende Ende des Litecoin-Minings im Heim-Bereich. Der jetzt für das zweite bis dritte Quartal 2014 angekündigte ASIC-Rechner soll die Rechenleistung von 100 HighEnd-Grafikkarten erreichen und wird damit exakt diesen Effekt auslösen, welcher auch schon Bitcoins passiert ist: Die Rechenschwierigkeit zur Erzeugung neuer Coins geht extrem nach oben, womit der Ertrag mit normaler Hardware ins Bodenlose fällt. Die ASICs selber sind wiederum ein arg zweischneidiges Schwert: Jene lassen sich derzeit sehr einfach bewerben, weil sie unter jetzigen Bedingungen wie Gelddruckmaschinen aussehen. Sobald die Geräte jedoch breit verfügbar sind, wird komplett neu gerechnet und kann sich daher auch sehr schnell die Situation ergeben, daß man die satten 10.000 Dollar Anschaffungskosten nicht wieder hereinbekommt.

Vor der Anschaffung von ASIC-Minern sollte man sich die einfache Grundregel durch den Kopf gehen lassen, daß niemand eine Gelddruckmaschine verkauft, wenn man sie auch zuerst selber nutzen und dann einfach später ausliefern kann. Sinnvoll ist das Hantieren mit ASIC-Beschleunigern zur Coin-Erzeugung wohl nur, wenn man direkt an der Quelle sitzt. Ganz allgemein betrachtet wird die ASIC-basierte Erzeugung dem Projekt Litecoin nicht gut tun, weil somit die Masse der interessierten Nutzer von einer sinnvollen Coin-Erzeugung ausgeschlossen wird. Deswegen hatte man sich bei Litecoin schon bewußt für ein Rechenverfahren entschieden, welches eher schlecht auf ASICs umzusetzen ist. Diese löbliche Idee hat in der Praxis jedoch nicht lange genug gehalten – und nun geht Litecoin, lange bevor man irgendeine monetäre Infrastruktur außerhalb von Coin-Börsen aufgebaut hat, in die Hände weniger Profi-Miner.

Gerade, um am Platzhirsch Bitcoin vorbeizukommen, ist dies eine schlechte Ausgangslage – hierfür wird eine breite Masse an Beteiligten benötigt. Litecoin scheint somit zumindest als Anwärter auf den Coin-Thron auszuscheiden. Ein wirklicher Kontrahent für Bitcoins Platz an der Sonne müsste zuerst sicherstellen, daß das Mining wirklich nicht von spezieller Hardware übernommen werden kann – wie auch immer man dies anstellt. Denn nur darüber, daß die breite Masse mitrechnen kann, wäre ein solcher Publikumserfolg möglich, welcher jenen von Bitcoin überbietet und damit Bitcoins nach wie vor (vergleichsweise) überragende Stellung im Geschäftsverkehr und im Einzelhandel angreifen könnte. Und nur die Verbindung zur Realwirtschaft ist es, welche letztlich zwischen "(vergleichsweise) echtem Geld" und "Spielgeld im Hype-Modus" unterscheidet.

25

nVidia kündigt Pascal-Architektur für das Jahr 2016 an

Auf der GPU Technology Conference (GTC) hat nVidia neben der GeForce GTX Titan Z auch noch einen gewissen Ausblick auf seine langfristigen Pläne gegeben, welche im Jahr 2016 in der neue Grafikchip-Architektur "Pascal" münden sollen. Bislang stand "Volta" an dieser Stelle auf der nVidia-Roadmap, die Pascal-Architektur ist augenscheinlich nur ein neuer Name für das, was man mit Volta vorhatte. Gleichzeitig wurde das Projekt allerdings auch präzisiert: War bislang zu Volta nur die Nutzung von 3D-Speicher bekannt, spezifizierte man dies für Pascal mit einer angestrebten Speicherbandbreite von rund 1000 GB/sec genauer aus. Dies ist grob das Dreifache einer GeForce GTX 780 Ti (336 GB/sec) oder Radeon R9 290X (320 GB/sec) und stellt damit einen gehörigen Schub an Speicherbandbreite dar, welche in den letzten Jahren niemals so schnell in so kurzer Zeit gewachsen ist.

Ein gänzlich neuer Punkt zu Pascal ist die generelle Überarbeitung der Verbindung zur CPU mittels einer neuen Verbindungsart namens "NVLink". Hiermit will nVidia die Bandbreite zur CPU um das 5fache bis 12fache steigern, zudem wird damit "Unified Memory" zur gleichzeitigen Nutzung von Haupt- und Grafikkartenspeicher durch CPU und GPU möglich. NVLink wurde in Zusammenarbeit mit IBM entwickelt und soll auch bei IBMs eigenen Server-Prozessoren zum Einsatz kommen – der entscheidende Punkt ist dabei, daß es damit augenscheinlich in Konkurrenz zu PCI Express geht. Ob sich dies daher im Consumer-Bereich durchsetzen wird, steht absolut in den Sternen, denn dann müssten Intel, AMD und die Mainboard-Hersteller nur für nVidia eine Extrawurst braten – sehr unwahrscheinlich. Gut möglich, daß das NVLink-Interface vorerst nur eine Bedeutung für den professionellen Bereich bekommt und im Consumer-Segment glatt negiert wird.

Ganz generell scheint vieles von dem, was sich nVidia für die Pascal-Architektur ausgedacht hat, in Richtung professioneller Einsatz zu gehen – dazu gehören NVLink, aber auch das vielbeschworene "Unified Memory", welches im Spielebereich auf dem PC nicht wirklich benötigt wird. Selbst der 3D-Speicher mit seiner hohen Bandbreite ist für den professionellen Einsatz überaus nützlich, da dort oftmals mit extrem großen Datenmengen hantiert wird. Von der Ausrichtung der Architektur her scheint der Gaming-Einsatz jetzt zwar nicht gleich in den Hintergrund zu rücken, aber auch nicht mehr die eine große Maßgabe zu sein – womöglich auch daraus resultierend, daß für den Gaming-Zweck die Grafikchip-Architekturen gut genug sind und es (fast) nur noch um mehr Hardware-Einheiten unter Mithilfe neuer Fertigungsverfahren geht.

Stichwort Fertigungsverfahren bei Pascal: nVidia gab hierzu nichts bekannt, deswegen schossen sofort die Spekulationen ins Kraut. Meistens wird hierbei die 20nm-Fertigung angenommen, da Pascal nun nicht mehr all zu weit weg liegt und Auftragsfertiger TSMC schließlich noch immer nichts in 20nm lieferbar hat. Dagegen spricht, daß nVidia neue Architekturen immer auf neuen Fertigungsverfahren aufsetzt und nur die zwischenliegenden Refresh-Generationen auf Basis derselben Fertigung daherkommen. Sprich: 20nm ist bei nVidia für Maxwell und den Maxwell-Refresh zu erwarten, Pascal sollte dann also schon 16nm sein. Da 16nm bei TSMC auch nichts anderes als 20nm mit 3D-Transistoren ist und selbst nach vorsichtiger Schätzung Ende 2015 bereitstellen sollte, erscheint die 16nm-Fertigung für Pascal als die derzeit wahrscheinlichste Auflösung. Dazwischen werden wie gesagt noch mindestens zwei Grafikkarten-Generationen von nVidia liegen: Maxwell zum Jahresende 2014 sowie ein Maxwell-Refresh innerhalb des Jahres 2015.

25

nVidia kündigt GK110-basierte DualChip-Lösung "GeForce GTX Titan Z" an

Auf der GTC hat nVidia soeben die kommende DualChip-Lösung "GeForce GTX Titan Z" angekündigt, welche im Gegensatz zur früheren DualChip-Lösung GeForce GTX 690 nicht auf zwei GK104-, sondern auf zwei GK110-Chip basieren wird. Dabei setzt nVidia sogar den Vollausbau des GK110-Chips mit jeweils 2880 Shader-Einheiten an einem 384 Bit DDR Speicherinterface an, für eine DualChip-Lösung ist dies ungewöhnlich viel. Erkauft wird sich das ganze jedoch mit einem sehr niedrigen Chiptakt von knapp unter 700 MHz – eine genaue Taktangabe gibt es zwar noch nicht, aber dies läßt sich aus den seitens nVidia genannten 8 TeraFlops Rechenleistung schließen.

Damit kommt die GeForce GTX Titan Z auf eine Rechenleistung, die nur 42% oberhalb einer (einzelnen) GeForce GTX Titan Black bzw. auch nur 50% oberhalb einer (einzelnen) GeForce GTX 780 Ti rangiert, was eine eher magere Steigerung angesichts der mit DualChip-Grafikkarten immer einhergehenden gewissen Ineffizienz darstellt. Viel mehr als 35% Mehrperformance gegenüber einer GeForce GTX Titan Black ist von der GeForce GTX Titan Z nicht zu erwarten – was zwar locker für den Spitzenplatz bei einzelnen Grafikkarten langt, aber immer noch weit langsamer ist als zwei GeForce GTX Titan Black Karten unter SLI leisten können. Letztere sind zudem klar günstiger zu haben, da die GeForce GTX Titan Z für den monströsen Preis von 2999 Dollar in den Handel gelangen soll.

Unter diesen Voraussetzungen dürften sich kaum sinnvolle Anwendungszwecke für die GeForce GTX Titan Z finden lassen. nVidia sieht die Grafikkarte zwar auch für den professionellen Bereich vor, dort werden jedoch – wegen der angepassten Treiber – eher gern Quadro- und Tesla-Modelle genommen. Im Endeffekt handelt es sich bei der GeForce GTX Titan Z um ein Prestigeprojekt, mit dem man zeigt, was man maximal kann – nicht, was wirklich sinnvoll wäre. Genauere Daten und einen voraussichtlichen Release- bzw. Liefertermin gibt es bislang leider noch nicht.

Nachtrag vom 25. März 2014

Zu nVidias kommender DualChip-Lösung "GeForce GTX Titan Z" wäre noch hinzuzuerwähnen, daß selbige in einem TripleSlot-Design daherkommt – was dann selbst den Zweck als Coin-Erzeuger limitiert: Drei einzelne GeForce GTX Titan Black (16,9 TeraFlops) haben mehr Rechenkraft als die in die gleiche Anzahl Slots passenden zwei GeForce GTX Titan Z (16 TeraFlops). Die Stromversorgung der DualChip-Grafikkarte wird zudem über zwei 8polige Stromstecker erfolgen, was somit eine maximale TDP von 375 Watt zuläßt. Durch den vergleichsweise niedrigen Chiptakt knapp unterhalb von 700 MHz sollte dies kein Problem bei der GeForce GTX Titan Z ergeben. Im übrigen kann man gut und gerne darüber spekulieren, weshalb nVidia die GeForce GTX Titan Z so taktniedrig ansetzt: Ausgangspunkt dürfte schlicht die Überlegung gewesen sein, was notwendig ist, um die kommende Radeon R9 295X2 zu erreichen.

Da AMD hierfür den kleineren Hawaii-Chip ansetzt und jener zudem als recht stromhungrig gilt, sind AMDs Möglichkeiten limitiert. Viel mehr als 50-60% schneller als eine Radeon R9 290X muß man die Radeon R9 295X nicht erwarten, mehr wird aus thermischen Gründen einfach nicht möglich sein. 50-60% oben drauf auf den Performance-Index der Radeon R9 290X von 480% ergeben 720-768% – von der GeForce GTX Titan Black aus gesehen sind dies gerade einmal 31-42% Mehrperformance. Daß die GeForce GTX Titan Z also nur mit rund 42% mehr Rechenleistung gegenüber der GeForce GTX Titan Black antritt, reicht aus dieser Sicht wahrscheinlich exakt dazu aus, um ungefähr gleich schnell wie die Radeon R9 295X2 herauszukommen. Gut möglich, daß nVidia – gerade wegen des TripleSlots-Designs – auch mehr bieten könnte, diese Möglichkeiten jedoch nicht aktiviert, weil es gegenüber der Radeon R9 295X einfach nicht als notwendig erscheint. Sich damit ergebende große Übertaktungsspielräume lassen sich zudem heutzutage sehr effektiv durch festgeschnurrte Power-Limits kleinhalten.

24

Hardware- und Nachrichten-Links des 24. März 2014

Angeblich soll nVidia-Chef Jen-Hsun Huang am dienstäglichen 25. März auf der GPU Technology Conference (GTC) genaueres zu den kommenden 20nm-Maxwells sagen – so sagt es zumindest Videocardz, wenngleich sich auf den nVidia-Webseiten keinerlei dieserart konkreten Aussagen zum Inhalt des zweistündigen Vortrags finden lassen. Den GTC-Livestream kann man sich bei Twitch geben, der nVidia-Vortrag soll dann um 9 Uhr Ortszeit stattfinden, in Mitteleuropa wäre dies 18 Uhr. Ob sich wirklich größere Details zu nVidias 20nm-Grafikchips darin befinden, wäre allerdings zu bezweifeln – üblicherweise stellen die Grafikchip-Entwickler ihre neuen Architekturen erst kurz vor Release vor und machen monatelang vorher sich nicht bewußt das Geschäft mit der noch aktuellen Generation durch eine zu zeitige Präsentation der nächsten Generation kaputt. Gut möglich, daß es einige allgemeine Aussagen zu Maxwell und die Weiterentwicklung dieser Architektur gibt, konkrete Daten zu kommenden Grafikkarten sind jedoch arg unwahrscheinlich.

Die PC Games Hardware hat sich mit Grafikkarten-Benchmarks unter Titanfall beschäftigt – und dabei als erstes feststellen müssen, daß das Spiel ein heftiger Speicher-Verschwender ist. Unter 1920x1080 mit 4x Multisampling Anti-Aliasing werden tatsächlich ganze 3 GB Grafikkartenspeicher benötigt, um nicht Performance-Nachteile zu haben – gut zu sehen an dem Ergebnis einer GeForce GTX 680 4GB, welche eine (nominell leicht schnellere) GeForce GTX 770 2GB um ganze 42% (!) abhängt. Da es keine bemerkbare Differenz zwischen 3 und 6 GB Grafikkartenspeicher gab, scheint Titanfall unter 1920x1080 4xAA exakt jene 3 GB Grafikkartenspeicher zu benötigen, um auf Touren zu kommen. Dabei leistet sich das Spiel den Lapsus, den Grafikkartenspeicher direkt beim Spielstart völlig unnötigerweise mit 2 GB an Ingame-Videos vollzuknallen – aber selbst wenn man diesen Punkt manuell umging, blieb die Speicherbelastung hoch und die Performance von 2-GB-Grafikkarten mäßig.

Es ist zu hoffen, daß man sich seitens des Entwicklers noch einmal diesen Punkt ansieht und eventuell entschärft – denn aufgrund der benutzten Source-Engine sollte eine solch hohe Speicherbelastung eigentlich nicht notwendig sein. Davon abgesehen zeigen die Titanfall-Benchmarks der PCGH derzeit in diese Richtung, daß das Spiel mit AMD-Hardware deutlich besser zurechtkommt: Eine Radeon R9 280X kommt in die Nähe der GeForce GTX Titan, eine Radeon R9 290X versägt die GeForce GTX 780 Ti sehr deutlich. Die erreichten fps-Raten sind bei den genannten Grafikkarte allesamt gut, unterhalb der von der PCGH aus Flüssigkeits-Erwägungen heraus empfohlenen 60 fps geht es nirgendwo. Die Grenze für jene 60 fps liegt voraussichtlich unterhalb der Radeon R9 280 sowie der GeForce GTX 680/770 4GB, womit Titanfall zumindest unter 1920x1080 4xAA doch schon eine Spielwiese für echte HighEnd-Grafikkarten darstellt.

Online.Spiele.Recht beschäftigen sich mit einem Gerichtsurteil, welches das Verbot des Weiterverkaufs von Steam-Accounts unterstützt. Das Landgericht Berlin bezieht sich bei seiner Entscheidung auf die Zusatzleistungen, welche Steam einem Steam-Account zukommen läßt – Multiplayer-Server, Matchmaking, automatische Updates und mehr. Weil hiermit dann so etwas wie in Dienstleistungsverhältnis zwischen Steam und Spielekäufer zustandekommt, kann der Account nicht übertragen werden. Das Gericht mißachtet hierbei schmählicherweise zwei gewichtige Punkte: Erstens sind die Zusatzleistungen seitens Steam aufgedrängt, werden vom Käufer beim Spielekauf gar nicht nachgefragt. Und zweitens handelt es sich selbst bei diesem Dienstleistungsverhältnis um einen absoluten Standardvertrag, welchen Steam absolut jedem seiner Kunden anbietet. Es sprich somit nichts gegen die Übernahme dieses Vertrags durch einen anderen Steam-Kunden, die Vertragsbedingungen sind schließlich überall identisch.

Am Ende hat das Gericht vor allem nicht das große ganze Bild betrachtet: Laut bundesrepublikanischer und europäischer Rechtssprechung sollen Kaufgegenstände grundsätzlich übertragbar, sprich weiterveräußerbar sein. Ausnahmen hiervon sind nur statthaft, wenn dies im konkreten Fall eine ungebührliche Härte für den Verkäufer darstellen würde. Bei Computerspielen trifft dies nicht zu – daß Steam ziemliche Probleme hätte, das ganze umzusetzen, hängt primär daran, daß Steam selber den ganzen Fall unnötig verkompliziert hat. Einen Grund, den Weiterverkauf von Spielen zu untersagen, gibt es außerhalb dem Eigeninteresse von Steam absolut nicht. Selbst die Idee, Computerspiele wie DVD-Filme rechtlich als reine "Nutzungsgegenstände" einzuordnen, an denen man nur eine Nutzungslizenz hat, jedoch kein Eigentum erwirbt, ändert daran nichts – auch DVD-Filme sollen und sind weiterverkaufbar, man verkauft dann eben seine Nutzungslizenz weiter. Der Mißbrauch der Steam-Nutzungslizenz zu einem Gebilde, an dem dann das grundsätzliche Recht auf Weiterveräußerung wegen formaljuristischer Winkelzüge scheitert, hätte eigentlich vom Gericht erkannt werden müssen.

24

Umfrage-Auswertung: Wie weit sind SSDs inzwischen verbreitet?

Die Umfrage von vorletzter Woche beschäftigte sich mit Verbreitungsgrad und der Nutzungsbreite von Solid State Disks (SSDs) und geht inzwischen in die fünfte Runde mit Werten zurückgehend bis zum Jahr 2009. Das für die aktuelle Umfrage gleich 85,0% der Umfrage-Teilnehmer sich als SSD-Nutzer gekennzeichnet haben, verwundert inzwischen kaum noch, selbst wenn die Durchsetzung der SSD im Massenmarkt weiterhin auf sich warten läßt. Auch an der hauptsächlichen Nutzung als Laufwerk für Betriebssystem und Programmen (nicht aber Daten) hat sich kaum etwas geändert, wenngleich die Nutzungsform als Laufwerk für Betriebssystem, Programme und Daten zuletzt etwas zugewinnen konnte.

Prinzipiell gesehen kann man gerade im Rückblick auf die Werte vom September 2012 sagen, daß die SSD im Enthusiasten-Segment nunmehr als total durchgesetzt bzw. den normalen Standard angesehen werden kann. Es fehlen derzeit nur noch wenige Nachzügler, die Restprozente gehen dann auf Systeme, die bewußt oder aus technischen Gründen nicht auf SSDs umgesetzt werden. Angesichts der extremen Nutzungsquote im Enthusiasten-Segment verwundert es allerdings um so mehr, daß der Massenmarkt bislang weitgehend unberührt von der SSD ist – vorinstallierte SSDs werden noch viel zu selten angeboten und wenn dann oftmals nur in HighEnd-Modellen, wo diese Ausstattung sowieso als usus gilt. Interessanter für den Massenmarkt wären jedoch eher "normal" angelegte PCs & Notebooks – nur eben mit SSD bzw. SSD/HDD-Kombibestückung.

Juli 2009 August 2010 August 2011 September 2012 März 2014
SSD wird genutzt als Laufwerk für Betriebssystem, Programme und Daten. 2,5% 5,4% 9,8% 17,4% 23,8%
SSD wird genutzt als Laufwerk für Betriebssystem und Programme. 4,3% 21,5% 33,2% 45,2% 53,3%
SSD wird genutzt als Laufwerk für das Betriebssystem. 1,4% 4,4% 5,9% 7,1% 7,9%
Demnächst geplant als Laufwerk für Betriebssystem, Programme und Daten. 1,8% 1,2% 1,8% 1,6% 0,8%
Demnächst geplant als Laufwerk für Betriebssystem und Programme. 10,1% 10,3% 9,4% 9,0% 3,3%
Demnächst geplant als Laufwerk für das Betriebssystem. 6,1% 4,5% 4,6% 2,8% 1,3%
SSD erst mittelfristig geplant. 24,1% 20,5% 14,8% 7,5% 4,4%
Nur eher langfristige Planungen. 21,9% 17,4% 12,0% 4,6% 2,2%
SSD derzeit gar nicht geplant. 27,8% 14,8% 8,5% 4,8% 3,0%
gesamte SSD-Nutzer 8,2% 31,3% 48,9% 69,7% 85,0%
24

Hardware- und Nachrichten-Links des 22./23. März 2014

Mittels des Tests der Sapphire Radeon R7 265 Dual-X bei HT4U ergeben sich auch neue Stromverbrauchswerte zu dieser Karte und damit erstmals genügend Werte für eine Durchschnittsbildung zum Stromverbrauch der Radeon R7 265. Bisher geschätzt waren ~12W Idle und ~105W im Spielebetrieb, dies wurde nunmehr korrigiert auf 11W Idle und 109W im Spielebetrieb. Zuzüglich zu dieser Änderung wurden im neuen Stromverbrauchs-Artikel ebenfalls noch Schätzwerte zur Radeon R7 250 sowie zur GeForce GTX Titan Black hinzugetragen, leider existieren zu diesen Karten bis dato noch keinerlei Stromverbrauchs-Messungen der reinen Grafikkarten. Ganz allgemein verwunderlich ist, daß es zur GeForce GTX Titan Black immer noch keine weiteren Artikel gibt – dabei fordern doch gerade die irritierenden Ergebnisse des ersten Tests zu dieser Karte weitere Betrachtungen heraus.

Sueddeutsche und SWR berichten über eine neue Meta-Studie zur Wirkung von Videospielen seitens der Universität Innsbruck, welche immerhin 98 Einzelstudien zur Grundlage genommen haben. Das sich daraus ergebende Urteil ist verhältnismäßig schlicht: Aggressive Videospiele verstärken aggressive Gedanken, soziale Videospiele verstärken soziale Gedanken – wobei die Höhe des Effekts als "eher klein" beschrieben wird. Für ca. 30 Jahre wissenschaftliche Arbeit an diesem Thema ist dies allerdings immer noch mau – selbige Aussage konnte man als Gamer schon vor 20 Jahren nach einer kleinen Selbstbeobachtung treffen. Interessanter als sehr biegsame Aussagen wie "aggressive Computerspiele verstärken aggressive Gedanken" (wäre dies denn bei einem Buch oder Film wirklich anders?) wären eher Klassifizierungen, wie stark dieser Effekt konkret ist und wie lange jener anhält.

Gerade in letzterem Punkt deuten einzelne Studien schließlich darauf hin, daß es sich primär um einen Kurzzeiteffekt handelt, welcher (selbst nach ausgedehnten Gaming-Sessions) schon nach wenigen Stunden zum Großteil wieder vorbei ist. Es wäre langsam mal an der Zeit, von der Oberfläche wegzugehen und sich den entscheidenden Detail-Fragen zu widmen. Wer ganz mutig ist, darf sich natürlich auch an der großen Frage versuchen, wieso trotz enorm starker Videospiele-Verbreitung spätestens seit den 90er Jahren und der angenommenen Gewaltanfachung durch selbige die Jugendkriminalität nicht explodiert ist bzw. sich kaum Straftaten direkt auf Videospiele zurückführen lassen. Viele vergessen, wie lange Videospiele nun schon aktiv sind, wie lange schon vor diesen gewarnt wird und wie groß der Bevölkerungsanteil an Spielern wirklich ist – und mißachten dann die einfache Wahrheit, das angesichts dieses großen Potentials eine Auswirkung auf die Realität doch sofort sichtbar sein muß – wenn sie denn vorhanden wäre.

Inhalt abgleichen