9

nVidias GeForce GTX 960 angeblich auf das erste Quartal 2015 verschoben

Laut dem japanischen Hermitage Akihabara (maschinelle Übersetzung ins Deutsche) kommt die GeForce GTX 960 nicht mehr wie geplant noch im Jahr 2014, sondern wurde auf das erste Quartal des Jahres 2015 verschoben. Gründe hierfür wurden nicht angegeben, so daß man darüber breit spekulieren kann – möglich ist alles von technischen Problemen beim GM206-Chip bis hin zu einem bewussten Zurückhalten, um den Abverkauf von GeForce GTX 660, 760 und 770 noch vorher über die Bühne zu bringen. Dabei ist noch nicht einmal sicher, welche Chipbasis wirklich für die GeForce GTX 960 Serie benutzt werden wird. Möglich sind hierbei zwei Modelle: Erstens basieren GeForce GTX 960 & 960 Ti beiderseits auf dem GM206-Chip, der damit entsprechend leistungsfähig sein muß, um die GeForce GTX 960 Ti nahe genug an die GeForce GTX 970 heranzuführen, damit keine übermäßig große Performance-Lücke entsteht.

Oder zweitens basiert die GeForce GTX 960 Ti auf einer weiteren Abspeckung des GM204-Chips und nur die GeForce GTX 960 (sowie eine potentielle GeForce GTX 950 Ti) auf dem GM206-Chip, welcher somit deutlich kleiner ausfallen kann. In diesem Fall könnte nVidia eine GeForce GTX 960 Ti sogar schon jetzt bringen – und wird damit aber wahrscheinlich sowieso warten, bis der GM206-Chip spruchreif ist bzw. sich GeForce GTX 660, 760 und 770 weitgehend abverkauft haben, um GeForce GTX 960 und 960 Ti zusammen in den Markt zu entlassen. Letztgenannte Theorie ist auch in unserer aktuellen Grafikkarten-Roadmap so eingezeichnet, letztlich sind aber beide Theorien nach wie vor noch möglich.

  Theorie/Gedankenmodell 1 Theorie/Gedankenmodell 2
Chip-Grundlage "großer" GM206-Chip mit 1280 Shader-Einheiten (10 SMM) an einem 192 Bit DDR Speicherinterface "kleiner" GM206-Chip mit 1024 Shader-Einheiten (8 SMM) an einem 192 Bit DDR Speicherinterface
Performance-Segment der GeForce GTX 770 GeForce GTX 960 Ti
auf Basis des Vollausbaus des GM206-Chips
(1280 Shader-Einheiten @ 192 Bit DDR)
GeForce GTX 960 Ti
auf Basis einer starken Abspeckung des GM204-Chips
(~1280/1408 Shader-Einheiten @ 192 Bit DDR)
Performance-Segment der GeForce GTX 760 GeForce GTX 960
auf Basis einer Abspeckung des GM206-Chips
(1024 Shader-Einheiten @ 192 Bit DDR)
GeForce GTX 960
auf Basis des Vollausbaus des GM206-Chips
(1024 Shader-Einheiten @ 192 Bit DDR)
Performance-Segment der GeForce GTX 660 Ti GeForce GTX 950 Ti
auf Basis einer starken Abspeckung des GM206-Chips
(~896 Shader-Einheiten @ 128/192 Bit DDR)
GeForce GTX 950 Ti
auf Basis einer Abspeckung des GM206-Chips
(~896 Shader-Einheiten @ 128/192 Bit DDR)

In jedem Fall ist zu erwarten, daß die GeForce GTX 960 Serie unabhängig der jeweiligen Chip-Basis das Preis- und Leistungssegment der bisherigen GK104-basierten Grafikkarten von GeForce GTX 660 Ti bis GeForce GTX 770 besetzt – möglicherweise in der Spitze nicht ganz so schnell wie die GeForce GTX 770, aber zumindest nahe dran, dies wird man sehen müssen. Eine Performance-Offenbarung wird die GeForce GTX 960 Serie somit wahrscheinlich nicht werden, aber jene dürfte dieselbe Performance zu eventuell günstigeren Preispunkten zu vor allem einer deutlich niedrigeren Verlustleistung bei (vermutlich) um die 100 Watt TDP mitbringen.

Für GK104-Besitzer besteht damit natürlich kaum ein Umrüstgrund – hierfür sind eher die GM204-basierten Grafikkarten gedacht – aber für Besitzer früherer Performance- und HighEnd-Beschleuniger, welche nun im Preisbereich von 150 bis 200 Euro nach Ersatz suchen, dürfte die GeForce GTX 960 Serie sicherlich von Interesse sein. Gerade bei Besitzern älterer Grafikkarten, wo inzwischen schon die früher üblichen, niedrigen Speichermengen den Pferdefuß darstellen, dürfte die GeForce GTX 960 Serie gut ankommen, wird nVidia aller Wahrscheinlichkeit nach an das 192 Bit DDR Speicherinterface jeweils 3 GB GDDR5-Speicher dranhängen – womit man heutzutage im Performance-Segment gut auskommen kann.

9

AMDs FX-8310 als Schnäppchen-Angebot im Achtkern-Bereich?

Ein klein wenig Aufregung gibt es derzeit um den neuen Bulldozer/Vishera-Prozessor FX-8310, welchen AMD als Ablösung des früheren Modells FX-8300 ohne großes Aufhebens im OEM-Bereich in den Markt gebracht hat. Gegenüber dem FX-8300 (3.3/4.2 GHz) hat der FX-8310 schlicht jeweils 100 MHz Takt zu bieten, ergo 3.4/4.3 GHz. Interessant ist an der CPU, das jene von AMD mit einer TDP von 95 Watt spezifiziert ist, ohne aber ein E-Modell zu sein. Die Taktraten liegen nun jedoch so, daß sich der FX-8310 eigentlich problemlos mit dem kürzlich vorgestellten FX-8370E (3.3/4.3 GHz) anlegen können sollte. All dies wäre jedoch nicht weiter von Bedeutung, wenn nicht der US-Händler TigerDirect vorgeben würde, den FX-8310 für 125 Dollar vorrätig zu haben – mit diesem Preis liegt der FX-8310 deutlich unterhalb der Preislage des FX-8370E von 194 Dollar Listenpreis.

Takt Uncore Technik TDP Listenpreis Release
FX-9590 4.7/5.0 GHz 2.2 GHz 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 220W 220$  (Juli 2013)
FX-9370 4.4/4.7 GHz 2.2 GHz 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 220W 204$  (Juli 2013)
FX-8370 4.0/4.3 GHz ? 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 125W 194$  (2. Sept. 2014)
FX-8370E 3.3/4.3 GHz ? 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 95W 194$  (2. Sept. 2014)
FX-8350 4.0/4.2 GHz 2.2 GHz 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 125W 173$  (24. Okt. 2012)
FX-8320 3.5/4.0 GHz 2.2 GHz 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 125W 142$  (24. Okt. 2012)
FX-8320E 3.2/4.0 GHz ? 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 95W 142$  (2. Sept. 2014)
FX-8310 3.4/4.3 GHz ? 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 95W nur für OEM  (Okt. 2014)
FX-8300 3.3/4.2 GHz ? 8 Piledriver-Kerne, 8 MB L2, 8 MB L3 95W nur für OEM  (Ende 2012)
FX-6350 3.9/4.2 GHz 2.2 GHz 6 Piledriver-Kerne, 6 MB L2, 8 MB L3 125W 122$  (29. April 2013)
FX-6300 3.5/4.1 GHz 2.0 GHz 6 Piledriver-Kerne, 6 MB L2, 8 MB L3 95W 101$  (24. Okt. 2012)
FX-4350 4.2/4.3 GHz 2.2 GHz 4 Piledriver-Kerne, 4 MB L2, 8 MB L3 125W 97$  (29. April 2013)
FX-4300 3.8/4.0 GHz 2.0 GHz 4 Piledriver-Kerne, 4 MB L2, 4 MB L3 95W 97$  (24. Okt. 2012)
Alle Bulldozer/Vishera-Prozessoren kommen im Sockel AM3+ daher, welcher durch die AMD-Chipsätze der 8er und 9er Serien bedient wird. Als Speicher wird durchgängig maximal DDR3/1866 (offiziell) unterstützt.

Da der FX-8370E recht gut bewertet wurde und der FX-8310 eigentlich dieselbe Performance bieten sollte, scheint sich hier ein klares Schnäppchen-Angebot anzubahnen – gutklassige Achtkern-Performance für eine Preislage von 125 Dollar aka ~120 Euro wird man derzeit nirgendwo anders finden. Problematisch ist nur, daß der FX-8310 wahrscheinlich ähnlich wie der FX-8300 eine reine OEM-CPU ist, das Angebot von TigerDirect steht momentan jedenfalls nur einzeln da. Der vorhergehende FX-8300 war zudem faktisch niemals im deutschen Einzelhandel erhältlich, sondern nur in Form von Komplett-PCs. So lange sich dies nicht ändert, bleibt das vorgebliche Schnäppchen-Angebot reine Theorie – und natürlich sollte man eigentlich den FX-8310 auch erst einmal durchtesten, ehe man hierzu endgültige Urteile abgibt.

8

Hardware- und Nachrichten-Links des 8. Oktober 2014

Die PC Games Hardware bietet erste eigene Benchmarks zum Mantle-Patch für Sniper Elite III an, welche sich mit +5,7% unter FullHD sowie +1,3% unter FullHD mit 4xSSAA jedoch kaum bemerkenswert anlassen. Die seitens des Spieleentwicklers versprochenen Performance-Gewinne durch Mantle sahen da noch deutlich vielversprechender aus – andererseits kann Mantle unter Sniper Elite III wohl prinzipbedingt nicht so viel einbringen, da das Spiel primär Grafikkarten-limitiert ist und Mantle nun einmal eher denn ein CPU-Beschleuniger ist. Zudem kommt hier sicherlich auch der Effekt zum tragen, daß bei den meisten das (positive) Urteil über Mantle bereits mit den seinerzeitigen Mantle-Benchmarks zu Battlefield 4 gefällt wurde und solche Nachzügler nun nicht mehr so genau betrachtet werden. Mantle ist jedoch nicht nur zur alleinigen Beschleunigung von Battlefield 4 gedacht, sondern kann natürlich nur als generelle Spiele-Beschleuniger richtig wirken – demzufolge ist vor allem die breite Wirkung in vielen Spielen interessant und nicht die singulären Ergebnisse unter Battlefield 4.

Laut der DigiTimes kommt AMDs nächste APU "Carrizo" nicht erst im neuen Jahr, sondern für Einsteiger-Notebooks bereits im Dezember 2014. Eine Termin-Vorerfüllung wird immer gern entgegengenommen – und gerade im Mobile-Bereich wäre dies sinnvoll, hat AMD dort mit seinen APUs samt gutklassiger integrierter Grafik wohl noch die größten Chancen. Die aktuelle Kaveri-APU hat leider keinen großen Erfolg im Mobile-Segment hinlegen können, da bereits im Januar 2014 für den Desktop-Bereich gelauncht, allerdings erst im Juni 2014 für das Mobile-Segment freigegeben – und seitdem nur eher selten in real kaufbaren Produkten gesichtet. Mit Carrizo wird AMD die letzte Bulldozer-Ausbaustufe Excavator bringen, ansonsten sind die Änderungen gegenüber Kaveri eher überschaubar. Carrizo-L für Einsteiger-Notebooks soll wie gesagt schon im Dezember 2014 antreten, die normalen Mobile-Modelle werden dann im März 2015 folgen. Zu den Desktop-Modellen wurde nichts erwähnt – möglicherweise treten jene ebenfalls im März 2015 an.

Der Tech Report vermeldet Aussagen des Produzenten von "Assassin's Creed Unity", wonach jenes Spiel (wegen umfangreicher KI-Berechnungen) auf den NextGen-Konsolen nicht von der Grafiklösung, sondern von der verbauten CPU ausgebremst werden würde. Dies beißt sich allerdings etwas mit der Limitierung des Titels auf 1600x900 und nur 30 fps auf den NextGen-Konsolen – bei einer reinen CPU-Limitierung könnte man die Auflösung in jedem Fall höher ansetzen. Nichtsdestotrotz weist es auf ein Problem hin, welches bei der aktuellen Konsolen-Generation noch nicht so beachtet wurde: Die CPU-Performance ist trotz der bei Xbox One und Playstation 4 jeweils acht x86 CPU-Kerne nicht wirklich hoch – da Microsoft und Sony nur CPU-Rechenkerne aus AMDs LowPower-Architektur "Jaguar" verwendet haben. Deren IPC ist nicht wirklich schlagkräftig, zudem trägt die angesetzte CPU-Taktrate von 1.75 bzw. 1.6 GHz auch nicht gerade zu einer hohen Gesamtperformance bei.

Zu Konzept-Zeiten konnte man damit noch gut leben, da auf dem PC bis vor ca. einem Jahr CPUs aus dem DualCore-Segment für eine hohe Gaming-Performance ausreichten – und die NextGen-Konsolen den Performance-Unterschied zu diesen mit der viel höheren Kern-Anzahl wettmachen konnten. Heuer nun aber dreht sich der Wind schnell in Richtung vernünftiger Vierkern-Prozessoren, welche zum PC-Gaming benötigt werden – und gegenüber diesen sind die CPUs von Xbox One und Playstation 4 trotz doppelter Kern-Anzahl einfach deutlich zu schwach. Für grob nur ein Jahr erhältliche Konsolen sind dies keine wirklich guten Aussichten, denn einer zu schwachen Grafik-Performance kann man mittels Reduktion der Auflösung und der Grafikdetails entgegenwirken, eine zu schwache CPU-Performance ist dagegen weit schwieriger und manchmal gar nicht regelbar. Allenfalls kann man das Spiel generell für eine niedrigere CPU-Performance auslegen, was dann leider aber auch die PC-Version des Spiel betreffen wird. In jedem Fall deutet sich hier eine weitere Schwierigkeit der NextGen-Konsolen an – welche wohl nur einen eher mittleren Lebenszeitraum haben werden können, keinesfalls den langen Lebenszyklus der Vorgänger-Generation.

Laut der ComputerBase dürfte eines der wesentlichen Features von Windows 10 der per default verpflichtende App-Shop "Windows Store" sein, in welchem nur von Microsoft zertifierte Software auftauchen wird. In jenem "Windows Store" dürften dann nicht nur Metro-Apps, sondern auch alle reguläre Desktop-Software geführt werden – und Windows 10 wird wie gesagt per default nur noch Software aus dem "Windows Store" installieren können. Hiermit will Microsoft viele Malware-Probleme gleich von Anfang an aus dem Weg gehen, bei Apple und Google läuft es schließlich ähnlich – und Microsoft will endlich von dem Ruf herunter, daß sich alle Schadprogramme primär auf Windows konzentrieren. Software aus anderen Quellen wird wohl weiterhin installierbar sein, dies dürfte allerdings gewisser Umwege benötigen, damit dies nicht vom Normalanwender durchführbar ist. Im Sinne dessen, den Normalanwender vor Malware zu schützen, ist ein solches System sogar sinnvoll – und so lange die erfahrenen Anwender auch weiterhin jegliche andere Software installieren können, ergeben sich hieran auch keine wirkliche Probleme. Wichtig ist vor allem die (derzeit noch unbekannte) konkrete Ausführung bzw. daß dies nicht zur Sicherheitswarnung-Orgie für die Nutzer wird.

8

nVidia stellt GM204-basierte Mobile-Lösungen GeForce GTX 970M & 980M vor

nVidia hat die kürzlich schon erwähnten neuen Mobile-Lösungen GeForce GTX 970M und GeForce GTX 980M nunmehr offiziell vorgestellt, entsprechend ausgerüstete Geräte sollen schon Ende Oktober den Markt erreichen. Beide neuen Mobile-Lösungen basieren auf Abspeckungen des GM204-Chips, welche auch bei der GeForce GTX 980M stärker ausfallen als bei der GeForce GTX 970 des Desktop-Bereichs (1664 Shader-Einheiten an einem 256 Bit DDR Speicherinterface. So trägt die GeForce GTX 980M nur 1536 Shader-Einheiten an einem 256 Bit DDR Speicherinterface, die GeForce GTX 970M sogar nur 1280 Shader-Einheiten an einem 192 Bit DDR Speicherinterface. Letzteres ergibt dann eine überaus deutliche Abspeckung gegenüber dem Vollausbau des GM204-Chips mit 2048 Shader-Einheiten an einem 256 Bit DDR Speicherinterface.

Trotz dieser starken Abspeckungen erreichen beide neuen Mobile-Grafiklösungen exzellente Leistungen, gemessen an ihrem Einsatzort und der schwachen Konkurrenz – AMD hat immer noch nichts besseres im Mobile-Segment zu bieten als die Pitcairn-basierte Radeon HD 8970M, welche in einem völlig anderem, deutlich niedrigerem Performancefeld spielt. Benchmarks zu GeForce GTX 970M und 980M sind derzeit zwar noch Mangelware, aus den wenigen vorliegenden Meßwerten läßt sich dennoch schon ein gewisser Performance-Eindruck gewinnen:

Webseite SKU Performance
ComputerBase GeForce GTX 970M 3,1% schneller als die GeForce GTX 760, 17,8% langsamer als die GeForce GTX 770, 48,8% langsamer als die GeForce GTX 970
Hardwareluxx GeForce GTX 970M 16,8% schneller als die GeForce GTX 880M
AnandTech GeForce GTX 980M 24,7% langsamer als die GeForce GTX 970, 35,0% schneller als die GeForce GTX 880M, 71,0% schneller als die GeForce GTX 870M
Tom's Hardware GeForce GTX 970M 44,7% schneller als GeForce GTX 870M

Allerdings wird es speziell bei der GeForce GTX 980 nicht ganz so schnell, wie es noch die Vorlaunch-Benchmarks vermuten lassen haben: Die GeForce GTX 980M ist auf einen Performance-Index von ~400-410% zu schätzen, dies ist doch deutlich niedriger als bei der GeForce GTX 980 des Desktop-Segments (Perf.Index 570%) und erfüllt damit nicht wirklich die nVidia-Vorgabe, wonach die Mobile-Spitzenlösung bei 75-80% der Performance der Desktop-Spitzenlösung liegen soll. Die GeForce GTX 970M ist dagegen auf einen Performance-Index von 330-340% zu schätzen – womit beide Karte trotzdem noch klar das schnellste sind, was derzeit im Mobile-Segment geboten wird.

Chipbasis & Technik Taktraten Desktop-Vergleich
GeForce GTX 980M 28nm GM204-Chip, Maxwell-Architektur, 1536 Shader-Einheiten, 96 TMUs, 64 ROPs, 256 Bit DDR Interface Chip: 1038 MHz + Boost
GDDR5: 2500 MHz
Richtung GeForce GTX 770
Perf.Index: ~400-410%
GeForce GTX 970M 28nm GM204-Chip, Maxwell-Architektur, 1280 Shader-Einheiten, 80 TMUs, 48 ROPs, 192 Bit DDR Interface Chip: 924 MHz + Boost
GDDR5: 2500 MHz
Richtung GeForce GTX 760
Perf.Index: ~330-340%
GeForce GTX 880M 28nm GK104-Chip, Kepler-Architektur, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface, 105W TDP Chip: 954 MHz + Boost
GDDR5: 2500 MHz
Richtung GeForce GTX 760
Perf.Index: ~300-320%
GeForce GTX 870M 28nm GK104-Chip, Kepler-Architektur, 1344 Shader-Einheiten, 112 TMUs, 24 ROPs, 192 Bit DDR Interface, 100W TDP Chip: 941 MHz + Boost
GDDR5: 2500 MHz
Richtung GeForce GTX 660
Perf.Index: ~240-260%
GeForce GTX 780M 28nm GK104-Chip, Kepler-Architektur, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface Chip: 823 MHz + Boost
GDDR5: 2500 MHz
Richtung GeForce GTX 660 Ti
Perf.Index: ~290%
GeForce GTX 680MX 28nm GK104-Chip, Kepler-Architektur, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface Chip: 720 MHz
GDDR5: 2500 MHz
Richtung GeForce GTX 660
Perf.Index: ~260%
GeForce GTX 680M 28nm GK104-Chip, Kepler-Architektur, 1344 Shader-Einheiten, 112 TMUs, 32 ROPs, 256 Bit DDR Interface Chip: 720 MHz
GDDR5: 1800 MHz
Richtung GeForce GTX 650 Ti "Boost"
Perf.Index: ~220%
Radeon HD 8970M 28nm Pitcairn-Chip, GCN-Architektur, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface Chip: 850/900 MHz
GDDR5: 2400 MHz
Richtung Radeon R7 265
Perf.Index: ~235%
Die angegebenen Taktraten sind im Mobile-Bereich reine Empfehlungen der Grafikchip-Entwickler an die Gerätehersteller.
7

Hardware- und Nachrichten-Links des 6./7. Oktober 2014

Die PC Games Hardware bringt ein paar weitere Detail-Informationen zu den verschiedenen Anti-Aliasing-Methoden von nVidias GeForce GTX 970 & 980: So wird das früher seitens nVidia eifrig beworbene Coverage Sampling Anti-Aliasing (CSAA) von der kompletten Maxwell-Generation (inklusive also auch dem GM107-Chip) nicht mehr unterstützt – wobei gut möglich ist, daß hier schlicht die Treiber-Unterstützung gestrichen wurde, denn technologisch war CSAA eigentlich reine Treiber-Sache und bedingt keine explizite Hardware. Möglicherweise wollte nVidia es den Anwendern mit zu vielen AA-Methoden jedoch nicht zu kompliziert machen und hat daher CSAA entgültig gekickt. Zudem gab es Kunde zum Treiber-Support für MFAA sowie für DSR von Kepler-Grafikchips: Dynamic Super Resolution (DSR) wird für Kepler-Grafikkarten noch innerhalb des Oktobers zur Verfügung stehen, während ein Treiber mit Unterstützung für Multiframe Sampled Anti-Aliasing (MFAA) weiterhin auf sich warten läßt, nVidia konnte noch nicht einmal einen groben Termin nennen. Wer im übrigen auf den DSR-Treiber für Kepler nicht warten will – mit einer kleinen Modifikation klappt es auch schon mit dem neuen Beta-Treiber 344.24.

Golem vermelden eine erste (kommende) Anwendung von nVidias NVLink bei IBMs Power8-Architektur. Jene wird mit dem Erscheinen von nVidias Pascal-Architektur im Jahr 2016 die neue nVidia-Schnittstelle zur GPU-Anbindung nutzen können – neben PCI Express im übrigen. Dazu dürften die Mainboard-Chipsätze von Power8 entsprechende NVLink-Interfaces erhalten, eine direkte Integration in die IBM-Prozessoren selber ist dagegen eher unwahrscheinlich (da unflexibel). Gleichzeitig zeigt diese Meldung aber auch an, wofür NVLink zumindest anfänglich primär geplant ist: Für den höheren Bandbreitenbedarf professioneller Anwendungszwecke, wie im Server-Bereich – und weniger als Gamer-Feature. Im Gaming-Bereich dürfte auch nVidias Pascal-Generation weiterhin über PCI Express kommunizieren: Dies ist zum einen ausreichend schnell, zum anderen wird Intel voraussichtlich hartnäckig gegenüber NVLink mauern (und hat über seine Prozessoren & Chipsätze das Heft des Handelns in der eigenen Hand) – und somit lieber auf die Weiterentwicklung von PCI Express setzen.

Ars Technica berichten erneut über den Fall "Butterfly Labs", dem von der US-Handelsaufsicht FTC geschlossenem Hersteller von Bitcoin-Mining-Hardware. Der Grund für die Schließung liegt erst einmal in der oftmaligen Nichtlieferung von bestellter und zumeist in Vorkasse bezahlter Mining-Hardware – nun stellt sich mit der Klageschrift der FTC jedoch heraus, daß auch ein früher schon desöfteren geäußerter Vorwurf wahr zu sein scheint: Butterfly Labs hat in der Tat die fertiggestellte Mining-Hardware zuerst zum Eigennutzen verwendet – und damit Bitcoins erzeugt, welche eigentlich dem Käufer der Hardware zustehen würden. Aus rechtlicher Sicht macht dies die Sache nochmals interessanter, weil man somit Butterfly Labs nicht einfach nur eine schludrige Geschäftstätigkeit (verspätete Auslieferungen), sondern sogar kriminellen Vorsatz nachsagen kann. Ganz generell zeigt der Fall aber nur an, daß bei einem typischen Goldrausch eigentlich nie die Goldschürfer gewinnen – sondern die Hersteller und Händler von Schürfequipment. Dies war 1848 schon so – und offensichtlich hat man 166 Jahre später diese einfache Lektion immer noch nicht gelernt.

In der Frage des Presse-Leistungsschutzrechts hält das bundesdeutsche Kartellamt das Vorgehen Googles, die in der VG Media organisierten Angebote ab dem 9. Oktober in der Google-Suchmaschine nur noch mit Link und Artikelüberschrift anzuzeigen, für akzeptabel und wird sich demzufolge nicht zu einem kartellrechtlichen Vorgehen dagegen drängen lassen. Allerdings warnt man vor einer totalen De-Listung – in diesem Fall wäre dann wohl die Schmerzgrenze des Kartellamts erreicht. Für die VG Media wird die Luft somit dünn, denn die anhängigen Klagen gegenüber Google erübrigen sich mit der vorgenannten Darstellungsbeschneidung, die neue Darstellungsform von Google läge dann wohl innerhalb des Spielraums des Leistungsschutzrechts. Wenn gleichzeitig keine kartellrechtlichen Bedenken vorliegen, fehlt (eigentlich) jeglicher Klagegrund gegenüber Google – die in der VG Media organisierten Angebote hätten sich dann zwar ohne Not selber abgeschossen, aber ansonsten ist nichts passiert. Der gerichtliche Streit wird aber sicherlich dennoch ausgetragen werden – nur daß man derzeit einen für Google positiven Ausgang ziemlich sicher erwarten kann.

Die Sueddeutsche berichtet über die BND-Operation "Eikonal", mittels welcher der Bundesnachrichtendienst (BND) der NSA im Zeitraum von 2004 bis 2008 eine Kopie des kompletten Datenverkehrs über den weltweit wichtigsten Internetdatenknotenpunkt Frankfurt lieferte – verbunden mit dem Versuch, die Daten von Deutschen zu löschen, welcher allerdings nur äußerst mangelhaft ausgeführt wurde und daher nichts wirklich brachte. Dabei ist vielleicht noch nicht einmal die eigentliche Tat erschreckend – sondern vielmehr die dahinterstehende kriminelle Energie. Denn eine echte Rechtsgrundlage existierte nie, das als Begründung herangezogene G10-Gesetz erlaubt keine verdachtslose Untersuchung kompletter Datenströme. Zugleich wurde das Parlamentarische Kontrollgremium, welches die Geheimdienste überwachen soll, erst gar nicht über "Eikonal" informiert – sehr viel illegaler kann man eine Operation kaum gestalten. Und als Bonus oben drauf: Nach Einstellung des Programms forderten die USA eine Kompensation – welche wohl bis heute in Form des Anzapfens eines anderen, derzeit noch nicht identifizierten Datenstroms gewährt wird.

7

Microsoft zeigt "IllumiRoom"-Nachfolger "RoomAlive"

Microsoft zeigt mit "RoomAlive" mal wieder ein neues Forschungsprojekt zum Thema virtuelle Realität bzw. die Annäherung daran. Dabei darf man sich "RoomAlive" grundsätzlich wie das frühere, leider eingestellte Projekt "IllumiRoom" – Meldungen No.1 & No.2 sowie Projekt-Einstellung – vorstellen, nur eben nicht mit nur einer einzelnen Wand als Projektsfläche, sondern dem kompletten Raum. Dabei wird eine einzelne Wand als Hauptprojektionsfläche benutzt, bei "IllumiRoom" war hierfür nur ein Monitor gedacht. Der Rest des Raums dient dann erst einmal dazu, die Atmosphäre dichter zu machen, bei "IllumiRoom" war dies nur auf einer einzelnen Wand möglich. Zudem können aber alle Darstellungsflächen bei "RoomAlive" im Gegensatz zu "IllumiRoom" auch dazu genutzt werden, weitere wichtige Elemente darzustellen. Damit ist es durchaus möglich, Spiele zu entwickeln, wo die Gegner von allen Seiten kommen können, der Spieler sich also im Raum tatsächlich umsehen und entsprechend drehen muß.

Technisch ist der Aufwand von "RoomAlive" ungleich höher gegenüber "IllumiRoom": Es werden sechs Beamer und Kinect-Geräte benötigt, bei "IllumiRoom" reichte jeweils ein Gerät aus. Dafür gibt es dann aber auch noch ein Bonus-Feature oben drauf: Man kann dank der gleich sechs Beamer auch im Raum stehende und sich bewegende 3D-Objekte kreieren, hier erfüllt sich dann der Name des Forschungsprojekts. Vollkommen frei agierende 3D-Objekte sind damit scheinbar noch nicht möglich, im Endeffekt kann man selbige wohl nur am Rand der normalen Projektsflächen (Fußboden, Wände und Decke) abbilden – aber natürlich wird damit dennoch ein bislang utopisches Mittendrin-Feeling ermöglicht. Leider handelt es sich bei "RoomAlive" aber erneut nur um ein Forschungsprojekt, welches eher denn zum Austesten der technischen Möglichkeiten entwickelt wird, und nicht zur Vorbereitung eines irgendwann einmal kaufbaren Produkts.

Inhalt abgleichen