29

Hardware- und Nachrichten-Links des 28./29. Oktober 2014

Laut den SweClockers (maschinelle Übersetzung ins Deutsche) wird AMD im November doch noch einmal neue Grafikkarten bringen – allerdings "nur" in Form der Radeon R9 290X mit 8 GB Speicher. Bisher waren 8-GB-Varianten den Grafikkarten-Herstellern faktisch "verboten", nun soll diese Begrenzung wohl fallen und AMD versuchen, mit diesen neuen Modellen, welche sicherlich auch ab Werk übertaktet sind, neuen Schwung in sein Angebots-Portfolio zu bringen. Ob dies gelingt, darf allerdings durchaus hinterfragt werden, da die bisher bei der Radeon R9 290 Serie gebotenen 4 GB Speicher schon ziemlich perfekt sind. Nur in Ausnahmefällen ist noch mehr Speicher nützlich (CrossFire-Systeme oder Nutzer von Grafikqualität-Mods, auch in Verbindung mit 4K oder Downsampling), dafür sind dann 8 GB Speicher sicherlich auch gern gesehen – aber ein großes Geschäft ist damit nicht zu machen, das Marktpotential dieser Nische ist zu klein.

Auch bei den kleineren AMD-Modellen – Radeon R9 280 Serie mit 3 GB und Radeon R9 270 Serie mit 2 GB Speicher – bietet AMD derzeit durchgehend eine nahezu ideale Speicherbestückung für die Leistungsfähigkeit der jeweiligen Karten an (mit einer Ausnahme bei der Radeon R9 285), da ist kaum großes Potential für etwaige Speicherverdopplungen zu sehen. Dagegen hat nVidia in diesem Feld Nachholbedarf, denn die HighEnd-Modelle GeForce GTX 670, 680 und 770 sind mit jeweils 2 GB Grafikkartenspeicher doch etwas zu knapp für die heutige Spielesituation bemessen – ganz besonders, wenn man über einfaches 1920x1080 hinausgehen will. Andererseits muß nVidia hier derzeit auch nichts tun, weil sich deren (alte) Grafikkarten nach wie vor gut verkaufen und der augenfällige Vorteil der zum Jahresanfang 2015 anstehenden GeForce GTX 960 Serie dann um so größer wird, wenn jene mit 3 GB Grafikkartenspeicher (aufgrund des 192 Bit DDR Speicherinterfaces) gegen die 2 GB Speicher der vorgenannten nVidia-Karten antreten wird.  (Foren-Diskussion zum Thema)

Breit berichtet wird derzeit über einen neuen Anlauf bei externer Grafik für Mobile-Geräte in Form einer proprietären Lösung beim Dell "Alienware 13" Gaming-Notebook. Jenes ist mit einem "Alienware Graphics Amplifier" koppelbar, was ein externes Gehäuse für Desktop-Grafikkarten mit eigenem Netzteil darstellt, welches über einen externen PCI Express 2.0 Anschluß ans Notebook angeschlossen wird. Leider hat sich Dell hier eine vollkommen gerätespezifische Lösung ausgedacht, welche weder mit Geräten anderer Hersteller noch mit eigenen früheren Alienware-Notebooks kompatibel sein soll – nutzbar ist der Amplifier also nur mit dem Alienware 13 Notebook. Unbekannt ist zudem noch, wieviele PCI Express Lanes die externe Anbindung nutzt, maximal 8 Lanes stehen dem im Notebook verbauten Core i5-4210U Prozessor zur Verfügung. Dagegen gibt es wenigstens ein paar Daten zum Amplifier-Gehäuse: Jenes kann DualSlot-Grafikkarten mit mindestens 27cm Länge (eventuell auch mehr) aufnehmen, deren TDP bis zu 375 Watt betragen darf (verbaut ist ein 460-Watt-Netzteil).

Auch wenn viele Detailinformationen noch fehlen, zeigt dies deutlich auf eine sehr kraftvolle Lösung an, die nicht die Fehler vorhergehender Versuche im Feld der externen Grafik wiederholt. Wahrscheinlich läßt sich im Amplifier jede der heutigen HighEnd-Grafikkarten (sofern DualSlot) mit auch entsprechendem Performancegewinn verbauen – letzteres darauf spekulierend, daß die maximalen 8 PCI Express 2.0 Lanes des Standards der externen Grafik zugeführt wurden. Ein erster Test bei Gizmondo mit einer im Amplifier verbauten GeForce GTX 980 gibt eine gute Wertung für dieses System ab, spart jedoch leider an exakten Benchmarks. Allerdings erscheint es laut dem Wortlaut des Artikels fast so, als würde die externe Grafik im Amplifier sogar das Notebook-Display direkt befeuern können – sollte sich dies bestätigen, hätte Dell fast alle Anwenderwünsche erfüllt. In jedem Fall sind jedoch weitere, intensive Tests zu Dells "Alienware Graphics Amplifier" anzuraten, um mehr Detailinformationen zu erhalten und die Performance des Geräts quantifizieren zu können.  (Foren-Diskussion zum Thema)

Der Planet 3DNow! ist der Frage nachgegangen, ob und in welcher Höhe die jüngsten Preissenkungen bei AMDs APUs im deutschen Einzelhandel angekommen sind. Nominell sind dabei die Preissenkungen der Straßenpreise klar niedriger als die Preissenkungen der Listenpreise – diese platte Rechnung bezieht aber nicht den Effekt mit ein, daß die Straßenpreise auch schon vor der Preissenkung teilweise klar unter den Listenpreisen lagen. Rechnet man dagegen die neuen Listenpreise um und vergleicht jene mit den aktuellen Straßenpreisen, passt es wieder bzw. liegen die aktuellen Straßenpreise teilweise sogar schon wieder etwas als die (umgerechneten) Listenpreise. Natürlich hat damit die aktuelle Preissenkung nur zum Teil zu niedrigeren Straßenpreisen geführt – und zum anderen Teil war die offizielle Preissenkung nur eine Reaktion auf schon unterhalb der Listenpreise liegende Straßenpreise.

Die eigentliche Frage zu diesen APU-Preisen ist aber sowieso, wieso AMD nicht von Anfang an mit dieser neuen Preislage angetreten ist. Die AMD Mainstream-APUs mögen technisch Vierkerner sein, von der Performance und dem Anforderungsprofil müssen sie sich dennoch mit Intels Zweikernern messen – und können diesen Wettstreit auch oftmals für sich entscheiden, wie die seinerzeitige Launch-Analyse zu Kaveri ergab. Um mit Intel in diesem, ausgerechnet auch noch stark preissensitiven Markt mithalten zu können, muß AMD jedoch nicht nur dieselbe Performance bieten, sondern – gegen den klaren Platzhirsch – eigentlich auch die besseren Preise bieten. Dazu im Widerspruch ging der A10-7850K seinerzeit jedoch mit 173$ Listenpreis in den Markt, während der schnellste Core i3 bei 149$ steht – und erst jetzt nach der offiziellen Preissenkung vom neuen Preis des A10-7850K mit 143$ knapp unterboten wird. Jenen – oder eigentlich noch einen besseren Preis – hätte AMD von Anfang an machen müssen, die Preise der Core i3 Prozessoren sind schließlich bekannt und über die letzten Jahre auch stabil. Ob diese späte Preissenkung AMD jetzt noch großartig weiterhilft, darf bezweifelt werden – die Urteile über Kaveri sind längst gefällt, da ist dann später nur schwerlich noch etwas dran zu ändern.

28

Umfrage-Auswertung: Wie sind derzeit die Aussichten für Windows 10?

Die Umfrage der vorletzten Woche beschäftigte sich mit den Aussichten von Windows 10 gemäß den bisher vorliegenden Informationen – welche zugegeben eigentlich noch nicht ausreichend für eine wirkliche Beurteilung von Windows 10 sind. Dennoch ist das Interesse an diesem Thema natürlich breit vorhanden, gerade nach dem sehr mittelmäßig gelaufenem Windows 8. Und gegenüber dem seinerzeitigen allerersten (sehr schwachen) Eindruck zu Windows 8 kommt Windows 10 klar besser weg – ohne aber wirklich Bäume auszureißen, positiv gestimmt könnte man sagen, daß da noch viel Potential nach oben ist. Denn die Anzahl der klaren Gegner ist auch bei Windows 10 schon wieder größer als die Anzahl der klaren Beführworter. Wenigstens sind unter denjenigen, welche sich erst angesichts des finalen Produkts entscheiden wollen, derzeit (klar) mehr positive als negative Stimmen, bei einem jedoch weiterhin großen Anteil an noch unentschiedenen Anwendern.

Es kann also bei Windows 10 noch in alle beide Richtungen gehen – sowohl Fehlschlag als auch klarer Erfolg, die konkrete Ausführung des finalen Produkts wird entscheidend sein. Und diesesmal werden die Nutzer von Anfang an viel genauer als bei Windows 8 hinsehen – Microsoft muß es also im ersten Versuch richtig machen, mittels Windows 8 ist in dieser Frage viel Reputation verspielt worden. Als Maßgabe für Microsoft bei der weiteren Entwicklung sowie dem Feintuning von Windows 10 darf man durchaus die bisher schon geäußerte Kritik an Windows 10 ansehen. Noch bei Windows 8 hat Microsoft den großen Fehler gemacht, die klar ersichtliche Vorab-Kritik weitgehend zu ignorieren und nachfolgend auf das bekannte Fiasko zuzusteuern. Es liegt an Microsoft, es diesesmal besser zu machen – und zwar durch echte Handlungen und nicht nur durch reines Versprechen.

27

Hardware- und Nachrichten-Links des 27. Oktober 2014

Die PC Games Hardware vermeldet erste Benchmarks zur Radeon R9 M295X mit Tonga-XT-Grafikchips aus Apples iMac 5K. Die notierten Werte lassen sich größtenteils nicht gut direkt vergleichen, aber dennoch sieht es so aus, als würde diese Radeon R9 M295X klar oberhalb einer Radeon R9 280X herauskommen – und damit der Tonga-Chip den Tahiti-Chip abhängen können, trotz der identischen 2048 Shader-Einheiten, des bei (den bisherigen Versionen von) Tonga kleinerem Speicherinterface sowie den geringeren Taktraten. Dies macht eine gewisse Hoffnung darauf, daß AMD aus dem Tonga-Chip noch viel mehr herausholen kann als bisher mit der Radeon R9 285 gezeigt wurde. In einer voll aufgebohrten Desktop-Version ist möglicherweise sogar die Performance-Region einer Radeon R9 290 anpeilbar – womit sich letztlich die Auflage dieses (für seine Hardware-Daten) ungewöhnlich großen Grafikchips dann doch noch erklären lassen würde.

Nochmals die PC Games Hardware berichtet über eine neuerliche Nennung des AMD-Grafikchips "Topaz" – ohne aber daß es auch diesemal wirklich sichere Fakten dazu gäbe, wo sich dieser Grafikchip einordnen lassen kann. Die bisher beste Vermutung ist nach wie vor, daß es sich hierbei schlicht um eine Mobile-Abwandlung von AMDs LowEnd-Chips "Iceland" handeln dürfte – AMD vergibt für die gleichen Chips im Desktop- und im Mobile-Segment (zumeist) jeweils unterschiedliche Codenamen, auch wenn es sich um das hundertprozentig identische Stück Silizium handelt. Iceland wiederum sollte eigentlich längst spruchreif sein, ist aber bisher noch nicht in eindeutiger Form aufgetaucht – wobei solcherart LowEnd-Lösungen auch oftmals ohne echte Ankündigung in den Markt oder zu den OEMs kommen, gänzlich sicher ist auch dieser Punkt nicht.

Klar ist nur, daß AMD derzeit wohl mit seinem Produktprogramm recht zufrieden ist und vor Jahresschluß kaum noch etwas an seinem Angebotsportfolio verändern dürfte – Preissenkungen für bestehende Produkte natürlich ausgenommen. Im nächsten Frühjahr dürfte AMD dann aber um so aktiver werden, weil zum einen die Radeon R300 Serie mit dem Fiji-Chip an der Spitze gestartet werden dürfte – die restlichen Grafikkarten der Radeon R300 Serie werden dann aus neuen Tonga-Modellen sowie wahrscheinlich wieder Rebrandings bestehender Grafikkarten bestehen. Und zum anderen dürfte AMD dann auch eine neue Mobile-Serie auflegen, nachdem man bisher immer jedes Jahr neue Mobile-Beschleuniger aufgelegt hat – ganz egal ob auf Basis neuer oder eben schon bekannter Grafikchips. Spannend wird hierbei sein, wie hoch der Anteil an Rebrandings jeweils sein wird – oder ob AMD dann doch noch mit weiteren neuen Grafikchips neben Fiji überrascht.

Heise berichten über ein Prozessoren-Projekt des US-Startups "Soft Machines", deren "VISC" Prozessoren-Architektur zum einen x86- und ARM-Code verarbeiten kann, zum anderen eine Möglichkeit von inversem Hyper-Threading anbietet. Dabei versucht man schlicht, mehrere Rechenkerne an einem Thread arbeiten zu lassen – um somit die SingleThread-Performance maßgeblich zu erhöhen. Laut Angaben der Entwickler funktioniert dies auch schon ganz gut, ein zweiter Kern steigert die SingleThread-Performance um 50-60%, der dritte Kern dann noch um 20-30% und der vierte Kern dann noch 10-20%. In der Summe will man mit VISC also eine SingleThread-Performance von dem 2fachen bis 2,5fachen eines regulären Rechenkerns erreichen – was ein sehr hoher Wert wäre, derartige Steigerungen sind heutzutage über Architektur-Fortschritte nur im Laufe vieler Jahre & Entwicklungsstufen realisierbar.

Angesichts dessen, daß im Bereich der Consumer-PCs – aber auch von Smartphones & Tablets – die SingleThread-Performance immer noch entscheidend ist, geht dieser Ansatz sicherlich in eine gute Richtung. Sehr passend für die heutige Zeit ist obendrein die vorgenannte Möglichkeit, sowohl x86- als auch ARM-Code umsetzen zu können, der Programmcode wird dabei zur Laufzeit in einen eigenen VISC-Instruktionssatz umgewandelt und optimiert. Die eigentliche Schwierigkeit des technologisch sicherlich herausragenden Ansatzes dürfte aber natürlich die Umsetzung in reale, taktfreudige Prozessorendesigns sein – ein Punkt, an dem schon viele interessante Chipprojekte gescheitert sind. Daß AMD und Samsung an "Soft Machines" beteiligt sind, darf man als Hoffnungszeichen sehen, daß dies bei VISC möglicherweise anders ausgehen wird – aber dennoch muß "Soft Machines" natürlich erst einmal liefern, vorher ist es nun ein (hoch)interessantes Konzept.

27

Die Systemanforderungen für die PC-Spiele 2014/2015

Auch diesen Herbst haben schon wieder einige Spieletitel knackige Systemanforderungen für PC-Spiele aufgestellt bzw. verlangen in der Praxis nach viel leistungsfähigerer Grafik-Hardware als vom Hersteller vorgegeben, sofern man ein flüssiges Spielerlebnis unter der maximalen oder einer dem nahekommenden Grafikpracht erleben will. Die letztes Jahr an dieser Stelle aufgestellten System-Mindestanforderungen sind damit leider schon wieder unaktuell geworden, da sich insbesondere beim Punkt der Grafikkarten-Performance mit der nun anbrechenden Spiele-Saison ein sehr großer Sprung ergibt. Daher müssen diese Systemanforderungen neu für die PC-Spiele der Spiele-Saison Herbst/Winter 2014 und Winter/Frühjahr 2015 aufgestellt werden. Wie üblich gilt dabei, daß es gerade bei den Mindestanforderungen nicht um den Durchschnitt der Spiele-Anforderungen geht, sondern daß sich gerade die Mindestanforderungen am höchsten dessen orientieren, was einzelne Spieletitel aufrufen.

Mindestanforderungen Anforderungen für flüssige Frameraten
Betriebssystem Windows Vista/7/8 64-Bit Windows Vista/7/8 64-Bit
Hauptspeicher 6 GB 8 GB
Prozessor Vierkern-Prozessor von AMD (ab K10) oder Intel (ab Core 2) Achtkern-Prozessor von AMD (ab Bulldozer) oder Vierkern-Prozessor von Intel (ab Sandy Bridge)
Grafikkarte für 1920x1080 DirectX-11-Modell mit 1 GB Speicher
(ab Radeon HD 7770 oder GeForce GTX 560)
DirectX-11-Modell mit 2 GB Speicher (besser 3 GB)
Radeon HD 7000 Serie: ab Radeon HD 7970
Radeon R200 Serie: ab Radeon R9 280X
GeForce 600 Serie: ab GeForce GTX 680
GeForce 700 Serie: ab GeForce GTX 770
GeForce 900 Serie: ab GeForce GTX 970
Grafikkarte für 2560x1600 DirectX-11-Modell mit 2 GB Speicher DirectX-11-Modell mit 3 GB Speicher (besser 4 GB)
Radeon R200 Serie: ab Radeon R9 290X
GeForce 700 Serie: ab GeForce GTX Titan Black
GeForce 900 Serie: ab GeForce GTX 980

Gegenüber den letztjährigen Mindest-Systemanforderungen hat sich dann doch einiges getan: Mit Zweikern-Prozessoren braucht man heutzutage nicht mehr anzutreten, selbst wenn es viele Spiele gibt, die auf modernen Intel Core i3 Prozessoren (also Zweikerner mit HyperThreading) exzellent laufen – einzelne Titel ziehen dagegen konsequent Vierkerner vor, egal ob es altertümliche wie ein Core 2 Quad oder langsame Modelle wie bei den AMD-APUs sind. Genauso sind die 4 GB Hauptspeicher inzwischen von 6 GB Hauptspeicher als Mindestanforderung ersetzt worden – wobei sicherlich die meisten (nicht alle) Spiele mit 4 GB genauso starten werden, aber so wird es nun einmal von den Spieleentwicklern notiert.

Bei den Grafikkarten geht dagegen nun nichts mehr unterhalb eines DirectX-11-Modells mit 1 GB Grafikkartenspeicher. Faktisch sollte man auch mindestens eine Grafikkarte vom Schlag Radeon HD 7770 oder GeForce GTX 560 haben, um wenigstens in abgesenkten Bildqualitätssettings auf halbwegs spielbare Frameraten in den Hardware-fordernsten Titeln zu kommen – sprich, leistungsschwächere DirectX-11-Grafikkarten kann man auch gleich mit vergessen. Für die Auflösung von 2560x1600 dürfte es im übrigen mit 1 GB Grafikkartenspeicher nicht mehr getan sein, sowohl aus Sicht der Speichermenge als auch der allgemeinen Leistungsfähigkeit muß es hier ein Modell mit gleich 2 GB Grafikkartenspeicher sein.

Noch stärker ist der Unterschied bei den von uns empfohlenen Settings für spielbare Framerate. Dabei ändert sich bei den Prozessoren wenig und beim Hauptspeicher gar nichts gegenüber den letztjährigen Empfehlungen. Bei den Grafikkarten schießen die Anforderungen dagegen durch die Decke, maßgeblich getrieben durch einige neue, besonders Hardware-fordernde Spiele: Unter 1920x1080 geht nichts unterhalb einer echten HighEnd-Grafikkarte mit mindestens 2 GB Speicher, unter 2560x1600 muß es dagegen leider schon ein Modell des Enthusiasten-Feldes mit mindestens 3 GB Speicher sein. Unter vielen Spieletiteln reichen langsamere Modelle – aber wenn man garantieren will, daß man eben auch in allen Spieletiteln 40 fps auf der maximalen Bildqualität erreicht, dann müssen es tatsächlich die vorstehend notierten Grafikkarten-Modelle sein.

Dies bedeutet, daß für diese Spiele-Saison bei den Grafikkarten zwischen den von den Spieleentwicklern angegebenen Mindest-Anforderungen und den wirklichen Empfehlungen für sorgenfreie Performance unter allen Spieletiteln ein nochmals größerer Unterschied herrscht. Während man in der letztjährigen Spiele-Saison noch mit Radeon HD 7850 oder GeForce GTX 650 Ti "Boost" (nahezu) überall mitgekommen ist, müssen es heuer gleich Radeon HD 7970 oder GeForce GTX 680 sein – in unserem Performance-Index ein Sprung von satten ~60%, und dies wie gesagt nur innerhalb eines einzigen Jahres. Augenscheinlich wirkt nunmehr die aktuelle Konsolen-Generation wirklich deutlich auf die Systemanforderungen neuer Spieletitel – was ja nun nicht wirklich schlecht ist, wenn dafür auch optisch um so opulentere Spieletitel geboten werden.

27

Aktualisierte Intel Prozessoren-Roadmap: Broadwell-E kommt erst Anfang 2016

Die chinesische VR-Zone (maschinelle Übersetzung ins Deutsche) hat einen Fahrplan zur Produktion der Broadwell-E Prozessoren vorliegen, welche jene jedoch aus dem bisher vermuteten Termin "Herbst 2015" in das erste Quartal 2016 verschieben. Dies bedeutet, daß die Enthusiasten-Architektur Broadwell-E erneut erheblich später kommt als die modernere Mainstream/Performance-Architektur Skylake, welche schon im Sommer 2015 antreten soll. Was dies für Auswirkungen auf das Erscheinen von Skylake-E haben wird, ist noch nicht klar – aber man darf durchaus vermuten, daß jene nun nicht mehr im Herbst 2016 antreten wird, sondern möglicherweise erst im Jahr 2017.

Mit Broadwell-E wird Intel in jedem Fall den aktuellen Enthuasiasten-Sockel 2011-v3 nochmals bedienen, es werden also nicht zwingend neue Mainboards vonnöten. Weiterhin wird es Sechskerner und Achtkerner geben, die übrigen Daten sind nahezu gleich, nur der offizielle Speichersupport steigt auf DDR4/2400 an. Höchstwahrscheinlich ergibt sich für Besitzer von Haswell-E keinerlei Grund zum Aufrüsten, aber für Besitzer älterer Enthusiasten-Architekturen könnte Broadwell-E dann interessant werden. Eine kleine Schwierigkeit ergibt sich automatisch aus dem früheren Launch von Skylake: Wenn jene neue Architektur entsprechende Verbesserungen mit sich bringt, könnte Broadwell-E eventuell schnell unmodern aussehen, trotz der mehr Rechenkerne der E-Architekturen (auch Skylake wird weiterhin bei maximal 4 Rechenkernen bleiben, nur Skylake-E wird mehr bieten).

LowPower Mainstream/Performance Enthusiast
Iststand BayTrail
22nm, 2-4 Silvermont CPU-Kerne, integrierte Grafik mit 4 EU, DirectX 11.0 (Intel Gen. 7), DualChannel DDR3/1333
(Modell-Liste)
Haswell-Refresh
22nm, 2-4 CPU-Kerne, integrierte Grafik mit 10, 20 oder 40 EU sowie optionalem eDRAM, DirectX 11.1 (Intel Gen. 7.5), Sockel 1150, DualChannel DDR3/1600
(Modell-Liste)
Haswell-E
22nm, 6-8 CPU-Kerne, keine integrierte Grafik, Sockel 2011-v3, QuadChannel DDR4/2133
(Modell-Liste)
Q4/2014 bis Q2/2015 Broadwell
14nm (Refresh zu Haswell, 5% mehr IPC), 2-4 CPU-Kerne, integrierte Grafik mit 12, 18, 24 oder 48 EU sowie optionalem eDRAM, DirectX 11.2 (Intel Gen. 8), Sockel 1150, DualChannel DDR3
(Ultrabook-Modelle zum Ende 2014, Mobile-Modelle im Q1/2015, ungelockte Desktop-Modelle im Sommer 2015, keine normalen Desktop-Modelle geplant)
Sommer 2015 Braswell
14nm, Airmont CPU-Kerne, integrierte Grafik mit bis zu 16 EU, DirectX 11.2 (Intel Gen. 8)
Skylake
14nm (neue Architektur), 2-4 CPU-Kerne
integrierte Grafik mit 12, 18, 24, 48 oder 72 EU sowie optionalem eDRAM, DirectX 11.2+ (Intel Gen. 9), Thunderbolt III, Sockel 1151, DualChannel DDR3/1600 & DDR4/2133
Q1/2016 Broadwell-E
14nm, 6-8 CPU-Kerne, keine integrierte Grafik, Sockel 2011-v3, DDR4/2400
2016 WillowTrail
14nm (neue Architektur), Goldmont CPU-Kerne, integrierte Grafik, DirectX 11.2+ (Intel Gen. 9)
Cannonlake
10nm (Refresh zu Skylake)
2016/2017 Skylake-E
14nm, keine integrierte Grafik, PCI Express 4.0, DDR4

Daneben wurden in vorstehender Roadmap noch die neuen Erkenntnisse zu den Grafiklösungen von Broadwell und Skylake eingearbeitet.

26

Hardware- und Nachrichten-Links des 25./26. Oktober 2014

Die PC Games Hardware berichtet über angebliche Aussagen eines Ubisoft-Mitarbeiters, wonach die Konsolenhersteller Microsoft & Sony die Spieleentwickler dazu auffordern würden, auch auf dem PC Frameraten-Limits von 30 fps einzusetzen – wohl, damit dasselbe Spiel auf dem PC nicht als klar flüssiger als auf den aktuellen Spielekonsolen wahrgenommen wird, wo es aufgrund deren begrenzter Leistungsfähigkeit nur mit 30 fps laufen kann. Dies könnte das eine oder andere fps-Limit in PC-Spielen erklären – denn daß man nicht die Zeit gefunden hat, beim PC-Port dieses einzelne Engine-Kommando zu deaktivieren, ist dann doch eher unglaubwürdig. Andererseits erscheinen auch viele PC-Ports in guter Qualität und ohne solch unsinnige Begrenzungen – wenn es solcherart Forderungen der Konsolenhersteller wirklich gibt, dann kommen sie nur in den wenigstens Fällen bei den Spieleentwicklern damit durch.

Unter anderem iRights berichten über einen Beschluß des Europäischen Gerichtshofs, wonach das Einbetten von fremden Videos keine Urheberrechtsverletzung darstellt – sofern das bewußte Video an seiner originalen Stelle rechtmäßig (in aller Regel vom Urheber) eingestellt wurde bzw. keine direkten Maßnahmen gegen das Einbetten ergriffen wurden. Insbesondere YouTube, wo es eine vom Uploader pro einzelnem Video regelbare Einbett-Funktion gibt, ist damit ein klares Positivbeispiel für diesen Fall: Wenn der Uploader das Einbetten nicht wünscht, kann er es pro einzelnem Video deaktivieren. Der Beschluß dürfte hoffentlich eine lange Phase der latenten Rechtsunsicherheit bezüglich des Einbettens von fremden Videos abschließen und ist in diesem Sinne nur zu begrüßen.

Als reichlich übertrieben erscheinen sowohl das Ausmaß des staatlichen Eingriffs als auch die Berichterstattung in den üblichen Massenmedien über den Fall Kinox.to: Mit einem Sondereinsatzkommando gegen ein paar Webmaster vorzugehen, die bei ihren Eltern leben (und für die kein Waffenbesitz bekannt ist), läßt den Verdacht aufkommen, es gäbe keine gefährlicheren Kriminellen in Deutschland mehr bzw. die Polizei wäre in ihren Mittel überversorgt – was von Kriminalistik-Experten sicherlich zurückgewiesen wird, aber so sieht es nun einmal aus. Genauso auch stellte sich der Fall dem nicht Internet-affinen Normalbürger laut den Massenmedien als herausragenden Schlag gegen schwerste Kriminalität dar – und nicht primär als Nutzung der Staatsmacht für die privatwirtschaftlichen Zwecke von Rechteinhaber. Daß es sich bei gewerblichem samt organisiertem Urheberrechtsverstoß um Straftaten nicht gerade kleiner Güte handelt, soll dabei gar nicht in Zweifel gezogen werden – und dennoch wurde der Fall bewußt derart aufgebauscht, daß man denken könnte, die deutsche Polizei hätte sich endlich einmal an einem der wirklichen Mafiabosse versucht.

Noch aufzuarbeiten wäre der schon am Freitag verlinkte Fall der per Werbenetzwerk verbreiteten Trojaner: Wie Heise hierzu ausführen, handelt es sich hierbei nun nicht mehr nur um Einzelfälle, sondern einen regelrechten Trend – welcher oftmals dazu benutzt wird, ganz gezielt gewisse Nutzer oder Firmen anzugreifen, aber sich durchaus auch generell gegen den normalen Nutzer richten kann. Die großen Werbenetzwerke versuchen so etwas natürlich auszuschließen, werden aber dennoch hier und da einmal übertölpelt. Für den Webseiten-Surfer stellt sich damit natürlich die Frage, wieso man überhaupt noch Internet-Werbung akzeptieren soll, wenn jene potentiell gefährlich ist und selbst die größten und bekanntesten Webseiten demgegenüber keinen Schutz garantieren können. Für den Webseiten-Betreiber steht dagegen die Frage im Raum, wie man Webseiten finanzieren kann, wenn man aus Sicherheitsgründen seine Leser nicht mehr mit Werbung traktieren wollte – ein bislang glatt ungelöstes Problem.

Inhalt abgleichen