9

Benchmark-Wert zu Intels Skylake sieht vielversprechend aus

In unserem Forum wird über einen Benchmark-Wert zu einem vermeintlichen Engineering Sample aus Intels Skylake-Architektur diskutiert, welches möglicherweise einen netten Performance-Sprung diese Prozessoren-Architektur verheist. Der Benchmark-Wert wurde in der Geekbench-3-Datenbank erspäht und lautet auf einen nur kryptisch bezeichneten Intel-Prozesssor mit vier Rechenkernen samt HyperThreading auf 2.6 GHz, was allerdings ziemlich klar auf ein Skylake Engineering Sample hindeutet. Eine möglicherweise aktive Turbo-Funktionalität wird leider vom Geekbench 3 generell nicht angegeben, so daß nicht klar ist, ob dieses Engineering Sample nun ES-typisch ohne TurboMode lief oder eben nicht – bei den angesetzten niedrigen Taktfrequenzen darf man allerdings eher von einer Deaktivierung des TurboModes ausgehen, hier geht es offensichtlich rein um einen Funktionstest. Glücklicherweise steht auch gleich das Geekbench-3-Testergebnis eines Core i7-4770 auf 3.5 GHz und deaktiviertem TurboMode zum Vergleich zur Verfügung:

Technik GB3: SingleCore GB3: MultiCore
Intel Skylake ES Skylake-Architektur, 4C+HT, 2.6 GHz, TurboMode=unbekannt 2864 11802
Intel Core i7-4770K Haswell-Architektur, 4C+HT, 3.5 GHz, TurboMode=deaktiviert 3365 13150

Ausgehend von der Annahme, daß das Skylake Engineering Sample ohne TurboMode lief und es dabei einen immerhin 900 MHz niedrigeren CPU-Takt (-25,7% bzw. +34,6%) gegenüber dem Turbo-losen Haswell-Prozessor hatte, kommt hierbei grob gerechnet ein immerhin 20%iger Performanceschub auf gleicher Taktrate heraus. Für einen Vorab-Test hört sich dies gut und vielversprechend an – allerdings muß dies selbst, wenn sich diese Zahlen bestätigen lassen, keine Maßgabe für die RealWorld-Performance von Skylake sein. Synthetische Benchmarks reagieren nun einmal meistens sehr gut auf neue Architekturen, teilweise werden durch neue Hardware-Features auch astronomische Gewinne in einzelnen Teiltests erzielt, welche sich dann in der Praxis kaum wiederfinden lassen.

Hinzu kommt der Punkt, daß es sich zwischen Haswell und Skylake letztlich um den Sprung zwischen gleich drei Intel-Generationen handelt, dazwischen steht schließlich immer noch Broadwell. Jene ist zwar nicht in Richtung große Architektur-Verbesserungen gedacht, wird aber dennoch das eine oder andere Prozent mehr Pro/MHz-Performance mit sich bringen. Insofern sind die vorgenannten 20% eher als das Maximum dessen anzusehen, was innerhalb von drei Intel-Generationen machbar ist – in der Praxis wird es wahrscheinlich klar weniger werden. Nichtsdestotrotz könnte Intel bei Skylake natürlich auch mal wieder einen kräftigeren Performance-Schub vertragen: Erstens einmal gab es einen solchen schon längere Zeit nicht mehr bei Intel, zweitens wurden die Nutzer mit dem Haswell-Refresh und der praktischen Marktverweigerung von Broadwell lange genug vertröstet – und drittens will AMD im Jahr 2016 mit der Zen-Architektur erneut angreifen. Aus Intel-Sicht wäre es natürlich perfekt, wenn die Meßlatte für AMD mittels Skylake nochmals etwas höher gelegt werden könnte.

Nachtrag vom 10. März 2015

Zum kürzlich gemeldeten Benchmark-Wert zu Skylake gibt es Stimmen, welchen der 20%ige (taktnormierte) Performancesprung als zu wenig erscheint. Rein vom Prinzip her stimmt dies sogar – 20% Mehrperformance dürften eigentlich niemand hinterm warmen Ofen hervorholen. Das Gegenargument hierzu lautet, daß dieser Performancegewinn in der jüngeren Intel-Historie wohl einen Spitzenwert ergeben dürfte, selbst wenn sich hier Broadwell noch ein paar Prozentpunkte abknöpft (die 20% beziehen sich auf den Sprung von Haswell direkt zu Skylake). Die letzten Pro/MHz-Steigerungen bei Intel waren schließlich allesamt ziemlich mager, die letzten größeren Schübe gab es mit Nehalem und Sandy Bridge – dies waren die Jahre 2008 und 2011. Offen bleibt an dieser Stelle natürlich, ob Skylake nicht eventuell noch Taktraten-Offensiven oder aber eine bessere Übertaktungsfähigkeit als Haswell mit sich bringt, dies könnte natürlich auch noch für weitere Mehrperformance sorgen.

Pro-MHz-Gewinn höchste Taktrate üblicher OC-Takt
Core 2   (2007, 65nm) - 2.66 GHz ~3.2 GHz
Core 2 Refresh   (2008, 45nm) +9% 3.0 GHz ~4.0 GHz
Nehalem   (2008, 45nm) +31% 3.2 GHz (+TM) ~3.8 GHz
Sandy Bridge   (2011, 32nm) +15% 3.5 GHz (+TM) ~4.5 GHz
Ivy Bridge   (2012, 22nm) +6% 3.5 GHz (+TM) ~4.5 GHz
Haswell   (2013, 22nm) +8% 3.5 GHz (+TM) ~4.3 GHz
Haswell-Refresh   (2014, 22nm) - 4.0 GHz (+TM) ~4.7 GHz
Um einen fairen Vergleich mit der heutigen Situation zu gewährleisten, wo die Enthusiasten-Modelle in die "E-Architekturen" ausgegliedert sind, wurden bei der Angabe zur höchsten Taktrate bei Core 2 und Nehalem nur Prozessoren-Modelle des Mainstream-Bereichs mit Preispunkten bis maximal 500 Euro berücksichtigt. Zudem wurden überall natürlich allein auf die Werte von Vierkern-Modellen gesetzt.
8

Hardware- und Nachrichten-Links des 7./8. März 2015

Golem berichten über die negativen Seiteneffekte des Presse-Leistungsschutzrechts, welche nun zu Tage treten: Während Google aufgrund seiner Unerpressbarkeit nunmehr von faktisch allen Presseverlagen eine Gratislizenz erhalten hat, bekommen die kleineren Suchmaschinen-Anbieter die umgekehrte Seite dieses Mißverhältnis an Rechtsmitteln zu spüren: Eben weil sie nicht wie Google unerpressbar sind, werden Sie nun von denselben Rechteinhabern, welche der größten und umsatzträchtigsten Suchmaschine eine Gratislizenz gegeben haben, zu Lizenzzahlungen gedrängt. Oder anders formuliert: Das Gesetz nützt derweilen in erster Linie Google – weil Google gar nichts zahlen muß, die kleineren Suchmaschinen-Anbieter aber hingegen schon.

Dabei werden jenen kleineren Anbietern sogar regelrecht Steine in den Weg gelegt, wenn jene die Presseverlage auf ihrer Suchmaschine komplett auslisten wollen – hier soll wohl bewußt eine Situation geschaffen werden, in welcher das Leistungsschutzrecht für die kleinen Anbieter praktisch nicht erfüllbar wird und jene somit in einer Zahlungsfalle landen. In jedem Fall ist somit die Situation einer Wettbewerbsverzerrung ausgerechnet zugunsten des größten Anbieters (Google) entstanden – schade, daß die Kartellgesetzgebung keine Strafen für Regierungen vorsieht, welche durch blödsinnige Gesetzestexte die Bildung von Monopolen nicht verhindern (wie es gesetzgeberische Aufgabe ist), sondern sogar noch forcieren. In Stein gemeißelt ist diese Situation glücklicherweise nicht: Zum einen steht die Gratislizenz an Google derzeit unter Prüfung der "Staatsaufsicht über die Verwertungsgesellschaften", zum anderen hofft man noch auf eine kommende EU-Gesetzgebung zum Thema des Leistungsschutzrechts.

Heise und die ComputerBase berichten über ein neues EU-Urteil zur Festplattenabgabe – welches jenes primär auch auf SD-Speicherkarten ausweitet und sekundär generell festigt. Dabei wurde in der anfänglichen Berichterstattung teilweise gegensätzliches wiedergegeben, was sich nun aber eher zerschlagen hat: Auch wenn einige Wortlaute des Urteils darauf hindeuten, daß die Festplattenabgabe in Frage stehen soll, ist dem nicht so, sondern wurde jene wie gesagt eindeutig bestätigt. Es wurde jedoch auch herausgearbeitet, daß die Festplattenabgabe nicht für die Speicherung legal gekaufter Güter als auch für die Speicherung illegaler Kopien gelten darf – letzteres dürfte insbesondere wichtig sein für die Festsetzung der Höhe der Urheberrechtsabgaben, da die Rechteinhaber an dieser Stelle (wider besseren Wissens) natürlich immer zuerst mit ihren astronomisch hohen Zahlen an Raubkopien argumentieren.

Erstattet werden können durch eine Urheberrechtsabgabe auf Festplatten (und andere Speichermedien) aber nur im Rahmen der Privatkopie angefertigte legale Kopien – was in der Praxis heutzutage durch vielfältigste DRM-Maßnahmen aber schon schwierig wird. Wenn die Damen und Herren Rechtshüter da nicht immer wieder nur Powerpoint-Präsentationen über den angeblichen Kopier-Wahn der Verbraucher (aus den Augen der Rechteinhaber) konsumieren würden, sondern einfach einmal Otto Normalverbraucher über die Schulter sehen würden, könnte auffallen, wie selten eine legale Privatkopie heutzutage geworden ist: Wer scannt noch Bücher oder Magazine ein? Wer schneidet noch das Radio mit? Und vor allem: In welchem Größenmaßstab findet sich das auf heimischen Datenträgern wieder: 1% oder weniger der insgesamten Datenmenge?

Eine faire Beurteilung dieser Frage könnte nur eine unparteiische Schiedsstelle liefern – was aber natürlich nicht passiert, Vater Staat stiehlt sich mal wieder aus der Verantwortung und läßt die Rechteinhaber und Speichermedien-Anbieter dies untereinander verhandeln, was regelmäßig in größere Streits ausartet und auch der generell falsche Ansatzpunkt ist: Schließlich wollen die Rechteinhaber Geld sehen und die Speichermedien-Anbieter am liebsten gar nichts herausrücken. Um zu einem ehrlichen Vertragsabschluß zu kommen, fehlt hier die Grundvoraussetzung, daß beide Geschäftspartner überhaupt etwas voneinander wollen. Die Festplattenabgabe sieht aus dieser Sicht eher aus wie eine private Steuer der Rechteinhaber, welche jene durch gute Lobbyarbeit legalisiert und damit sogar gesetzlich begründet bekommen haben.

8 8

Was erwartet man von der Vulkan-API?

Diese Frage bezieht sich weniger darauf, was man für persönliche Vorteile aus der neuen API ziehen könnte (dies kommt bei für alle Anbieter offenen Grafik-APIs auch eher selten vor), sondern vielmehr darauf, welche Marktentwicklung man für die Vulkan-API sieht und welchen Effekt auf das von DirectX und Windows gehaltenen Monopol auf PC-Spiele erwartet wird.

Vulkan wird das Spiele-Monopol von DirectX und auch von Windows brechen helfen
21% (352 Stimmen)
Vulkan wird am Spiele-Monopol von DirectX kratzen, aber nicht an dem von Windows
28% (466 Stimmen)
Vulkan wird einen gewissen Marktanteil erreichen, aber keinen Effekt auf die Monopol-Situation haben
39% (662 Stimmen)
Vulkan wird im Mobile-Bereich seine Bedeutung erlangen, nicht jedoch im PC-Bereich
12% (211 Stimmen)
Gesamte Stimmen: 1691
6

Hardware- und Nachrichten-Links des 6. März 2015

nVidia reitet in seinem Blog darauf herum, daß die 12 GB Speicher der GeForce GTX Titan X natürlich für VR-Gaming gedacht seien und das VR-Gamer jene Speichermenge unbedingt brauchen würden. Rein praktisch hat man es dagegen schlicht mit der Situation zu tun, daß 6 GB Speicher zu einfach durch die Konkurrenz zu übertrumpfen wären, denn AMDs Grafikkarten sind jetzt schon teilweise mit 8 GB Speicher erhältlich und auch die NextGen-Generation könnte solcherart erscheinen. Da an das verbaute 384 Bit DDR Speicherinterface aber keine 8 GB Speicher (sinnvoll) dranpassen, mussten es eben 12 GB sein, egal ob dies aus heutiger Sicht als zu viel erscheint – wie zu sehen kann das Marketing diesen Einwand in Sekundenschnelle entkräften. Dabei dürften SLI-Gamer durchaus dankbar sein über die große Speichermenge, unter SLI macht sich das wohl doch bezahlt. Daneben nennt nVidia in diesem Blogeintrag noch den ursprünglichen Launchtermin zur GeForce GTX Titan X in Form von nVidias Hausmesse GTC, welche vom 17. bis 20. März läuft. Der Termin dürfte wahrscheinlich weiterhin Bestand haben, ergo dürfte es am 17. März zum Launch (oder zumindest einer großen Vorstellung) dieser Karte kommen.

TweakPC und Heise zeigen alle auf der GDC ausgestellten Steam-Machines im Bild und (teilweise) mit den verfügbaren Hardware-Daten. An Auswahlmöglichkeiten wird da sicherlich einiges geboten – allerdings überraschen die Preispunkte, welche bei der Mehrzahl der Geräte bei 700 Dollar anfangen, was für die gebotenen Innereien als zu hoch erscheint. Der untere Ansatz-Punkt liegt hier meistens bei Core i5 mit GeForce GTX 960, welches jedoch zu Einzelhandelspreise derzeit für umgerechnet 490 Dollar (für das komplette System) erwerbbar wäre – da fehlen noch Betriebssystem und Steam-Controller, trotzdem bleibt ein erheblicher Preisunterschied. Vor allem irritieren dann die wirklich hochpreisigen Angebote, wo 700 Dollar nur die unterste Marke darstellen und es danach weit in den vierstelligen Bereich hineingeht. So waren die Steam Machines eigentlich nicht gedacht gewesen und gerade im Vergleich mit den aktuellen Spiele-Konsolen erscheinen die Preispunkte als deutlich zu hoch. Für ein neues Konzept, welches sich noch nicht am Markt bewährt hat, erscheint es als waagemutig, gleich mit solcherart hohen Preisen starten zu wollen.

Aus den Reihen der Auftrags- und Zubehörhersteller hört die DigiTimes von einem sehr schwachen Auftragseingang im PC-Markt des ersten Quartals 2015 – man darf sich wohl auf einen Absturz um satte 20% einrichten. Hauptgrund hierfür dürften die noch vollen Läger bei vielen PC-Herstellern und Distributoren sein, wo über die letzten Monate des Jahres 2014 wohl zu optimistisch eingekauft worden ist. Andererseits fehlen dem PC-Markt auch die üblichen Impulse in Form neuer Prozessoren-Generationen: Intels Broadwell spielt nur eine untergeordnete Rolle, es fehlt da auch der große Marketing-Push seitens Intel, welchen es wohl erst wieder bei Skylake im Herbst geben wird. Und AMD hatte schon kein großes Glück mit Kaveri und wird den Nachfolger Carrizo nunmehr rein nur ins Mobile-Segment erst zur Jahresmitte bringen. Daß der Releasetermin von Windows 10 zudem naht, dürfte gerade den Windows-8-geschädigten PC-Käufern ein zusätzlicher Anreiz sein, bis zum Herbst mit einer Neuanschaffung zu warten.

Vor allem aber dürfte es inzwischen auch bis zum Massenmarkt durchgedrungen sein, daß die jährlich neuen Prozessoren-Generationen kaum große Performance-Gewinne mit sich bringen, der große Aufrüstdruck fehlt Otto Normalsurfer damit sowohl beim Hardware-Angebot als auch bei der üblicherweise verwendeten Software. Insofern werden die Lebenszyklen einmal gekaufter Hardware einfach länger, der starke Smartphone- und Tablet-Einsatz für alltagsübliche Computing-Aufgaben tut ein übriges daran, den PC als alltäglich genutzten Gegenstand noch weiter zurückzudrängen. Gerade in den Schwellen- und Entwicklungsländern deutet sich derzeit eine Zukunft an, in welcher größere Teile der Bevölkerung nie mit PCs in Berührung kommen, sondern alle für das tägliche Leben notwendigen Computing-Tätigkeiten über Smartphones abgehandelt werden. Zuverlässige PC-Besteller kommen eigentlich nur noch aus dem Business/Behörden-Umfeld und aus dem oftmals geschmähten Gamer-Segment – was aber trotzdem nicht verhindern kann, daß das PC-Segment seinen Tiefstpunkt anscheinend noch nicht gefunden hat.

Shortcuts: Laut der PC Games Hardware kommt ein neues nVidia-Spielebundle, welches ab dem 10. März das Spiel "Witcher 3" für die Grafikkarten der GeForce 900 & 900M Serien beinhalten wird. Gegen AMDs zwar inzwischen alte, aber immer noch hoch überlegene Spielebundles kann man damit zwar nicht ankommen, aber wenigstens Witcher-Begeisterte mit Bedarf an Grafikkarten-Aufrüstung wird dieses Bundles eventuell weiterhelfen können. Nochmals die PC Games Hardware vermeldet die Veröffentlichung des Source-Codes für den CPU-Teil von PhysX samt dem Wegfall einer Lizenzierungspflicht beim PC-Einsatz (die Lizenzpflicht gilt weiterhin beim Konsolen-Einsatz). Ob nVidia damit besonders viel an Marktanteilen für PhysX hinzugewinnt, ist angesichts der inzwischen verfügbaren Kontrahenten mit grundsätzlich einfacheren Nutzungsmöglichkeiten und breiterer Hardware-Basis jedoch eher zu bezweifeln. Laut Heise sind von der "Freak"-Lücke nun auch Windows-Komponenten wie Internet Explorer, Outlook, Media Player und andere betroffen. Die Praxiswirkung soll allerdings zum Glück (und im Gegensatz zu anderen Sicherheitslücken) sehr gering sein, da bei einer Ausnutzung der "Freak"-Lücke zu viele Variablen eine Rolle spielen sollen und damit kein breit wirksamer Angriff zu basteln ist.

6

Umfrage-Auswertung: Wie interessant ist Broadwell noch?

Die Umfrage dieser Woche stellte die einfache Frage, wie interessant die Broadwell-Architektur noch ist, wenn die nachfolgende Skylake-Architektur nur wenige Monate danach und noch in diesem Jahr antreten wird. Zu dieser klaren Frage gab es eine ebenso klare Antwort der Umfrage-Teilnehmer: Für 67,6% ist Broadwell nicht mehr interessant – und nur für 32,3% noch interessant. Unter letzteren liegen diejenigen, welche sich für den Mobile-Part von Broadwell interessieren, mit 28,8% der insgesamten Umfrage-Teilnehmer zudem weit vor denjenigen, welche sich für den Desktop-Part von Broadwell interessieren (10,3% der insgesamten Umfrage-Teilnehmer). Dieser große Unterschied dürfte darin begründet sein, daß Broadwell in erster Linie auf mehr Performance unter gleicher Wattage konzipiert wurde, was im Mobile-Umfeld durchaus für einige Performance-Zuwächse sorgte, auf dem Desktop jedoch keinerlei Auswirkungen haben wird. In der Summe der Dinge kann man sagen, daß der Augenmerk der User schon mehrheitlich in Richtung Skylake geht, Broadwell nur unter Mobile-Bedingungen für eine gewisses Aufmerksamkeit sorgt.

5

Hardware- und Nachrichten-Links des 5. März 2015

Legit Reviews bringen weitere Bilder zur GeForce GTX Titan X, während AMDs Radeon R9 390X auf Fiji-Basis auf der GDC zwar nicht zu sehen war, jedoch dafür schon im praktischen Einsatz lief: Laut Tom's Hardware hat die NextGen-Karte angeblich von AMD die Tech-Demos von Oculus Rift angetrieben. Lauffähige und im Einsatz befindliche Radeon R9 390X Karten hören sich natürlich gut an – was aber dann gleich wieder die Frage aufwirft, weshalb AMD jene erst zum Ende des zweiten Quartals bringen will. Eine gewisse Zurückhaltung in der Öffentlichkeitspolitik ist verständlich, um die Verkäufe der aktuellen Radeon-Grafikkarten nicht zu torpedieren – aber gerade auf die Radeon R9 390X, welche in einen Preisbereich hineingehen dürfte, wo AMD derzeit sowieso keinerlei Angebot stehen hat, dürfte diese Regel doch am wenigsten zutreffen.

KitGuru verkünden in diesem Zusammenhang eine Verzögerung der AMD-Releasepläne zur Radeon R300 Serie – ursprünglich war wohl ein Vorstellungstermin näher an der CeBIT (Mitte März) als an der Computex (Anfang Juni) geplant, nun soll es eher näher an der Computex werden. Speziell die Radeon R9 390X als neues Spitzenprodukt wollte AMD wohl in der Tat schon zur CeBIT offiziell vorstellen, woraus nun aber nichts mehr werden wird. Vielmehr scheint es auf einen gesammelten Launch der Radeon R300 Serie zur Computex hinauszulaufen – wobei KitGuru im Gegensatz zu den bisher bekannten Daten von generell neuen Chips spricht, also einer Grafikkarten-Serie ohne jede Rebrandings. Daneben wird aus unserem Forum mit "Tropo" noch ein weiterer Mobile-Grafikchip von AMD vermeldet, welcher wohl Teil der Radeon M300 Serie werden dürfte.

Der TechSpot hat sich die Grafikkarten- & CPU-Performance der Homeworld "Remastered Collection" angesehen, einer HD-Version des 1999er SciFi-RTS-Klassikers "Homeworld". Aufgrund des Alters des Spiels kommen trotz hohen Auflösungen und verbesserter Effekte natürlich sehr viele Grafikkarte mit dem Spiel zurecht – in der von TechSpot benutzten schlauchenden Benchmark-Sequenz erreichen selbst eine Radeon HD 7750 noch 29 fps oder eine GeForce GTX 550 Ti noch 25 fps (unter FullHD). Im regulären Spiel ergeben sich gewöhnlich weit höhere Frameraten, so daß wohl sogar noch schwächere Grafikkarten unter Verzicht auf etwas Bildqualität mitspielen können. Eher intereressant ist da die CPU-Seite, welche bei einem RTS immer schon wichtiger als die Grafikkarten-Seite war: Hier läuft es nicht unter einer modernen, schnellen AMD-CPU – während auf Intel-Seite sogar ein Celeron G1820 noch 41 fps erreicht, das Spiel also deutlich Intel-Prozessoren bevorzugt.

Microsoft versucht gegenüber Golem zu erklären, weshalb sich die angeblich gefälschten Windows-7-Lizenzen von PC-Fritz zuverlässig aktivieren lassen haben – und bestätigt dabei eigentlich nur, daß die eigentlichen Lizenzen durchaus echt waren, nämlich aus "aus Edu-Lizenzen, über OEM-Lizenzen, Volumenlizenzen bis hin zu Entwickler-Lizenzen" abstammten. Sicherlich sind einige dieser Lizenzformen an ihre jeweilige Nutzungsweise gebunden und damit nicht wirklich regulär – aber Microsoft hat erneut ausgelassen zu erklären, daß die von PC-Fritz verkauften Lizenzen regelrecht unecht waren, sprich von Key-Generatoren erzeugt wurden. Mittlerweile hat Microsoft nunmehr reihenweise Gelegenheiten liegen gelassen, genau diese Behauptung aufzustellen – und daß man es bis jetzt nicht getan hat, spricht dann doch eher zugunsten der prinzipiellen Echtheit der von PC-Fritz verkauften Lizenzen.

Daß die reinen Datenträger gefälscht waren, ist hingegen (seit langem) klar – berührt aber nur eine Eigenheit des deutschen Urheberrechts, welches de jure eine Weitergabe der Lizenz nur zusammen mit dem originalen Datenträger ermöglicht. Gäbe es diese allein den Rechteinhabern dienende Eigenheit des deutschen Urheberrechts nicht, wäre das ganze Gerede über "gefälschte Lizenzen" bei PC-Fritz von Anfang an obsolet gewesen – und hätte Microsoft auch nicht die Staatsanwaltschaft auf PC-Fritz hetzen können. Sofern es sich erweisen sollte, das die von PC-Fritz verkauften Lizenzen in der Tat nicht generiert waren, könnte man an dieser Stelle durchaus über eine Abschaffung dieser rechtlichen Regelung nachdenken, welche den Original-Datenträger beim Lizenzerwerb erfordert. Immerhin wird nunmehr klar, daß diese Regelung im konkreten Fall ausschließlich dazu ausgenutzt wurde, einen ansonsten gemäß EU-Recht wünschenswerten Lizenz-Weiterverkauf derart zu erschweren, als daß jener unmöglich legal über die Bühne gebracht werden konnte.

Inhalt abgleichen