24

Neuer Artikel: Was ist von GM206, GM204 & GM200 zu erwarten?

Wir haben früher an dieser Stelle schon einmal spekuliert, wie die noch kommenden Maxwell-Chips GM206, GM204 und GM200 speziell unter der 28nm-Fertigung aussehen könnten – seinerzeit allerdings noch nicht basierend auf der sicheren Information, daß für dieses Jahr tatsächlich keine 20nm-Fertigung kommt und natürlich noch ohne die Information über die größere Chipfläche des GM204-Chips von immerhin 430mm². Die früheren Spekulationen lauteten auf ~350mm², während nVidia mit der größeren Chipfläche nun anscheinend eher klotzt als kleckert – mit Auswirkungen natürlich auch auf die anderen Maxwell-Chips. Was nVidia damit letztlich erreichen kann, versuchen wir nachfolgend darzulegen ... zum Artikel.

Chipfläche Technik Perf.-Index
GM107 148mm² 1 Raster-Engine, 640 Shader-Einheiten, 40 TMUs, 16 ROPs, 128 Bit DDR Interface, 1/2 GB Speicher max. 210%
GM206 ~250mm² 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 24 ROPs, 192 Bit Interface, 3 GB Speicher Richtung ~350%
(Niveau GeForce GTX 680)
GM204 ~430mm² 3 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 32 ROPs, 256 Bit Interface, 4 GB Speicher Richtung ~550%
(Niveau GeForce GTX 780 Ti)
GM200 ~600mm² 4 Raster-Engines, 3584 Shader-Einheiten, 224 TMUs, 48 ROPs, 384 Bit Interface, 6 GB Speicher Richtung ~700%
(Niveau GeForce GTX 780 Ti +30%)
Diese Tabelle enthält sowohl sichere Angaben (Normalschrift) als auch vermutete Angaben (Kursivschrift).
23

Hardware- und Nachrichten-Links des 23. Juli 2014

Die ComputerBase zeigt weitere Forschungsarbeiten AMDs zum Thema "stacked Memory" (Update: wurde zuerst im 3DCenter-Forum ausgegraben), welches bei AMD früher oder später kommen wird – ganz egal, ob es bei der 2015er Carrizo-APU eben noch nicht so weit ist. Ganz allgemein betrachtet ist die Fertigung von HBM ("High-Bandwidth Stacked Memory") wohl auch noch ein ganzes Stück entfernt vom kostengünstigen Einsatz auf einer Mainstream-APU – da muß noch einige Zeit vergehen, ehe die Produktionskosten zum erzielbaren Endkundenpreis passen. Das ganze erscheint eher als ein Thema des Jahres 2016 und später – wo AMD unter anderem eine neue "NextGen CPU-Architektur" für HighEnd-Bedürfnisse bringen wird, zu den AMD-Plänen für Mainstream-APUs des Jahres 2016 ist leider noch nichts bekannt. Langfristig wird sowieso nichts um die nähere und schnellere Anbindung von Speicher an CPUs herumführen – wobei AMDs APUs wegen ihrer (relativ) leistungsfähigen integrierten Grafik aus diesem Konzept natürlich gleich doppelten Nutzen ziehen können.

Für die nähere Zukunft muß AMD wie bekannt mit dem Leben, was man hat bzw. was noch in der Pipeline steckt – viel ist das nicht, vor allem fehlen entscheidende Impulse vor dem Jahr 2016. Solcherart Mißstände auszugleichen, ist dann üblicherweise der Job des Marketings – dies kann gutgehen wie im Fall von AMDs recht populären Spielebundles, oder auch schiefgehen wie im aktuellen Fall von AMDs indirekter Ankündigung eines "12-Core-Prozessors". Laut dem Planet 3DNow! wird sich darunter aber auch nur eine gewöhnliche Kaveri-APU verbergen – bei welchen AMD laut neueren Folien die Shader-Cluster der integrierten Grafiklösung jeweils als "Cores" zählt und damit im Fall von Kaveri auf "12 Cores" (4 CPU-Rechenkerne samt 8 Shader-Clustern) kommt. Zur Beschäftigung (und Begeisterung) des Marketings würde wir ja vorschlagen, bei der nachfolgenden Carrizo-APU die Shader-Cluster auf 32 Shader-Einheiten pro Cluster umzubauen – dies ergibt zwar nicht mehr insgesamte Shader-Einheiten (512), aber die doppelte Anzahl an Shader-Clustern (16) und damit dann einen "20 Cores" Prozessor.

Gemäß Golem hat Microsoft erneut Pläne bekräftigt, künftig nur noch ein Windows führen zu wollen – und nicht mehr das reguläre Windows zuzüglich Windows RT und Windows Phone. Wirklich neu sind diese Pläne nicht, ähnliche Gedanken & Gerüchte wurden schon seit einiger Zeit geäußert – nun aber ist es offizielle Zukunftsvision bei Microsoft. Ob man sich damit allerdings wirklich einen Gefallen tut, das auf völlig anderer Hardware laufende Windows RT und Windows Phone nun plötzlich beim regulären Windows einzuordnen, steht auf einem Blatt. Ideal aus Programmierer- und Anwendersicht wäre natürlich eine umfassende Hardware-Unabhängigkeit von Windows – ob Microsoft so weit gehen will, ist unbekannt und damit ziemlich vakant. Wahrscheinlich geht es bei dem ganzen Namens-Wirrwarr eher nur darum, die Marke "Windows" besser auszunutzen und jegliche Marken-Verwaschungen durch frühere Namenszusätze zu unterbinden. Ob reale Software-Veränderungen oder vielleicht sogar echte Verbesserungen mit diesem Marketing-Spiel verbunden sind, ist derzeit leider ebenso unbekannt.

Heise berichten über einen durch die Kino.to-Schließung in Österreich aufgeworfenen Rechtsstreit zwischen Rechteinhabern und Internet-Providern, zu welchem der österreichische Oberste Gerichtshof (OGH) nunmehr derart entschieden hat, als daß die Rechteinhaber von den Internet-Providern die prüfungslose Sperre von (angeblich) die Urheberrechte verletzenden Internetangeboten verlangen dürfen. Eine Ausnahme gibt es nur für Informations-Angebote, sprich es lassen sich Nachrichten-Webseiten wohl nicht wegen eines kleinen Urheberrechtsverstoßes aus dem Netz kicken – im Fall von Kino.to & Co. soll dies in Österreich nun aber ganz einfach sein: Eine einfache Behauptung des (vermeintlichen) Rechteinhabers reicht und die Internet-Provider haben ohne weitere Prüfung oder/und einen Gerichtsbeschluß zu sperren. Ein solch weitreichendes Urteil öffnet natürlich Mißbrauch Tür & Tor – die Österreicher dürfen sich in Zukunft auf ein durchzensiertes Internet freuen. Wieso den Richtern des immerhin höchsten österreichischen Gerichts nicht die Idee gekommen ist, daß eine Behauptung entweder eine Überprüfung oder aber wenigstens eine Garantie benötigt, ehe jene kurzerhand in wirtschaftlich bedeutsame Rechtsfolgen umgesetzt wird, wird wohl auf Ewig das Geheimnis des OGH bleiben.

23

Umfrage-Auswertung: Wie stark ist das Interesse an HighEnd-Grafikkarten mit Wasserkühlung?

Eine Umfrage von Anfang Juli ging der Frage nach, wie hoch das Interesse an mit Wasserkühlung ausgerüsteten Grafikkarten im HighEnd-Bereich entwickelt ist. Wasserkühlung wird wohl niemals eine völlig ungeteilte Zustimmung des Marktes finden, insofern sind die bei dieser Umfrage erzielten Werte doch schon sehr ermutigend zugunsten der Wasserkühlungs-Idee. Sicherlich stimmten gleich 40,0% dagegen, sich jemals eine Grafikkarten mit Wasserkühlung zuzulegen und auch 12,0% würde sich nur notgedrungen eine solche kaufen. Dies bedeutet aber im Umkehrschluß auch, daß immerhin 48,0% des HighEnd-Markts kein Problem mit Wasserkühlung hat und es dann letztlich nur noch um die konkrete Ausführung geht: Mehrpreis, Performancegewinn und Sinnhaftigkeit im Einzelfall.

Unter den grundsätzlich der Wasserkühlung zugeneigten Umfrage-Teilnehmern gibt es zwei starke gegensätzliche Pole: Jene 32,9% (15,8% aller Umfrage-Teilnehmer), welche Wasserkühlung nur dann nehmen würden, wenn deren Mehrpreis eher nur geringfügig ausfällt – und jene 21,6% (10,4% aller Umfrage-Teilnehmer), welche generell nur noch mit Wasserkühlung kaufen. In letzterer Gruppe scheint es im übrigen eine starke Tendenz zum Eigenbau zu geben, da die Menge jener Nutzer, welche ausschließlich Grafikkarten mit Wasserkühlung ab Werk benutzen, sehr viel kleiner ist als die Menge jener Nutzer, welche sowohl ab Werk als auch auf Eigenbau setzen. In der Mitte zwischen diesen beiden Polen stehen dann jene 45,5% (21,8% aller Umfrage-Teilnehmer), welche der Wasserkühlungs-Idee prinzipiell offen gegenüberstehen und jeweils im Einzelfall entscheiden. Hier ist doch einiges Potential für die Grafikkarten- und Zubehör-Hersteller zu sehen – und es ist zu hoffen, daß jene diese Umfrage-Ergebnisse aufmerksam studieren.

22

Hardware- und Nachrichten-Links des 22. Juli 2014

Sich widersprechende Meldungen kommen derzeit zum Releasetermin der GeForce GTX 880: Laut Videocardz kann es schon im August so weit sein, WCCF Tech sprechen hingegen von November. Reale Informationen dürfte keine der beiden Seiten haben, hier wird wohl einfach nur spekuliert. Dabei ist der genannte August-Termin eigentlich zu früh angesetzt, gemessen an dem Wissensstand über die Sample-Fortschritte bei nVidias GM204-Chip. Möglich wäre allerdings eine Technik-Preview hinter verschlossenen Türen schon im August, entweder auf der SIGGRAPH oder der Gamescom. Der reale Launchtermin des GM204-Chips und der darauf wahrscheinlich basierenden GeForce GTX 870 & 880 Grafikkarten liegt derzeit unbestimmt im Zeitraum Oktober bis November 2014. Genauer wird sich dies erst bestimmen lassen, wenn klar wird, wieviele Chipsettings nVidia benötigt, um den GM204-Chip zur Marktreife zu bringen: Ohne große Respins ist sicherlich der Oktober möglich, mit einem weiteren benötigten Stepping wird es kaum vor November werden.

Daneben zeigen Videocardz noch einen 3DMark13 FireStrike Extreme Benchmark einer angeblichen GeForce GTX 880, welcher mit 6110 Punkten allerdings um gute 1000 Punkte schneller ausfällt als alles andere, was bislang im SingleChip-Bereich erhältlich ist (Vergleichswerte bei der ComputerBase). Dies sind immerhin 25% schneller als von der GeForce GTX 780 Ti geboten – und dürfte mit dem GM204-Chip kaum erreichbar sein, dies ist eher das Performance-Potential des derzeit noch lange nicht einsatzreifen GM200-Chips. Da auch die Unkenntlichmachung des Grafikkartennames in diesem Benchmark-Screenshot derart suboptimal ausgeführt wurde, daß man letztlich doch eine "880" erkennen kann, spricht hier vieles für einen klassischen Fake. Derzeit ist auch noch nicht bekannt, daß nVidia GM204-Grafikkarten aus den eigenen Händen (beispielsweise zu Boardpartnern oder großen OEMs) gegeben hätte, womit es solcherart Vorab-Benchmarks zu GM204-basierten Grafikkarten auch noch gar nicht geben sollte. In den nächsten Wochen dürfte sich dies allerdings ändern, bei gutem Verlauf sollte es spätestens im September entsprechende Leaks geben.

Mit dem Shield-Tablet versucht sich nVidia laut Gulli an einem weiteren Betätigungsfeld für die eigenen Tegra-SoCs. Hauptpunkte des Shield-Tablets sind damit die eigene Gaming-Fähigkeit unter Android 4.4.2 als auch die Streaming-Fähigkeit, womit PC-Spiele auf das Tablet gestreamt werden und dort gespielt werden können. Letzteres ist ein nettes Gimmick, welches seinen Praxisnutzen allerdings erst in der Realität beweisen muß. Bezüglich der eigenen Gaming-Fähigkeiten betont nVidia erneut die hohe Grafik-Power seines Tegra K1 SoCs (siehe hierzu die nVidia-Benchmarks beim Tech Report) – wobei diese Fähigkeiten dem nVidia-SoC im freien Markt bislang aber auch nicht zu mehr Aufträgen verholfen haben. Ob die Preispunkte von 300 Euro mit 16 GB und WLAN bzw. 380 Euro mit 32 GB und LTE den Tablet-Markt im Zeitalter breit sinkender Tablet-Preise wirklich für die überlegene nVidia-Grafikpower bereit schiessen werden, bleibt jedoch stark abzuwarten. Das Produkt ist sicherlich hochinteressant, aber der Tablet-Markt hat bislang noch keinerlei Anzeichen dafür gezeigt, Produkte mit besonders hoher Grafikpower wirklich goutieren zu wollen.

Der Spiegel berichtet über den Einsatz neuer Usertracking-Technologien auf diversen großen Webseiten – wobei in einigen Fällen diese Webseiten noch nicht einmal darüber unterrichtet waren, hierbei also sowohl Webseiten-Betreiber als auch Webseiten-Nutzer hintergangen wurden. Auch wenn die vom Spiegel beschriebene "Canvas"-Methode laut der weiterführenden Meldung bei Heise auf Scripting basiert und damit nicht vollkommen ist (augenscheinlich bekämpfbar mittels eines Scriptblockers), schwenkt die Werbewirtschaft derzeit auf immer ausgefeiltere Tracking-Verfahren um, welche es letztlich als Illusion zurücklassen, daß man sich dem Tracking irgendwie entziehen könnte. Zumindest erfordert eine wirklich erfolgreiche Tracking-Verhinderung einen hohen Einsatz: Verzicht auf Mobile-Gerätschaften, Einsatz von VPNs samt stark angepassten Browser – und vor allem ständige Aufmerksamkeit gegenüber den neuesten Entwicklungen, um in diesem Hochrüsten jederzeit auf alle neuen Bedrohungen eine Antwort zu haben.

Für Otto Normalsurfer steht ein solcher Aufwand außerhalb jeder Diskussion – und selbst unter aufmerksamen Netzbewohnern dürfte wohl nur eine Minderheit die Nerven für diesen ständigen Kleinkrieg aufbringen. Der Bürger kann dieses Wettrüsten niemals ausgeglichen gestalten – aber da durchaus der Bürgerwille erkennbar ist, sich nicht ständig im Netz tracken zu lassen, wäre es demzufolge eigentlich Aufgabe der Politik, hier für Waffengleichheit zu sorgen. Mit dem existierenden nationalen und EU-Datenschutz kann jedoch niemandem weitergeholfen werden, von dieser Stelle kommen bislang nur unklare Vorschriften und zusätzliche Rechtsunsicherheit. Da man ergo kaum auf die Hilfe der Politik hoffen kann, sollten die Browser-Hersteller eventuell darüber nachdenken, ihre Produkte mehr in diese Richtung hin zu entwickeln. Die dutzendste neue Oberfläche etc. sind irgendwann auch nicht mehr der Bringer, währenddessen Datenschutz-Freundlichkeit heutzutage durchaus als Produktfeature positiv aufgenommen werden dürfte.

22

Intel stellt einige weitere, taktschnellere Haswell-Prozessoren vor

Intel hat mit dem Wochenbeginn sein Portfolio an Haswell-Prozessoren nochmals um einige taktstärkere Varianten im Zweikern-Bereich erweitert: Neu hinzugekommen sind Pentium G3250, Pentium G3460, Core i3-4160 sowie Core i3-4370. Wie in der letzten Zeit bei Intel üblich, gab es allerdings nur den geringstmöglichen Taktratensprung um jeweils 100 MHz – selbigen allerdings wenigstens zum gleichen Preispunkt. Die Preise der vorhergehenden Modelle wurden zum Teil nach unten hin angepasst, womit sich der zuletzt eher selten zu beobachtende Zustand einer wirklichen Preisreduktion ergibt: Der Preis des Core i3-4350 wurde von 149$ auf 138$ sowie der Preis des Pentium G3450 von 86$ auf 75$ heruntergesetzt. Mit den neuen Modellen wird Intels aktuelles Portfolio an Haswell-Refresh-Prozessoren langsam schon recht breit – obwohl noch große Teile des originalen Haswell-Portfolios parallel dazu erhältlich sind.

Kerne Taktraten L3 integrierte Grafik Speicher TDP Listenpreis
Core i7-4790K 4 + HT 4.0/4.4 GHz 8 MB HD 4600 (20AE) @ 350/1250 MHz DDR3/1600 88W 339$
Core i7-4790 4 + HT 3.6/4.0 GHz 8 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 84W 303$
Xeon E3-1231 v3 4 + HT 3.4/3.8 GHz 8 MB deaktiviert DDR3/1600 80W 240$
Core i5-4690K 4 3.5/3.9 GHz 6 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 88W 242$
Core i5-4690 4 3.5/3.9 GHz 6 MB HD 4600 (20AE) @ 350/1200 MHz DDR3/1600 84W 213$
Core i5-4590 4 3.3/3.7 GHz 6 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 84W 192$
Core i5-4460 4 3.2/3.4 GHz 6 MB HD 4600 (20AE) @ 350/1100 MHz DDR3/1600 84W 182$
Core i3-4370 2 + HT 3.8 GHz 4 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 54W 149$
Core i3-4360 2 + HT 3.7 GHz 4 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 54W 138$
Core i3-4350 2 + HT 3.6 GHz 4 MB HD 4600 (20AE) @ 350/1150 MHz DDR3/1600 54W 138$
Core i3-4160 2 + HT 3.6 GHz 3 MB HD 4400 (20AE) @ 350/1150 MHz DDR3/1600 54W 117$
Core i3-4150 2 + HT 3.5 GHz 3 MB HD 4400 (20AE) @ 350/1150 MHz DDR3/1600 54W 117$
Pentium G3460 2 3.5 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1600 53W 86$
Pentium G3450 2 3.4 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1600 53W 75$
Pentium G3440 2 3.3 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1600 53W 75$
Pentium G3258 "AE" 2 3.2 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1333 53W 72$
Pentium G3250 2 3.2 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1333 53W 64$
Pentium G3240 2 3.1 GHz 3 MB HD (10AE) @ 350/1100 MHz DDR3/1333 53W 64$
Celeron G1850 2 2.9 GHz 2 MB HD (10AE) @ 350/1050 MHz DDR3/1333 53W 52$
Celeron G1840 2 2.8 GHz 2 MB HD (10AE) @ 350/1050 MHz DDR3/1333 53W 42$
Alle Haswell-Refresh-Prozessoren laufen offiziell auf Mainboards mit 9er Chipsatz und nach BIOS-Update auch auf Mainboards mit 8er Chipsatz, da der Sockel aller Haswell-Prozessoren inklusive der Refresh-Modelle identisch ist (Sockel 1150). Die notierte Xeon-CPU wird normalerweise von allen Desktop-Platinen unterstützt, zumindest im Retail-Bereich.

Hinzu gab es neue, wiederum nur geringfügig taktstärkere Haswell-Prozessoren für den Notebook-Bereich, sowie einige neue Silvermont-basierte BayTrail-M Prozessoren für Netbooks & Notebooks – eine Liste aller Neuvorstellungen gibt es u.a. bei Heise. Dabei finden sich bei den BayTrail-M Modellen interessante Taktsteigerungen, verglichen mit dem initialen BayTrail-Portfolio: Hierbei hat Intel inzwischen die Taktraten im Vierkern-Bereich von 2.0 GHz auf nunmehr 2.16/2.66 GHz steigern können, im Zweikern-Bereich ging es von 2.0 GHz auf nunmehr 2.16/2.58 GHz hinauf. Für diese nicht als große Performance-Bringer bekannten Prozessoren sind die erzielten Taktsteigerungen durchaus interessant, wird bei diesen schließlich noch regelrecht Mehr-Performance benötigt.

21

Hardware- und Nachrichten-Links des 21. Juli 2014

SemiWiki bringen interessante Anmerkungen zu den Kosten- und Flächenvorteilen der kommenden 20nm- und 14/16nm-Fertigungen. So soll der Flächenvorteil von 20nm gegenüber 28nm bei faktisch 100% liegen, sprich grob die doppelte Anzahl an Transistoren in derselben Chipfläche untergebracht werden können (andere Quellen sprachen früher von +90%). Die Waferkosten steigen bei der 20nm-Fertigung bekannterweise stark an, jedoch immer noch nicht so stark, daß jene den genannten Flächenvorteil komplett auffressen würden – sprich, 20nm-Wafer kosten nicht das Doppelte wie 28nm-Wafer. Allerdings dürfte zumindest anfänglich trotzdem vieles für 28nm sprechen: Denn die Produktionsausbeute beim ausgefeilten 28nm-Verfahren dürfte nahe des Optimums liegen, während für das neue 20nm-Verfahren anfänglich kaum eine ähnliche gute Produktionsausbeute zu erwarten ist. Gut möglich, daß sich rein vom Kostenpunkt her zumindest am Anfang 20nm und 28nm kaum etwas nehmen – je länger 20nm läuft, um so problemloser und damit interessanter wird dieses Fertigungsverfahren natürlich werden.

Die nachfolgende 14/16nm-Fertigung soll hingegen kaum Flächenvorteile gegenüber 20nm bieten (nur Richtung 5-10%), dafür aber auch kaum höhere Produktionskosten verursachen. Hauptursache hierfür ist sicherlich, daß sowohl bei TSMC (16nm) als auch bei Samsung & GlobalFoundries (14nm) die jeweiligen 14/16nm-Prozesse nur zum geringsten Teil wirklich in 14nm und 16nm Strukturbreite ausgeführt werden, sondern vielmehr eigentlich "20nm mit 3D-Transistoren (FinFETs)" darstellen. Interessant sind diese 3D-Transistoren nicht aus Gründen der Flächenersparnis, sondern weil hiermit schnellere Schaltzeiten (aka höhere Taktraten) sowie geringere Leckströme möglich werden – letzteres ist insbesondere für HighEnd-Designs wie Performance-Prozessoren und Grafikchips wichtig. Genau in dieser technischen Erklärung dürfte letztlich auch der Grund dafür liegen, falls die Grafikchip-Entwickler die 20nm-Fertigung tatsächlich komplett links liegenlassen sollten.

Wie Golem berichten, will die Bundesregierung im Streit um die konkrete Auslegung des Leistungsschutzrechts nicht mit irgendwelchen Klarstellungen eingreifen – sondern erst nach vorliegenden (jahrelangen) Erfahrungen eine Neufassung angehen. Wirkliche Erfahrungen können sich jedoch derzeit überhaupt nicht ergeben, da die laufenden Rechtsstreitigkeiten zwischen Verlagen und Google eine rechtsaufschiebende Wirkung haben. In der Praxis läuft dies darauf hinaus, daß sich der Gesetzgeber darum drückt, das unbestimmt formulierte Gesetz derart umzuarbeiten, daß es klare Richtlinien und Grenzen vorgibt – und diesen Streit den Gerichten überläßt, welche aber eigentlich dafür gar nicht zuständig sind, zu erraten, was denn nun der Gesetzgeber genau gemeint haben könnte. Demzufolge darf man sich nunmehr auf jahrelangen gerichtlichen Streit "freuen", währenddessen eine generelle Neufassung des Leistungsschutzrechts seitens des Gesetzgebers erst einmal auf die lange Bank geschoben wird.

Nochmals Golem berichten über Hoffnungen des Bitkom-Chefs, die nahezu Monopolstellung von Google in Europa würde mittel- und langfristig durch neue Kontrahenten geschwächt werden. Hierzu werden als Ansatzpunkte russische und chinesische Kontrahenten Googles genannt – welche sicherlich durch ihre starke Stellung auf ihren jeweiligen Heimatmärkten den Wettbewerb mit Google angehen können, speziell in Westeuropa allerdings aufgrund ihrer Herkunft kaum eine Chance haben dürften. Das US-Unternehmen Google mit russischen oder chinesischen Alternativen zu ersetzen, würde das Sprichwort "vom Regen in die Traufe gekommen" sicherlich vollkommen erfüllen, selbst wenn es anfängliche Vorteile gäbe. Bemerkenswert ist, daß nicht von europäischen Alternativen gesprochen wurde – und dies sicherlich nicht mangels Interesse, sondern mangels Verfügbarkeit solcher. Leider haben die bestehenden Strukturen effektiv das Entstehen wirklich großer Internet-Unternehmen mit europäischen Ursprung verhindert – ein Punkt, welchen sich die europäischen Politiker anheften dürfen.

Inhalt abgleichen