19

Neuer 3DTester-Artikel: Transcend JetFlash 520G - 32GB USB 2.0 Flash Drive

Obwohl USB3.0-Speichersticks schon seit mehreren Jahren auf dem Markt sind, haben sie es noch immer nicht geschafft, die USB2.0-Speichersticks zu verdrängen oder auch nur zu dominieren. Zwei von drei aller angebotenen USB-Speichersticks sind daher nach wie vor reine USB2.0-Speichersticks. Und im Hinblick auf die Zukunft wird sich möglicherweise – trotz anders lautender Prognosen – dieses Bild auch nicht so schnell ändern.

Transcend JetFlash 520G – 32GB USB 2.0 Flash Drive

Im aktuellen Fall wollen wir uns den Transcend JetFlash 520G näher ansehen. Er ist bereits seit fast zwei Jahren auf dem Markt und erfreut sich bei den Händlern (und damit wohl auch bei den Kunden) nach wie vor großer Beliebtheit und einer guten Verfügbarkeit. Ein Grund mehr seine Praxistauglichkeit und seine Leistung in einem aktuellen Test zu beleuchten ... zum Artikel.

17

Hardware- und Nachrichten-Links des 16./17. Oktober 2014

In unserem Forum wird über die weitere Verwendung von nVidias NVLink-Feature diskutiert, welches mit der Pascal-Architektur im Jahr 2016 antreten wird. Bislang ist klar, daß NVLink für GPGPU-Zwecke im Server-Bereich benutzt werden wird, eine erste entsprechende Anwendung hatte IBM sogar kürzlich angekündigt. Eine Anwendung im Gamer-Bereich ist dagegen nicht ganz so einfach – für den Ersatz von PCI Express durch NVLink müssten die Prozessorenentwickler AMD und Intel mitspielen, was dann eher unwahrscheinlich ist. Allerdings gibt es dennoch noch gewisse Anwendungsmöglichkeiten von NVLink auch im Gaming-Bereich: Die Kommunikation von mehreren Pascal-Grafikchips untereinander (im SLI-Modus) könnte man anstatt über PCI Express über NVLink mit sehr viel mehr Bandbreite abwickeln. In gewissen Situationen kann damit die SLI-Effizienz verbessert werden, eventuell sind sogar bessere SLI-Renderingmodi möglich.

Aus dieser Diskussion heraus entwickelte sich dann sogar die Idee von generellen MultiChip-Konstruktionen auch schon auf regulären Grafikkarten. Sprich, anstatt eines einzelnen 500mm² großen Grafikchips würden zwei 250mm² oder vier 125mm² große Grafikchips zum Einsatz kommen (Chipgrößen sinnbildlich und nicht exakt). Sofern eine schnelle Anbindungs-Technologie und vor allem SLI-Renderingmodi mit hoher Effizienz zur Verfügung stehen, wäre diese Idee durchaus praktikabel – und hätte als Vorteil, daß man pro Generation nicht mehr drei bis fünf verschiedene Grafikchips für jedes Performance-Segment auflegen müsste, sondern nur noch ein bis zwei Stück. Die Idee hierzu ist im übrigen nicht neu, vor Jahren gab es sogar schon einmal handfeste Gerüchte, daß AMD und nVidia an so etwas arbeiten würden – was jedoch bisher nie über Konzeptphasen hinausgegangen zu sein scheint. Für die Pascal-Generation scheint nVidia genauso beim herkömmlichen Modell der vielen Einzelchips zu bleiben – und natürlich handelte es sich bei dieser Idee um eine hypothetisch angelegte Forendiskussion, was man mit NVLink so alles anfangen könnte.

Die PC Games Hardware schaltet sich in die Diskussion über das Spulenfiepen der GeForce GTX 970 ein, zudem wird im Forum der PCGH auf über 50 Seiten intensiv über das Thema diskutiert bzw. werden entsprechende Erfahrungsberichte gesammelt. Sowohl dem Foren-Thread als auch der PCGH-Meldung läßt sich ein was klar entnehmen: Die GeForce GTX 970 fiept bei den Herstellerdesign durchgehend – und zwar bislang egal des Herstellers. Dabei ist dieses Spulenfiepen wohl nicht einmal stärker als bei der vorhergehenden Grafikkarten-Generation, wird aber stärker wahrgenommen, da die neuen nVidia-Grafikkarten ansonsten eingedenk deren Performance-Felds recht laufruhig daherkommen. Möglicherweise ist also schlicht die subjektive Wahrnehmung stärker als bei früheren Grafikkarten. Wirklich angenehm ist der Effekt allerdings nicht – und eigentlich dachte man, daß solcherart Probleme inzwischen langsam aber sicher einmal behoben werden können.

Fudzilla vermelden Aussagen seitens Chipfertiger TSMC, wonach man die 16nm-Massenfertigung im Sommer 2015 starten wird, erste kaufbare Produkte wären dann Ende 2015 bis Anfang 2016 zu erwarten. Hierbei dürfte es sich allerdings wohl um TSMCs normalen 16FF-Prozeß handeln, nicht die verbesserte Variante "16FF+". Jene benötigt noch etwas mehr Zeit, wahrscheinlich ein halbes bis ganzes Jahr mehr. Wollten die Grafikchip-Entwickler die klaren Verbesserungen von "16FF+" mitnehmen wollen, würde es schwer werden mit 16nm-Grafikchips bereits zum Jahresanfang 2016 – wie es nVidia in einer früheren Aussage noch selbst so als Terminplanung genannt hatte. Entweder die Grafikchip-Entwickler legen erst einmal eine Generation im normalen "16FF" auf – oder die 16nm-Grafikchips verschieben sich Richtung Jahresende 2016. Da letzteres sich aus heutiger Sicht – die ersten 28nm-Chips kamen immerhin schon Ende 2011 heraus, dies könnten dann glatte fünf Jahre 28nm-Fertigung ergeben – jedoch eher absurd anhört, erscheint es als immer wahrscheinlicher, daß es die Grafikchip-Entwickler letztlich dann doch mit dem normalen 16FF-Prozeß probieren müssen. Gänzlich ungewöhnlich wäre dies nicht, die erste Chipgeneration auf Basis einer neuen Fertigung nutzt jene regelmäßig nicht vollständig aus.

In Frankreich wird gerade widerlegt, daß man gegen die "geplante Obsoleszenz" nicht viel tun könne bzw. daß die Politik üblicherweise gegenüber der Industrie machtlos wäre. Denn wie die Telepolis ausführt, ist dort gerade ein Gesetz in der Verabschiedungsphase, welche die geplante Obsoleszenz unter starke Strafen stellt – Geldbuße bis 300.000 Euro und vor allem bis zu zwei Jahre Gefängnis, was in Industrie-Kreisen viel eher für ein Umdenken als platte Geldstrafen sorgen dürfte. Laut dem Gesetz werden nicht nur Sollbruchstellen, willentliche vorzeitige Funktionsstopps und ähnliche technische Begrenzungen verboten, sondern auch die Verhinderung von Reparaturen – insbesondere dieser Punkt könnte in der Praxis sehr schnell interessant werden. Zudem fordert das Gesetz von den Herstellern die Bekanntgabe, wie lange es Ersatzteile für ein Produkt geben wird, sowie die voraussichtliche Lebensdauer neuer Produkte gegenüber dem Konsumenten deutlich auszuweisen. Da die "Wirtschaftpolitik" in Deutschland derzeit eher versucht, die gesetzlichen Standards über die bekannten-berüchtigten Freihandelsabkommen eher abzusenken als auszuweiten, dürfte ein ähnliches Gesetz für Deutschland leider in weiter Ferne liegen.

17

Die Grafikkarten-Performance unter Alien: Isolation

Bei der ComputerBase sowie dem TechSpot hat man sich mit der Grafikkarten-Performance unter Alien: Isolation beschäftigt. Das Spiel basiert auf einer extra entwickelten Engine, welche DirectX 11 bedingt, ansonsten jedoch keine größere Hardware-Anforderungen aufwirft: In seinen Mindestanforderungen akzeptiert das Spiel als CPUs auch schnelle Core 2 Duos sowie LowCost-Grafikkarten vom Schlage einer Radeon HD 5550 oder GeForce GT 430. Für die Performance-Messungen wurde dann der integrierte Benchmark des Spiels benutzt, welcher ein WorstCase-Szenario zeigt und damit für Performance-Ermittlungen als gut geeignet erscheint.

Alien: Isolation – 1920x1200, MaxQuality & SMAA T2x (Quelle: TechSpot)
AMD HD5000 AMD HD6000 AMD HD7000 AMD R200 nVidia GF400 nVidia GF500 nVidia GF600 nVidia GF700
20-24 fps 5750-GDDR5
5770
6750-GDDR5
6770
7750-GDDR5
7750-900
250-GDDR5
250E
460SE-768MB 550Ti 650
25-29 fps 5830 6790 460SE-1GB
460
465
560SE
30-39 fps 5850 6850 7770 250X
260
470 560
560Ti
650Ti 750
40-49 fps 5870 6870
6950
7790
7850
260X 480 560Ti-448
570
650Ti-Boost 750Ti
ab 50 fps 6970 7870
7870-Boost
7950
7950-Boost
7970
7970-GHz
265
270
270X
280
285
280X
290
290X
580 660
660Ti
670
680
Titan
760
770
780
Titan Black
780Ti
970
980

Die allgemein geringen Hardware-Anforderungen resultieren dann darin, daß das Spiel selbst auf seinem "besten" Kantenglättungs-Modus in Form von SMAA T2x (MultiSampling Anti-Aliasing wird nicht unterstützt) problemlose Frameraten mit allen halbwegs potenten Grafikkarten bietet, trotz das teilweise für einen absolut flüssigen Eindruck im Schnitt gleich 50 fps empfohlen werden. Deswegen konnten in obiger Liste auch viele Grafikkarten-Recken aus der Vergangenheit notiert werde – Alien: Isolation dürfte mit den allermeisten der in den letzten Jahren verkauften Grafikkarten laufen, sofern es sich nicht wirkliche LowEnd-Modelle handelt. Je neuer die Grafikkarte ist, um so schneller nähert man sich dabei gutklassigen Frameraten an – bei den aktuellen Grafikkarten kommen dann selbst GeForce GTX 750 Ti und Radeon R7 260X auf über 40 fps.

In der Frage AMD oder nVidia kann das Spiel die Teilnahme an AMDs Optimierungs-Programm "Gaming Evolved" nicht ganz verhehlen: Die Radeon R9 290X läuft gleich schnell wie die GeForce GTX 780 Ti und ist teilweise sogar der GeForce GTX 980 dicht auf den Fersen. Auch im Mittelfeld kommen die AMD-Karten meistens etwas besser weg als im allgemeinen Durchschnitt, wobei der Effekt nicht besonders hoch ist und wegen der allgemein hohen Frameraten in der Praxis kaum auffallen sollte. Bemerkbarer wird es bei den älteren Grafikkarten: Während die älteren AMD-Grafikkarten ihre gemäß des allgemeinen Durchschnitts zu erwartenden Leistungen erbringen, fallen die Fermi-basierten nVidia-Beschleuniger (GeForce 400/500 Serien) etwas stärker zurück.

Bezüglich der benötigten Grafikkartenspeicher-Größe sind die vom Spieleentwickler angegebenen 1 GB Speicher vollkommen ausreichend – Grafikkarten mit mehr Speicher konnten zumindest unter der FullHD-Auflösung nirgendwo Vorteile zeigen. Die mit gutem Ergebnis absolvierten Benchmarks einer GeForce GTX 460 768MB deuten sogar darauf hin, daß selbst jene 768 MB Grafikkartenspeicher für Alien: Isolation unter FullHD ausreichend sind.

Alien: Isolation – 2560x1600, MaxQuality & SMAA T2x (Quelle: TechSpot)
AMD HD5000 AMD HD6000 AMD HD7000 AMD R200 nVidia GF400 nVidia GF500 nVidia GF600 nVidia GF700
20-24 fps 5850 6850 260 470 560
560Ti
650Ti 750
25-29 fps 5870 6870 7790 260X 480 560Ti-448
570
650Ti-Boost 750Ti
30-39 fps 6950
6970
7850 265
270
580 660
660Ti
40-49 fps 7870
7870-Boost
7950
7950-Boost
270X
280
285
670
680
760
ab 50 fps 7970
7970-GHz
280X
290
290X
Titan 770
780
Titan Black
780Ti
970
980

Unter 2560x1600 ziehen die Anforderungen dann jedoch deutlich an, man darf sich auf Frameraten-Verluste (gegenüber FullHD) zwischen 34% und 38% einstellen. Die Modelle mit nur 1 GB Grafikkartenspeicher verlieren regelmäßig am oberen Ende dieser Skala, wobei jene Grafikkartenspeicher-Bestückung damit wohl immer noch knapp ausreichend selbst für 2560x1600 sein sollte. Die vorgenannte GeForce GTX 460 768MB verliert allerdings gleich gut die Hälfte ihrer Performance, hiermit ist für jene dann das Ende ihrer Möglichkeiten erreicht. Allerdings verfügen sowieso die wenigsten Grafikkarten mit nur 1 GB Grafikkartenspeicher unter 2560x1600 noch über die notwendige Grundperformance, um überhaupt spielbare Frameraten zu erzielen.

Dies ist dann das Feld der modernen Grafikkarten sowie einiger älterer Top-Modelle. Dabei wird die gewisse Fermi-Schwäche unter Alien: Isolation noch etwas deutlicher, trotz geringerer Grundperformance halten hier die älteren AMD-Modelle klar besser mit. Bei den aktuellen Modellen ändert sich dagegen nichts: Die GeForce GTX 980 führt das Feld vor der Radeon R9 290X an, welche wiederum die nominell klar schnellere GeForce GTX 780 Ti problemlos vernascht. Unter 2560x1600 wird es dann in einigen Dispositionen deutlicher, daß das Spiel zu AMD-Hardware tendiert.

Keinerlei beachtbare Anforderungen werden dagegen an die CPU-Performance gestellt: Beide Testberichte konnten hierzu kaum echte Unterschiede vermessen, egal ob 4-GHz-CPUs auf nur 2.5 GHz heruntergetaktet wurden oder 4-Kern-Boliden mit nur 2 Rechenkernen an den Start gingen. Selbst mit CPUs wie einem Celeron G1820 (DualCore Haswell @ 2.7 GHz, ohne HyperThreading, ohne TurboMode) kam man problemlos auf Frameraten Richtung 90 fps und damit nahe der Grafikkarten-Limitierung. Davon ausgehend läßt sich trefflich interpolieren, daß sicher auch (nahezu) jeder Athlon II, Core 2 Duo sowie ähnlich mittelprächtige Prozessoren unter Alien: Isolation ausreichende Frameraten produzieren können.

16

Weitere Details zu den verschiedenen Broadwell- und Skylake-Grafiklösungen

CPU-World bieten ein paar weitere Informationen zu den verschiedenen Broadwell- und Skylake-Grafiklösungen. Bisher war schon bekannt, daß die größte Skylake-Grafiklösung GT4e mit 72 Ausführungseinheiten und bis zu 128 MB eDRAM antreten wird – unbekannt war jedoch, wie dies bei den kleineren Grafiklösungen aussieht. Hier wird sich zwischen Skylake und dem vorhergehendem Broadwell jedoch nichts ändern, GT2 kommt also mit 24 und GT3 mit 48 Ausführungseinheiten daher. Zudem setzt Intel auch noch kleinere Lösungen sowohl bei Broadwell als auch bei Skylake für diverse LowPower-Prozessoren an: Bei GT 1.5 gibt es nur 18 und bei GT1 nur 12 Ausführungseinheiten, hierbei dürfte es sich jedoch schlicht um Abspeckungen einer GT2-Grafiklösung handeln, GT1 und GT1.5 also nicht als extra Silizium aufgelegt werden.

Sandy Bridge Ivy Bridge Haswell Broadwell Skylake
Sockel Sockel 1155 Sockel 1150 Sockel 1151
Generation Gen. 6 Gen. 7 Gen. 7.5 Gen. 8 Gen. 9
DirectX DirectX 10.1 DirectX 11.0 DirectX 11.1 DirectX 11.2 DirectX 11.2+
Ausführungs-Einheiten (EU) GT1: 6 EU
GT2: 12 EU
GT1: 6 EU
GT2: 16 EU
GT1: 10 EU
GT2: 20 EU
GT3: 40 EU
GT1: 12 EU
GT1.5: 18 EU
GT2: 24 EU
GT3: 48 EU
GT1: 12 EU
GT1.5: 18 EU
GT2: 24 EU
GT3: 48 EU
GT4: 72 EU
eDRAM - - optional 128 MB optional 64/128 MB optional 64/128 MB
Speicher-Support DDR3/1333 DDR3/1600 DDR3/1600 DDR3/1600 DDR3/1600 &
DDR4/2133
Performance-Index ~20-25% ~30-35%
(~ GeForce GT 620)
~65%
(~ GeForce GT 630 GDDR5)
~75%
(~ GeForce GT 640 DDR3)
~100-120%
(~ GeForce GTX 650)

Der eDRAM ist hingegen immer optional und wird wohl auch weiterhin als extra Chip gefertigt, steht aber nur für GT3 und GT4 in den Größen 64 oder 128 MB zur Verfügung. In dem Sinne ändert sich zwischen Broadwell und Skylake also recht wenig bezüglich der Grafiklösungen, deren Ausführungseinheiten gleich bleiben – Intel setzt allein bei Skylake noch eine GT4-Grafiklösung mit gleich 72 Ausführungseinheiten oben drauf. Zudem kommt bei Skylake natürlich auch der Support von DDR4-Speicher zum tragen, welcher aufgrund seiner höheren Bandbreite auch der Performance der integrierten Grafik zu gute kommen dürfte.

Ein offiziell eigentlich geklärter, nichtsdestotrotz als vakant anzusehender Punkt liegt noch im DirectX-Support von Skylake auf Hardware-Seite: Intel hat hierzu ziemlich klar von einem DirectX-12-Support gesprochen – allein, es ist kaum vorstellbar, daß Intel mit dem sicherlich schon lange Monate finalisiertem Skylake-Design einen solchen hohen DirectX-Support bieten können soll, wenn dies die neusten Grafikchips von AMD und nVidia noch nicht können. Entweder Intel meint hier entgegen dem Wortlaut dann doch nur einen Software-Support für DirectX 12 – oder aber die Hardware-Änderungen von DirectX 12 sind so gering, daß jene vermutlich auch in den neuesten AMD- und nVidia-Chips stecken (gemeint sind Tonga und GM204 sowie folgende), AMD und nVidia diesbezüglich schlicht noch nicht die volle Wahrheit offenbart haben.

15

Hardware- und Nachrichten-Links des 15. Oktober 2014

Ein kleiner Nachtrag noch zur Meldung zu Intels Geschäftszahlen: Die Detailzahlen weisen für die "Mobile and Communications Group", welche das Geschäft mit Smartphone- und Tablet-Chips sowie LTE- wie WLAN-Modulen umfasst, einen Umsatz von nur 1 Million Dollar samt einem Verlust von 1,043 Milliarden Dollar auf (kein Schreibfehler). Anders formuliert: Intel hat hier Produkte im Wert von einer Milliarde Dollar faktisch kostenlos abgegeben – womit beantwortet wäre, wo die realen Preispunkte der Smartphone-/Tablet-Chips von Intel liegen und wie man sich den zuletzt ganz positiven Marktanteil in diesem Teilmarkt hat erkämpfen können. Intel verwendet hier tatsächlich die reichlich sprudelnden Gewinne aus dem PC-Geschäft (soviel zu der Mär über das schlechte PC-Geschäft), um das Smartphone-/Tablet-Geschäft zu faktisch 100% zu subventionieren – eigentlich eine klar wettbewerbswidrige Strategie, welche man wenn dann nur wirklich kurzfristig ansetzen kann. Aber Intel hat natürlich seine (guten) Erfahrungen damit gemacht, zuerst einmal die Konkurrenz aus dem Markt zu drängen und später bei eventuellen Klagen der Wettbewerbshüter ein paar Bußgelder abzudrücken – welche die dann einmal verfälschte Wettbewerbssituation auch nicht mehr geraderücken können.

Heise berichten von der neuen, schwerwiegenden "Poodle"-Sicherheitslücke, mittels welcher sich per SSL abgesicherte Verbindungen knacken lassen können. Hierbei wird der Browser dazu gezwungen, das veraltete SSLv3 zu benutzen, welches gegenüber einer neuen Attacke anfällig ist. Das eigentliche Problem ist dabei nicht einmal die Sicherheitslücke in SSLv3 selber, sondern daß das anfällige SSLv3 überhaupt noch von so vieler Software mitgeschleppt wird, obwohl es schon lange nicht mehr aktuell und in echter Benutzung ist. Ein kurzfristiger Hotfix liegt darin, SSLv3 manuell im Browser abzuschalten – wobei allerdings trotzdem das Restrisiko besteht, daß irgendwelche Anwendungssoftware auch noch SSLv3 unbemerkt mit sich herumschleppt. Die eigentliche Lösung kann nur darin liegen, SSLv3 aus allen Software-Produkten konsequent zu entfernen – was im Fall der Browser ein paar Tage bis Wochen dauern wird, im Fall aller möglicher Anwendungssoftware leider wohl etwas länger.

Die Zeit berichtet über die Schnüffelwut des BND, welche sogar tiefer geht als jene der NSA: Bei verdächtigen Personen untersucht der BND dessen Verbindungen bis in die fünfte Ebene, sprich die Freunde der Freunde der Freunde der Freunde der Freunde des Verdächtigen (bei der NSA geht es "nur" bis in die dritte Ebene). Dabei kommt erst einmal eine Unmasse an Kontakten pro nur einem einzelnen Verdächtigen heraus: Die Zeit hat hierfür die für Deutschland bekannte Zahl an durchschnittlich 249 Facebook-Freunden angesetzt und kam damit in der fünften Ebene auf satte 2,5 Milliarden Kontakte – mehr als Facebook überhaupt Nutzer hat. Andere Hochrechnungen werden andere Zahlen ergeben, aber sofern nicht mit sehr kleinen Zahlen an Freunden gearbeitet wird, kommen auf fünf Ebenen immer mindestens Kontakt-Zahlen in Millionen-Höhe heraus.

Zum anderen erreicht man über eine Kette von fünf Personen auch wirklich Menschen, die in gänzlich anderen Regionen und Gesellschaftsschichten als die Ausgangsperson leben. Gut möglich also, daß wir alle (ohne unser Wissen) über fünf Kontakte eine Person "kennen", die vom BND als Verdächtiger geführt wird. Die Untersuchung bis in die fünfte Ebene kann man ergo als faktisches Generalschnüffelsystem für alle Bundesbürger ansehen, denn schon bei einer vielleicht nur dreistelligen Liste an Verdächtigen ist es unwahrscheinlich, daß nicht jeder Bundesbürger bis zur fünften Ebene erreichbar wäre – was für den BND dann als Ermächtigung zu weiterer Schnüffelei benutzt werden kann. Wie von der Zeit richtig angemerkt, ist dies natürlich in höchstem Maße grundgesetzwidrig – denn je streubreiter eine Maßnahme ist, um so kritischer ist jene laut dem Bundesverfassungsgericht zu bewerten. Die Analyse bis in die fünfte Ebene ist aber wohl schon keine Streubreite mehr, sondern einfach nur noch das Prinzip "Gießkanne" – denn wahrscheinlich sind damit schlicht alle Bundesbürger automatisch betroffen.

15

Intel Geschäftsergebnisse Q3/2014: Rekordumsatz und beste Aussichten für das Gesamtjahr

Prozessorenentwickler Intel hat im abgelaufenen dritten Jahresquartal 2014 einen neuen Rekordumsatz sowie ebenso starke Gewinne gepostet, wie Intel mitteilte. Der erzielte Umsatz von 14,5 Milliarden Dollar überbietet den bisherigen Rekordwert aus dem dritten Quartal 2011 von 14,2 Mrd. Dollar beachtbar und liegt vor allem auch auch gut eine Milliarde Dollar höher als im Vergleichszeitraum des Vorjahres. Auch mit dem operativen Gewinn von 4,5 Mrd. Dollar sowie dem nominellen Gewinn von 3,3 Mrd. Dollar konnte Intel Werte aufstellen, die nahe an den jeweiligen Rekordständen liegen. Intel hat somit eines der besten Quartale in der Unternehmensgeschichte abgeschlossen, was angesichts der Rahmenbedingungen von allgemein schwachem PC-Markt sowie der deutlichen Verzögerung der Broadwell-Architektur nochmals bemerkenswerter wird.

Q3/2013 Q4/2013 Q1/2014 Q2/2014 Q3/2014
Umsatz 13483 Mio. $ 13834 Mio. $ 12764 Mio. $ 13831 Mio. $ 14554 Mio. $
Gewinn 2950 Mio. $ 2625 Mio. $ 1947 Mio. $ 2796 Mio. $ 3317 Mio. $
operativer Gewinn 3504 Mio. $ 3549 Mio. $ 2533 Mio. $ 3844 Mio. $ 4540 Mio. $
Für exakte Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.

Damit ist Intel weiterhin auf dem schon zum Jahresanfang zu sehendem Kurs, neue Rekordergebnisse für das Gesamtjahr aufstellen zu können – nachdem die letzten beiden Jahre eher eine Stagnation auf hohem Niveau bzw. sogar teilweise eine leichte Abschwächung des Intel-Geschäfts gesehen haben. Angesichts der allgemeinen Rahmenbedingungen des PC-Markts ist diese Entwicklung jedoch keineswegs selbstverständlich, Intel wächst in dem Sinne anti-zyklisch, was eine sehr ungewöhnliche Situation darstellt. Die einzige sinnvolle Erklärung hierfür ist, daß Intel zu Lasten seiner Kontrahenten wächst – großflächig zuungunsten von AMD, aber dieses Jahr auch zuungunsten der üblichen Hersteller von Tablet-Chips, wo sich Intel zum einen über eigene Tablet-Chips und zum anderen über vielfältige Angebote an Hybrid-Geräten verlorengegangenen Boden wieder zurückgeholt hat.

Entgegen aller sich aus diesen Zahlen vielleicht ergebenden Eurphorie müssten die mittelfristigen Wachstumsaussichten für Intel jedoch eigentlich begrenzt sein: Im Geschäft mit PC-Prozessoren kann man gegenüber AMD kaum noch mehr Umsatz herausholen, während bei den Tablet/Smartphone-Prozessoren zwar noch Wachstumsaussichten für Intel zuungusten der Konkurrenz existieren, der Tablet/Smartphone-Markt selber jedoch dem klaren Ende seiner Expansionsphase entgegensteuert, es also nicht mehr automatische Zuwächse im hohen zweistelligen Bereich pro Jahr geben wird. Die Hersteller von Tablet/Smartphone-Bauteilen können somit in Zukunft nicht mehr gemeinsam mit dem Markt wachsen, sondern primär nur noch gegeneinander – was zu abschmelzenden Durchschnittspreisen respektive Gewinnen für alle Marktteilnehmer führen wird.

Einzelne Hersteller könnten noch durch Erringung viel größerer Marktanteile wachsen, aber niedrigere Durchschnittspreise werden den wirtschaftlichen Erfolg hieraus effektiv limitieren. Insbesondere Intel ist als Firma einfach schon viel zu groß und zu marktbeherrschend, um allein mit seinem Hauptgeschäft an Prozessoren für PCs, Tablets und Smartphones noch großartige mittelfristige Wachstumsaussichten zu haben. Andererseits liegt in der mittelfristigen und gerade der langfristigen Zukunft zu viel Ungewißheit, könnten neue Technologien und Produkte alles komplett vom Kopf auf die Füße stellen. Sichere Zukunftprognose kann man daher insbesondere für die IT- und Halbleiter-Industrie kaum erstellen – es ist meistens nur ein Fortdenken der aktuellen Situation möglich, welche jedoch regelmäßig von der späteren Realität überholt wird.

Nachtrag vom 5. Oktober 2014

Die Detailzahlen weisen für die "Mobile and Communications Group", welche das Geschäft mit Smartphone- und Tablet-Chips sowie LTE- wie WLAN-Modulen umfasst, einen Umsatz von nur 1 Million Dollar samt einem Verlust von 1,043 Milliarden Dollar auf (kein Schreibfehler). Anders formuliert: Intel hat hier Produkte im Wert von einer Milliarde Dollar faktisch kostenlos abgegeben – womit beantwortet wäre, wo die realen Preispunkte der Smartphone-/Tablet-Chips von Intel liegen und wie man sich den zuletzt ganz positiven Marktanteil in diesem Teilmarkt hat erkämpfen können. Intel verwendet hier tatsächlich die reichlich sprudelnden Gewinne aus dem PC-Geschäft (soviel zu der Mär über das schlechte PC-Geschäft), um das Smartphone-/Tablet-Geschäft zu faktisch 100% zu subventionieren – eigentlich eine klar wettbewerbswidrige Strategie, welche man wenn dann nur wirklich kurzfristig ansetzen kann. Aber Intel hat natürlich seine (guten) Erfahrungen damit gemacht, zuerst einmal die Konkurrenz aus dem Markt zu drängen und später bei eventuellen Klagen der Wettbewerbshüter ein paar Bußgelder abzudrücken – welche die dann einmal verfälschte Wettbewerbssituation auch nicht mehr geraderücken können.

Inhalt abgleichen