24

AMD gibt Details zur Carrizo-APU bekannt

Der Planet 3DNow! hat sich ausführlich mit AMDs Carrizo-Präsentation auf der International Solid-State Circuits Conference (ISSCC) beschäftigt, weitere Ausarbeitungen zum Thema kommen von Golem, PC Perspective und AnandTech. Dabei gibt es im Prinzip keine Überraschungen, sondern oftmals "nur" Bestätigungen von früheren Gerüchten: Carrizo wird weiterhin 4 CPU-Rechenkerne samt 512 Shader-Einheiten der iGPU haben, wie schon von Kaveri her gewohnt. Mit dabei ist die Excavator-Ausbaustufe der Bulldozer-Architektur, welche laut AMD für 5% mehr IPC stehen soll. Die integrierte Grafiklösung dürfte womöglich auch ein paar Neuerungen mit sich bringen, unabhängig derselben Einheiten-Anzahl.

AMD Carrizo-Präsentation (Slide 13)
AMD Carrizo-Präsentation (Slide 13)
AMD Carrizo-Präsentation (Slide 6)
AMD Carrizo-Präsentation (Slide 6)

Wie bekannt quetscht AMD in die nahezu dieselbe Chipfläche von 250mm² allerdings gleich nahezu 29% mehr Transistoren gegenüber Kaveri, welche bislang durch die größeren Level1-Caches bei Excavator und durch die integrierte Southbridge begründet werden – ob dies als Erklärung ausreicht, bleibt offen. Das Speicherinterface wird dagegen weiterhin konsequent als "DDR3" ausgewiesen und scheint auf den ersten Blick (auf das beim Planet 3DNow! zu sehende Die-Foto) auch keinen Platz für ein früher spekulativ vermutetes DDR3/DDR4-Interface zu bieten. Gut möglich, daß AMD bei der (allerdings erst nächstes Jahr) antretenden Desktop-Abwandlung "Bristol Ridge" dann ein extra Stück Silzium aufsetzt, welches dann ein alleiniges DDR4-Speicherinterface bietet.

Auf den allerersten Blick ist dies deutlich unspannend, was AMD da mit Carrizo vorhat. Allerdings lag das Augenmerk von AMD bei Carrizo sehr deutlich auf dem Mobile-Einsatz, im Prinzip alle Optimierungen floßen in diese Richtung. Deswegen ist Carrizo auch nur eher schwer über seine Checklisten-Daten mit den bisherigen AMD Mainstream-APUs vergleichbar. Man sollte besser abwarten, was entsprechende Tests von Carrizo-Notebook für Benchmark-Werte ergeben – ein allererster Vorab-Wert sieht nämlich vielversprechend in diese Richtung hin aus, als daß Carrizo seinen Vorgänger Kaveri mit zwischen 15-25% Performancegewinn auf gleicher TDP überbieten kann. AMD scheint also nicht in Richtung absoluter Performance hin optimiert zu haben – sondern in Richtung höherer Performance bei einer festgesetzten, Mobile-typischen TDP. Damit kann man hoffentlich bei den Notebook-Herstellern entsprechend punkten – welchen bei dieser Gelegenheit in Erinnerung gerufen werden soll, daß sich die Notebook-Käufer durchaus mehr Auswahl an AMD-basierten Notebooks wünschen.

Llano Trinity Richland Kaveri Carrizo
Fertigung 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 28nm Bulk GlobalFoundries 28nm Bulk GlobalFoundries
Die-Daten 1,45 Mrd. Transistoren auf 228mm² Chipfläche 1,3 Mrd. Transistoren auf 246mm² Chipfläche 2,41 Mrd. Transistoren auf 245mm² Chipfläche 3,1 Mrd. Transistoren auf 250mm² Chipfläche
CPU-Technik 4 Husky-Rechenkerne der K10.5-Architektur 4 Piledriver-Rechenkerne der Bulldozer-Architektur 4 Steamroller-Rechenkerne der Bulldozer-Architektur 4 Excavator-Rechenkerne der Bulldozer-Architektur
CPU-Takt maximal 3.0 GHz maximal 4.2 GHz (unter TurboCore) maximal 4.4 GHz (unter TurboCore) maximal 3.7 GHz (unter TurboCore) unbekannt
Grafikeinheit 400 VLIW5 Shader-Einheiten (20 TMUs, 8 ROPs) mit maximal 600 MHz Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 800 MHz TurboCore-Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 844 MHz TurboCore-Takt 512 (1D) Shader-Einheiten (32 TMUs, 8 ROPs) mit maximal 720 MHz TurboCore-Takt 512 (1D) Shader-Einheiten (32 TMUs, 8 ROPs) mit unbekanntem Takt
Speicherinterface 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3, maximal DDR3/2133
Featureset SSE4a, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, GCN 1.1, DirectX 11.2b, HSA, Mantle, TrueAudio SSE4a, AVX2, FMA3/4, GCN 1.2 (?), DirectX 11.2b (DirectX 12?), Full HSA, Mantle, TrueAudio
Sockel FM1 FM2 FM2 FM2+ -
integr. Chipsatz Northbridge Northbridge Northbridge Northbridge North- und Southbridge
Launch 14. Juni 2011 Mobile: 15. Mai 2012
Desktop: 2. Oktober 2012
Mobile: 12. März 2013
Desktop: 5. Juni 2013
Desktop: 14. Januar 2014
Mobile: 4. Juni 2014
Q/2015 (nur Mobile)

Bezogen auf den Desktop-Bereich – auch wenn Carrizo jenen nicht direkt bedienen wird – gilt damit jedoch weiterhin das letztes Jahr schon gesagte, selbst wenn wir seinerzeit dafür sehr gescholten wurden: Doch wenn AMD Carrizo in der vorgestellten Art in den Desktop bringen würde, wäre dies wohl nur – die exakten Taktraten abwartend – ein leichtes Update gegenüber Kaveri, welcher seinerseits auch nie richtig zünden wollte. Letzteres Jahr konnte man noch auf irgendeine "Special Sauce" für Carrizo spekulieren, doch nun wird offensichtlich, daß es jene auch mit Carrizo nicht geben wird (die obige Tabelle ist nahezu deckungsgleich zu jener von letztem Juli). Dabei ist vermutlich noch nicht einmal die eigentliche Technik das Problem, sondern das AMD mit seinem HSA-Konzept viel zu früh dran war und daß der Mainstream-Markt das wohl schlechstmögliche Testfeld für so etwas sein dürfte.

Auch wenn das jetzt wieder als "zu viel Kritik an AMD" aufgefasst werden könnte: Wenn man sowieso 250mm² Chipfläche für einen Mainstream-Prozessor verbrät, ergeben sich aus heutiger Sicht viel sinnvollere Nutzungsmöglichkeiten für diese große Chipfläche: Da letztlich nahezu alle Rechner und Notebooks oberhalb absoluter Einsteigerbedürfnisse sowieso mit einer extra Grafiklösung ausgestattet werden (ironischerweise auch bei verbauter AMD-APUs zutreffend), war die ganze große iGPU eigentlich immer nur Platzverschwendung, diesen Platz hätte man besser für eine leistungsfähigere CPU verwendet. Wahrscheinlich wäre selbst das Zukleistern der Chipfläche mit mehr Cache eine bessere Maßnahme als die große iGPU gewesen, welche bei Kaveri ca. 40% der Chipfläche einnimmt. Und selbst wenn Carrizo jetzt noch einmal das Ruder herumreißt und eine gegenüber Intel gleichwertige CPU-Leistung bietet (Kaveri war immerhin schon nahe dran), dann kommt dies womöglich zu spät, um diesem sowieso auslaufenden Konzept von APUs auf Bulldozer-Basis noch einmal zu einem wirklichen Verkaufserfolg verhelfen zu können. Der breite Markt hat AMD im CPU-Bereich (leider) weitgehend abgeschrieben und würde daher kaum auf eine vergleichbare Performance reagieren – sondern nur noch auf etwas wirklich herausragendes.

23

Hardware- und Nachrichten-Links des 23. Februar 2015

Aus der Diskussion zum jüngsten Grafikkarten-Marktüberblick kommt die Frage, ob man heutzutage der GeForce GTX 970 überhaupt noch eine Empfehlung aussprechen kann. Dies steht in der Tat in der Schwebe, die öffentliche Meinung ist derzeit wohl deutlich gegen jene Karte gerichtet. Bislang haben wir im Zuge des Marktüberblicks damit argumentiert, daß die Schwäche der GeForce GTX 970 auf dem letzten halben Gigabyte Speicher eher ein Problem der öffentlichen Darstellung ist – sprich, wenn man die Karte gleich mit nur 3,5 GB Speicher ausgerüstet beschrieben hätte, wäre dies weit weniger dramatisch gewesen. Zudem ist es wohl für die Spiele in 2-3 Jahren mit Anforderungen von 6-8 GB Speicher wohl ziemlich egal, ob sie nun von einer Grafikkarte mit 3,5 oder mit 4 GB ausgebremst werden – deutlich zu wenig Speicher wäre dies so oder so.

Diese unsere Argumentation hat jedoch eine Schwäche: Derzeit zeigt sich die 3,5-GB-Problematik in der Praxis einfach zu selten, für die entsprechenden Tests wurde diese Grenze ja auch bewußt angestrebt. Doch was ist mit zukünftigen Spielen, welche nicht gerade gleich 6-8 GB Speicher wollen, sondern auf 4 GB Speicher optimiert sind? Wenn solcherart Spiele in absehbarer Zukunft häufiger auftreten, dann rennt die GeForce GTX 970 womöglich auch in der reinen Anwenderpraxis häufiger in ihre bekannten Probleme hinein – das Spiel stockt unnatürlich lange beim Überschreiten der 3,5-GB-Grenze, selbst wenn die fps-Raten noch anständig sind. An dieser Stelle besteht ernsthaft das Risiko, daß das momentan in der Praxis nur vereinzelt festgestellte Problem der GeForce GTX 970 sehr viel häufiger auftritt, womit die Karte zu einem üblen Spielverderber werden würde. Natürlich könnte dem nVidia mit angepassten Treibern entgegenwirken, aber ab Verkaufsende der GeForce GTX 970 darf man da leider auf keine große Anstrengungen mehr hoffen.

Doch kann man angesichts dieser Aussichten – welche aber natürlich keinesfalls so eintreffen müssen – die GeForce GTX 970 immer noch empfehlen? Und wäre dies überhaupt fair – immerhin geht es um eine noch nicht geschriebene Zukunft, können andere Grafikkarten in dieser Zukunft an anderen, derzeit noch gar nicht zu sehenden Problemen ganz genauso scheitern. Muß also die GeForce GTX 970 jetzt dafür abgestraft werden, daß jene eventuell in Zukunft ein echtes Problem bekommt? Wir sind uns an dieser Stelle unschlüssig und würden gern weitere Argumentationen im entsprechenden Forums-Thread hören. Wenn auch nur halbwegs klar wäre, daß die GeForce GTX 970 in Zukunft häufiger ihre 3,5-GB-Aussetzer produzieren wird, wäre dies natürlich ein gewichtiges Argument dafür, jene Grafikkarte generell nicht mehr empfehlen zu können.

Trotz das Lenovo für seine Adware-verseuchten Lenovo-Laptops nunmehr endlich ein funktionierendes Deinstallationsprogramm herausgebracht hat (welches nicht nur die Adware, sondern vor allem auch die SSL-Schwachstelle entfernt), weitet sich dieser Sicherheits-GAU leider aus: Gemäß Heise steckt dieselbe SSL-Schwachstelle auch in weiteren Anwendungen. Da die Deinstallations-Routinen der von Heise aufgezählten Anwendungen auch nicht in jedem Fall zuverlässig arbeiten, wird zudem auf eine Test-Webseite verwiesen, anhand man die Existenz einer der kompromitierten SSL-Zertifikate in seinen Browsern erkennen kann. Allerdings könnte jene Lücke auch später noch in neuen Anwendungen auftreten, die dahintersteckende SSL-Unterbrechungs-Technologie "SSL Digestor" wird ganz offiziell von der Firma Komodia vertrieben. An dieser Stelle angekommen erscheint es als etwas seltsam, wieso man jene Firma überhaupt weitermachen läßt – immerhin ist deren Produkt alleinig zur Komprimitierung von SSL-Verbindungen gedacht und kann niemals einen anderen, sinnvollen Anwendungszweck haben (die üblichen Verdächtigen wie IT-Kriminelle und Geheimdienste ausgenommen).

Bei der Auswertung des ganzen durch Komodia verursachten Ärgers fiel bei Golem zudem noch die Adware "Privdog" auf, welche auf eine ähnliche Art und Weise SSL-Verbindungen manipulieren und damit den durch das HTTPS-Protokoll eigentlich angestrebten Schutz aushebeln kann. Extrem pikant bei "Privdog" ist, das jene Software von Comodo kommt – welche nicht nur über ihre eigene Security-Suite bekannt sind, sondern auch als supergroßer SSL-Zertifizierer arbeiten. In diesem Fall ist es zwar nicht so, daß die zugrundeliegenden SSL-Unterbrechungs-Technologie von Comodo frei verkauft wird, trotzdem darf es als überaus irritierend gelten, wenn ein SSL-Zertifizier überhaupt eine SSL-Unterbrechungs-Technologie entwickelt. Und langsam keimt angesichts dieser beiden Fälle die Frage auf, wieso Regierungen rund um den Globus gegen teilweise heftigen Widerstand diverse Antihacker-Gesetze durchgedrückt haben – welche nun aber augenscheinlich eher gegen Klein-Hacker oder Dissidenten angesetzt werden, nicht aber in solcherart offensichtlichen Fällen von Untergrabung allgemein gültiger und für die komplette elektronische Welt elementarer Sicherheitsstandards.

23

Umfrage-Auswertung: Wie ist der Zweiteindruck zur GeForce GTX 970?

Die Umfrage der letzten Woche beschäftigte sich noch einmal mit der GTX970-Affäre: Schließlich wurde die GeForce GTX 970 nach ihrem Launch in der entsprechenden Ersteindrucks-Umfrage derart herausragend bewertet, daß sich hier unbedingt die Frage zum Zweiteindruck nach der GTX970-Affäre aufdrängte. Nicht wirklich unerwartet fällt der Zweiteindruck zur GeForce GTX 970 regelrecht desaströs aus: nVidia hat es tatsächlich hinbekommen, aus der ehemals am besten bewerteten Karte die nunmehr am schlechtesten bewertete Karte zu machen. In fast allen Disziplinen erreicht die GeForce GTX 970 neue Tiefstwerte, nur bei der potentiellen Kaufneigung kommt man (auf einem allerdings trotzdem arg niedrigen Niveau) nicht ganz an die Negativ-Rekorde solcher Hochpreis-Geschosse wie der Radeon HD 7990 oder der GeForce GTX Titan heran.

Die Störpunkte an der GeForce GTX 970 sind dabei klar zu identifizieren: Dabei stören sich mit 20% nur eine Minderheit an dem Speicher der Karte, welcher nur zu 3,5 GB schnell nutzbar ist. Als das eigentliche Problem sehen immerhin 73% die ganze Mogelei seitens nVidia um diese Karte an. Das Gesamturteil zur GeForce GTX 970 mag damit emotional gefärbt sein und nicht wirklich auf rein sachlicher Argumentationslage stehen – nichtdestotrotz, so ist nun einmal die Stimmungslage eines Großteils der Nutzer. Und selbst wenn sich diese Umfrage eben nur auf 3DCenter-Leser bezieht, die Anzahl der Umfrage-Teilnehmer (regelmäßig zwischen 1500 und 3000) gibt unseren Umfragen immer doch noch ein gewisses Gewicht (viele Umfragen in Foren haben weit weniger Teilnehmer).

Natürlich funktioniert die Argumentation, daß das 3DCenter wenn dann immer nur die Stimmung im Enthusiasten-Markt abbilden kann – und dieser nun einmal nur einen kleinen Teil des gesamten Grafikkarten-Marktes ausmacht. Andererseits wird der Enthusiasten-Markt oftmals auch als Pool der Multiplikatoren betrachtet – sprich von Personen, welche die Kaufentscheidung vieler anderer Personen beeinflußen oder notfalls auch gleich selber vornehmen. Es sich mit dieser Nutzergruppe zu verscherzen, kann man sich in aller Regel nur leisten, wenn man felsenfest im Sattel sitzt – und selbst dann ist es eine generell unkluge Handlung. nVidia versucht dem "Problem" durch Aussitzen zu begegnen, was aber derzeit die negative Stimmung gegenüber nVidia eher verfestigt. Das ganze kann man durchaus – gerade wegen des einfachen Vergleichs Erst- zu Zweiteindruck – als Lehrbuch-Beispiel für einen Marketing-GAU einbuchen. Ob sich dies dagegen in den Geschäftszahlen & Marktanteilen bemerkbar macht, werden wir dann in einigen Monaten sehen.

positiv durchschnittlich negativ Kaufinteresse
Radeon R9 290X 67,9% 22,2% 9,9% 26,7%
Radeon R9 290 47,2% 29,3% 23,5% 27,9%
Radeon R9 280X 39,2% 37,5% 23,3% 19,5%
Radeon R9 285 26,4% 43,3% 30,3% 8,1%
Radeon R9 270X 46,6% 32,4% 21,0% 21,1%
Radeon R9 270 40,9% 33,1% 26,0% 16,3%
Radeon R7 265 34,5% 38,8% 26,7% 10,7%
Radeon HD 7990 36,9% 30,7% 32,4% 3,5%
Radeon HD 7970 "GHz Edition" 33,4% 33,3% 33,3% 5,9%
Radeon HD 7970 66,5% 26,0% 7,5% 22,1%
Radeon HD 7950 71,1% 17,8% 11,1% 20,3%
Radeon HD 7850 & 7870 70,7% 19,2% 10,1% 27,8%
Radeon HD 7790 45,6% 37,2% 17,2% 13,4%
GeForce GTX 650 Ti 20,0% 37,7% 42,3% 5,7%
GeForce GTX 650 Ti "Boost" 33,1% 41,7% 25,2% 7,1%
GeForce GTX 660 40,8% 37,2% 22,0% 16,8%
GeForce GTX 660 Ti 30,7% 40,4% 28,9% 9,3%
GeForce GTX 670 68,5% 19,6% 11,9% 24,9%
GeForce GTX 680 73,0% 17,7% 9,3% 16,3%
GeForce GTX Titan 43,0% 23,2% 33,8% 4,3%
GeForce GTX 750 & 750 Ti 49,4% 26,5% 24,1% 13,5%
GeForce GTX 760 31,5% 39,7% 28,8% 12,0%
GeForce GTX 770 45,6% 28,5% 25,9% 19,1%
GeForce GTX 780 47,5% 22,8% 29,7% 9,4%
GeForce GTX 780 Ti 60,2% 22,0% 17,8% 6,8%
GeForce GTX 960 14,6% 38,9% 46,5% 4,5%
GeForce GTX 970 (Ersteindruck) 88,0% 7,6% 4,4% 52,4%
GeForce GTX 970 (Zweiteindruck) 13,0% 24,9% 62,1% 6,1%
GeForce GTX 980 67,3% 20,5% 12,2% 24,7%
22

Hardware- und Nachrichten-Links des 21./22. Februar 2015

Bei HT4U hat man sich sehr aufwendig mit der Stromverbrauchs-Effizienz der aktuellen Top-Grafikkarten Radeon R9 290X und GeForce GTX 980 beschäftigt. Hierzu hat man Stromverbrauchs-Messungen unter gleich 18 Spielen mit jeweils einer Reihe verschiedener Power-Limits angestellt – womit auch aufgezeigt wird, inwiefern die vom Grafikkarten-Hersteller eingestellten Power-Limits optimal sind oder aber noch Performance-Reserven offenlassen. Abgesehen vom offensichtlichen Ergebnis – die nVidia-Karte ist etwas schneller und verbraucht dafür auch noch etwas weniger Strom – ist vor allem interessant, daß die GeForce GTX 980 selbst unter Heruntersetzung ihres Power-Limits meistens nur recht wenig Performance verliert, während die Radeon R9 290X unter Heruntersetzung ihres Power-Limits sehr schnell und sehr deutlich weniger fps erzeugt. AMDs Ansatz benötigt also (derzeit) in der Tat die bekannt höheren Leistungsaufnahmen, um auf Touren zu kommen – während nVidia bei der Maxwell-Generation sogar noch etwas effizienter sein könnte, wenn man dies wollte.

Aus unserem jüngsten Grafikkarten-Marktüberblick ergeben sich einige interessante Prognosen zur zukünftigen Umgestaltung des AMD- und nVidia-Portfolios: So deutet das faktische Auslaufen der GeForce GTX 660 (viel höhere Preislage als im letzten Herbst, deutlich zurückgehende Angebotsvielfalt) deutlich darauf hin, daß hier schon demnächst Ersatz ansteht. Abgerechnet die ebenfalls auf Auslauf-Status stehende GeForce GTX 760 hat nVidia schlicht sowieso keine Angebote zwischen GeForce GTX 960 (330%, 190-210€) und GeForce GTX 750 Ti (210%, 130-145€) mehr, während AMD in diesem preislichen Raum gleich vier gut verfügbare Angebote positioniert hat. Eine so große Angebotslücke ist eher selten und kann nur den baldigen Release einer neuen Lösung bedeuten – wahrscheinlich der GeForce GTX 950 Ti als Abspeckung des GM206-Chips. Jene dürfte spekulativ 20% langsamer als die GeForce GTX 960 herauskommen und dürfte wohl bei ca. 150-160 Euro in den Markt gehen. Erstaunlich ist nur, daß derzeit noch gar nichts von dieser Karte zu hören ist, während das Angebot an GeForce GTX 660 Karten Tag für Tag zurückgeht und nVidia in Bälde gar nichts mehr in diesem Preisbereich im Markt stehen haben wird.

Auf AMD-Seite gibt es derzeit den interessanten Punkt, daß die wenig beachtete Radeon R7 260 als langsamere und strikt auf 1 GB Speicherbestückung beschränkte Abspeckung der Radeon R7 260X nunmehr auf klarem Auslauf-Kurs ist, da nur noch sehr vereinzelt (und wenn dann nicht günstiger als die Radeon R7 260X) erhältlich. Gleichfalls hat es die Radeon R7 250 2GB GDDR5 getroffen, welche nur noch zu Mondpreisen angeboten wird – die kleineren Ausführungen dieser Karte mit nur 1 GB Speicher oder DDR3-Speicher sind dagegen (im LowCost-Segment) noch gut erhältlich. An dieser Stelle ist die Situation nicht ganz so klar wie bei nVidia, dennoch kann man darüber spekulieren, das sich hier neue Angebote im Mainstream-Segment bei AMD anbahnen. Ob jene auf Basis des Bonaire-Chips, des kürzlich ins Gespräch gebrachten Trinidad-Chips oder gar über eine derzeit noch komplett unbekannte Lösung erfolgen werden, ist jedoch unsicher. In jedem Fall gab es kürzlich die Information, daß AMD im Mainstream-Segment noch vor allen anderen Marktsegmenten angeblich bereits im März etwas neues vorstellen will – wenn dies zutrifft, sollte man demnächst eigentlich automatisch mehr darüber zu hören bekommen.

Auf jeden Fall noch einmal extra zu würdigen ist die Angelegenheit mit dem Adware-verseuchten Lenovo-Laptops, welche sich inzwischen zum mittelschweren Sicherheits-Desaster für Lenovo entwickelt hat. Dabei liegt schon in der allerersten Handlung Lenovos, auf bis Januar 2015 verkauften Laptops eine Adware zu installieren, welche Werbeanzeigen in Webseiten injiziert, ein grundsätzlicher Fehler: Einmal abgesehen davon, daß hierbei die Rechte der Webseiten-Betreiber mit Füßen getreten werden, hätte man die Lenovo-Laptops in der Produktbeschreibung klar als "mittels Werbung finanziert" kennzeichnen müssen, hat man in jedem Fall dem Laptop-Käufer ein falsch beschriebenes Produkt untergejubelt (was zumindest in Europa Regresspflichten auslösen sollte). Gänzlich um die Ohren fliegt Lenovo der Fall nun aber dadurch, daß durch die konkrete Ausführung der Adware die Sicherheit der Laptops sehr deutlich gefährdet ist – und sich selbst durch Deinstallation der Adware kein sicherer Betriebszustand erreichen läßt.

Eventuell kann Lenovo letzteres Problem durch eine bessere Deinstallations-Routine noch lösen. Das eigentliche Problem ist jedoch das dahinterstehende Selbstverständnis des chinesischen Unternehmens, welches ja auch kein Problem damit hatte, solcherart Adware dem Laptop-Käufer ungefragt und ohne Hinweis mitzugeben. So etwas mag in China angehen, aber in der westlichen Welt sieht man Hersteller-Software grundsätzlich kritisch – und wenn sie dann noch mit Werbe- oder Schadfunktion daherkommt, ist der Ofen komplett aus. Es ist zwar das eine, als chinesische Firma das IBM-Geschäft an Notebooks und nunmehr auch Desktop-Computern zu übernehmen und somit zu einem der inzwischen größten PC-Anbieter der Welt aufzusteigen – es ist aber anscheinend etwas komplett anderes, sich den Gepflogenheiten des westlichen Marktes anzupassen. In jedem Fall hat Lenovo mit dieser Aktion sehr viel an Kredit zerstört, welche man sich nach der Übernahme des IBM-Geschäfts durch eine gute Weiterführung der früheren IBM-Produktlinien mühsam aufgebaut hatte.

22 22

Ist die Anschaffung eines 4K-Monitors geplant (2015)?

Das Thema 4K entwickelt sich im PC-Bereich derzeit gut nach vorn – ständig kommen neue 4K-Monitore zu inzwischen bezahlbaren Preisen in den Markt, die Auflösung wird von Spieleentwicklern und Grafikkarten-Herstellern mehr beachtet und soll mit kommenden Grafikkarten-Generationen auch durchgehend spielbar werden. Grund genug also, die letzte Umfrage zu diesem Thema erneut aufzulegen: Zuletzt im April 2014 fragten wir danach, ob und wann die Anschaffung eines 4K-Monitors geplant ist – oder ob jener vielleicht schon dasteht. Seinerzeit war die Quote der 4K-Nutzer noch arg gering, nun nur zehn Monate nach dieser letzten Umfrage darf man dagegen schon eine beachtbare 4K-Nutzergemeinde erwarten.

Besitze schon einen 4K-Monitor.
5% (158 Stimmen)
Plane die Anschaffung demnächst.
3% (108 Stimmen)
Plane die Anschaffung mittelfristig.
17% (525 Stimmen)
Erst müssen die Preise noch bedeutsam nach unten gehen.
22% (672 Stimmen)
Der sich durch 4K ergebende Aufrüstdruck bei der Grafikkarte stört.
27% (836 Stimmen)
Generell kein Interesse.
26% (804 Stimmen)
Gesamte Stimmen: 3103
21

Neuer Artikel: Grafikkarten-Marktüberblick Februar 2015

Nach dem letzten Grafikkarten-Marktüberblick vom November 2014 wird es nun langsam mal wieder Zeit für einen neuen Marktüberblick über das akuell geltende Angebot an Gamer-Grafikkarten. Zu diesem vorherigen Marktüberblick haben sich bis dato nur zwei markante Änderungen ergeben: Zum einen ist die GeForce GTX 960 im Januar in den Markt gekommen – und ersetzt dort eine Reihe an älteren nVidia-Angeboten, welche dann in absehbarer Zeit auslaufen werden. Und zum anderen ist natürlich der Dollar/Euro-Kurs vom November 2014 zum Februar 2015 sehr deutlich (von 1,24 auf 1,14 Dollar/Euro) eingebrochen, was – wie schon an dieser Stelle berichtet – auf breiter Front zu gewissen Preissteigerungen geführt hat ... zum Artikel.

hauptsächliche Empfehlung Neben-Empfehlung
DualChip-Lösung besser CrossFire/SLI-Kombinationen kaufen
(P/L-Verhältnis DualChip-Karte ist schlechter)
Radeon R9 295 X2 2x4GB
schnellste SingleChip-Lösung besser im normalen HighEnd-Segment kaufen
(P/L-Verhältnis zu schlecht)
GeForce GTX 980 4GB
oberes HighEnd-Segment
(ab 300€)
Radeon R9 290X 4GB
GeForce GTX 970 3,5GB
-
unteres HighEnd-Segment
(220-300€)
Radeon R9 290 4GB
Radeon R9 280X 3GB
-
oberes Performance-Segment
(180-220€)
Radeon R9 280 3GB -
unteres Performance-Segment
(140-180€)
Radeon R9 270X 2GB Radeon R9 270 2GB
Radeon R7 265 2GB
(jeweils etwas langsamer zu einem jeweils etwas niedrigerem Preispunkt)
Mainstream-Segment
(bis 140€)
Radeon R7 260X 2GB GeForce GTX 750 2GB
(P/L-Verhältnis schlechter, aber herausragend niedriger Stromverbrauch)
Inhalt abgleichen