30

Hardware- und Nachrichten-Links des 29./30. März 2014

Von Techsoda kommt ein interessanter Artikel mit der nachdenkenswerten These, daß eventuell gar keine 20nm-Grafikchips anstehen, weil die bei GlobalFoundries und TSMC geplante 20nm-Fertigung keine HighPerformance-Chips zulassen würde – sondern nur eher kleinere mit maximal mittelgroße Chips, welche zudem auf niedrige Leistungsaufnahmen (wie für das Mobile-Segment) optimiert wären. Und in dieser Frage sind die Unterschiede in der Tat enorm groß: Mag sein, daß große SoCs derzeit auch auf eine Chipfläche von 100 bis maximal 150mm² kommen – aber trotzdem verbrauchen die gefertigten SoCs im Einsatz dann klar unterhalb von 5 Watt. Bei Grafikchips ist dies noch nicht einmal bei absoluten LowCost-Modellen mit kleinerer Chipfläche als 100mm² möglich – da fangen die Leistungsaufnahmen bei 30 Watt an und gehen mit wachsender Chipfläche dann schnell in Richtung von über 200 Watt.

SoCs und Grafikchips sind also völlig verschiedene Welten – und wurden bisher auch in unterschiedlichen Fertigungsverfahren hergestellt: Für die SoCs wurde in aller Regel ein LowPower-Prozeß verwendet, für die Grafikchips kam dann ein HighPerformance-Prozeß zum Einsatz. Problematischerweise fehlt diese Trennung bei der 20nm-Fertigung von GlobalFoundries und TSMC jedoch – angeblich, weil es keinen großen Unterschied ergeben würde. Ob dies so trifft, ist schwer zu ermittelt – in jedem Fall ist es der Aufhänger für Techsoda, darüber nachzudenken, ob die Grafikchip-Entwickler angesichts dieser mageren Aussichten die 20nm-Fertigung nicht links liegen lassen und gleich auf die 16nm-Fertigung warten. Jene 16nm-Fertigung wird – weil es real eigentlich 20nm mit 3D-Transistoren ist – nur ungefähr ein Jahr nach der 20nm-Fertigung antreten und sollte dann einen größeren Sprung (gegenüber 28nm) mit sich bringen.

Folgt man der These von Techsoda, ist damit jedoch vor Ende 2015 kaum mit Grafikchips in einer neuen Fertigungstechnologie zu rechnen – die Grafikchip-Entwickler müssten die 20nm-Technologie ein weiteres Jahr lang melken. Dabei muß dies nicht unbedingt zum Stillstand führen, nVidias Maxwell-Architektur ist auch unter der 28nm-Fertigung derart effizient, daß man notfalls eine komplette Maxwell-Riege in 28nm auflegen könnte. Nur an der Leistungsspitze wird es knapp, weil dort wegen der maximalen Größenbeschränkungen von Grafikchips (unterhalb von 600mm² Chipfläche) die neue Fertigungstechnologie am stärksten fehlt. Die Möglichkeit einer Performance-Verdopplung gibt es eben nur mit einer (durchschlagskräftigen) neuen Fertigungstechnologie. Andererseits ist das ganze derzeit eine reine These, mit sicherlich vernünftigen Argumenten – aber eben dennoch nur Überlegungen ohne einen konkreten Hinweis darauf, daß die Grafikchip-Entwickler die 20nm-Fertigung wirklich auslassen könnten.

Online.Spiele.Recht berichten über ein Urteil des Landgerichts Berlins gegenüber Keyselling – dem Verkauf rein von Lizenzkeys ohne Datenträger. Meist werden hierbei die Lizenzkeys aus anderen Weltregionen importiert, wo ein anderes, niedrigeres Preisniveau herrscht und damit mit dem Unterschied zwischen ausländischem und inländischem Preis ein Geschäft gemacht werden kann. Zwei Details führten hierbei zur gerichtlichen Niederlage dieses Geschäftsmodells: Erstens einmal greift der "Erschöpfungsgrundsatz", mittels welchem gebrauchte Dinge weiterveräußert werden können, nur bei innerhalb des europäischen Wirtschaftsraums in den Handel gebrachten Verkaufsgegenständen (was für diesen Fall nicht zutraf). Und zweitens gibt es einen rechtlichen Unterschied zwischen Software, welche digital und damit ohne Datenträger vertrieben wird – und solcher Software, wo es immer auch einen Datenträger gibt. Hierbei sieht die aktuelle Rechtslage vor, daß Datenträger und Lizenzkey nur zusammen weiterverkauft werden dürfen – was im konkreten Fall nicht getan wurde, womit der Key-Händler letztlich verlor.

Für den grauen Markt an Lizenzkey-Angeboten ist dieses Urteil ein schwerer Schlag – allerdings muß notiert werden, daß jenes Urteil eben nicht auf alle Fälle zutrifft: Dort, wo die Lizenz nicht an einen Datenträger gebunden ist (beispielsweise Windows 7/8 Lizenzen oder auch alle Download-Spiele) – oder auch dann, wenn Lizenzkey und Datenträger gemeinsam verkauft werden. Generell betrachtet ist aus diesem Urteil aber eher eine Aufgabe für die Politik zu sehen, die Gesetzeslage derart zu ändern, daß der Mißbrauch des Urheberrechts zu wettbewerbsverhindernden Zwecken unterbunden wird. Denn am Ende wurde hier seitens der Keyseller sowie der Käufer solcher Lizenzen keineswegs versucht, den Hersteller um den Lohn seiner Mühe zu bringen – vielmehr wurde seitens des Herstellers versucht, eine regional differiende Preisgestaltung durchzudrücken bzw. generell den Gebraucht- und Zwischenhandel auszuschalten. Die Gesetze zum Schutz des Urheberrechts sind jedoch nicht dafür da, dieses prinzipiell wettbewerbs- und verbraucherfeindliche Verhalten zu ermöglichen.

30 30

Wieviel Grafikkarten-Speicher ist derzeit verbaut (2014)?

Diese Umfrage stellt zum einen fest, wieviel Grafikkarten-Speicher (bei echten Grafikkarten, nicht bei integrierten) im Gaming-Rechner derzeit vorhanden ist. Bei SLI/CrossFire-Kombinationen gilt hierfür natürlich nur der Speicher einer Grafikkarte, nicht die kumulierte Speichermenge aller Grafikkarten. Zum anderen soll festgestellt werden, ob der Anwender einen Aufrüstbedarf bezüglich des Grafikkarten-Speichers bei seinem jeweiligen Grafikkarten-Modell sieht. Relevant hierfür ist natürlich nur ein eventueller Aufrüstbedarf aufgrund des Grafikkarten-Speichers, nicht aufgrund der Leistungsfähigkeit des Grafikchips. Diese Umfrage ist die Wiederholung einer Umfrage vom April 2013.

512 MB oder weniger - kein Speicher-Aufrüstbedarf.
3% (74 Stimmen)
512 MB oder weniger - sehe Aufrüstbedarf aufgrund des Speichers.
2% (48 Stimmen)
640 bis 896 MB - kein Speicher-Aufrüstbedarf.
0% (11 Stimmen)
640 bis 896 MB - sehe Aufrüstbedarf aufgrund des Speichers.
1% (29 Stimmen)
1024 MB - kein Speicher-Aufrüstbedarf.
12% (344 Stimmen)
1024 MB - sehe Aufrüstbedarf aufgrund des Speichers.
9% (263 Stimmen)
1280 bis 1536 MB - kein Speicher-Aufrüstbedarf.
2% (65 Stimmen)
1280 bis 1536 MB - sehe Aufrüstbedarf aufgrund des Speichers.
2% (66 Stimmen)
2048 bis 2560 MB - kein Speicher-Aufrüstbedarf.
30% (864 Stimmen)
2048 bis 2560 MB - sehe Aufrüstbedarf aufgrund des Speichers.
5% (148 Stimmen)
3 GB - kein Speicher-Aufrüstbedarf.
18% (519 Stimmen)
3 GB - sehe Aufrüstbedarf aufgrund des Speichers.
2% (65 Stimmen)
4 GB - kein Speicher-Aufrüstbedarf.
7% (208 Stimmen)
4 GB - sehe Aufrüstbedarf aufgrund des Speichers.
1% (17 Stimmen)
6 GB - kein Speicher-Aufrüstbedarf.
2% (54 Stimmen)
6 GB - sehe Aufrüstbedarf aufgrund des Speichers.
0% (4 Stimmen)
8 GB oder mehr - kein Speicher-Aufrüstbedarf.
1% (30 Stimmen)
8 GB oder mehr - sehe Aufrüstbedarf aufgrund des Speichers.
1% (32 Stimmen)
Gesamte Stimmen: 2841
28

Hardware- und Nachrichten-Links des 28. März 2014

Laut Nordic Hardware (maschinelle Übersetzung ins Deutsche) soll AMDs DualChip-Lösung "Radeon R9 295X2" schon am 8. April offiziell vorgestellt werden, eine Lieferbarkeit wird für Mitte April erwartet. Dies wäre dann wohl früher als nVidias GeForce GTX Titan Z, welche nach derzeitigem Informationsstand irgendwann Ende April bis Mai antreten soll. Daneben haben Nordic Hardware noch die sich allerdings widersprechende Information fallen lassen, die Radeon R9 295X2 soll mit dem Vollausbau des Hawaii-Chips antreten – mit (Zitat) 2x 2560 Shader-Einheiten. Der Hawaii-Chip verfügt im Vollausbau allerdings über 2816 Shader-Einheiten, die 2560 Shader-Einheiten sind bei der abgespeckten Variante in Form der Radeon R9 290 anzutreffen.

Welche der beiden Auslegungsformen hier korrekt ist, bliebe abzuwarten – aber besonders wahrscheinlich sind die vollen 2x 2816 Shader-Einheiten angesichts des kolportierten Chiptakts von (bis zu) 1000 MHz nicht. Besonders zu beachten wäre hierbei sowieso, auf welchen realen Chiptakten die Karte in der Praxis läuft – bei AMDs "bis-zu-Angaben" ist schließlich alles möglich und nichts garantiert. Insbesondere mit gleich zwei Hawaii-Chips auf derselben Platine dürfte die Radeon R9 295X2 in erhebliche thermische Probleme laufen und im Normalfall erscheint daher eine (nahezu) Performance-Verdopplung gegenüber der Radeon R9 290X als ausgeschlossen. Nur, wenn AMDs für die Radeon R9 295X2 angedachter Hybrid-Kühler wirklich exzellent funktioniert, wäre dies möglich – doch angesichts der Erfahrungen mit den bisher von den Grafikchip-Entwicklern angesetzten Referenz-Kühler bleibt die Performance der Radeon R9 295X2 streng auf erste reale Benchmarks abzuwarten.

Videocardz erwähnen zudem in ihrer Berichterstattung noch eine "GeForce GTX 790" – mit der allerdings kaum belastbaren Begründung, daß jene seitens nVidia nicht explizit abgesagt wurde. Üblicherweise dementieren (oder kommentieren) die Hersteller ihre kommenden Produkte allerdings nicht, so daß es kaum zu jener Absage kommen könnte. Zudem spricht gegen eine GeForce GTX 790, das man eher selten gleich zwei DualChip-Projekte (desselben Anbieters) gleichzeitig in den Markt schickt. Für eine GeForce GTX 790 spricht allerdings, daß die GeForce GTX Titan Z einen monströsen Preispunkt (von 2999 Dollar) hat und nVidia eventuell einen Kontrahenten für die für 999 Dollar zu erwartende Radeon R9 295X2 benötigen könnte. Mittels abgespeckten GK110-Chips wäre eine solche GeForce GTX 790 in jedem Fall realisierbar – ob nVidia eine solche Karte baut, liegt damit jedoch immer noch im Feld reinster Spekulationen.

Nachzutragen von der GPU Technology Conference (GTC) ist noch eine Änderung von nVidias SoC-Roadmap, welche der Heise Newsticker gut dokumentiert: Dort, wo bisher der Nachfolger von Tegra K1 (Codename "Logan") namens "Parker" stand, steht nunmehr mit "Erista" ein neuer Codename. Zudem ist der Hinweis auf die Verwendung der nVidia-eigenen Denver-CPU bei "Erista" verschwunden, was bei "Parker" noch ein Hauptmerkmal war. Wie dies zu deuten ist, bleibt mangels weitergehender Informationen unklar. Augenscheinlich ist jedoch, daß sich nVidia bei seinen SoCs wieder mehr auf die GPU-Seite bzw. die schnellstmögliche Umsetzung der jeweils aktuellen GPU-Technolopgie für den SoC-Bereich konzentriert. Ob dies im SoC-Markt jedoch überhaupt goutiert wird, steht nach wie vor zu bezweifeln – der Markt an SoCs mit bewußt hoher Grafikleistung ist arg limitiert, üblicherweise zählen im SoC-Markt gänzlich andere Werte (CPU-Leistung, Modem-Integration und vor allem Akku-Laufzeit).

28

Neuer 3DTester-Artikel: Lepa Lepad V17 Notebook Cooler

Seit fast drei Jahren finden sich nun die Produkte von Lepa am deutschen Markt. Geboten werden PC-Gehäuse, mehrere dutzend Netzteile und reichlich Lüfter. Doch den meisten Anwendern ist diese Marke noch immer kein Begriff. Mit einem großen Messeauftritt auf der diesjährigen CeBIT und reichlich neuen Produkten will man dies nun ändern. Auch wir wollen uns ein Bild von dieser Marke machen und der Frage nachgehen, welches Gefüge von Preis, Ausstattung und Qualität bei Lepa herrscht. Hierfür bedienen wir uns dem Lepa Lepad V17. Er ist Lepas erster Notebook-Kühler und seit Februar 2014 auf dem Markt.

Lepa Lepad V17 Notebook Cooler

Mit einem Preis ab 15 Euro zielt er auf die preisbewussten Anwender, doch dass ist wohl nicht sein einziges besonderes Merkmal. Obwohl er auch große 17" Notebooks kühlen kann, ist schon auf dem ersten Blick ersichtlich, dass das Lepa Lepad V17 ein mobiler Notebook-Kühler ist. Mit anderen Worten: Kühlen wie ein Großer und mobil wie ein Kleiner. Mal sehen, ob ihm das auch in der Praxis gelingt und was er sonst noch zu bieten hat... zum Artikel.

27

Hardware- und Nachrichten-Links des 27. März 2014

Bei Phoronix hat man sich mal wieder den Stand der Linux-Treiber bei AMD angesehen – mit durchaus sehr positiven Nachrichten: Vergleicht man es es direkt mit Performance-Ergebnissen von Windows 8.1, so kommt der freie Gallium3D-Treiber unter Ubuntu zwar überhaupt nicht von der Stelle, erzielt satte 45,5% weniger Performance als unter Windows 8.1 zur Verfügung gestellt. Der neue Linux-Catalyst 14.3 Beta kommt dagegen dem Performance-Ergebnis unter Windows 8.1 mit einem Minus von nur 1,3% schon so nahe, daß man schon fast von keiner Differenz mehr reden kann. Die sich anbahnende Bedeutungszunahme von Linux im Spiele-Einsatz scheint derzeit alle diejenigen Effekte auf Linux hervorzubringen, welche man sich eigentlich schon vor Jahren vom freien Betriebssystem versprach – und macht es Linux in der Folge noch einfacher, gegenüber Windows auch als Spiele-Maschine zu bestehen.

Der Heise Newsticker berichtet genaueres zu der früher schon bekannten, aber bislang nirgendwo erläuterten Möglichkeit der Verlängerung des Windows-XP-Supports: Dieses Angebot Microsofts richtet sich nur an Unternehmen, kostet dementsprechend Geld und setzt auch – laut dem Willen von Microsoft – einen existierenden Update-Plan auf ein neueres Microsoft-Betriebssystem. Der monetäre Einsatz soll zudem so hoch sein, daß jener sich für viele Unternehmen nicht lohnen soll – sprich, wahrscheinlich kostet die Support-Verlängerung mehr als die direkten Umstellungskosten auf ein neues Betriebssystem. Derzeit will die IT-Abteilung des Bundeslandes Niedersachen diesen Weg gehen, eventuell folgen weitere Unternehmen und Behörden.

Damit dürfte Microsoft dann doch zumindest wichtige Sicherheitspatches auch für Windows XP erstellen – aufgrund des kleinen Kundenkreises ist es jedoch nicht besonders wahrscheinlich, daß jene Sicherheitspatches dann auch in die Öffentlichkeit gelangen. Unter Umständen sichert sich Microsoft auch technisch ab, beispielsweise dadurch, daß sich jene Sicherheitpatches dann nur auf Rechnern mit einer speziellen Lizenz installieren lassen, die Microsoft nur im Rahmen des verlängerten Supports vergibt. Die Chance, über diesen Weg nach dem 8. April 2014 noch an Sicherheits-Updates zu Windows XP zu kommen, ist marginal und sollte nicht davon abhalten, schnellstmöglich über einen Wechsel zu Windows 7/8 nachzudenken.

Der Heise Newsticker berichtet über professionelle Coin-Produzenten, welche Mining-Farmen mit ASIC-Rechnern in Gegenden hochziehen, wo man mit 2,4 US-Cent pro Kilowattstunde konkurrenzlos günstige Strompreise bekommt. Dies sollte allen Coin-Interessierten Stoff zum Nachdenken darüber geben, wie sinnvoll das Coin-Minern sein kann bzw. welche Chancen man hat, gegenüber solchen Angeboten bestehen zu können. Eine noch drastischere Rechnung läßt sich aufmachen, wenn man Coin-Hacking mit einrechnet, wo also Coins von Schadprogrammen faktisch kostenlos erzeugt werden. Wie es vorgestern schon angesprochen wurde, muß ein Coin-Angebot, welches sich neben Bitcoin wirklich durchsetzen will, möglichst viele Nutzer erreichen (und muß diesen auch Gewinn erbringen) – und darf sich damit auf der Gegenseite möglichst schlecht durch professionelle Miner ausnutzen lassen. Derzeit ist leider kein solches Coin-Angebot zu sehen, alle vorhandenen Coin-Angebote driften in die Richtung, einige wenige Nutzer reich und den Rest zu Arbeitsbienen zu machen.

27

AMDs "Carrizo" Mainstream-APU für 2015 bringt DDR4-Support

Seitens dem BSN kommt eine ganze Reihe an Details zu AMDs "Carrizo" Mainstream-APU für das Jahr 2015, welche dann in Ablösung der aktuellen Mainstream-APU "Kaveri" gehen wird. Markante Punkte von Carrizo sind die Verwendung der Excavator-Ausbaustufe der Bulldozer-Architektur auf CPU-Seite sowie die Weiterverwendung der GCN-basierten Grafiklösung in einer "Volcanic Islands" vergleichbaren Technologiestufe auf GPU-Seite. Hinzu kommt nun offenbar ein Kombi-Speicherinterface, welches sowohl DDR3- als auch DDR4-Speicher (aber sicher nicht gleichzeitig) beherrscht. Deswegen wird Carrizo (zusammen mit DDR3-Speicher) voraussichtlich auch in Mainboards des Sockels FM2+ eingesetzt werden können – während die Verwendung von DDR4-Speicher automatisch neue Mainboards und wohl auch einen neuen Sockel (FM3?) bedingt.

Mittels des prinzipiellen Supports von DDR4-Speicher hält sich AMD wohl schlicht alle Möglichkeiten offen – gebraucht wird diese Speichersorte jedoch kaum bei Carrizo, da DDR4-Speicher für den Mainstream-Ansatz von Carrizo zu teuer sein dürfte und bis auf die integrierte Grafiklösung der Prozessor auch nicht vom schnelleren Speicher profitiert. Die integrierte Grafiklösung von Carrizo dürfte gegenüber Kaveri (8 Shader-Cluster aka 512 Shader-Einheiten) kaum größer ausfallen, da Carrizo wir auch schon Kaveri weiterhin in der 28nm-Fertigung daherkommen soll. Allerhöchstwahrscheinlich wird es dieselbe 28nm-Bulk-Fertigung von GlobalFoundries wie bei Kaveri, da AMD seine Mindestabnahme-Verträge mit GlobalFoundries erfüllen muß und kein anderes Chipprojekt von AMD in ähnliche Stückzahlen geht wie diese Mainstream-APUs.

Die Weiterverwendung der 28nm-Fertigung limitiert ganz allgemein die Aussichten von Carrizo: Wahrscheinlich gibt es nur ein wenig mehr CPU-Power durch die Verbesserungen der Excavator-Rechenkerne, vielleicht hier und da allgemeine Verbesserungen und möglicherweise auch mehr Takt zu gleicher Leistungsaufnahme. Damit sind durchaus +10% bis +20% herauszuholen – was nicht schlecht wäre, aber auch keinen großen Sprung bedeuten würde. Wie AMD damit gegenüber Intels 2015er Angeboten in der 14nm-Fertigung (glatt die Hälfte von AMDs 28nm-Fertigung!) bestehen will, ist schleierhaft – gerade wenn es (im Mobile-Segment) um die Performance normiert auf eine definierte TDP geht, dürfte dies ganz schwierig werden. Dabei sind AMDs Mainstream-APUs den Intel-Kontrahenten technologisch schon eine ganze Weile überlegen, nur wird dies durch Intels massiven Vorsprung in der Chipfertigung größtenteils wieder aufgehoben, Intels höhere Marktmacht verhindert zudem größere AMD-Erfolge insesondere im OEM-Geschäft sehr effektiv.

Llano Trinity Richland Kaveri Carrizo
Fertigung 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 32nm SOI GlobalFoundries 28nm Bulk GlobalFoundries 28nm Bulk GlobalFoundries
Die-Daten 1,45 Mrd. Transistoren auf 228mm² Die-Fläche 1,3 Mrd. Transistoren auf 246mm² Die-Fläche 2,41 Mrd. Transistoren auf 245mm² Die-Fläche wahrscheinlich ähnlich wie Kaveri
CPU-Unterbau 4 Husky-Rechenkerne der K10.5-Architektur 4 Piledriver-Rechenkerne der Bulldozer-Architektur 4 Steamroller-Rechenkerne der Bulldozer-Architektur 4 Excavator-Rechenkerne der Bulldozer-Architektur
CPU-Takt maximal 3.0 GHz maximal 4.2 GHz (unter TurboCore) maximal 4.4 GHz (unter TurboCore) maximal 3.7 GHz (unter TurboCore) ?
Grafikeinheit 400 VLIW5 Shader-Einheiten (20 TMUs, 8 ROPs) mit maximal 600 MHz Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 800 MHz TurboCore-Takt 384 VLIW4 Shader-Einheiten (24 TMUs, 8 ROPs) mit maximal 844 MHz TurboCore-Takt 512 (1D) Shader-Einheiten (32 TMUs, 8 ROPs) mit maximal 720 MHz TurboCore-Takt wahrscheinlich ähnlich wie Kaveri
Speicherinterface 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/1866 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3, maximal DDR3/2133 128 Bit DDR3/DDR4 Kombi-Interface
Featureset SSE4a, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, DirectX 11.0 SSE4a, AVX 1.1, FMA3/4, GCN 1.1, DirectX 11.2b, HSA, Mantle, TrueAudio SSE4a, AVX2, FMA3/4, GCN 1.1, DirectX 11.2b, HSA, Mantle, TrueAudio +?
Sockel FM1 FM2 FM2 FM2+ FM2+ (DDR3)
FM3 (DDR4)
Launch 14. Juni 2011 Mobile: 15. Mai 2012
Desktop: 2. Oktober 2012
Mobile: 12. März 2013
Desktop: 5. Juni 2013
Desktop: 14. Januar 2014
Mobile: Sommer 2014
erwartet Anfang 2015

Ein interessanter Punkt von Carrizo ist die Integration eines Mini-Chipsatzes direkt in die CPU. Jener bietet Support für zwei SATA3-Ports, vier USB3.0-Ports, acht USB2.0-Ports sowie einem SD-Cardreader und dürfte damit für die Bedürfnisse von Mobile-Rechnern ausreichend sein. Im Desktop-Einsatz wird dieser Mini-Chipsatz deaktiviert und es kommt ein gewöhnlicher, großer Mainboard-Chipsatz zum Einsatz, welcher per PCI Express 3.0 angebunden wird. AMDs Carrizo ist damit die erste CPU, welche PCI Express 3.0 auch seitens des Mainboard-Chipsatzes nutzt – interessant für die schnellstmögliche Anbindung von SSDs, welche direkt oder indirekt an PCI Express angebunden sind. Dafür muß bei Carrizo allerdings die Grafikkarten-Anbindung leiden: Gibt es bei Kaveri 16+8 PCI Express Lanes (16 für die Grafikkarte, 8 zum Mainboard-Chipsatz), sind es bei Carrizo nunmehr nur noch 8+8 PCI Express Lanes, die Grafikkarte muß also mit nur noch 8 PCI Express Lanes – allerdings der Versionsnummer 3.0 – auskommen. Für die bei dieser Mainstream-APU üblicherweise eingesetzten Grafikkarten dürfte dies eigentlich keinen Unterschied ausmachen, ein Schönheitsfehler ist es trotzdem.

Inhalt abgleichen