23

Hardware- und Nachrichten-Links des 22./23. November 2014

Beim Planet 3DNow! hat man sich angesehen, was AMD so an günstigen Mini-ITX-Grafikkarten bereithält – getestet wurden somit Radeon R7 240, Radeon R7 250 mit DDR3- und GDDR5-Speicher sowie die Radeon R7 260X. Wenig überraschend gewinnt natürlich letztgenannte Grafikkarte, da jene eine durchaus ernsthafte Einsteiger-Lösung darstellt, während Radeon R7 240 & 250 eher Spaßangebote sind, welche nicht schneller als die integrierte Grafik von AMDs modernen APUs ausfallen. Interessant und sehr bemerkenswert ist allenfalls der extreme Performancegewinn der Radeon R7 250, wenn man jene mit GDDR5- anstatt mit DDR3-Speicher ausstattet: Zwischen 50-55% geht es hierbei allein durch den GDDR5-Speicher nach oben – ein deutlicher Hinweis darauf, daß die höheren Bandbreiten von GDDR5-Speicher heutzutage selbst im Einsteiger-Bereich einfach notwendig sind, um die Grafikchips wirklich auszureizen und von der Performance her halbwegs auf einen grünen Zweig zu kommen.

Das Angebot an Mini-ITX-tauglichen Grafikkarten (bis Baulänge 17cm) geht allerdings noch etwas weiter als die genannte Radeon R7 260X (Perf.Index 200%): Bei AMD gibt es noch eine einzelne Radeon R9 270X (Perf.Index 290%) seitens MSI im Mini-ITX-Format, die Karte stand vor einiger Zeit bereits im Test bei HT4U. Auf nVidia-Seite gibt es eine ganze Reihe an Modellen der GeForce GTX 750 (Perf.Index 185%) und GeForce GTX 750 Ti (Perf.Index 210%), welche jene Baulängen-Anforderung erfüllen und sich zudem durch ihre bekannte Genügsamkeit beim Stromverbrauch generell für den Mini-ITX-Einsatz eignen. Für höhere Ansprüche gibt es bei nVidia dann noch eine einzelne GeForce GTX 760 (Perf.Index 310%) seitens MSI sowie eine einzelne GeForce GTX 970 (Perf.Index 490%) seitens Gigabyte zur Auswahl. Technisch läßt sich somit jeder Performance-Anspruch auch im Mini-ITX-Format erfüllen – wobei bei den letztgenannten Modellen Kühlung und Stromversorgung schon wieder entsprechend groß sein müssen, halt nur der Formfaktor kleiner ist.

Der Spiegel berichtet (die Klickrate hochtreibend) über "Angriffspläne" gegenüber Google, welches vom EU-Parlament "zerschlagen" werden soll. Dahinter steckt in der Tat ein Antrag des EU-Parlament, Suchmaschinen von anderen kommerziellen Diensten zu trennen, was Google sicherlich hart treffen würde bzw. den eigentlichen Sinn des ganzen Unternehmens in Frage stellt. Allerdings ist das EU-Parlament rechtlich nur ein Debattierclub, welcher keinerlei Entscheidungsgewalt hat und vor allem nicht eigeninitiativ irgendetwas beschließen kann. Daher kann man das EU-Parlament auch sehr gut für irgendwelche Testballons (oder die Selbstbeschäftigung der Abgeordneten) benutzen, um zu sehen, wie die jeweilige Gegenseite reagiert. Möglicherweise soll hier schlicht ein gewisser Druck gegenüber Google aufgebaut werden, damit Google dann an anderer Stelle die Wünsche der EU erfüllt. Eine echte Chance auf die Durchsetzung dieser Idee existiert jedoch nicht – und dies schon allein deswegen, weil die EU nicht festlegen kann, wie sich ein US-Unternehmen organisiert.

Golem berichten hingegen über "Google Contributor" – ein neuer, experimenteller Google-Dienst, mit welchem man gegen Gebühr die Google-basierte Werbung auf allen teilnehmenden Webseiten ausblenden kann. So etwas funktioniert natürlich nur, wenn viele Webseiten und viele Nutzer teilnehmen – aber ausgerechnet Google ist sicherlich in der Position, dies erreichen zu können. Die derzeit frei wählbare Monatsgebühr zwischen 1 und 3 Dollar spricht nicht gegen einen Erfolg, gerade weil davon dann die teilnehmenden Webseiten beteiligt werden. Eher problematisch ist, daß damit allein die Werbung über Googles eigenes Werbenetzwerk "Google Adsense" ausgeblendet werden kann – auf Webseiten, welche mehrere Werbequellen haben, kommt dann natürlich nur ein Teilerfolg heraus.

Interessant ist das ganze deswegen, weil sich Google hiermit das zweite, gegensätzliche Standbeim zum großen Geldbringer "Google Adsense" zu schaffen versucht: Die eine Hälfte der Internet-Nutzer akzeptiert die Google-Werbung, die andere Hälfte zahlt dafür, keine Google-Werbung zu bekommen. Das System wäre dann aus Sicht Googles ideal, weil gefeit vor allen Schwankungen der Nutzermeinung – egal was der Nutzer will, Google bietet beide Seiten derselben Medaille an. Aus wettbewerbsrechtlicher Sicht ist das ganze natürlich desaströs, weil sich Google damit nochmals betonfester in diesem Markt festsetzt – was die (von "Google Adsense" her bekannten) Auswirkungen haben kann, daß am Ende Google den Löwenanteil der Einnahmen einsackt und die Webseiten-Betreiber mit Brotkrumen abgespeist werden. Die Idee hat in jedem Fall etwas für sich, aber es darf bezweifelt werden, daß es für alle Beteiligten sinnvoll ist, Google eine weitere Monopolstellung in den Hände zu geben.

22 22

Wieviel Grafikkartenspeicher sind derzeit für einen Neukauf ideal?

Einige der heutigen Spieletitel fordern inzwischen 4 oder gar 6 GB Grafikkartenspeicher für eine flüssige Performance unter den höchsten Texturensettings und Auflösungen ab. Und auch wenn dies teilweise auf schlechte Spieloptimierungen hindeutet oder/und sich dies in der Praxis als übertriebene Anforderungen herausgestellt hat – die Anforderungen an Grafikkartenspeicher sind mit dieser Spielegeneration klar explodiert und werden auch in der Zukunft sicherlich eher zulegen als stagnieren. Momentan gibt es zwar auf Grafikkarten mit "nur" 2 GB Grafikkartenspeicher noch keine großen Probleme, aber jene scheinen sich schon anzukündigen. Trotzdem bleibt es natürlich eine Streitfrage, wieviel Grafikkartenspeicher derzeit denn nun wirklich vonnöten sind.

Um in jeder Streitfrage die Meinung der Community besser zuzusammenzufassen, ergeht diese Umfrage – welche danach fragt, nach wieviel Grafikkartenspeicher man derzeit bei einem Neukauf schauen sollte. Als Monitor-Bemessungsgröße (nicht unwichtig, da zwischen FullHD und 4K hier deutliche Unterschiede existieren können) nehmen wir mal FullHD und 2560x1600. Die neu gekaufte Grafikkarte sollte also genügend Speicher für beide Auflösungen mitbringen – denn selbst wenn man derzeit "nur" FullHD nutzt, könnte in Zukunft ja ein neuer Monitor mit 2560x1600 anstehen. Für diese Aufgabe – jetzt neu gekaufte Grafikkarte für FullHD und 2560x1600 – steht also die eine Frage: Wieviel Grafikkartenspeicher sollte diese idealerweise mitbringen?

2 GB
5% (122 Stimmen)
3 GB
5% (140 Stimmen)
4 GB
54% (1458 Stimmen)
6 GB
13% (359 Stimmen)
8 GB
23% (617 Stimmen)
Gesamte Stimmen: 2696
22

Neuer 3DTester-Artikel: ASRock AM1B-ITX Mainboard

Nach einigen Intel-Mainboards wollen wir mit dem ASRock AM1B-ITX uns nun auch mal eine AMD-Platine näher ansehen. Bei ihr handelt es sich um ein Board mit AM1-Sockel, den AMD vor knapp einem halben Jahr auf den Markt brachte, um auch im unteren Leistungssegment eine aufrüstbare, flexible und (nicht zuletzt) stromsparende Lösung zu bieten ... zum Artikel.

ASRock AM1B-ITX Mainboard
21

Hardware- und Nachrichten-Links des 21. November 2014

Golem berichten über einen Vortrag von Intel zur Broadwell-Architektur sowie zu Intels 14nm-Fertigung, bei welcher Intel auch offen zugab, daß absolut gar nichts am Broadwell-Design letztlich 14nm ist – weder irgendwelche Bauelemente noch irgendwelche Abstände der Bauelemente untereinander. Im genauen sind die Maßstäbe bei Broadwell sogar deutlich größer – und zwar im Rahmen von 42nm bis 80nm. Dies deutet darauf hin, daß diese kleine Schummelei der Halbleiter-Hersteller schon seit vielen Generationen am laufen ist. Nichtsdestotrotz wurden die Maßstäbe gegenüber der vorhergehenden 22nm-Fertigung überall um die Faktoren 0.65 bis 0.78 unterboten, in der Summe ergibt sich also trotzdem eine ungefähre Halbierung der Chipfläche bei gleichem Design und gleicher Transistorenanzahl. Bei den anderen Halbleiter-Herstellern läuft es ähnlich, auch dort passen die offiziellen Größenangaben überhaupt nicht mehr zu den real hergestellten Größen.

Die DigiTimes berichten im Nebensatz über den "Wiedereinstieg von VIA in den PC-Markt" in der zweiten Jahreshälfte 2015, basierend auf entsprechenden x86-Prozessoren und neuen Grafikchips. Was sich hochtrabend anhört, muß jedoch tatsächlich nicht viel bedeuten, VIA könnte schlicht und ergreifend seine bisherige LowCost- und LowEnd-Strategie neu aufleben lassen und entsprechend neue Produkte vorbereiten – sicherlich primär für den großen und preissensitiven chinesischen Markt. Daß dabei irgendetwas herauskommt, was auch im Westen Beachtung findet oder verdient, darf bezweifelt werden, so lange es nicht vorliegt – VIA hat in der Vergangenheit schon zu oft Großes versprochen und am Ende nur LowEnd-Spielereien geliefert, welche man zwar gut (in Asien) verkaufen konnte, was aber keinen echten Einfluß auf die generelle PC-Entwicklung hatten.  (Foren-Diskussion zum Thema)

Durch das englischsprachige Weg fressen sich derzeit Gerüchte, wonach der neue und bislang ungeknackte Denuvo-Kopierschutz für Spiele die Lebensdauer von SSDs deutlich reduzieren soll. Angeblich käme es mit dem Denuvo-Kopierschutz zu einer 1000fach stärkeren Schreiblast auf der Festplatte, was im Fall von SSDs mit ihren limitierten Schreibzyklen deren Lebensdauer (erheblich) begrenzen soll. Ob dies wirklich eine SSD in die Knie zwingen kann, darf allerdings allein aufgrund der Schilderung bezweifelt werden: Selbst wenn irgendeine Datei wirklich so häufig auf die Platte geschrieben wird, müsste es sich um Gigabyte-große Daten handeln, damit dies die SSD wirklich berührt. Einzelne Sektoren einer SSD sind bei modernen Modellen sowieso nicht mehr gezielt "kaputtschreibbar", da moderne SSDs die anfallenden Schreibzugriffe über alle verfügbaren Sektoren verteilen.

So verteilt sich ein 1000fach höherer Schreibwert bei einer kleinen oder mittelgroßen Datei im Endeffekt automatisch über die gesamte SSD und senkt deren Lebenserwartung (sowie die einzelner Sektoren) nur geringfügig. Selbst mit den angeblichen bis zu 50 GB pro Stunde Schreiblast ist eine SSD durch ein Spiel nicht auf die Schnelle kaputtschreibbar, immerhin werden SSDs heutzutage üblicherweise mit über 20 GB pro Tag Schreibleistung spezifiziert, wobei dieser Wert zum einen viel Reserve enthält und zum anderen jahrelang gehalten werden kann. Davon abgesehen gibt es inzwischen reihenweise Gegenanzeigen von Nutzern des Denuvo-Kopierschutzes, welche diese angeblich 1000fach stärkere Schreiblast nicht bestätigen können. Für den Augenblick kann man von Einzelfällen mit diesem Problem ausgehen, möglicherweise aber auch schlicht Auslese- oder Deutungsfehler.  (Foren-Diskussion zum Thema)

Passend zum Thema SSDs vermelden WinFuture neue 3D-Flashspeicher von Intel, auf welchen man mittlerweile 32 GB Speicher pro Chip unterbringt, bei TLC-Speicher sogar 48 GB pro Chip. Dies ist exakt das dreifache von dem, was Samsung derzeit mit seinem 3D-Flashspeicher schafft – und läuft letztlich darauf hinaus, daß auch in Zukunft die Größen von SSDs, USB-Sticks und Smartphone/Tablet-Speicher weiter deutlich wachsen können, zum nahezu gleichen Preis wohlgemerkt. Intels neue 3D-Flashspeicher werden zwar erst in der zweiten Jahreshälfte 2015 ausgeliefert werden – zu diesem Zeitpunkt dürfte von Samsung zudem eine weitere Generation an 3D-Flashspeichern zu erwarten sein, welche womöglich ähnliche Steigerungen der Speicherdichte mitbringt. In jedem Fall steht die Innovation im Bereich der Flashspeicher-basierten Produkte noch lange nicht still, sind hier augenscheinlich nach wie vor große Sprünge möglich.

Kleine interne Verbesserung: Den Bilder-Galerien (für News & Artikel) wurde eine eigene Bilder-Galerie für Roadmaps hinzugefügt und der Bilderbestand entsprechend umverteilt. Nunmehr lassen sich in der Roadmaps-Galerie alle möglichen Hersteller-Roadmaps aus näherer und weiterer Vergangenheit wiederfinden.

21

AMD kündigt Carrizo & Carrizo-L für Mitte 2015 an

AMD hat mittels Pressemitteilung und neuer Mobility-Roadmap seine Pläne für die Carrizo-APU offengelegt und auch Auskunft über einige technische Feinheiten dieser gegeben. So wurde die Integration einer Southbridge bestätigt – da es allerdings gleichfalls zum Wegfall der Hälfte des Level2-Caches kommen soll, bleiben trotzdem immer noch hunderte Millionen Transistoren im Vergleich zur aktuellen Kaveri-APU, welche Carrizo somit schwerer ist. Allein mit dem DDR4-Speicherinterface und den (erstmalig) kompletten HSA-Fähigkeiten ist dies kaum erklärbar, unter Umständen hat AMD hier also noch eine Überraschung in petto. Eine eher negative Überraschung ist allerdings der von AMD angegebene Releasetermine, wonach kauffähige Produkte erst zur Jahresmitte 2015 erhältlich sein werden. Zu Desktop-Produkten wurde im übrigen auffallenderweise nichts gesagt, AMD nannte das ganze sogar "2015 AMD Mobile APU Family" und sprach direkt Laptops und AiO-Systeme an, aber eben keine Desktop- bzw. Retail-Modelle.

Ebenfalls eine Überraschung hielt man dann noch für "Carrizo-L" parat: Hierbei handelt es sich nicht um eine Carrizo Mainstream-APU, sondern um eine umbenannte und leicht verbesserte Puma-basierte APU aus dem LowPower-Bereich. Deren Fähigkeiten dürften allerdings kaum über diejenigen der bisherigen Puma-basierten APUs "Mullins" und "Beema" hinausgehen, vollständige HSA-Fähigkeiten hat die integrierte Grafik beispielsweise nicht. Nachdem schon die bisherigen LowPower-Prozessoren von AMD – bis auf die Bastler-Gemeinde und einige LowCost-Notebooks – eher kaum angenommen wurden, versucht AMD scheinbar mit einer platten Umbenennung, hier mehr Geschäft zu machen – und dürfte dafür eher noch mehr abgestraft werden als früher, denn solch unverfrorenen Produkt-"Aufwertungen" durch Rebrandings kommen nicht gut an. AMD täte wirklich einmal gut daran, die komplette Strategie der kommunizierten Code- und Produktnamen grundlegend zu überdenken – derzeit ergibt sich da ein großes Wischiwaschi, resultierend in einer großflächigen Kundenverwirrung. Im übrigen wurde auch zu "Carrizo-L" derselbe Termin von Mitte 2015 genannt, der bislang kolportierte Frühstart noch in diesem Dezember scheint damit vom Tisch.

20

Hardware- und Nachrichten-Links des 20. November 2014

Gemäß Heise bereitet Futuremark die Mantle-Integration in die 3DMark-Reihe vor. Noch für den aktuellen 3DMark13 soll ein spezieller DrawCall-Test kommen, welcher die Differenzen zwischen DirectX 11, Mantle und DirectX 12 offenbaren kann – die beiden letzteren sollen dabei um den Faktor 6,5 schneller abschneiden als DirectX 11. Jener extra Test für den 3DMark13 soll noch dieses Jahr per Update nachgereicht werden. Für Ende 2015 ist hingegen ein "3DMark15" geplant (offiziell weiterhin nur "3DMark" genannt), welches regelrecht auf DirectX 12 basieren wird. In wie weit jener 3DMark15 dann auch Mantle als Option aufbietet oder aber wieder nur den extra DrawCall-Test anbietet, wurde noch nicht bekannt. Hinzu erwähnten Heise noch, daß Spielepublisher Capcom die Mantle-API in seine Spielengine "Panta-Rhei" integrieren wird, womit AMDs Grafik-API zukünftig eine noch breitere Basis bekommt.

Golem haben sich nochmals mit der Performance des Core M auf Broadwell-Basis beschäftigt – diesesmal im Vergleich mit Apples A8X sowie nVidias Tegra K1 64-Bit (Denver-basiert). In jenem Vergleich liegt mal der einen und mal der andere vorn, wobei gewisse Differenzen auch den unterschiedlich benutzten Betriebssystemen, CPU-Befehlssatzerweiterungen und Grafik-APIs geschuldet sein können – im groben läuft es wohl auf einen ungefähren Gleichstand hinaus. Dies allerdings nur unter dem Gesichtspunkt der absoluten Performance – genauer betrachtet erzielt der Core M seine Performance unter Unterstützung einer aktiven Kühlung, mit rein passiver Kühlung wären nicht so hohe Taktraten möglich bzw. könnten jene noch viel seltener gehalten werden. Die beiden ARM-basierten Pendants sind hingegen auch rein passiv kühlbar – was nicht nur mehr Einsatzzwecke ermöglicht, sondern eben auch deren Performance relativ gesehen deutlich aufwertet.

Die PC Games Hardware hat sich in einem kurzen Test den Athlon X4 860K angesehen – den ersten Kaveri-Prozessor ohne integrierte Grafik (faktisch mit abgeschalteter integrierter Grafik) und damit natürlich auch die erste reine CPU mit Steamroller-Rechenkernen, welche es bis dato immer noch nicht in den Bereich der FX-Modelle geschafft haben. Nicht untypisch für Kaveri-Prozessoren kann sich der Athlon X4 860K im Bereich von Anwendungs-Benchmarks gut mit Intels Core-i3-Serie anlegen, unter Spielen zieht dagegen der Intel-Prozessor (unter CPU-fordernden Settings) nach wie vor deutlich davon. Angesichts des Preispunkts von nur 65 Euro ist der Athlon X4 860K trotzdem eine Überlegung wert, das Preis/Leistungs-Verhältnis ist sogar besser als beim Intels Core i3 – bis auf eben den Spieleeinsatz, da geht die Tendenz aufgrund des großen Unterschieds dann doch wieder Richtung Intel. Andererseits sollte man als Spieler heutzutage sowieso eine Vierkern-CPU parat haben, die niedrigere Spiele-Performance unter diesen Rahmenbedingungen kaum zählen.

Passend hierzu ist die Meldung der ComputerBase über die Systemanforderungen zu Metal Gear Solid: Ground Zeroes auf dem PC: DirectX-11-Grafikkarte ab GeForce GTX 650, 4 GB Hauptspeicher und ein 64-Bit-Windows klingen erst einmal wohlbekannt, ein Vierkern-Prozessor ab der Sandy-Bridge-Baureihe mit mindestens 2.7 GHz Taktrate ist dagegen eine der höchsten bisher genannten minimalen CPU-Anforderungen. Hier darf natürlich die Frage gestellt werden, wie ernst der Spielepublisher diese Daten meint – gerade die Mischung aus HighEnd-CPU und LowCost-Grafikkarte erscheint wenig homogen und damit eher unglaubwürdig. Andererseits kann ein schlecht optimierter Konsolenport durchaus schon einmal CPU-Leistung zum Frühstück verspeisen – ganz ohne Grund wird man diese Angaben nicht gemacht haben. Es bleibt zu hoffen, daß das Spiel nicht gerade auf das Vorhandensein einer solchen CPU pocht (wie leider bei CoD aktuell der Fall), sondern sich auch mit kleineren bzw. älteren Prozessoren wenigstens starten läßt. Generell betrachtet dürften solcherart Anforderungen jedoch in Zukunft zunehmen, so daß man als Gaming-CPU wahrscheinlich wirklich nicht mehr unterhalb eines Vierkerners auf Sandy-Bridge-Basis bzw. einer gleichwertigen AMD-CPU einsteigen sollte.

Inhalt abgleichen