11

Hardware- und Nachrichten-Links des 10./11. Juni 2017

Videocardz zeigen eine Cryptomining-Station, welche mit 8 Stück GP106-100 Grafikkarten (samt Intel Celeron Mobile, 4 GB DDR4-Speicher und 64 GB mSATA-SSD) ausgerüstet ist. Die auch im Bild gezeigte Mining-Karte kommt in der Tat ohne jede Displayanschlüsse aus und wird sogar passiv gekühlt – wobei die Cryptomining-Station dafür an beiden Seiten des Gehäuses über eine ganze Batterie an Gehäuselüftern verfügt. Ausgehend von dem angegebenen Stromverbrauch von ~1000 Watt unter Ethereum dürfte (das restliche System sowie den Wirkungsgrad des Netzteils beachtend) zusätzlich das Power-Limit der verbauten Mining-Karten leicht abgesenkt sein – die GeForce GTX 1060 tritt regulär mit 120 Watt an, hier könnte es etwas niedriger liegen. Ob der GP106-100 Chip mit Hardware-Abspeckungen oder/und niedrigeren Taktraten antritt, ist damit noch nicht sicher zu sagen – allerdings würde es sich für nVidia durchaus lohnen, für diesen Verwendungszweck Grafikchips zu verkaufen, welche sonst eher auf der Halde gelandet wären. Gerade wenn man einen Auftragsstau bei den normalen Gamer-Grafikkarten verhindern will, lohnt es schließlich nicht, Grafikchips fürs Cryptomining zu verwenden, die eigentlich für Gamer-Grafikkarten gebraucht werden. AMD dürfte vermutlich an etwas ähnlichem arbeiten, ist aber derzeit derart krass ausverkauft, das die Normalisierung der Grafikkarten-Preise noch eine ganze Weile brauchen wird.

11

Microsoft bringt die "Xbox One X" am 7. November 2017 für 499 Dollar

Mit seiner E3-Pressekonferenz hat Microsoft nunmehr sein Project Scorpio offiziell vorgestellt und der kommenden Spielekonsole sowohl einen Namen, als auch einen festen Launchtermin und einen Preis gegeben: Die neue Xbox wird somit unter dem Verkaufsnamen "Xbox One X" am 7. November 2017 weltweit für 499 Dollar in den Handel gehen – sofern Microsoft an seiner bisherigen Strategie festhält, dürfte der Euro-Preis derselbe sein. Die Hardware-Daten der neuen Konsole hatte man bereits vor einiger Zeit offengelegt, an diesen ändert sich nichts. Allenfalls wurde nochmals bestätigt, das die Xbox One X über eine verbesserte Jaguar CPU-Kerne verfügen soll – was durchaus beachtlich ist, denn AMD selber hatte die Weiterentwicklung dieser Prozessorenlinie schon vor einiger Zeit eingestellt. Hinzu kommt natürlich ein erheblich höherer CPU-Takt, der für sich allein schon für +31% mehr CPU-Performance steht.

Xbox One Xbox One X Verbesserung
CPU 8 Jaguar-Cores @ 1.75 GHz 8 "Jaguar+" Cores @ 2.3 GHz +31% mehr CPU-Leistung
(zuzüglich CPU-interne Verbesserungen)
GPU GCN2 Grafiklösung mit 12 CUs (768 Shader-Einheiten) @ 854 MHz = 1,31 TFlops Rechenleistung GCN4+ Grafiklösung mit 40 CUs (2560 Shader-Einheiten) @ ≤1172 MHz = 6,00 TFlops Rechenleistung +358% mehr GPU-Rechenleistung
eDRAM 32MB eDRAM @ 102,4 GB/sec
(= 512 Bit DDR-Interface @ 800 MHz)
entfällt -
Speicherinterface 256 Bit DDR3-Interface @ 1066 MHz = 68,3 GB/sec Speicherbandbreite 384 Bit GDDR5-Interface @ 3400 MHz = 326,4 GB/sec Speicherbandbreite +378% mehr Speicherbandbreite
Speicher 8 GB DDR3
(5 GB für Spiele nutzbar)
12 GB GDDR5
(9 GB für Spiele nutzbar)
+50% mehr Speicher
(+80% mehr für Entwickler nutzbar)
9

Hardware- und Nachrichten-Links des 8./9. Juni 2017

WCCF Tech haben einige Geekbench-3-Resultate zu Intels Core X in der Hand – welche augenscheinlich von den Overclocking-Aktivitäten um die Computex herum stammen, denn jene wurden ausschließlich auf extrem übertakteten Prozessoren vorgenommen. So schlägt das Geekbench-3-Resultat des Sechskerners Core i7-7800X sehr deutlich alles, was der Broadwell-E Sechskerner Core i7-6850K (auch übertaktet) auf die Reihe hat stellen können. Bei dieser Gelegenheit fällt aber auch auf, das die Geekbench-Datenbank die real anliegenden Taktraten nicht korrekt wiedergibt, viele klar übertaktete Ergebnisse unter dem default-Takt der jeweiligen Prozessoren angegeben werden – was die Aussagekraft dieser Benchmark-Sammlung massiv einschränkt. Bei den Geekbench-3-Resultaten zum Achtkerner Core i7-7820X sowie zum Zehnkerner Core i9-7900X setzt sich dies nahtlos fort, auch hier werden die Ergebnisse der Vorgänger-CPUs von Broadwell-E (Core i7-6900K & Core i7-6950X) meistens sehr deutlich geschlagen – wobei dies basierend auf Extremübertaktungen von Skylake-X Richtung 5.8 GHz auch keine besondere Kunst darstellt. Die Aussagekraft sowohl für den default-Betrieb als auch für die normalübliche Übertaktung liegt hier leider im Nullbereich.

9

Coffee-Lake-Sechskerner zeigt sich in der SiSoft Benchmark-Datenbank

In der Benchmark-Datenbank von SiSoftware hat unser aufmerksames Forum einen Eintrag zu einem (scheinbaren) Cannon-Lake-System entdeckt – scheinbar deswegen, weil sich das System sicherlich als "Cannon Lake" meldet, dann jedoch eine Sechskern-CPU zum Einsatz kam und sich die integrierte Grafik sehr eindeutig als "Coffee Lake" bezeichnete. Ein Sechskerner unter Cannon Lake ist allerdings arg unwahrscheinlich, diese CPU-Generation soll rein zum Austesten der 10nm-Fertigung und damit nur für Zweikerner im Mobile-Segment verwendet werden – sehr viel wahrscheinlicher ist hier tatsächlich eine CPU der Coffee-Lake-Generation, welche wie bekannt mit bis zu sechs CPU-Kernen noch in diesem Herbst antreten soll. Denkbar ist, das Intel hierbei für die internen Tests zu Coffee Lake dasselbe PC-Grundsystem verwendet, welches auch für die internen Tests zu Cannon Lake eingesetzt wird – sprich, selbes Mainboard und selber CPU-Sockel. Auf demselben PC-System wurde schließlich im April schon einmal eine Zweikern-CPU getestet, welche wahrscheinlich wirklich der Cannon-Lake-Generation entstammt (die Grafiklösung bezeichnete sich als "HD Graphics Gen9", nicht als "Coffee Lake").

7

Hardware- und Nachrichten-Links des 7. Juni 2017

Im aktuellen Crypto-Mining-Boom ziehen inzwischen sogar die Preise gebrauchter AMD-Grafikkarten spürbar an – die einen verkaufen ihre Radeon RX 400 Karten teurer als zum seinerzeitigen Neupreis, andere erleben beachtliche Preisaufschwünge für alte Radeon R9 290 & 390 Karten. Letztere waren ja schon immer zum Crypto-Minern beliebt – sind vielleicht nicht so energieeffizient wie die Radeon RX 400 Serie, aber immer noch sehr leistungsfähig. Im Zuge des aktuellen Booms gibt es von Phoronix und Legit Reviews entsprechende GPU-Vergleiche für das Ethereum-Mining – mit dem bekannten Ergebnis: AMD liegt hierbei vorn, deren höhere theoretische Rechenleistung läßt sich unter der Spezialaufgabe des Crypto-Minings einfach besser abrufen als unter Spielen. Bei den nVidia-Grafikkarten ist die GeForce GTX 1060 noch gut mit dabei und teilweise wegen ihrer Energieeffizienz eine Überlegung wert. Die GeForce GTX 1070 ist nicht schlecht, aber zu teuer, GeForce GTX 1080 und 1080 Ti fallen wegen der Nutzung von GDDR5X-Speicher deutlich ab, dies mag der Code von Ethereum überhaupt nicht. Ältere nVidia-Grafikkarten sind gänzlich nicht zu empfehlen, während von den älteren AMD-Grafikkarten die Radeon R9 290, 380 & 390 Serien gut mitspielen, die Fiji-basierten Grafikkarten hingegen trotz guter Leistungen hierfür zu teuer angelegt sind. Ganz an der Spitze steht bei Legit Reviews im übrigen eine Radeon R9 295X2 – womit jenes unter Spielen nur noch selten gut nutzbares DualChip-Konstrukt hier noch einmal zu neuen Ehren kommt.

7

Umfrage-Auswertung: Was stört derzeit an Linux als Gaming-Maschine?

Die Umfrage von letzter Woche ging dem Thema Linux-Gaming und den dort derzeit befindlichen Stolpersteinen aus User-Sicht nach. Hierbei wurden die drei Antwortoptionen "schlechtere Grafikkarten-Performance", "eingeschränktes Spiele-Angebot" und "Linux generell" einzeln und kombiniert zur Wahl gestellt – dies ermöglicht sicherlich keine Tiefenaussage, aber es kann in die Richtung der gröbsten Probleme zeigen. In dieser Frage führt die Antwortoption "eingeschränktes Spiele-Angebot" sehr deutlich mit einem Stimmenantel von immerhin 87,7% der Umfrage-Teilnehmer, welche sich an diesem Punkt stören. Die "schlechtere Grafikkarten-Performance" kommt immer noch auf beachbare 56,2% der Umfrage-Teilnehmer, während sich an "Linux generell" nur vergleichsweise wenige 29,5% der Umfrage-Teilnehmer stören.

6

Hardware- und Nachrichten-Links des 6. Juni 2017

AMD hat einen "offiziellen Vega Die-Shot" veröffentlicht – welcher natürlich Vega 10 darstellt und eher denn eine Die-Map als dann einen echten Die-Shot beinhaltet. Denn die von AMD vorgenommenen Einfärbungen der einzelnen Chip-Komponenten überdecken den eigentlichen Die-Shot derart stark, das man faktisch nichts mehr von letzterem erkennen kann. Insofern bleibt es beim Chip-Schema, welches mit seinen 64 Shader-Clustern sowie dem 2x 1024 Bit HBM2-Speicherinterface (mit demzufolge 2 HBM2-Stacks auf dem Package) gut zu erkennen ist. Interessant ist allenfalls, das angesichts dieser Die-Map teilweise über gleich 8 Raster-Engines oder aber wenigstens 8 Rasterizern bei Vega 10 spekuliert wird. Wobei man das auch anders sehen kann, insofern läßt sich dies derzeit wohl noch nicht als sicheren Hinweis betrachten. Eine gewisse Berechtigung hätten eine solche Veränderungen am Grafikchip-Aufbau sicherlich, denn die Chipfläche von (laut AMD) knapp unter 500mm² ist in jedem Fall mehr, als was man für einen Fiji-Chip (mit genauso 64 Shader-Clustern) geschrumpft von dessen 596mm² unter der 28nm-Fertigung auf nunmehr die 14nm-Fertigung an Chipfläche bräuchte. Würde man den Fiji-Chip unverändert auf die 14nm-Fertigung schrumpfen, sollte irgendwas mit ~300mm² herauskommen – insofern hat AMD in den nunmehr ~500mm² bei Vega 10 genug Platz gehabt, um substantielle Verbesserungen der Grafikchip-Architektur zu verwirklichen.

6

Umfrage-Auswertung: Welche SSD-Größen werden derzeit verwendet (2017)?

Mittels einer Umfrage von Ende Mai wurde wieder einmal die Größe der verbauten SSDs (pro PC) ermittelt – wie dies schon bei gleichlautenden Umfragen vom März 2014 sowie September 2012 geschehen war. Nicht gänzlich unerwartet sind dabei die benutzten SSD-Größen weiterhin deutlich nach oben gegangen, wobei gleichzeitig die SSD-Nichtnutzer stark abgenommen haben. Derzeit sind dies noch 3,6% – wobei darunter sicherlich der eine oder andere Alt-PC bzw. Alt-Notebooks sein dürfte, welche nicht mehr aufgerüstet werden werden. Auch die Nutzeranzahl von Hybrid-Festplatten, Mainboards mit SSD-Cache & reinen Caching-SSDs ist weiterhin zurückgegangen und liegt inzwischen nahe der Bedeutungslosigkeit. Diese Brückentechnologie zur Durchsetzung der SSD war allerdings auch nie besonders populär, sondern wurde vielmehr vom schnellen Erfolg der echten SSDs umgehend überrollt.

5

Hardware- und Nachrichten-Links des Pfingstfeiertage 2017

AMDs Vega-Demo auf der Computex ist immer noch für Gesprächsstoff gut – trotz das AMD eigentlich laut der PC Games Hardware hochoffiziell darauf hingewiesen hat, daß das eigentliche Demonstrationsobjekt hierbei die Threadripper-Plattform und deren viele PCI-Express-Lanes (64, bis zu 48 davon für Grafikkarten) war. Aber natürlich interessierte die versammelte Gamer-Gemeinde, ob sich aus der auf zwei Radeon RX Vega Grafikkarten ablaufenden Prey-Demo unter der UltraHD-Auflösungen irgendwelche Performance-Aussagen ableiten lassen. Auf Reddit rechnet man hierzu vor, das aufgrund des zu sehenden Tearings viel mehr fps berechnet wurden als was der möglicherweise mit 60 Hz laufende Projektor darstellen konnte – was dann in der konkreten Szene immerhin 162 fps ergeben würde, die real erzeugt wurden. Dies wäre selbst bei der Benutzung von zwei Radeon RX Vega Grafikkarten eine reife Leistung und würde in jedem Fall allen Schmähreden einen Riegel vorschieben, AMD bräuchte gleich zwei dieser Grafikkarten, um Prey flüssig darstellen zu können. Einen echten Vergleich zu anderen Grafikkarten läßt sich aus diesem Wert aber trotzdem noch lange nicht zimmern: Immerhin entsprach die gezeigte Szene nicht den üblichen Benchmark-Sequenzen unter Prey, davon abgesehen stellt die Refreshrate des Projektors (und damit die ganze These der 162 fps) immer noch nur eine reine Annahme dar.

3 3

Wieviel CPU-Kerne sind maximal noch sinnvoll im Desktop-Segment?

Mittels dieser Umfrage soll angesichts der kommenden Kern-Offensiven von AMD (Threadripper) und Intel (Core X) zu Prozessoren mit bis zu 16 bzw. 18 CPU-Kernen die Frage gestellt werden, ob dies nicht irgendwann für das Desktop-Segment zu viel des Guten wird – und wo die maximal noch sinnvolle Anzahl an CPU-Kernen für eine Neuanschaffung derzeit liegt. ContentCreation-Profis und andere Spezialfälle werden die Mehrkerne natürlich immer verbraten können, für solche Anwender stehen entsprechende Antwortoptionen zur Verfügung. Doch generell richtet sich die Frage eher an die "normalen Nutzer im HighEnd- und Enthusiasten-Feld" – und damit aber auch weniger an Nutzer üblicher Büro- und HomeOffice-PCs.

Strikt bei 4 CPU-Kernen (oder weniger).
2% (54 Stimmen)
Oberhalb von 4 CPU-Kernen will schon wohlüberlegt sein.
11% (357 Stimmen)
6 CPU-Kerne sind eine gute Größe.
12% (400 Stimmen)
8 CPU-Kerne sind eine gute Größe.
53% (1751 Stimmen)
10 CPU-Kerne sind eine gute Größe.
2% (68 Stimmen)
12 CPU-Kerne sind eine gute Größe.
3% (111 Stimmen)
14-16 CPU-Kerne sind immer noch gut nutzbar.
4% (134 Stimmen)
Auch mehr als 16 CPU-Kerne sind immer besser als weniger CPU-Kerne.
14% (456 Stimmen)
Gesamte Stimmen: 3331
Inhalt abgleichen