16

Hardware- und Nachrichten-Links des 15./16. September 2014

Zur Radeon R9 290, welche einstmals zu einem Straßenpreis von 360 Euro eingestiegen ist und dann lange Zeit konstant etwas oberhalb von 300 Euro lag, tauchen nun die ersten Preisangebote unterhalb von 300 Euro auf – im besten Fall sogar für 280 Euro. Noch ist nicht ganz sicher, ob dies ein Vorzeichen eines allgemeinen Preisrutsches bei der Radeon R9 290 ist – aber dies ist durchaus keine abwegige Idee. AMD kann mit dem Tonga-Chip im Vollausbau in jedem Fall das Performance-Niveau der Radeon R9 280X erreichen, bei hohen Taktraten oder/und mehr als erwartet bislang inaktiven Shader-Einheiten sicherlich sogar das Performance-Niveau der Radeon R9 290. Dann hätte der Tonga-Chip letztlich sogar einen Sinn – denn allein zum Ersatz des Thaiti-Chips braucht man eigentlich keinen Grafikchip mit gleicher Performance und gleicher Chipfläche respektive den ungefähr gleichen Fertigungskosten auflegen. AMD könnte eine weitere Tonga-Grafikkarte dann noch dieses Jahr im Rahmen der Radeon R200 Serie auflegen – und würde damit nur alte Pläne erfüllen, welche genau dieses vorhersahen.

Im Zuge der Diskussion über den relativ großen Hardware-, Performance- und Preisunterschied zwischen GeForce GTX 970 & 980 taucht immer der Unglaube darüber auf, daß die Produktion des GM204-Chip so mittelprächtig sein soll, daß nVidia wirklich eine von ursprünglich immerhin 2048 Shader-Einheiten auf nur noch 1664 Shader-Einheiten heruntergebrochene Chip-Variante benötigen würde. Hier liegt allerdings ein grundsätzliches Mißverständnis vor, welcher sich auch aus der im englischsprachigen Web hierfür gebräuchlichen Bezeichnung "Salvage-Varianten" ergibt: Kleine Varianten eines Chip sind jedoch in der heutigen Zeit in den wenigsten Fällen dem Umstand geschuldet, daß wirklich so viele Chips mit kleinen Fehlern oder aber limitierter Taktrate aus der Produktion kommen. Gerade am Ende des Zyklus eines Fertigungsverfahrens – wie derzeit bei der 28nm-Fertigung von TSMC – sind die Ausschußraten bei der Produktion sehr gering, sogar bei neu aufgelegten Grafikchips.

Die Resteverwertung von nicht ganz so perfekten Chips ist jedoch immer nur ein (netter) Zweitnutzen. Im eigentlichen werden Salvage-Varianten jedoch aufgelegt, weil man einen bestimmten Preisbereich besetzen will und sich die einfache Frage stellt, was günstiger ist: Einen größeren Chip mit teildeaktivierten Einheiten dafür mißbrauchen – oder extra nur für diesen einen Anwendungszweck einen extra Chip aufzulegen. In letzteren Fall müssten die Grafikchip-Entwickler nicht mit drei bis vier Chips pro Generation, sondern dann mit Richtung acht Chips pro Generation anrücken – was in höchstem Maße unwirtschaftlich ist. Die Teildeaktivierung von Grafikchips ist also fester Bestandteil der Portfolio-Planungen beider Grafikchip-Entwickler – und zwar lange bevor feststeht, wie hoch die Produktionsausbeute einzelner Grafikchips ausfällt bzw. ob aus Produktionssicht dies wirklich notwendig wäre. Insbesondere letzterer Punkt ist für die Existenz von Salvage-Lösungen vollkommen egal – Salvage-Lösungen würde es auch dann geben, wenn ein Chip bis auf das letzte Exemplar perfekt hergestellt werden könnte.

Seitens der PC Games Hardware kommt die Meldung über einen Kombi-Speichercontroller für DDR3- und DDR4-Speicher bei Intels Skylake-Architektur, basierend auf einer Meldung des italienischen Bits & Chips, welche diesen Punkt jedoch nur als "Möglichkeit" notieren. Allerdings ist die Angelegenheit relativ klar und wurde an dieser Stelle schon im Juli vermeldet: Intel selbst hat in seinen internen Unterlagen schon den gleichzeitigen Support für DDR3- und DDR4-Speicher bei den Desktop-Modellen von Skylake zugegeben. Da die hierfür verwendeten Chips letztlich dieselben sind wie für das Notebook- und Tablet-Segment, scheint das Kombi-Speicherinterface wohl bei jedem Skylake-Prozessor prinzipiell vorhanden zu sein. Wahrscheinlich wird Intel aber je nach Marktbedarf und Einsatzzweck den DDR3- oder DDR4-Part des Speicherinterfaces deaktivieren – und wohl nur im Desktop-Segment werden Prozessoren zur Verfügung stehen, wo man regelrecht wählen kann, ob man jene mit DDR3- oder DDR4-Speicher paart.

Heise berichten über einen Vorschlag seitens HP zu einem "europäischen Datenraum", welcher zum einen natürlich den Cloud-Gedanken unterstützen soll, zum anderen jene nach europäischen Standards insbesondere in Bezug auf den Datenschutz ausrichten soll. Die Idee ist nicht verkehrt, aber die Ausführung im Namen der EU ausgerechnet einem US-Unternehmen zu übertragen, torpediert den Sinn von Anfang an: Das US-Unternehmen – oder auch ein europäisches Unternehmen nur mit Zweigniederlassungen in den USA – kann immer von der US-Geheimgerichtsbarkeit zu Datenherausgaben gezwungen werden. Sämtliche Beschwichtigungsversuche in dieser Richtung hin sind komplett negierbar, so lange sich in den USA nicht eine ernsthafte Gegenbewegung zugunsten echter Rechtsstaatlichkeit in diesen Dingen entwickelt. Derzeit muß man leider konstatieren, daß in den USA in Überwachungs- und Datenschutzfragen nicht mehr die gewählten Volksvertreter, sondern die Überwacher selber das Heft des Handelns in der Hand halten. In dieser Situation gibt es keine Ansätze für eine sinnvolle Kooperation – das einzige, was funktionieren kann, wäre eine totale Abschottung eben jenes europäischen Datenraumes. Und dies natürlich nicht nur auf technischer Seite, sondern auch Seiten der beteiligten Anbieter. Wahrscheinlich sind mittelständige Unternehmen ohne US-Geschäft hierfür besser geeignet als üblicherweise weltweit agierende Großkonzerne.

Mainboard-Shortcuts: Während Asus bei der PC Games Hardware die Vorteile des eigenen Sonder-Sockels mit 2084 Pins für Haswell-E in den Himmel lobt, wird es nunmehr laut der ComputerBase auch von Gigabyte ein Mainboard mit modifiziertem Sockel für die (angeblich) bessere Übertaktbarkeit von Haswell-E geben. Die Garantie-Frage ist auch hier vakant bzw. so lange diesbezüglich nichts anders gesagt wird, sollte man mit keiner Garantie auf die hierfür benutzten Intel-CPUs rechnen. Golem berichten hingegen über zwei X99-Mainboards, welche bei verschiedenen Hardwaretestern durchgebrannt sind: So etwas passiert eher selten, aber zwei Stück ergeben doch noch keinen Anlaß, daraus eine Regel machen zu können. Und letztlich vermeldet die PC Games Hardware noch ein X99-Mainboard seitens Asus, welches mittels Zusatzchips ganze 88 PCI Express 3.0 Lanes zur Verfügung stellt. Dies ist im Sinne höchstmöglicher Perfektheit ehrenhaft, allerdings ändert dies auch nichts daran, daß die Haswell-E-Prozessoren nur 40 PCI Express 3.0 Lanes zu den Grafikkarten anbieten (der Core i7-5820K nur 28 Lanes). Mit den 88 PCI Express Lanes auf dem Asus-Mainboard erreicht man ergo keine höhere Bandbreite insgesamt, sondern nur eine bessere Lastverteilung.

16

Die bisher bekannten Spezifikationen zur GeForce GTX 980

Videocardz bieten dankenswerterweise nicht nur die vollständigen Daten zum GM204-Chip, sondern auch die noch fehlenden Angaben zum GM204-Spitzenmodell GeForce GTX 980, um daraus endlich eine halbwegs komplette Spezifikationsliste machen zu können. Primär fehlend war hierzu eine Bestätigung, ob es nun 1920 oder 2048 Shader-Einheiten werden sollen: Zuletzt ging die Tendenz schon in Richtung 2048 Shader-Einheiten, dies konnte nunmehr verifiziert werden. Und natürlich fehlten noch die Chiptaktraten, welche nunmehr mit 1126/1216/3500 MHz genannt wurden. Daraus ergibt sich folgendes Gesamtbild:

nVidia GeForce GTX 980

  • GM204-Chip, 5,2 Milliarden Transistoren in 28nm auf 398mm² Chipfläche
  • Maxwell-Architektur, DirectX 11.2b (oder schon DirectX 12 in Hardware?)
  • 2 Raster-Engines (mit verdoppelter Raster-Power wie beim GM107-Chip)
  • 16 Shader-Cluster (SMM) á jeweils 128 Shader-Einheiten samt 8 Textureneinheiten (TMUs)
  • somit insgesamt 2048 Shader-Einheiten samt 128 Textureneinheiten (Vollausbau des GM204-Chips)
  • 64 Raster Operation Units (ROPs)
  • 256 Bit DDR Speicherinterface
  • Referenz-Taktraten von 1126/1216/3500 MHz (plus viele Hersteller-Varianten mit ab-Werk-Übertaktung)
  • 4 GB GDDR5-Speicher
  • zwei Stück 6polige Stromstecker (theoretisch ausreichend für 225 Watt Stromzufuhr)
  • TDP angeblich 165W (erscheint extrem niedrig)
  • Performance-Prognose: Richtung des Niveaus der GeForce GTX 780 Ti
  • Launch und Verkaufsstart: 19. September 2014 (zusammen mit der GeForce GTX 970)
  • Preislage: vermutlich 599 Dollar Listenpreis

Damit läßt sich schon sehr viel anfangen, rechnet man diese Daten in Rohleistungen um. So hat die GeForce GTX 980 fast dieselbe theoretische Maximal-Rechenleistung wie die bisherige Toplösung GeForce GTX 780 Ti – und dies natürlich noch ohne des Effekts der effizienteren Maxwell-Architektur, welcher zwischen +15% (realistisch) und +35% (ideal) ausmachen kann. Klare Nachteile hat die GeForce GTX 980 bei der Texturierleistung – aber dies ist wohl kein wirkliches Problem, bei neueren Grafikchips steigt in aller Regel das Verhältnis zwischen Rechen- und Texturierleistung immer weiter zugunsten der Rechenleistung an, der GM204-Chip folgt damit nur einem langfristigen (und trotzdem nach wie vor aktuellen) Trend.

Mit der gezeigten Rasterizer-Leistung dürfte nichts anbrennen, jene ist auf demselben Niveau wie bei nVidas besten Kepler-Lösungen. Zwar hat nVidia im GM204-Chip nur zwei Raster-Engines verbaut, jene liefern aber die jeweils doppelte Performance (2 Dreiecke pro Raster-Engine pro Taktzyklus) gegenüber den bei Kepler verbauten Raster-Engines ab (1 Dreieck pro Raster-Engine pro Taktzyklus). Klare Nachteile hat die GeForce GTX 980 dann wieder bei der Speicherbandbreite, wobei hiergegen die geradezu extrem gesteigerte ROP-Leistung, der größere Level2-Cache und die verbesserte Farbkompression helfen werden, weitgehend gegenzusteuern. AMD hat ja kürzlich mit dem Tonga-Chip bewiesen, daß es bis zu einem gewissen Maß möglich ist, die Performance eines "alten" Grafikchips mit 384 Bit DDR Speicherinterface auch mit einem neuen Grafikchip mit nur 256 Bit DDR Speicherinterface zu erreichen – ergo sollte dies auch nVidia mit dem GM204-Chip gelingen können.

Inwiefern die angegebenen 165 Watt TDP wirklich stimmen, ist diskussionswürdig: Wenn die TDP der GeForce GTX 980 derart niedrig ausfällt, dann sollte die GeForce GTX 970 mit weniger als 150 Watt TDP auskommen und bräuchte demzufolge keine zwei 6poligen Stromstecker tragen. Vielmehr ist es aber so, daß ab Werk übertaktete GeForce GTX 970 & 980 Karten augenscheinlich nicht die standardmäßigen zwei 6poligen Stromstecker nutzen, sondern einen 6poligen und einen 8poligen – was auf einen Strombedarf wenigstens unter extremer Übertaktung von mehr als 225 Watt hinweist. Somit können die 165 Watt TDP für die GeForce GTX 980 fast nicht stimmen – gut möglich, daß dies eine einfache Fehlangabe darstellt (beispielsweise der TDP-Wert der GeForce GTX 970). Sollte die Angabe dagegen tatsächlich stimmen, darf erwartet werden, das die GeForce GTX 980 diese TDP nahezu perfekt ausnutzt, daß es also nur einen geringen bis gar keinen Spielraum zwischen der realen Leistungsaufnahme und der TDP gibt.

Gegenstand größerer Diskussionen ist zudem der Preispunkt, welcher kürzlich schon mit 599 Dollar gemeldet wurde. Diverse Vorab-Listungen sprechen sogar von 700 Euro für die GeForce GTX 980 – und versetzen damit die Forengemeinde in helle Aufregung, denn jener Preispunkt erscheint dann wirklich als jenseits von Gut und Böse. Dies würde allerdings nicht gänzlich unerwartet kommen, schließlich sahen die meisten Launchpreise von nVidia-Spitzenhardware in der jüngeren Vergangenheit ähnlich grenzwertig aus. Andererseits darf man durchaus den Launch am kommenden 19. September abwarten, um zu sehen, welche Performance die GeForce GTX 980 wirklich erreicht und ob sich diese Vorab-Listungen wirklich bestätigen. Gut möglich sogar, daß nVidia bei seinem Listenpreis von 599 Dollar bleibt, die Grafikkartenhersteller für die ersten Chargen jedoch (eigenverantwortlich) dicke Aufschläge nehmen – einfach fest darauf vertrauend, daß ihnen nVidia-Hardware doch ganz automatisch aus den Händen gerissen wird.

16

nVidias GM204-Chip kommt mit maximal 2048 Shader-Einheiten und ein paar Überraschungen

Seitens Videocardz kommen (angeblich) finale Spezifikationen zur GeForce GTX 980 und vor allem zum GM204-Chip, welcher damit erstmals vollumfänglich beschrieben wird. Augenscheinlich liegen Videocardz Details einer nVidia-Präsentation vor, ansonsten hätte man den GM204-Grafikchip noch nicht so detailliert – inklusive auch der neu eingeführten Features – beschreiben können. Insofern scheinen dies wohl wirklich die finalen Daten zum GM204-Chip zu sein:

nVidia GM204

  • 5,2 Milliarden Transistoren auf einer Chipfläche von 398mm² in der 28nm-Fertigung von TSMC
  • maximal 2048 Shader-Einheiten (16 SMM), 128 TMUs & 64 ROPs an einem 256 Bit DDR Speicherinterface
  • 2 MB Level2-Cache
  • Maxwell-Architektur, (höchstwahrscheinlich) DirectX 11.2b, PhysX
  • "Dynamic Super Resolution": hierfür wird "4K-Qualität auf einem FullHD-Monitor" versprochen, dies scheint ein dynamisches Downsampling-Feature zu sein
  • "Third Generation Delta Color Compression": augenscheinlich ein Bandbreitenschoner ähnlich wie bei AMDs Tonga-Chip
  • "Multi-Pixel Programmable Sampling": es bleibt abzuwarten, was sich dahinter verbirgt

Die Transistoren-Anzahl sowie Chip-Größe liegt im Rahmen der vorherigen Schätzungen, allerdings packt nVidia nun wirklich gleich 2048 Shader-Einheiten – was aber zuletzt schon vermutet worden war – und überraschenderweise gleich 64 ROPs in das GM204-Chip. Insbesondere letzterer Punkt ist interessant, da sich der GM204-Chip in dieser Frage somit deutlich vom GK110-Chip abhebt und sicherlich teilweise auch den limitierenden Einfluß des mittelprächtigen 256 Bit DDR Speicherinterfaces reduzieren kann. Grafikkarten für die 4K-Auflösungen werden aus dem GM204-Chip sicherlich nicht entstehen, aber bis einer Auflösung von 2560x1600 sollte das ganze noch gut mitlaufen können. Gespannt sind wir natürlich, was sich genau hinter "Dynamic Super Resolution" und "Multi-Pixel Programmable Sampling" verbirgt bzw. wie schlagkräfig diese Features letztlich sind – während "Third Generation Delta Color Compression" ein typisches bandbreiteschonendes Feature zur Unterstützung des Speicherinterface sein dürfte.

Spätestens mit den 2048 Shader-Einheiten ist nVidia nunmehr auch in der Lage, mit dem GM204-Chip die Performance des eigenen GK110-Chips anzugreifen. Die Maxwell-Shadereinheiten sind laut nVidia um die 35% effektiver – und selbst wenn da in der Realität nur +15% herauskommen, ist zusammen mit den typisch hohen Taktraten eines HighEnd-Chips (gegenüber den typisch langsamen Taktraten eines Enthusiasten-Chips) einiges machbar, der GK110-Chip steht schließlich auch "nur" bei 2880 Shader-Einheiten der Kepler-Bauweise auf vergleichsweise durchschnittlichen Taktraten. Auch wenn Hardware-Enthusiasten sich natürlich immer noch "mehr" wünschen – zumindest für nVidia macht der GM204-Chip somit absolut Sinn, läßt sich damit doch der größere GK110-Chip zu einem günstigerem Herstellungspreis samt einfacherer Grafikboards vollständig ersetzen.

Performance HighEnd Enthusiast
nVidia
Kepler
GK106
221mm² Chip-Fläche
2,54 Mrd. Transistoren
(11,5 Mill. Tr./mm²)
3 Raster-Engines
960 Shader-Einheiten
80 TMUs
24 ROPs
192 Bit DDR Interface
GK104
294mm² Chip-Fläche
3,54 Mrd. Transistoren
(12,0 Mill. Tr./mm²)
4 Raster-Engines
1536 Shader-Einheiten
128 TMUs
32 ROPs
256 Bit DDR Interface
GK110
551mm² Chip-Fläche
7,1 Mrd. Transistoren
(12,9 Mill. Tr./mm²)
5 Raster-Engines
2880 Shader-Einheiten
240 TMUs
48 ROPs
384 Bit DDR Interface
nVidia
Maxwell
GM206
noch keine sicheren Daten bekannt
GM204
398mm² Chip-Fläche
5,2 Mrd. Transistoren
(13,1 Mill. Tr./mm²)
2 Raster-Engines (doppelte Power)
2048 Shader-Einheiten
128 TMUs
64 ROPs
256 Bit DDR Interface
GM200
noch keine sicheren Daten bekannt
AMD
Volcanic Islands
? Tonga
359mm² Chip-Fläche
5,0 Mrd. Transistoren
(13,9 Mill. Tr./mm²)
4 Raster-Engines
restliche Daten weiterhin unsicher
Fiji
noch keine sicheren Daten bekannt
AMD
Southern Islands
Sea Islands
Pitcairn
212mm² Chip-Fläche
2,8 Mrd. Transistoren
(13,2 Mill. Tr./mm²)
2 Raster-Engines
1280 Shader-Einheiten
80 TMUs
32 ROPs
256 Bit DDR Interface
Tahiti
352mm² Chip-Fläche
4,3 Mrd. Transistoren
(12,2 Mill. Tr./mm²)
2 Raster-Engines
2048 Shader-Einheiten
128 TMUs
32 ROPs
384 Bit DDR Interface
Hawaii
438mm² Chip-Fläche
6,2 Mrd. Transistoren
(14,2 Mill. Tr./mm²)
4 Raster-Engines
2816 Shader-Einheiten
176 TMUs
64 ROPs
512 Bit DDR Interface
15

GeForce GTX 970 kommt wohl für 399$, GeForce GTX 980 für 599$

Mittlerweile lassen sich über verschiedene Vorab-Listungen zu GeForce GTX 970 & 980 – welche meistens deutlich zu hoch angesetzt sind, aber dies ist normal bei Vorab-Listungen – die ungefähren Listenpreise dieser beiden kommenden HighEnd-Grafikkarten bestimmen: So scheint die GeForce GTX 970 tatsächlich zu 399 Dollar anzutreten, was einen Straßenpreis von ca. 370 Euro ergeben sollte – minimal günstiger als die GeForce GTX 780, wobei natürlich noch nicht klar ist, ob die GeForce GTX 970 die GeForce GTX 780 wirklich erreichen oder gar schlagen kann. In jedem Fall erscheint dieser Preispunkt als nicht wirklich falsch, aufgrund der höheren Speichermenge und der moderneren Architektur wäre die GeForce GTX 970 in diesem Duell automatisch etwas in der Vorhand.

Die GeForce GTX 980 scheint hingegen tatsächlich zu einem Listenpreis von 599 Dollar anzutreten, was immerhin 50% mehr gegenüber der GeForce GTX 970 wären. Dies ist eine ungewöhnlich hohe Preisdifferenz zwischen zwei Grafikkarten basierend auf demselben Grafikchip, allerdings wohl resultierend aus einem deutlichen Hardware-Unterschied (1664 Shader-Einheiten bei der GeForce GTX 970 gegenüber 1920 oder 2048 Shader-Einheiten bei der GeForce GTX 980) und natürlich auch der aktuellen Preissituation im Grafikkarten-Markt, welche diese Preislage wohl einfach zuläßt. Sollte sich die GeForce GTX 980 auch nur halbwegs mit der GeForce GTX 780 Ti anlegen können, dann hat die GeForce GTX 980 erneut die höhere Speichermenge sowie die neuere Architektur für sich, womit sich ein Preispunkt ähnlich wie die GeForce GTX 780 Ti durchaus rechtfertigt.

599 Dollar Listenpreis für die GeForce GTX 980 würden dann in etwa 550 Euro Straßenpreis ergeben – und genau dort hat sich die GeForce GTX 780 Ti viele Monate lang herumgetrieben. Erst in den letzten Tagen gab es einen Preisrutsch dieser älteren Karte auf 520 Euro, ein einzelnes Angebot kommt sogar auf 500 Euro herunter. Dies darf man als direkte Vorbereitung des kommenden Launches von GeForce GTX 970 & 980 sehen, welcher am 19. September zu erwarten ist. Eventuell geht nVidia dann sogar noch weiter herunter, einzelne Anbieter wollen derzeit die GeForce GTX 780 Ti sogar für 430 Euro verkaufen – natürlich nicht lieferbar, so daß nicht sicher ist, ob es sich hierbei nur um reine Lockangebote handelt. Die neuen Karten dürften jedoch – zumindest anfänglich – (für sich selber) keinen Preisrutsch nach unten auslösen, solcherart im Vorfeld von Hardware-Launches gern gehegten Erwartungen sind leider reines Wunschdenken.

GeForce GTX 770 GeForce GTX 780 GeForce GTX 780 Ti GeForce GTX 970 GeForce GTX 980
Chipbasis nVidia GK104, 3,54 Mrd. Transistoren in 28mn auf 294mm² Chipfläche nVidia GK110, 7,1 Mrd. Transistoren in 28nm auf 561mm² Chipfläche nVidia GM204, ~5 Mrd. Transistoren in 28nm auf ~400mm² Chipfläche
Architektur Kepler-Architektur, DirectX 11.0 & PhysX Maxwell-Architektur, DirectX 11.2b & PhysX
Technik 4 Raster-Engines, 1536 Shader-Einheiten, 128 TMUs, 32 ROPs, 256 Bit DDR Interface 4-5 Raster-Engines, 2304 Shader-Einheiten, 192 TMUs, 48 ROPs, 384 Bit DDR Interface 5 Raster-Engines, 2880 Shader-Einheiten, 240 TMUs, 48 ROPs, 384 Bit DDR Interface halbwegs sicher: 1664 Shader-Einheiten, 104 TMUs, 32 ROPs, sicher: 256 Bit DDR Interface vermutet: 1920-2048 Shader-Einheiten, 120-128 TMUs, 32 ROPs, sicher: 256 Bit DDR Interface
Taktraten 1046/1085/3500 MHz 863/902/3000 MHz 875/928/3500 MHz 1051/1178/3500 MHz ?/?/3500 MHz
Speicherausbau 2 GB GDDR5
(4 GB gegen Aufpreis)
3 GB GDDR5 3 GB GDDR5 4 GB GDDR5 4 GB GDDR5
TDP 230W 250W 250W ? 200W
3DC Perf.Ind.
(19x10 4xAA)
380% 440% 530% geschätzt:
~430-470%
geschätzt:
~520-560%
Listenpreis 399$ 499$ 699$ vermutlich: 399$ vermutlich: 599$
Straßenpreis 260-280€ 380-420€ 520-570€ erwartet für: ~370€ erwartet für: ~550€
14

Hardware- und Nachrichten-Links des 13./14. September 2014

AnandTech haben die wenigen derzeit vorhandenen Informationen zu Apples A8-SoC zusammengetragen, welcher im iPhone 6 verbaut wird und der erste in 20nm gefertigte (größere) Chip darstellt. Bemerkenswert ist dabei, daß Chipfertiger TSMC hierbei ganze 2 Milliarden Transistoren auf eine Chipfläche von nur 89mm² quetschen konnte – Intels Zweikern-Broadwell mit GT2-Grafiklösung (verbaut derzeit als "Core M", später aber auch für die Celeron- und Pentium-Modelle von Broadwell) kommt mit 1,3 Milliarden Transistoren in der 14nm-Fertigung auf eine Chipfläche von 82mm². Dabei hat Intel sogar den Vorteil der 3D-Transistoren, während selbiges Feature bei der 20nm-Fertigung von TSMC noch fehlt. Auch wenn die beiden Chips nicht so direkt vergleichbar sind, scheint TSMC in seiner 20nm-Fertigung hierbei eine wesentlich höhere Packdichte erzielt zu haben als Intel in seiner 14nm-Fertigung. Die Nichtvergleichbarkeit begründet sich natürlich darin, daß Intels Broadwell ein Hochfrequenz-Design ist, wo also aus demselben Stück Silizium auch Taktraten von 4 GHz herausgeholt werden – während Apples A8 nur auf typischen SoC-Taktraten von 2 GHz laufen muß und es keine so überaus breite Verwendung wie bei Intels Prozessoren gibt.

Heise vermelden mit dem MSI GS30 "Shadow" ein 13,3"-Notebook mit Anschlußport für eine externe Grafikkarte in einem (mitgelieferten) GamingDock. Die Anbindung dessen hat MSI tatsächlich über PCI Express 3.0 mit 8 Lanes realisiert, was absolut ausreichend auch für wirklich schnelle Desktop-Grafikkarten ist. Das GamingDock ist für eine DualSlot-Grafikkarte ausgelegt und bringt ein eigenes Netzteil mit bislang leider unbekannten Spezifikationen mit sich – zumindest gemessen an der Größe des GamingDocks scheint das ganze auch HighEnd-geeignet zu sein. Details dazu, ob man damit nur externe Displays oder auch das Notebook-Display ansteuern kann, fehlen ebenso wie ein Preispunkt noch komplett. Ohne jene Details läßt sich das ganze leider noch nicht so wirklich beurteilen – aber es sieht erst einmal nach einer funktionierenden Lösung ohne ganz schlimme Haken aus.

Internet-Law machen auf den Punkt aufmerksam, daß in Filesharing-Fällen die (angeblichen) Rechteinhaber absolut in der Pflicht sind, ihre Stellung als wirklicher Rechteinhaber auch einwandfrei nachzuweisen. Gerade weil der Rechteinhaber dafür schließlich alle Papiere in der Hand haben muß, sollte ein solcher Beweis einfach zu erbringen sein – womit alle anderen Wege, wie der Verweis auf Anmeldung bei Verwertungsgesellschaften oder aber auf Produzenten-Listen keinesfalls ausreichend sind. So zumindest das Amtsgericht Bremen, welches damit einer völligen Ausuferung von Filesharing-Fällen einen guten Riegel vorschiebt – denn es hat durchaus schon Fälle gegeben, wo Massenabmahnung quer durch die Bundesrepublik getrieben wurden von Firmen, welche sich nur als Rechteinhaber ausgaben, dies aber tatsächlich gar nicht waren. In Zukunft sollte man generell in einem Filesharing-Fall – sofern nicht andersweitig Klarheit herrscht – von dem angeblichen Rechteinhaber immer erst einmal einen sicheren Beweis über diesen Punkt abfordern.

Ein Artikel der Telepolis zeigt am Beispiel der Diskussion über 9/11 auf, wie schwierig selbst oder gerade in Zeiten des Internets alternative Meinungen & Darstellungen es haben, überhaupt gehört respektive gleichwertig behandelt zu werden. Eigentlich war das Internet einmal dazu gedacht, genau diese Meinungsvielfalt zu ermöglichen, im Zuge der Kommerzialisierung und Zentralisierung wurden jedoch viele dieser ursprünglichen Eigenschaften stark aufgeweicht. Deutlichstes Beispiel ist die Wikipedia, welche sich inzwischen immer mehr zu einem Gralshüter einmal festgelegter Wahrheiten entwickelt – so als ob es in der Wissenschaft völlig unmöglich wäre, daß die heutige Erkenntnis den morgigen Irrtum darstellt. Nicht auszuschließen, daß es heutzutage in einer Streitfrage einfacher sein könnte, in der Diskussion mit der Brockhaus-Redaktion einen Kompromiß zu erzielen, als denn in der Wikipedia "abweichendes Gedankengut" zu plazieren.

Allerdings bekommen in dem Artikel auch die "Aufklärer" und Streiter für "unbeachtete Wahrheiten" ihr Fett weg, speziell wieder auf den Fall 9/11 gemünzt: Sehr viel auf diesem Themengebiet ist einfach nur das Zusammentragen von Anomalien mit dem Ziel einer hohen Quantität – und nur eher selten werden diese in Masse aufgeworfenen Anomalien auch wirklich auf klare Belegbarkeit und nachprüfbare Stichhaltigkeit gecheckt. Problematisch ist hierbei insbesondere die oftmals fast völlig fehlende Prüfung der Quellen auf deren Verläßlichkeit – ein Punkt, welcher bei offiziellen wissenschaftlichen Dokumenten hingegen ziemlich usus ist. Viele, welche sicherlich interessante Punkte in die Diskussion einbringen können, verheddern sich somit in untergeordneten Erzählsträngen und nebensächlichen Details, welche sehr hinderlich beim Blick auf das Gesamtbild sind. Und so bleiben die meisten offenen Fragen zu 9/11 auch 13 Jahre danach nicht wirklich geklärt – was es der öffentlichen Meinungsbildung einfach macht, den einfacheren Weg der "offiziellen Wahrheit" zu zementieren.

13 13

Welche Monitorauflösung steht für den Spielerechner zur Verfügung (2014)?

Im Zuge der kommenden neuen Grafikkarten-Generation sowie des stärkeren Aufkommens von Monitoren oberhalb von FullHD legen wir diese 2013er Umfrage neu auf, welche Vorläufer bereits in den Jahren 2010 und 2008 hatte. Das Unterteilung der Markt-Segmente erfolgte anhand der Performance der Grafikkarten im 3DCenter Performance-Index – damit lassen sich genauere Aussagen dazu treffen, wo und warum bestimmte Monitorauflösungen beliebter sind:

Mainstream-User Performance-User HighEnd-User
Radeon HD 5000 Serie bis Radeon HD 5870 Radeon HD 5970 -
Radeon HD 6000 Serie bis Radeon HD 6870 Radeon HD 6950 bis 6970 Radeon HD 6990
Radeon HD 7000 Serie bis Radeon HD 7790 Radeon HD 7850 bis 7950 "Boost" Radeon HD 7970 bis 7990
Radeon R200 Serie bis Radeon R7 260X Radeon R7 265 bis R9 285 Radeon R9 280X bis 295X2
GeForce 700 Serie bis GeForce GTX 750 Ti GeForce GTX 760 GeForce GTX 770 bis Titan Z
GeForce 600 Serie bis GeForce GTX 650 Ti GeForce GTX 650 Ti "Boost" bis 670 GeForce GTX 680 bis 690
GeForce 500 Serie bis GeForce GTX 560 Ti GeForce GTX 560 Ti "448" bis 580 GeForce GTX 590
GeForce 400 Serie bis GeForce GTX 470 GeForce GTX 480 -
Mainstream-User: 1400x900 oder kleiner
2% (61 Stimmen)
Mainstream-User: 1680x1050 oder 1600x900/1200
6% (186 Stimmen)
Mainstream-User: 1920x1080/1200
17% (541 Stimmen)
Mainstream-User: 2560x1440/1600
2% (54 Stimmen)
Mainstream-User: 3840x2160 oder 4096x2160
0% (9 Stimmen)
Performance-User: 1400x900 oder kleiner
1% (18 Stimmen)
Performance-User: 1680x1050 oder 1600x900/1200
5% (151 Stimmen)
Performance-User: 1920x1080/1200
29% (922 Stimmen)
Performance-User: 2560x1440/1600
4% (133 Stimmen)
Performance-User: 3840x2160 oder 4096x2160
1% (21 Stimmen)
HighEnd-User: 1400x900 oder kleiner
0% (3 Stimmen)
HighEnd-User: 1680x1050 oder 1600x900/1200
2% (54 Stimmen)
HighEnd-User: 1920x1080/1200
20% (622 Stimmen)
HighEnd-User: 2560x1440/1600
8% (253 Stimmen)
HighEnd-User: 3840x2160 oder 4096x2160
4% (115 Stimmen)
Gesamte Stimmen: 3143
Inhalt abgleichen