29

Hardware- und Nachrichten-Links des 29. Juli 2014

Laut den SweClockers (maschinelle Übersetzung ins Deutsche) kommt der Tonga-Chip zwischen Ende August und Anfang September als "Radeon R9 285" in den Handel. Da von zwei Tonga-Ausführungen gesprochen wird – und auch frühere AMD-Angaben gleich zwei Tonga-basierte Radeon R9 200 Grafikkarten erwähnen – dürfte die andere Tonga-Karte demzufolge die "Radeon R9 275" sein. Mit beiden Karten wird AMD aller Voraussicht nach die Tahiti-basierten Radeon R9 280 & 280X komplett ersetzen, letztgenannte Karten werden derzeit schon zu klaren Abverkaufspreisen angeboten. Wie bekannt, wird der Tonga-Chip die 2048 Shader-Einheiter von Tahiti an allerdings einem kleineren 256 Bit DDR Speicherinterface bieten (Tahiti: 384 Bit DDR), womit noch etwas in der Schwebe ist, ob der Tonga-Chip wirklich dieselbe Performance wie der Tahiti-Chip bieten kann. Dafür dürfte allerdings – u.a. durch den Verzicht auf die für professionelle Zwecke notwendigen Transistoren – der Stromverbrauch von Tonga deutlich niedriger ausfallen als von Tahiti gewohnt.

Nachdem die GeForce 800M Serie grob dem entspricht, was es im Desktop als "GeForce 700 Serie" gibt, scheint nVidia den Nummernwahn ein weiteres Jahr vorantreiben zu wollen und laut einem Posting bei Notebookreview ab Oktober mittels einer "GeForce GTX 980M" den Startschuß zur "GeForce 900M Serie" geben zu wollen. Wirklich überraschend kommt dieses nicht, immerhin folgt der Grafikchip-Entwickler damit der bekannten Idee, den Notebook-Herstellern jedes Jahr eine neue Serie an Mobile-Beschleunigern zur Verfügung zu stellen. Details zur GeForce 900M Serie gibt es natürlich noch nicht, aber man darf natürlich davon ausgehen, daß nVidia hierfür dann seine neuen Maxwell-basierten Chips GM206 & GM204 zuzüglich den bekannten Maxwell-Chips GM108 & GM107 einsetzen wird. Etwas vorsichtig sollte man allenfalls bezüglich des Releasetermins sein: Bei Notebookreview schreibt man voller Optimismus von "Shipping in October" – was allein schon für GM204-basierte Desktop-Grafikkarten gut wäre, für fertige Notebooks (mit deren höheren Validierungsbedarf) jedoch eine etwas gewagte These darstellt. Da vor allem noch der GM206-Chip fehlt, welcher deutlich besser für den Notebook-Einsatz geeignet erscheint, dürfte nVidias vollständiges Portfolio an GeForce 900M Lösungen kaum vor dem Jahreswechsel 2014/15 vorliegen.

Die PC Games Hardware hat eine "CPU-Roadmap 2014-2016" aufgelegt, welche skizziert, was bis zum Jahr 2016 von AMD und Intel an Neuerscheinungen im Mainstream- und Performance-Bereich zu erwarten ist. Die Roadmap der PCGH ist dabei anhand der jeweiligen Hersteller-Plattformen ausgerichtet, sprich Broadwell und Skylake tauchen jeweils gleich sechsmal auf. Dies entspricht zwar dem Intel-Namensschema und auch der allgemeinen Nachrichtenlage, welche sich immer wieder auf Broadwell/Skylake -S/-K/-H-/-U/-Y/-E bezieht, macht die Sache aber auch ziemlich verwirrend – gerade wenn es letztlich so ist, daß mit gewöhnlichem Broadwell & Skylake sowie Broadwell-E und Skylake-E nur jeweils zwei wirklich grundverschiedene Chips existieren. Andererseits stellt die PCGH-Roadmap somit in gutem Kontrast zu unseren eigenen Roadmaps, deren aktuelle Ausführungen immer über die Newsindex-Übersicht gefunden werden kann: Die letzte AMD Prozessoren-Roadmap, die letzte Intel Prozessoren-Roadmap, die letzte AMD & nVidia Grafikchip-Roadmap und letztlich die aktuelle Fertigungsverfahren-Roadmap.

Nachdem der österreichische Oberste Gerichtshof (OGH) erst kürzlich ein Urteil gefällt hat, welches österreicher Internet-Providern bei (angeblichen) Urheberrechtsverletzungen die Pflicht zu Internet-Sperren auf Zuruf der (angeblichen) Rechteinhabern auferlegt, haben sich jene Rechteinhaber diesen Elfmeter ohne Torhüter natürlich nicht entgehen lassen und fordern laut der Berichterstattung von Heise die Sperre einiger einschlägig bekannter Filesharing-Webseiten. Ehrlicherweise ist im konkreten Fall und im Sinne des geltenden Urheberrechts kaum etwas gegen diese Sperren zu sagen (vielleicht bis auf die generelle Sinnlosigkeit von Sperr-Bemühungen) – die Problematik dieses Fall wird sich wohl erst später so richtig entfalten. Denn einmal durchgesetzt, werden echte und vermeintliche Rechteinhaber die Internet-Provider mit Sperr-Begehren bombardieren, welche jene wegen der geltenden Rechtslage einfach so durchwinken müssen – und dementsprechend auch werden. Wenn die österreicher Internet-Provider Widerstand gegen dieses Urteil aufbringen wollen, so ist jetzt nahezu schon der letzte Zeitpunkt – denn ist das ganze erst einmal Gewohnheitsrecht, wird Widerstand um so schwieriger.

Bei Netzpolitik gibt es einen Bericht über ein interessantes Experiment, was sich alles aus den reinen Metadaten nur einer Lebenswoche eines (relativ) normalen Westeuropäers über dessen Person herausfinden läßt. Vielleicht hätte man in diesem Bericht häufiger betonen sollen, daß alle notierten Informationen wirklich allein über Metadaten ermittelt wurden, denn das ganze liest sich eher wie ein komplettes geheimdienstliches Profil nach langfristig angelegter, zeitraubender Recherche. Hauptansatzpunkte für die erfolgreiche Profilbildung sind zum einen das Smartphone als allumfassende Wanze (insbesondere die Positionsdaten sind äußerst nutzvoll, bringen sie viele andere Daten in einen sinnvollen Kontext) sowie die eMail-Tätigkeit, anhand welcher klar zwischen näheren und entfernteren Bekanntschaften unterschieden werden kann. Hinzuzuerwähnen wäre allerdings, daß eine solch umfassende Profilbildung in kurzer Zeit (derzeit) auch wirklich nur staatlichen Überwachern möglich ist, welche als einzige Zugriff auf alle Metadaten haben – es sei denn natürlich, man hat sein komplettes elektronisches Leben an solche bekannten Datenkraken wie Apple oder Google ausgeliefert.

29

Umfrage-Auswertung: Wie weit reichen die Linux-Erfahrungen?

Eine Umfrage von Mitte Juli ging der Frage nach, wieviel Linux-Erfahrungen bereits vorhanden sind. Dabei überraschte der sehr hohe Anteil von Umfrage-Teilnehmern, welche in der Tat schon Erfahrungen mit Linux sammeln konnten – dies sind immerhin gleich 84,8%. Selbst wenn man jene mit nur eher zaghaften ersten Versuchen herausnimmt, sind es immerhin noch 61,5% – eine ausreichend hohe Basis, um darauf aufbauend etwas ernsthaftes mit Linux in der Zukunft anfangen zu können. Dabei setzen derzeit immerhin schon 22,7% der Umfrage-Teilnehmer Linux als Produktiv-System ein, weitere 12,9% als Probier-System. Damit kann man mit Fug und Recht behaupten, daß die Ausgangslage für Linux zumindest im Enthusiasten-Segment so günstig wie nie ist – die wichtige Schwelle des "ersten Kontakts" ist längst überwunden.

Ob sich hiervon ausgehend in der Zukunft etwas zugunsten von Linux ergibt, bleibt jedoch weiterhin offen. Es gibt sicherlich über Valves SteamOS hoffnungslose Ansätze sowie endlich einmal gutklassige Unterstützung aus der Industrie selber. Auch manövriert sich Microsoft mit seinen Windows-Plänen zuletzt immer mehr in eine Position, welche nicht alle Nutzer mitgehen werden wollen – speziell in Bezug auf zwangsweiser Cloud- und Microsoft-Anbindung der kommenden Windows-Betriebssysteme. Die Alternative wird inzwischen aktiv gesucht und Linux ist hierbei erster Kandidat. Langfristig könnte man sich im Enthusiasten-Segment sogar mit eher komplizierten Konstruktionen wie einem Arbeits-OS (Linux) und einem reinen Spiele-OS (Windows) anfreunden – aber praktikabel für einen großen Durchbruch würde Linux nur dann werden, wenn es umfassende sowie problemlose Spielefunktionalität bekommt. Man kann es nicht beschwören, aber die Chancen dafür stehen durchaus nicht schlecht.

28

Hardware- und Nachrichten-Links des 28. Juli 2014

Die PC Games Hardware berichtet über eine Demonstration, wie leichtgläubig und sensationsgierig (wir) Hardware-Journalisten nun einmal sind: Dabei wurde in einem Forum ein bewußt falscher CPU-Z-Screenshot einer angeblichen A10-8850K APU veröffentlicht – mit halbwegs glaubwürdigen Daten, aber dennoch bewußt gefälscht. Der Ersteller musste danach jedoch mit Erstaunen feststellen, daß jemand seine "Idee" aufgriff und nachfolgend einen CPU-Z-Screenshot einer angeblichen A10-8890K APU nachschob, in diesem Fall mit nochmals angehobenen und inzwischen unglaubwürdigen Hardware-Daten (angeblich gleich sechs Rechenkerne bei Carrizo). Trotzdem verbreitete sich insbesondere der zweite Screenshot nachfolgend durchs Web bzw. wurde von einigen Hardware-Webseiten für voll genommen – bis sich der ursprüngliche Faker bei Overclock.net zu Wort meldete und die ganze Sache aufklärte.

Einige Hardware-Webseiten sind in diesem Fall wirklich schön hereingefallen – aber man braucht sich da wirklich nicht auf seinem Glück auszuruhen, in diesem Fall nicht betroffen zu sein: Passieren könnte dies wohl jedem. Letztlich schielen alle auf Klicks und das heilige Google-Standing – die einen nur mehr, die anderen eben weniger. Da zudem von den Herstellern bezüglich neuer Produkte respektive der Verifikation von Zukunfts-Themen nichts brauchbares kommt, hier und da unter vielen Gerüchten sich erfahrungsgemäß aber trotzdem Wahrheiten verbergen, ist es schlicht der Fluch der Hardware-Webseiten, eben mit Gerüchten arbeiten zu müssen und dabei natürlich auch einmal auf falsche Gerüchte hereinzufallen. Die eigentliche Kunst liegt wohl eher darin, nicht alles zu schlucken, was da ankommt, sondern zwischen unglaubwürdig und glaubwürdig zu unterscheiden – aber auch hier mit dem Restrisiko, daß die Hersteller einen mit etwas überraschen können, was man vorab als "unglaubwürdig" klassifiziert hat.

Bei OCDrift hat man einen (angeblichen) Core i7-5960K aus der wohl im September antretenden Haswell-E Prozessoren-Reihe "geköpft", um festzustellen, daß Intel diese Prozessoren fest verlötet anbietet – so wie dies früher bei Intel genereller Standard war, bei den Consumer-Modellen von Ivy Bridge und Haswell jedoch durch eine vergleichsweise billige Wärmeleitpaste ersetzt wurde. Allerdings handelt es sich bei der von OCDrift benutzten CPU augenscheinlich nicht um einen Core i7-5960K, das Prozessoren-Die sieht nach einem 12-Kern-Prozessor aus der Haswell-EP Prozessoren-Reihe für Server aus. Normalerweise sollte zwischen Haswell-E und Haswell-EP in der Frage der Verlötung kein Unterschied bestehen, aber gänzlich sicher kann man sich vor dem Auftauchen echter Haswell-E Prozessoren natürlich nicht sein. Ganz allgemein betrachtet wäre aber alles andere als eine herkömmliche Verlötung bei Haswell-E eine große Überraschung, da Intel auch Ivy Bridge E hat normal verlöten lassen und dort nicht die Änderung der regulären Ivy Bridge Prozessoren angesetzt hat.

Laut HT4U hat Microsoft seine frühere Aussage noch einmal präzisiert, nachdem es zukünftig nur noch "ein Windows für alles" geben sollte: Danach wird es wohl weiterhin verschiedene Windows-Versionen geben, die ganze Aussage bezieht sich allein darauf, daß zukünftig nur noch ein Microsoft-Team am Windows-Kern arbeiten wird, der Kern zwischen allen Windows-Versionen also identisch ist. Für den Konsumenten hat dies kaum praktische Auswirkungen und insofern war das ganze nur "viel Lärm um Nichts", gerade wo es jetzt weiterhin die verschiedenen Windows-Versionen für unterschiedliche Geräteklassen bzw. Hardware-Ausführungen geben soll. Wahrscheinlich sollte mit der ganzen Aktion nur Marketing-mäßig der Umstand verwurstet werden, daß man bei Microsoft in Zukunft noch stärker auf ModernUI-Anwendungen setzen wird – nicht wegen deren (bescheidener) Optik, sondern weil jene Hardware-unabhängig sowohl auf x86- als auch auf ARM-Prozessoren laufen. (Foren-Diskussion zum Thema)

WinFuture notieren eine weitere Idee seitens Microsoft, um im Smartphone/Tablet-Markt steigende Marktanteile zu erreichen: Nach den kostenlosen Windows-Lizenzen für Geräte unter 250 Dollar Endkundenpreis kommen nun auch noch Anteile an Werbeerlösen der Suchmaschine Bing hinzu, welche an die Gerätehersteller ausgeschüttet werden sollen. Ob hier wirklich viel herauskommen kann, ist unklar – aber in jedem Fall kann man Microsoft nicht vorwerfen, nicht auch wirklich das allerletzte zu versuchen (vielleicht ausgenommen bessere Produkte), um auf mehr Marktanteile zu kommen. Die letzten Microsoft-Offensiven sind zudem natürlich pro Forma absolut wettbewerbsverzerrend, wenn Windows-Lizenzen nicht nur glatt kostenlos abgegeben werden, sondern die Gerätehersteller potentiell sogar noch Geld dafür bekommen. Aber in diesem Markt, der sich noch nicht konsolidiert hat, muß Microsoft nun einmal unbedingt einen Fuß reinbekommen, damit man nicht auf ewig vom Wohl und Wehe des reinen PC-Geschäfts abhängig ist. Und letztlich verlangte Google standardmäßig auch gar nichts für sein Android, gleicht sich dies in diesem Fall sogar wieder aus.

28

Eine Performance-Einordnung der Radeon R9 280

Bei Durchsicht verschiedener Grafikkarten-Daten fiel auf, daß bislang noch eine genaue, Benchmark-basierte Performance-Einordnung der Radeon R9 280 fehlt. Die Karte wurde erst im März als quasi Wiedergänger der Radeon HD 7950 "Boost Edition" vorgestellt, seinerzeit fehlten allerdings die offiziellen Launch-Samples seitens AMD und auch dauerte es etwas, ehe der Handel bestückt war und sich erste Tests dieser Karte einfanden. Daher bliebt bislang unsere seinerzeitige Performance-Schätzung von ~330-340% stehen, welche wir hiermit – wenn auch nachträglich – nunmehr mittels der vorliegenden Benchmarks präzisieren wollen, ganz gleich ob die Karte inzwischen nunmehr in Richtung Abverkauf geht.

Eine Performance-Bestimmung ist in diesem Fall recht einfach vorzunehmen, da man nur die Abstände zu den bekannten Performance-Punkten von Radeon R7 270X (Perf.Index 290%) und Radeon R9 280X (Perf.Index 380%) finden muß. Allenfalls spielt hier ein wenig mit hinein, daß ausschließlich Hersteller-Designs getestet wurden, welche zumeist geringfügig ab Werk übertaktet waren. Die jeweils angesetzten Übertaktungen spielen aber bis auf die Asus DirectCU II keine echte Rolle, sondern bewegen sich nur bei +1% bis 3% Chiptakt bei unverändertem Speichertakt. Dies kann man bei der Rundung des endgültigen Performance-Index' der Radeon R9 280 berücksichtigen, beeinflußt aber ansonsten die Situation nicht wirklich.

Nach Durchsicht der entsprechenden Testberichte legen wir die Radeon R9 280 hiermit auf einen Performance-Index von 330% fest. Es ließ sich ziemlich schnell ermitteln, daß der durchschnittliche Abstand zur größeren Radeon R9 280X bei grob 15% liegt, der Abstand zur kleineren Radeon R9 270X bei gleichfalls grob 15% zu finden ist und die Radeon R9 280 somit ziemlich exakt in der Mitte zwischen Radeon R9 270X und Radeon R9 280X rangiert. Messungen gegenüber der Radeon HD 7950 "Boost Edition" (Perf.Index 320%) gab es wenige, aber aufgrund der teilweise genannten real anliegenden Taktraten zur Radeon R9 280 läßt sich deren Performance-Vorteil bei faktisch gleicher Hardware schlicht über den besseren Boost-Verlauf erklären: Während die Radeon HD 7950 "Boost Edition" ihren Boost bekannterweise teilweise bockig ausführt, konnte bei der Radeon R9 280 ein nahezu durchgehend anliegender Maximal-Takt beobachtet werden.

7950-Boost 270X 280 280X 760
Performance-Index 320% 290% 330% 380% 310%
Idle/Spiele-Stromverbrauch 14W
178W
10W
142W
~15W
~180W
16W
213W
11W
160W

Bezüglich des Stromverbrauchs der Radeon R9 280 liegt leider nur ein einzelner Meßwert seitens der Grafikkarte selber vor (seitens HT4U mit 11,6W Idle- und 180,0W Spiele-Verbrauch ), was für eine Durchschnittsbildung natürlich nicht ausreicht. Ausgehend von den zur Verfügung stehenden Stromverbrauchs-Werten verschiedener Gesamtsysteme kann man jedoch gut schätzen, daß die Radeon R9 280 in etwa soviel verbraucht wie die Radeon HD 7950 "Boost Edition" (14W/178W) – insofern werden wir für die Radeon R9 280 hierzu die Schätzwerte ~15W/~180W ansetzen.

Radeon HD 7950 "Boost Edition" Radeon R9 280 Radeon R9 280X GeForce GTX 760
Chipbasis AMD R1000/Tahiti, 4,31 Mrd. Transistoren in 28nm auf 365mm² Chipfläche nVidia GK104, 3,54 Mrd. Transistoren in 28nm auf 294mm² Chipfläche
Architektur GCN 1.0, DirectX 11.2a, Mantle & TrueAudio Kepler, DirectX 11.0, PhysX
Technik 2 Raster-Engines, 1792 Shader-Einheiten, 112 TMUs, 32 ROPs, 384 Bit DDR Interface 2 Raster-Engines, 2048 Shader-Einheiten, 128 TMUs, 32 ROPs, 384 Bit DDR Interface 3-4 Raster-Engines, 1152 Shader-Einheiten, 96 TMUs, 32 ROPs, 256 Bit DDR Interface
Taktraten 850/925/2500 MHz ≤933/2500 MHz ≤1000/3000 MHz 980/1033/3000 MHz
Speicher 3 GB GDDR5 3 GB GDDR5 3 GB GDDR5 2/4 GB GDDR5
Layout DualSlot DualSlot DualSlot DualSlot
Stromstecker 2x 6pol. 1x 6pol. + 1x 8pol. 1x 6pol. + 1x 8pol. 2x 6pol.
TDP 200W 250W 250W 170W
Idle-Verbrauch 14W ~15W 16W 11W
Spiele-Verbrauch 178W ~180W 213W 160W
Perf.Index
(19x10 4xAA)
320% 330% 380% 310%
Listenpreis 349$ 279$ 299$ 249$
Straßenpreis ausgelaufen 170-180€ 220-230€ 190-200€
Launch August 2012 4. März 2014 8. Oktober 2013 25. Juni 2013
27

Hardware- und Nachrichten-Links des 26./27. Juli 2014

Stigma Videospiele berichten über eine kleine inhaltliche Zensur an der deutschen Version von "Wolfenstein: The New Order", welche dem seitens des Publishers propangandierten "ungeschnittenen" Spiels (bis auf die Entfernung der Kennzeichnen verfassungswidriger Organisationen selbstverständlich) entgegenspricht. Die gefundene Kürzung ist allerdings wohl nicht wirklich groß, eher interessant an dem Beitrag ist der Absatz, wonach sich Steam das Recht herausnimmt, bei einer Umgehung der Geolokalisation per IP-Adresse das komplette Steam-Nutzerkonto zu deaktivieren. Dies wäre – ganz egal ob Steam das real tut oder nicht – in jedem Fall ein völlig ungerechtfertigter Eingriff in die Nutzerrechte, da in einem Steam-Konto schließlich noch andere Spiele liegen können, bei welchen eine Geolokalisation keine Rolle spielt. Steam hat sich sicherlich über die Jahre seine (inzwischen herausragende) Stellung bei den Spielern erkämpft, dies ändert aber nichts daran, daß Teile der Steam-AGB nach wie vor regelrecht grausig aus rechtlicher Sicht gegen den Spieler ausgelegt sind.

Gemäß Heise hat nun auch Spanien sein eigenes Anti-Google-Gesetz bekommen – eine Art Leistungsschutzrecht, welches allerdings im Gegensatz zum deutschen Pendant auch hinunter bis auf beliebig geringfügige Textzitate sowie reinen Hyperlinks geht. Anders formuliert eine Steuer auf Links – denn das Gesetz schreibt entsprechende Urheberrechtsabgaben vor, falls jemand im Web irgendetwas zitieren oder verlinken will. Das Gesetz ist wohl primär gegen Google gerichtet, hat aber vor allem Auswirkungen auf die normale Funktionsweise des Webs, welche nun einmal aus Hyperlinks auf andere Webseiten besteht (nun gut, zumindest bestehen sollte). Welche Kollateralschäden die spanischen Politiker hiermit losgetreten haben, ist denen vermutlich nicht einmal bewußt – aber das Politiker an der Lebensrealität weit vorbei irrlichtern, ist nun auch nichts neues. Es bleibt abzuwarten, wann dieser schildbürgerhafte Irrweg erkannt wird – die nächste Zeit dürfte das Gesetz sicherlich erst einmal die Gerichte (intensivst) beschäftigen. (Foren-Diskussion zum Thema)

Sehr konträre Artikel beschäftigen sich mit dem geplanten deutschen Nextflix-Launch im September: Der Spiegel weist auf die Unvollständigkeit des Netflix-Portfolios hin, welche den Konsumenten faktisch dazu zwingt, auch noch Abos mit den vielfältigen Nextflix-Kontrahenten abzuschließen, anstatt alles aus einer Hand beziehen zu können. Beachtenswert ist hier insbesondere der Querverweis zur Musikindustrie, welche seinerzeit ebenfalls mit miteinander konkurrierenden Plattformen scheiterte und erst durch Apples iTunes zu einem einheitlichen Angebot gezwungen wurde. Das Neunetz sieht hingegen mittels Netflix das bisherige nationale Lizenzierungsmodell langfristig verschwinden, weil allein Netflix in der Lage ist, den herstellenden US-Studios einen weltweiten Kundenzugang zu bieten – die ganzen nur national agierenden TV-Sender sind dies nicht. Dies ist nicht nur in Bezug auf das Marketing besser, sondern spart natürlich auch Kosten und Reibungsverluste bei der Vertragsgestaltung. Allerdings ist dieser Effekt leider nur eher langfristig zu sehen – und wie das Problem zu lösen wäre, daß Netflix & Co. jeweils immer nur gewisse Teile des TV-Portfolios bieten, ist auch noch nicht abzusehen.

Die Netzpolitik hat einen schönen Beitrag, welcher die Macht von Statistik bzw. von Statistik-basierten Auswertemethoden gegenüber den vom normalen Bürger der westlichen Welt aufgehäuften Datenbergen beschreibt. Computeranalysen, welche der Polizei sagen, in welchem Gebiet demnächst wahrscheinlich eine Straftat stattfinden wird, sind dabei schon ein alter Hut – der vorhandene Datenbestand ermöglicht inzwischen schon, ähnlich wie in "Minority Report" einzelne Personen herauszufiltern, welche demnächst wahrscheinlich eine Straftat begehen werden. Allerdings wird hiermit auch eine neue Qualität in der Wahrscheinlichkeits-Annahme erreicht: Bestimmte Hotspots für Straftaten ergeben sich automatisch durch eine Vielzahl dort verkehrender Personen. Daß eine einzelne Person demnächst eine Straftat verüben wird, ist dagegen eine wesentlich weiter hergeholte Annahme – die dadurch, daß diejenige Person zu einer "Risikogruppe" gehört, nur eher unwesentlich wahrscheinlicher wird. Die Chance zur Tat einer Einzelperson liegt meistens weit unter 50% – sprich bei einer Wette würde man eher darauf setzen, daß eben nichts passiert.

Problematisch wird dies dann, wenn auf den Analysen folgend eine Vorverurteilung stattfindet oder gar einschränkende Maßnahmen verhängt werden – denn letztlich handelt es sich schließlich nur um eine Vorhersage, welche zum einen fehlerhaft sein kann, zum anderen aber vor allem bezogen auf die Einzelperson nicht gerade wahrscheinlich ist. Der Artikel von Netzpolitik legt hierzu den Finger in die Wunde: Die Vorverurteilung oder auch schon allein die Information darüber, daß man beobachtet wird, nimmt einem die Freiheit der Selbstbestimmung. Zur letzterer gehört es auch, sich falsch entscheiden zu können – fehlt diese Möglichkeit, lebt man nicht mehr in einer freiheitlichen Gesellschaft, sondern in einer "gelenkten" bis totalitären. Gleichfalls stellt der Artikel von Netzpolitik aber auch hierzu eine Gegenforderung nach dem Verbot solcherart personenbezogener Vorhersagen, was ein bedenkenswerter Ansatz ist: Die sich anhäufenden Datenberge lassen sich schon rein technisch kaum verhindern – aber man kann darüber nachdenken, die darauf basierende Profilbildung zu regulieren.

27

Aktualisiert: Überblick der Overclocking-Ergebnisse zum Pentium G3258

Zu den schon einmal dargelegten Overclocking-Ergebnissen zum Pentium G3258 "20th Anniversary Edition" sind inzwischen noch eine ganze Reihe an neuen Ergebnissen hinzugekommen, welche nachfolgend verrechnet worden und damit das Bild etwas genauer gestalten. Groß geändert hat sich allerdings nichts, der neue Übertaktungs-Durchschnitt zum Pentium G3258 liegt bei nunmehr 4.64 GHz und damit weiterhin kaum unterhalb der von Core i5-4690K und Core i7-4790K bekannten Werte. Am Ende kommen alle drei ungelockten Prozessoren des Haswell-Refresh-Portfolios auf grob um die 4.7 GHz im Übertaktungsbetrieb.

Luftkühlung Wasserkühlung
  4.5 GHz @ 1.403V  (MadShrimps)
  4.5 GHz @ 1.402V  (TweakTown)
4.4 GHz @ 1.2V  (Hexus) 4.5 GHz @ 1.234V  (Overclock3D)
4.5 GHz @ 1.3V  (Tom's Hardware) 4.7 GHz @ 1.35V  (AnandTech)
4.6 GHz @ 1.315V  (3DCenter-Forum) 4.8 GHz @ 1.526V  (Legit Reviews)
4.6 GHz @ 1.26V  (Digital Storm) 4.8 GHz @ 1.502V  (Guru3D)
4.7 GHz @ 1.384V  (ComputerBase) 4.8 GHz @ 1.37V  (Bit-Tech)
4.8 GHz @ 1.375V  (The Tech Report) 4.8 GHz @ 1.36V  (Review Studio)
Ø 4.60 GHz Ø 4.68 GHz

Vor allem aber interessant ist die Aussage seitens AnandTech, daß der Pentium G3258 nicht die von den "Devil's Canyon" Prozessoren Core i5-4690K und Core i7-4790K bekannten Änderungen mit sich bringt: Es gibt weder eine bessere Wärmeleitpaste noch mehr Kondensatoren für eine bessere Spannungsversorgung auf dem Trägermaterial. Vielmehr ist der Pentium G3258 ein ganz normaler Haswell-Prozessor wie auch die früheren K-Modelle Core i5-4670K und Core i7-4770K, welche allerdings nur Übertaktungsfrequenzen von um die 4.3 GHz erreichen. Daß der Pentium G3258 doch knapp 4.7 GHz erzielt, hat also nichts mit den Vorteilen von "Devil's Canyon" zu tun, sondern dürfte in der Tat die auch schon früher zu beobachtende bessere Übertaktbarkeit von Zweikern- gegenüber Vierkern-Prozessoren sein.

Pro-MHz-Gewinn höchste Taktrate üblicher OC-Takt
Core 2   (2007, 65nm) - 2.66 GHz ~3.2 GHz
Core 2 Refresh   (2008, 45nm) +9% 3.0 GHz ~4.0 GHz
Nehalem   (2008, 45nm) +31% 3.2 GHz (+TM) ~3.8 GHz
Sandy Bridge   (2011, 32nm) +15% 3.5 GHz (+TM) ~4.5 GHz
Ivy Bridge   (2012, 22nm) +6% 3.5 GHz (+TM) ~4.5 GHz
Haswell   (2013, 22nm) +8% 3.5 GHz (+TM) ~4.3 GHz
Haswell-Refresh   (2014, 22nm) - 4.0 GHz (+TM) ~4.7 GHz
Um einen fairen Vergleich mit der heutigen Situation zu gewährleisten, wo die Enthusiasten-Modelle in die "E-Architekturen" ausgegliedert sind, wurden bei der Angabe zur höchsten Taktrate bei Core 2 und Nehalem nur Prozessoren-Modelle des Mainstream-Bereichs mit Preispunkten bis maximal 500 Euro berücksichtigt. Zudem wurden überall natürlich allein auf die Werte von Vierkern-Modellen gesetzt.
Inhalt abgleichen