17

Finale Spezifikationen zur GeForce GTX 950 aufgetaucht?

Videocardz bringen nochmals neue, nunmehr augenscheinlich finale Spezifikationen zur am 20. August zu erwartenden GeForce GTX 950 daher: Zum einen werden damit die Hardware-Daten in Form von 768 Shader-Einheiten an einem 128 Bit DDR Speicherinterface bestätigt, zum anderen die bislang noch fehlenden Referenz-Taktraten mit 1089/1266/3300 MHz genannt. Dies ist etwas weniger als zuerst berichtet (1150/1350/3300 MHz) – aber andererseits gab es seinerzeit schon die Vermutung, daß diese hohen Taktraten nur diejenigen eines Herstellermodells mit ab-Werk-Übertaktungen waren. Zudem wurde die TDP auf 90 Watt festgelegt – was aber in ähnlicher Form zu erwarten war, die GeForce GTX 960 auf Basis des gleichen Grafikchips steht bei einer TDP von 120 Watt und einem realen Spiele-Verbrauch von 98 Watt.

Radeon R7 370 Radeon R9 370X GeForce GTX 950 GeForce GTX 960
Chipbasis AMD Pitcairn, 2,8 Mrd. Transistoren in 28nm auf 212mm² Chip-Fläche nVidia GM206, 2,94 Mrd. Transistoren in 28nm auf 227mm² Chipfläche
Architektur GCN 1.0, DirectX 11.2a (DX12 in Software) Maxwell 2, DirectX 12.1
Technik 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 256 Bit DDR Interface 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface angeblich 2 Raster-Engines, 768 Shader-Einheiten, 48 TMUs, 32 ROPs, 128 Bit DDR Interface 2 Raster-Engines, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 128 Bit DDR Interface
Taktraten ≤975/2800 MHz angeblich ≤1050/2800 MHz bis zu maximal ≤1180/2800 MHz angeblich 1089/1266/3300 MHz 1127/1178/3500 MHz
(Ø-Chiptakt: 1316 MHz)
Speicherausbau 2 GB GDDR5
(4 GB gegen Aufpreis)
2 GB GDDR5
(4 GB gegen Aufpreis)
2 GB GDDR5 2 GB GDDR5
(4 GB gegen Aufpreis)
TDP 110W ? angeblich 90W 120W
3DC Perf.Index 250% geschätzt 290-310% geschätzt 260-280% 330%
Straßenpreis 145-165 Euro
(4GB +30€)
vermutlich 170€ vermutlich 150€ 180-200 Euro
(4GB +40€)

Aufgrund der (logischerweise bis zum Launchtag) fehlenden Information über den real anliegenden Boosttakt bei der GeForce GTX 950 muß die Performance-Prognose weiterhin im Spannfeld von 260-280% im 3DCenter Performance-Index bleiben. Die GeForce GTX 960 auf Basis desselben GM206-Chips bezieht wie bekannt sehr viel ihrer Performance aus einem letztlich deutlich höherem Realtakt als es deren default-Taktraten ansonsten vermuten lassen würden. Wie nVidia die GeForce GTX 950 letztlich feintunt, wird man sich überraschen lassen müssen – eher näher zur Radeon R7 370 (Perf.Index 250%) oder eher näher zur später erscheinenden Radeon R9 370X (Perf.Index 290-310%).

Die allerersten Preispunkte deuten eher eine niedrigere Ansetzung an, denn zuletzt wurde die GeForce GTX 950 für umgerechnet 150 Euro genannt – damit wäre der direkte Zweikampf mit AMDs Radeon R7 370 eröffnet. Da die ersten GeForce GTX 960 Modelle inzwischen schon bei knapp 180 Euro gesichtet wurden, ist ein allgemein niedrigerer, eher Mainstream-freundlicherer Ansatz von nVidia bei der GeForce GTX 950 die naheliegendste Auflösung. Dafür spricht am Ende auch der plötzliche Preisverfall der kleineren GeForce GTX 750 Ti (Perf.Index 210%): Jene Karte war monatelang stabil bei nicht unter 130 Euro zu haben, ist kürzlich jedoch auf Preise ab 113 Euro heruntergefallen.

Nachtrag vom 19. August 2015

Videocardz bringen zur GeForce GTX 950 nochmals neue Taktraten sowie einen ersten 3DMark Benchmark-Wert. Die Referenz-Taktraten der Karten wurden zuletzt mit 1089/1266/3300 MHz angegeben, nun sollen es gar nur 1024/1188/3300 MHz werden – was die Performance der GeForce GTX 950 noch etwas nach unten treibt. Die wahrscheinlichste Auflösung ist nunmehr ein direkter Zweikampf mit AMDs Radeon R7 370. Der erreichte 3DMark-Wert von 2709 Punkten im 3DMark13 FireStrike Extreme bei einer real auf 1430 MHz Chiptakt laufenden OC-Herstellerkarte deutet darauf hin, daß die GeForce GTX 950 ca. 24% langsamer als die GeForce GTX 960 ist – letztere hatte seinerzeit unter denselben Bedingungen (Vorlaunch-Benchmark mit OC-Herstellerkarte) 3573 Punkte in diesem Test erzielt. Fällt der Unterschied unter Referenz-Taktungen ähnlich aus, sollte die GeForce GTX 950 somit einen 3DCenter Performance-Index von ~250% erreichen – dies wäre genau so wie bei der Radeon R7 370 (Perf.Index 250%) und klar langsamer als bei der Radeon R9 270X (Perf.Index 290%) sowie der später antretenden Radeon R9 370X (Perf.Index ~290-310%).

16

Hardware- und Nachrichten-Links des 15./16. August 2015

In unserem Forum findet sich ein ausführlich bebildertes Tutorial für Nutzer von Monitoren mit AMDs FreeSync-Technologie, mittels welchem jene die minimale Bildwiederholfrequenz (nach unten hin) anpassen können. Damit wird einer der kleinen Problempunkte beseitigt, welchen FreeSync derzeit aufweist – die minimalen Bildwiederholfrequenzen sind in den AMD-Vorgaben zu hoch, obwohl einige FreeSync-Monitore rein technisch auch niedrigere Bildwiederholfrequenzen und damit eine größere Bandbreite an Refreshraten unterstützen. Leider muß der geneigte FreeSync-Nutzer die technischen Möglichkeiten mit seiner konkreten Hardware manuell austesten und dann einen individuellen Monitortreiber erstellen, es gibt hierfür keine alles erschlagende Generallösung. AMD sollte an dieser Stelle unbedingt aufpassen, daß das eigentlich interessante und zugunsten von AMD sprechende FreeSync-Projekt nicht durch solcherart kleine technische Unzulänglichkeiten diskreditiert wird – kommende FreeSync-Monitore und -Treiberversionen sollten besser ohne solche "Hacks" gleich "out of the box" das bestmögliche anbieten, was die Technik zu leisten imstande ist.

Während das Thema "Datenschutz" bei Windows 10 derzeit schon die Gemüter bewegt, rollt womöglich ein weiteres Ungemach auf Microsoft zu: Wie Fudzilla aus den Lizenzbestimmungen zu Windows 10 zitieren, untersagt Microsoft in jenen die Nutzung von "illegaler" Soft- und Hardware – und nimmt sich auch das Recht heraus, die Nutzung selbiger unter Windows 10 zu unterbinden. Die Entscheidung darüber, was legale Soft- und Hardware ist, liegt dabei natürlich allein bei Microsoft – praktisch in Rechtsstreitigkeiten, denn dann wäre dieser Punkt schon einmal entschieden. Rein rechtlich sind damit alle Fronten geklärt: Windows 10 macht das, was Microsoft vorgibt – und nicht das, was dessen Käufer gerne hätte. Damit wird auch klarer, wieso Windows 10 nun ein "Service" und keine "Software" mehr ist: An einer Software darf Microsoft eigentlich nichts mehr zuungunsten des Nutzers herumfummeln – ein Service ist dagegen eine Sache, die sich per Definition fortlaufend ändert und dabei ständig unter der Kontrolle des Anbieters steht. Dabei dürfte Microsoft diese Rechtslage sicherlich kaum demnächst in der Praxis anwenden, hierbei wäre der Aufschrei viel zu groß – die Gewöhnung des Nutzers an seinen Käfig erfolgt in der bewährten Salamitaktik.

Nichtsdestotrotz gibt Microsoft damit erneut der Idee Nahrung, eines Tages auf Linux umzusteigen – und sei es im Sinne eines Dualboot-Systems mit Linux zum Arbeiten & Surfen sowie Windows nur noch rein zum Spielen. Und vielleicht kann man Windows 10 eines Tages als jenes Ereignis bezeichnen, welches das Interesse an Linux erst richtig vorangetrieben hat – in unserem Forum finden hierzu jedenfalls schon eine lebhafte Diskussionen statt, sehr untypisch für das bisherige "Randthema" Linux. Sicherlich ist der Massenmarkt noch weit von Linux entfernt, aber der Anfang wird immer unter den Enthusiasten gemacht – und bei jenen ist der Grundstein schon lange gesetzt worden, Linux kam in der kürzlichen Betriebssystem-Umfrage im 3DCenter schon auf erstaunliche 7,7% Nutzeranteil. Kommt jetzt eine durch Windows 10 ausgelöste weitere Welle an Linux-Nutzern hinzu, könnte Linux in absehbarer Zeit dann auch einmal bei über 10% Nutzeranteil im 3DCenter stehen – eine beachtbare Größe, mit welcher sich dann auch die Hersteller beschäftigen müssten. Weitere Impulse zugunsten von Linux sind – gerade aus Spielersicht – in naher Zukunft durch SteamOS und die Vulkan Grafik-API zu erwarten. Man kann nichts versprechen, aber die Anzeichen stehen doch gar nicht so schlecht für einen wenigstens partiellen Ausbruch aus der Nische.

Die ComputerBase hat sich in einem Kommentar mit den Problemen älterer Spiele-Kopierschutzsysteme unter Windows 10 beschäftigt und dabei die (nachvollziehbare) Forderung aufgestellt, daß ein Kopierschutz immer nur temporär sein darf. Wie dies rein praktisch geschehen könnte, wurde nicht erörtert, ergibt sich aber faktisch von alleine: Ohne entsprechendem Gesetz geht es wohl nicht, das Thema ist schließlich nicht einmal wirklich neu – und trotzdem seit Jahren komplett ohne jeden Fortschritt. Eine gesetzliche Regelung müsste die Hersteller beim Einsatz von DRM-Systemen verpflichten, die entsprechenden Gegenmaßnahmen entweder ab Marktstart (im Tresor) bereitliegen zu haben – alternativ könnte man auch einen Obolus an ein Treuhandkonto überweisen, welches im Notfall zur Erstellung eines Anti-DRM-Patches aktiviert würde. Die Methode "(heiliges) Versprechung des Herstellers" ist dagegen generell abzulehnen, denn so etwas ist in der Praxis nur schwer einklagbar, zudem dürfte im Fall eines Konkurses das Thema "nachträglicher Anti-DRM-Patch" auf der ToDo-Liste des Insolvenzverwalters keinerlei Priorität haben. Ideal wäre hierzu eine entsprechende EU-Gesetzgebung, dann könnten die Hersteller auch schlecht mit dem Boykott eines einzelnen nationalen Marktes drohen.

16 16

Wie hoch läßt sich der Haswell-Refresh "Devils Canyon" in der Praxis übertakten?

Die eigentliche Haswell-Nachfolgearchitektur "Skylake" wurde nun vorgestellt und geht derzeit auch langsam in den Handel – ergo höchste Eisenbahn, um noch festzustellen, wie weit sich die bisher im Desktop führende Intel-Architektur in Form des Haswell-Refreshs mit dem Codenamen "Devil' Canyon" in der reinen Praxis übertakten läßt. Aufgrund der Masse an hereinkommenden Ergebnissen ergibt sich dabei immer ein recht guter Überblick der realen Übertaktungseigung – ähnlich wie dies frühere Umfragen zu Sandy & Ivy Bridge bzw. dem originalen Haswell bereits erbracht haben.

Teilnahmeberechtigt bei dieser Umfrage sind logischerweise nur Besitzer der zwei K-Modellen des Haswell-Refreshs, sprich der Modelle Core i5-4690K und Core i7-4790K, welche ausschließlich mittels konventioneller Luftkühlung übertaktet wurden. Wasserkühlungen und andere exoktische Kühlmaßnahmen sowie Prozessoren mit "geköpften" Heatspreadern müssen aus Gründen der besseren Vergleichbarkeit leider draußen bleiben. Der abgefragte Takt bezieht sich immer auf den übertakteten Base-Takt, außerhalb eines etwaig zugeschalteten Turbo-Modus. Natürlich geht es hierbei immer nur um die Übertaktungsergebnisse bei stabilen Betrieb – wie hoch der Prozessor instabil getrieben werden kann, spielt schließlich für die Anwenderpraxis keine Rolle.

4.2 GHz und weniger
18% (96 Stimmen)
4.3 GHz
5% (29 Stimmen)
4.4 GHz
14% (77 Stimmen)
4.5 GHz
15% (83 Stimmen)
4.6 GHz
10% (52 Stimmen)
4.7 GHz
7% (40 Stimmen)
4.8 GHz
12% (64 Stimmen)
4.9 GHz
2% (9 Stimmen)
5.0 GHz
4% (22 Stimmen)
5.1 GHz
1% (4 Stimmen)
5.2 GHz
1% (4 Stimmen)
5.3 GHz und mehr
10% (56 Stimmen)
Gesamte Stimmen: 536
16

Umfrage-Auswertung: Wie hoch ist die Speicherkapazität aller im Haushalt verfügbaren Festplatten (2015)?

Die Umfrage der vorletzten Woche beschäftigte sich mit der Speicherkapazität aller im Haushalt verfügbaren Festplatten – ob SSD oder HDD, ob intern oder extern, ob im PC, im NAS oder lose herumliegend. Dabei wurde bewußt nach der Kapazität aller entsprechenden Festplatten im Haushalt gefragt – da externe Festplatten mit großen Kapazitäten oftmals nicht explizit einem PC oder einem Besitzer zugeordnet sind, bei dieser Umfrage aber nicht außen vor gelassen werden sollten. Wie schon bei der gleichlautenden 2011er Umfrage sind die Kapazitäten sehr breit über alle Antwortoptionen verteilt – mit allerdings heuer einem wesentlich höheren Anteil der Nutzer von mehr als 10 TB insgesamten Festplatten-Platz: Im Jahr 2011 waren dies schon 14,5%, nun sind es gleich sehr beachtbare 33,7%.

Dies ist natürlich auch nur Ausdruck der insgesamt größer werdenden Festplatten-Kapazität und -Nutzung, denn gegenüber der 2011er Umfrage verloren alle kleineren Antwortoptionen einschließlich "bis 6 TB" an prozentualem Zuspruch, erst ab der Antwortoption "bis 10 TB" stiegen die Nutzungszahlen zwischen den Umfragen der Jahre 2011 und 2015 an. Und so verwundert es auch nicht, daß der Median im Jahr 2011 bei 3,1-4 TB insgesamter Festplatten-Kapazität im Haushalt lag, im Jahr 2015 dann jedoch auf 6,1-10 TB insgesamter Festplatten-Kapazität im Haushalt und damit nahezu das Doppelte angewachsen ist.

14

Hardware- und Nachrichten-Links des 14. August 2015

Gemäß des japanischen Hermitage Akihabara (maschinelle Übersetzung ins Deutsche) kommt die GeForce GTX 950 nun nicht am 17. August – sondern am 20. August. Dies passt vom Launchtag auch viel besser – der 17. wäre ein (nVidia-untypischer) Montag gewesen, der 20. wird ein ganz nVidia-typischer Donnerstag. Der Launchzeitpunkt soll 21 Uhr augenscheinlich japanischer Zeit betragen – dies wären im kalifornischen nVidia-Hauptquartier 16 Stunden weniger, also 5 Uhr morgens. In Mitteleuropa wären dies dann 14 Uhr am Nachmittag, was mit den letzten nVidia-Launches zusammenpasst. Als (japanischer) Preis wurden 20.000 Yen genannt, umgerechnet nur 145 Euro – bislang war die GeForce GTX 950 eher für ab 160 Euro erwartet wurden, bei einem niedrigeren Preis würde nVidia an dieser Stelle AMDs (langsamere) Radeon R7 370 stärker unter Druck setzen können. Andererseits wird AMD die GeForce GTX 950 in Bälde mit der (gleich schnellen oder schnelleren) Radeon R9 370X kontern – und im Zuge deren Vorstellung womöglich auch den Preis der Radeon R7 370 nach unten hin anpassen.

Fudzilla bringen die AMD-Aussage, daß die 2016er AMD-Grafikchips der Arctic-Islands-Generation "deutlich anders" gegenüber den aktuellen GCN-basierten AMD-Grafikchips ausfallen sollen. Sicherlich kann man hierbei zum Teil auch die dann verwendete 14nm-Fertigung von GlobalFoundries meinen, aber für diese klare Aussage reicht dieser Unterschied eigentlich nicht aus – womöglich schwingt sich AMD endlich zu wirklich großen Änderungen an der GCN-Architektur auf, welche dann in einer Versionsnummer 2.0 resultieren (AMD benutzt intern für die GCN-Architektur eigentlich Generations-Nummern, hat aber teilweise die von der Presse gehandelten Versionsnummer 1.0 bis 1.2 auch schon so genannt). Neben Detailtweaks dürften hierzu sicherlich auch eine größere Umorganisationen des eigentlichen GCN-Designs und seiner Hardware-Einheiten gehören, entsprechende Vorschläge liest man in unserem Forum: Posting No.1 & Posting No.2. AMD braucht hier in jedem Fall einen ähnlichen Effizienzschub, welchen nVidia mit der Maxwell-Architektur bereits hingelegt hat – allein das Setzen auf die 14nm-Fertigung und damit auf immer nur mehr Shader-Einheiten wird womöglich nicht ausreichend sein. AMD dürfte dies allerdings genauso festgestellt haben, insofern darf man einiges von der kommenden "GCN Architektur 2.0" erwarten.

Heise spekulieren über eine Art "inverses HyperThreading" bei Intels Skylake-Architektur – nachdem es in einem einzelnen Benchmark in einem SingleCore-Test einen Performanceboost von x2,4 gegenüber Haswell gegeben hatte, während derselbe Benchmark im MultiCore-Test nur einen eher kleinen Vorsprung zwischen Skylake und Haswell auswies. Unter inversem HyperThreading versteht man die Fähigkeit eines Prozessors, mit mehreren Rechenkernen an einer Aufgabe zu rechnen, welche nur einem Rechenkern zugewiesen wurde bzw. regulär nur auf einem einzelnen Rechenkern läuft. Das ganze ist nutzvoll zur Performancesteigerung bei älterer, nicht auf mehrere Rechenkerne ausgelegter Software – oder auch in Situationen, wo viel mehr Rechenkerne vorhanden sind als die Software erwartet und auszunutzen gedenkt. Daß Skylake schon so etwas beherrscht, ist allerdings aufgrund dieses einzelnen Benchmarks eher unwahrscheinlich: Der Zweck von inversem HyperThreading liegt ja gerade darin, unabhängig von Betriebssystem und Anwendung eine Beschleunigung zu erreichen.

Demzufolge müsste sich ein entsprechend großer Leistungszuwachs bei allen Skylake-Benchmarks zeigen, welche prinzipiell parallelisierbare Aufgaben enthalten und dennoch als SingleCore-Anwendung ausgeführt werden – Cinebench oder wPrime beispielsweise, selbst ein altes SuperPI müsste darauf perfekt anschlagen. Daß dem gemäß der vorliegenden Benchmarks zu Skylake-Prozessoren nicht so ist, spricht eigentlich klar gegen ein laufendes inverses HyperThreading bei Skylake. Nichtsdestotrotz könnte Intel durchaus an so etwas arbeiten, womöglich sieht man hierbei sogar eine Vorform davon. Daß es sich um ein gänzlich anders erklärbares Phänomen handelt, ist aber dennoch die derzeit immer noch wahrscheinlichste Auflösung. Womöglich wird die eigentliche Architektur-Vorstellung zu Skylake, welche für Intels am 18. August startendes IDF angesetzt ist, hierzu genaueres bringen. Dort wird Intel dann auch Gelegenheit haben zu erklären, wieso der Pro-MHz-Sprung zwischen Broadwell und Skylake – trotz nominell "neuer CPU-Architektur" derart gering ausgefallen ist.

Golem bringen noch einen wichtigen Nachtrag zur kürzlich angekündigten "3D XPoint" Speichertechnologie: Jene soll sowohl in Form von RAM-Riegeln als auch als PCIe-Karte verfügbar werden. Letzteres klingt eher wie ein weiterer Zwischenspeicher (aka Cache) zwischen Hauptspeicher und Massenspeicher – ersteres könnte dagegen eines Tages sogar den herkömmlichen DRAM ersetzen. Zumindest hat Intel vor, 3D XPoint tatsächlich in Consumer-PCs zu überführen, auch wenn der Anfang erst einmal im Server-Segment bei der Purley-Plattform für Skylake-basierte Xeon-Prozessoren gemacht werden wird. Ob 3D XPoint alle diese Erwartungen erfüllen kann, bliebe allerdings abzuwarten – die Liste der vermeintlichen DRAM-Nachfolger ist lang, doch bislang konnte sich noch keiner auf dem Feld des glatten DRAM-Esatzes durchsetzen.

Für einiges Aufregen sorgt derzeit ein Artikel seitens Ars Technica über die Nachhausetelefoniererei von Windows 10 – welche selbst dann abläuft, wenn man eigentlich alle diese Funktionalität dachte unterbunden zu haben. Deutschsprachige Meldungen hierzu kommen von Golem und WinFuture – in der Summe der Dinge findet wohl keine (gefährliche) Datenabsaugung statt, aber Windows 10 spricht einfach häufiger mit Microsoft, als es rein technisch notwendig wäre. Das zugrundeliegende Problem ist wohl schlicht, daß sich Microsoft dabei nichts weiter gedacht hat bzw. sein neues Betriebssystem nicht vorsätzlich nach dem Grundsatz der Datensparksamkeit konzipierte. Der "Fehler" liegt hier durchaus im Design bzw. in den Absichten von Microsoft – ein Punkt, welchen man kaum über Patches ändern kann. Im Endeffekt war diese Entwicklung zu erwarten, alle Vorzeichen bei Windows 8 sprachen genau für so etwas – und nun wurde es eben seitens Microsoft realisiert. Beeinflußen kann nur der Nutzer diese Entwicklung nur über seine Entscheidung zum letztlich genutzten PC-Betriebssystem, Microsoft wird sich dagegen in dieser Frage ziemlich sicher nicht bewegen.

14

Gesammelte Overclocking-Resultate zu Intels Broadwell

Zu Intels Broadwell Prozessoren-Architektur fehlt noch eine genauere Betrachtung der damit erreichbaren Overclocking-Frequenzen – immerhin taktet Broadwell vergleichsweise niedrig (Core i7-5775C startend bei nur 3.3 GHz), kommt aber wie Skylake bereits in der 14nm-Fertigung daher und sollte damit eigentlich über reichlich Overclocking-Spielraum verfügen. In der Praxis haben sich von den sowieso wenigen Broadwell-Tests die meisten das Overclocking-Experiment geschenkt, da Intel schon vorab Broadwell nicht gerade als die Overclocking-CPU benannt hatte. Die zur Verfügung stehenden Broadwell-Tests mit Overclocking-Abschnitt geben dennoch einen guten Blick darauf auf, wie weit sich Broadwell übertakten läßt:

Core i7-5775C  (3.3/3.9 GHz, 1.194V)
ComputerBase 4.1 GHz @ 1.204V
Golem 4.2 GHz @ 1.387V
LanOC 4.4 GHz @ 1.476V
Overclockers 4.4 GHz @ 1.375V
Overclockers Club 4.3 GHz @ 1.375V
TechSpot 4.2 GHz @ ?V
ThinkComputers 4.3 GHz @ 1.350V
TweakTown 4.0 GHz @ ?V
Core i5-5675C  (3.1/3.6 GHz, 1.171V)
Hardware.fr 4.1 GHz @ 1.299V

Im glatten Schnitt aller Overclocking-Resultate kommen beim Core i7-5775C eher unterdurchschnittliche 4237 MHz heraus – gemessen am default-Takt von 3.3 GHz gar nicht so schlecht, aber gemessen an den Übertakungs-Resultaten von Haswell & Skylake lange nicht mehr konkurrenzfähig. Faktisch schaffte bereits Intels 2011er Sandy-Bridge-Architektur mit im Schnitt 4.5 GHz ein klar besseres Übertaktungsergebnis – und dies war zwei Fertigungsstufen vor Broadwell (von 32nm zu 22nm zu 14nm). Aber dies ist ein generelles Problem der neueren Intel-Architekturen: Die Taktbarkeit des ganzen Ansatzes erscheint weitgehend ausgereizt, es geht in geringfügigen 100-MHz-Sprüngen pro Jahr voran – Computer-Veteranen werden sich hingegen noch an eine Zeit erinnern können, wo AMD und Intel im Gigahertz-Rennen (zu viel niedrigeren Nominalfrequenzen) mindestens jedes Quartal 100 MHz oben drauf legten.

Wie zudem der kürzliche Generations-übergreifende Prozessoren-Performanceüberblick aussagt, kommt Broadwell auch mit einer Übertaktung auf 4.2 GHz (wurde dort bereits in dieser Form eingerechnet) nicht an die Übertaktungs-Performance von Haswell "Devils Canyon" und Skylake heran – trotz daß der relative Taktgewinn bei Broadwell doch recht stattlich ist und die Architektur eine der höchsten Pro-MHz-Wertungen hat (nur sehr knapp hinter Skylake). Die Idee, mittels einer starken Broadwell-Übertaktung allen anderen Intel-Prozessoren die Rücklichter zeigen zu können, wird sich leider nicht realisieren lassen – dafür hätte Broadwell unter Übertaktung noch ein paar mehr Megahertz drauflegen müssen, 4.2 GHz im Overclocking-Schnitt sind dafür klar zu wenig. Angesichts von eher wackeligen Overclocking-BIOSen bei Broadwell und der inzwischen zur Verfügung stehenden Skylake-Architektur mit insgesamt mehr Performance, höheren Taktraten und gänzlich neuer Plattform lohnt sich Broadwell selbst als reines Overclocking-Experiment nicht mehr.

Inhalt abgleichen