11

Hardware- und Nachrichten-Links des 11. April 2014

Die PC Games Hardware berichtet über Aussagen eines Spieleentwicklers, DirectX 12 würde die Performance der Xbox One glatt verdoppeln können – und zugleich über gegensätzliche Aussagen anderer Spieleentwickler, welche diese Darstellung arg bezweifeln. Und in der Tat ist diese These sehr gewagt, da die mit DirectX 12 kommenden Verbesserungen der Performance im CPU-Limit angesichts der gleich acht CPU-Rechenkerne der Xbox One gerade den NextGen-Konsolen weniger bringen sollten als beispielsweise Zwei- und Vierkern-Prozessoren im PC-Bereich. Zudem geht die genannte Performance-Verdopplung auf einen theoretischen Wert zurück, welcher in der Spielepraxis kaum zu erreichen sein wird. Am Ende kann die Xbox One trotz aller Marketing-Anstrengungen seitens Microsoft niemals ihre nur mittelmäßige Hardware-Ansetzung übertünchen – gut zu sehen auch an den ständigen Meldungen über niedrigere Auflösungen von NextGen-Titeln auf der Xbox One.

Wie der Spiegel berichtet, soll die NSA von der "Heartbleed"-Lücke schon seit zwei Jahren gewusst haben – sprich, faktisch seit dem Auftauchen dieses Bugs in OpenSSL. Dies ist natürlich ein dicker Hund, weil mittels Heartbleed sehr umfassend Mißbrauch getrieben werden kann – gerade wenn man wie die NSA unbegrenzte Ressourcen zur Datenspeicherung zur Verfügung hat und sich zudem um Gesetze keinen Kopf machen muß. In dieser langen Zeit dürfte sich die NSA als erstes natürlich die SSL-Zertifikatsschlüssel aller bedeutenden und unbedeutenden Webseiten und Online-Dienste gesichert haben – weil was man einmal hat, das hat man. Nachfolgend kann man dann, basierend auf der eigenen massiven Vorratsdatenerfassung, verschlüsselte Inhalte sogar mehr als diese zwei Jahre zurück nachträglich noch entschlüsseln. Man muß damit konstatieren, daß alle Daten, die in den letzten Jahren über verschlüsselte Verbindungen gegangen sind, erst einmal als für die NSA lesbar angesehen werden müssen.

Natürlich ist es eine Schande, daß die NSA diesen Monsterbug nur zum eigenen Vorteil ausgenutzt und nicht die viel größeren Implikationen gesehen hat, welche sich für die Normalbevölkerung durch die "Heartbleed"-Lücke nunmehr ergeben. Die NSA hat damit wissentlich das Internet über eine schwerstmögliche Sicherheitslücke im unklaren und damit in Gefahr durch andere Geheimdienste und Internetkriminelle gelassen. Das ganze darf durchaus daran erinnern, daß Geheimdienste am Ende wenig auf den Nutzen für die Allgemeinheit schauen – sondern zuerst nur auf sich selbst und den fakisch eigenen Kosmos, in welchem große Geheimdienste wie die NSA gewöhnlich leben. Es ist vor allem der Hinweis auf den Fakt, daß Geheimdienste keinerlei Maß haben und keinerlei Hemmungen, wenn es nur irgendwie der gestellten Aufgabe dient – egal wie groß die Kollateralschäden für die Gesellschaft sind. Ein unkontrollierter Geheimdienst wird zudem jederzeit erneut so handeln, da das Entdeckungsrisiko sowie die Handhabe des Normalbürgers gering sind, der Rückhalt durch die Politik dagegen üblicherweise groß ist.

Golem berichten über die Klage eines Kunden des ASIC-Miner-Herstellers "Butterfly Labs", weil jener die bestellten Geräte seit über einem halben Jahr nicht ausgeliefert hat. Dabei schwingt durchaus die – an dieser Stelle schon vor dem Aufkommen der ersten ASIC-Miner geäußerte – Vermutung mit, daß der Hersteller die Geräte durchaus auslieferungsbereit hat, jene aber zur eigenen Erzeugung von Bitcoins verwenden, so lange dies noch ein Plusgeschäft ist. Diese These ist sicherlich griffig, weil wer verkauft schon eine faktische Gelddruck-Maschine, so lange man jene selber nutzen und einfach später (ohne jeden Verlust) immer noch ausliefern kann?! Andererseits bedeutet die lange Auslieferungsfrist für die Besteller von Mining-Hardware in jedem Fall einen Verlust, weil die Erzeugungsschwierigkeit der verschiedenen Coin-Projekte nur eine Richtung kennt: Es wird immer schwieriger, womit eine Gewinnprognose heute am nächsten Tag schon in eine Verlustprognose umschlagen kann. Faktisch werden hierbei so etwas ähnliches wie "verderbliche Güter" verkauft – und damit sollten feste Lieferfristen gelten und es natürlich niemals Vorauszahlungen geben.

11

Angebliche Spezifikationen zu nVidias GM204-Chip aufgetaucht

Von PCTuning (maschinelle Übersetzung ins Deutsche) kommen erste angebliche Spezifikationen zum nVidia GM204 Maxwell-Chip, welcher in der "GeForce GTX 880" münden soll. Hierbei scheint es sich um eine Grafikkarte des HighEnd-Segments zu handeln, welche allerdings im späteren Verlauf dann noch einmal durch noch schnellere Lösungen (auf Basis des GM210-Chips) überrundet werden wird – ähnlich wie bei der GeForce GTX 680 zu beobachten, welche auch als erste HighEnd-Lösung auf Basis der Kepler-Architektur ins Rennen ging, inzwischen aber von viel schnelleren Kepler-Lösungen ersetzt wurde.

Sehr problematisch an der Meldung von PCTuning ist allerdings die Trennung zwischen real vorliegender Information und hingefügter Dichtung seitens des Verfassers. Ganz ohne Hintergrund-Informationen scheint PCTuning nicht dazustehen – ob jedoch die Quellen den GM204-Chip wirklich schon derart detailliert beschrieben haben (sogar inklusive konkreter Taktraten), wäre eher zu bezweifeln. Bislang ist zu erkennen, daß man Quellen hat, welche den GM204-Chip als in 20nm hergestellt und angeblich sogar schon für diesen Sommer bereitstehend nennen. Letzteres ist allerdings total unglaubwürdig, wahrscheinlich ist eher das Jahresende 2014 – die eigentliche Angebotsspitze der Maxwell-Generation in Form des GM210-Chips soll dann sogar erst im Jahr 2015 nachfolgen.

Desweiteren berichten die Quellen von PCTuning von 3200 Shader-Einheiten und einer unbekannten Anzahl von Textureneinheiten an einem 256 Bit DDR breiten Speicherinterface beim GM204-Chip. Die Speichergrößen sollen bei 2 sowie 4 GB GDDR5 liegen – wobei nVidia sicherlich die HighEnd-Modelle angesichts der breiten Verfügbarkeit von 3GB- und 4GB-Karten seitens AMD mit gleich 4 GB Speicher ausrüsten dürfte. Interessanterweise soll die GM204-Karte nur über einen einzelnen 6poligen Stromstecker verfügen, ergo mit maximal 150 Watt TDP auskommen. Dies wäre dann nochmals weniger als seinerzeit die GeForce GTX 680 (real 169W) verbrauchte, ist allerdings angesichts der bekannten Effizienz der Maxwell-Architektur sowie der angesetzten 20nm-Fertigung nicht unmöglich.

    nVidia GM204

  • sicher: Maxwell-Architektur
  • angeblich: 7,9 Milliarden Transistoren in der 20nm-Fertigung von TSMC
  • angeblich: 3200 Shader-Einheiten (mit wahrscheinlich dementsprechend 200 Textureneinheiten)
  • angeblich: 256 Bit DDR Speicherinterface
  • angeblich: Speicherbestückung 2/4 GB GDDR5
  • angeblich: Taktraten von 900/950/3700 MHz
  • angeblich: ein ARM-Prozessor onboard
  • angeblich: nur ein 6poliger Stromstecker, TDP damit maximal 150 Watt
  • Verkaufsname: angeblich "GeForce GTX 880"
  • Release: angeblich Sommer 2014, viel eher wahrscheinlich ist aber der Herbst/Winter 2014
  • Performance-Prognose: auf diesen Daten ~550-600%
  • Quelle: PCTuning

Basierend auf diesen Daten läßt sich orakeln, daß eine solcherart gestaltete GeForce GTX 880 auf einen Performance-Index von ~550-600% kommen kann – und damit oberhalb von GeForce GTX 780 Ti (530%) sowie GeForce GTX Titan Black (~540-550%) herauskommen würde. Eine kleine Unsicherheit hat diese Prognose noch bezüglich des Faktors des nur maßvoll breiten Speicherinterfaces: Eigentlich kann man von nVidia erwarten, demnächst auch im Performance/HighEnd-Bereich mit größeren Speicherinterfaces anzutreten, damit die vorhandene Rechenleistung auch wirklich ausgefahren werden kann. Bleibt die GeForce GTX 880 jedoch bei einem 256 Bit DDR breiten Speicherinterface, kann dies durchaus hinderlich sein, um die maximal mögliche Performance aus den angesetzten 3200 Shader-Einheiten herauszuholen.

Dabei sind solcherart Detailfragen allerdings viel unwichtiger gegenüber der einzig relevanten Frage nach der Glaubwürdigkeit dieser Informationen zum GM204-Chip. Die genannten Spezifikationen sind in jedem Fall nicht unstimmig – so könnte der GM204-Chip durchaus aussehen. Unsicherer wird es, wenn man den genannten Releasetermin von angeblich Sommer 2014 mit einbezieht – weil dies gemäß aller dato vorliegenden Informationen zu 20nm-Grafikchips wirklich unwahrscheinlich klingt. Einen echten Hinweis darauf, ob diese angeblichen Spezifikationen nun glaubwürdig oder unglaubwürdig sind, können wir nicht geben – die Zeit muß zeigen, ob PCTuning einfach nur wild spekuliert haben oder tatsächlich die ersten handfesten Informationen zum GM204-Chip in der Hand halten.

11

Welche Dienste sind von "Heartbleed" betroffen?

Da die (berechtigte) Frage nach den wirklich von der "Heartbleed"-Lücke betroffenen Diensten aufgekommen ist, wollen wir dafür auch eine Antwort geben. Die nachfolgende Liste ist natürlich unvollständig – maßgeblich wegen der unzureichenden Informationspolitik der Anbieter – gibt aber wenigstens teilweise eine Antwort darauf, ob die Anbieter diverser Internet-Dienste, Betriebssysteme und Programme betroffen sind. Mit notiert wurden auch Dienste, Betriebssysteme & Programme, welche nicht betroffen sind – da auch diese Information wertvoll ist. Die grunsätzliche Empfehlung angesichts der unsicheren Informationslage – in welcher die meisten Anbieter nach wie vor zuerst an ihre Außendarstellung anstatt den Informationsbedarf der Anwender denken – lautet jedoch nach wie vor darauf, eher lieber alle Online benutzten Passwörter zu ändern.

sicher/unsicher vor Heartbleed notwendige Maßnahmen
3DCenter-Forum frühere OpenSSL-Version in Verwendung keine Aktion notwendig
Amazon keine Aktion notwendig
Android völlig widersprüchliche Aussagen seitens des Anbieters sicherheitshalber: Passwort ändern!
Apple sowohl MacOS/iOS als auch die Apple-Services benutzen kein OpenSSL keine Aktion notwendig
AOL eMail frühere OpenSSL-Version in Verwendung keine Aktion notwendig
Dropbox Passwort ändern!
eBay frühere OpenSSL-Version in Verwendung keine Aktion notwendig
Chrome & ChromeOS keine Aktion notwendig
Facebook Passwort ändern!
Firefox & Thunderbird benutzt kein OpenSSL keine Aktion notwendig
GMX eMail benutzt kein OpenSSL keine Aktion notwendig
Google-Dienste (Suche, GMail, YouTube, Wallet, Play-Store, Google-Apps) Passwort ändern!
Groupon frühere OpenSSL-Version in Verwendung keine Aktion notwendig
Instagram Passwort ändern!
LinkedIn frühere OpenSSL-Version in Verwendung keine Aktion notwendig
Linux Passwort ändern!
Outlook.com eMail benutzt kein OpenSSL keine Aktion notwendig
PayPal angeblich ist bei PayPal alles immer total sicher gewesen ... keine Aktion notwendig
Pinterest Passwort ändern!
Skype benutzt kein OpenSSL keine Aktion notwendig
T-Online eMail benutzt kein OpenSSL keine Aktion notwendig
Twitter völlig widersprüchliche Aussagen seitens des Anbieters sicherheitshalber: Passwort ändern!
Web.de eMail Passwort ändern!
Windows (inkl. IE) benutzt kein OpenSSL keine Aktion notwendig
Yahoo-Dienste (eMail, Flickr & Tumblr) Passwort ändern!
10

Hardware- und Nachrichten-Links des 9./10. April 2014

Die ComputerBase hat sich noch einmal mit dem 337.50er nVidia-Treiber beschäftigt, um eine Erklärung für dessen Performance-Verhalten zu finden. Im Nebensatz hat man dabei der These, der Treiber hätte das Temperatur-Limit der GeForce GTX 780 Ti angehoben, eine Absage erteilt. Dies steht zwar weiterhin im Gegensatz zu dem, was HardOCP notiert haben – andererseits spricht die unter vielen Benchmarks völig gleich gebliebene Performance auch nicht zwingend für eine solche Hardware-Änderung, welche schließlich unter allen Performance-Messungen für irgendeinen Effekt sorgen sollte. Schön wäre natürlich noch eine Bestätigung seitens einer dritten Partei, da es sich hierbei immer noch um zwei widersprüchliche Aussagen handelt (und selbst die reinen Meßwerte der ComputerBase einen Temperatur-Anstieg um 2°C anzeigen).

Die zum Ende des März geäußerte These über das Auslassen der 20nm-Fertigung seitens der Grafikchip-Entwickler verführt durchaus zum Gedanken, was speziell nVidia mit der Maxwell-Architektur noch innerhalb der 28nm-Fertigung möglich sein könnte. Lustigerweise hatten wir uns über diesen Punkt im Februar schon ein paar Gedanken gemacht – zwar ausgehend allein von der beim bisherigen Maxwell-Chip verbrauchten niedrigen Chipfläche, aber dies ist durchaus ein solider Ansatzpunkt (ein anderer guter Ansatzpunkt läge im Stromverbrauch). Schon "seinerzeit" ließ sich prophezeien, daß nVidia mit einem 28nm Maxwell-Chip von nur 350mm² Chipfläche die Performance von GeForce GTX 780 Ti & Titan Black wohl erreichen würde können – was bedeutet, daß sich das ganze produktionstechnisch sogar lohnen sollte, denn der bisher für diese Grafikkarten benutzte GK110-Chip ist immerhin 561mm² groß.

Auch der im Performance-Bereich breit eingesetzte GK104-Chip (294mm²) würde sich weitestgehend mit einem Maxwell-Chip unter 28nm ersetzen lassen: Der dabei herauskommende hypothetische Maxwell Performance-Grafikchip wäre mit 230mm² Chipfläche ausreichend genug kleiner, um wirtschaftlich für nVidia interessant zu sein. Die eigentliche Frage dieses Gedankenansatzes ist aber natürlich, ob der Markt weitere 28nm-Grafikchips und -karten – egal ob sie sehr effizient sind – überhaupt goutieren würde, wenn es an der Leistungsspitze keine neuen, schnelleren Grafikkarten gibt. Allerdings ist selbiges durchaus realisierbar – dann aber wahrscheinlich nur, wenn man die für professionelle Zwecke benötigten Transistoren wegläßt, sprich einen Enthusiasten-Grafikchip auflegt, welcher nicht mehr gut für Quadro- oder Tesla-Grafikkarte benutzbar ist.

Chip Perf./mm² Technik Perf.-Index Chipfläche vergleichbar mit
GM107
(Maxwell Mainstream)
1,48 1 Raster-Engine, 640 Shader-Einheiten, 40 TMUs, 16 ROPs, 128 Bit DDR Interface bis zu 210% 148mm² GK106 (221mm²)
Maxwell Performance 1,52 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface bis zu ~350% ~230mm² GK104 (294mm²)
Maxwell HighEnd 1,57 3 Raster-Engines, 2560 Shader-Einheiten, 160 TMUs, 48 ROPs, 384 Bit DDR Interface bis zu ~550% ~350mm² GK110 (561mm²)
Maxwell Enthusiast
(ohne Profi-Eignung)
1,60 4 Raster-Engines, 5120 Shader-Einheiten, 320 TMUs, 64 ROPs, 512 Bit DDR Interface bis zu ~850% ~530mm² -
Die kursiven Angaben dieser Tabellen beinhalten reine Annahmen.

Rechnet man dies hoch, läßt sich sehr viel mit der Maxwell-Architektur auch noch unter 28nm erreichen: Am Ende könnte ein Maxwell Enthusiasten-Grafikchip ohne Profi-Ballast auf eine Performance in der Nähe der DualChip-Grafikkarten Radeon R9 295X2 und GeForce GTX Titan Z kommen – bei ungefähr immerhin 60% Mehrperformance gegenüber einer GeForce GTX 780 Ti. Ob nVidia diesen Weg geht, ist aber natürlich extrem ungewiß, es handelt sich immerhin nur um eine reine Spekulation basierend auf einer unbewiesenen These. Aber es ist augenscheinlich mit der Effizienz der Maxwell-Architektur möglich, selbst unter der 28nm-Fertigung noch eine neue Grafikkarten-Generation aufzulegen, welche durch ihren erheblichen Performance-Sprung gegenüber den bisherigen Grafikkarten den Terminus "neue Generation" zu Recht tragen würde.

10

Die "Heartbleed"-Lücke zwingt zu neuen Passwörtern für Mail, Foren, Online-Dienste, etc.

Die am Wochenanfang gemeldete Heartbleed-Lücke in OpenSSL entwickelte sich im Laufe der letzten Tage immer mehr zum IT-Sicherheits-Super-GAU, welcher nun auch die normalen Anwender ultimativ zum Handeln zwingt. OpenSSL wird als Kryptographie-Lösung in vielen Programmen verwendet, hauptsächlicher Einsatzzweck besteht in der Verarbeitung von verschlüsselten https-Verbindungen, beispielsweise zu Online-Diensten, Mail-Servern, Online-Banken, usw. Dabei ermöglicht die Lücke zum einen das Auslesen der Nutzer-Passwörter im Klartext (je nachdem wer sich zuletzt eingeloggt hat), zum anderen aber auch das Auslesen des SSL-Zertifikats der jeweiligen Webseiten, womit Geheimdienste und Internetkriminelle den Datenverkehr mitlesen können, selbst wenn dieser verschlüsselt ist.

Damit ergeben sich zwei Aufgaben: Die erste betrifft die Anwender, jene müssen umgehend ihre Passwörter ändern. Dies betrifft alle Passwörter, welche für Online-Dienste gleich welcher Art angelegt wurden. Sicher benutzt nicht jeder Online-Dienst die bugbehafteten OpenSSL-Versionen (das 3DCenter-Forum beispielsweise nicht, hierfür muß man keine Passwörter ändern), aber generell dürfte es zu aufwendig sein, dies für jeden Dienst extra festzustellen – ergo gilt die glatte Regel: Alle auf Online bezogenen Passwörter sind umgehend zu ändern. Hier und da dürften sich noch einige Programme ergeben, welche in neuer, Bug-bereinigter Version aufgelegt werden. Glücklicherweise wird OpenSSL nicht von den wichtigen Browsern und Anwendungsprogrammen benutzt, sondern meist nur bei Server-seitigen Programmen und Betriebssystemen.

Gleichzeitig müssen die Online-Anbieter auf ihren Servern sowohl eine fehlerbereinigte OpenSSL-Version einspielen als auch sich neue SSL-Zertifikate ausstellen lassen – und hier hakt es, wie Heise Security ausführen. Viele Anbieter haben erst recht spät reagiert, einige Anbieter bislang noch gar nicht – was dann eine zusätzliche erhebliche Gefahr für die Anwender darstellt. Von wirklich sicherheitskritischen Webseiten – wie Online-Banking – sollte man derzeit die Finger lassen, bis der jeweilige Dienst explizite Entwarnung gegeben hat. Wichtig ist dabei wie gesagt nicht nur die fehlerbereinigte OpenSSL-Version, sondern auch das neue SSL-Zertifikat – denn schließlich kann der Schlüssel des bisherigen Zertifikats durch die Heartbleed-Lücke ausgelesen und damit in der Welt verbreitet worden sein.

Da diese zweite wesentliche Maßnahme zur Bekämpfung der Heartbleed-Lücke letztlich nicht durch den normalen Anwender im vollen Umfang kontrollierbar ist, kann man durchaus darüber nachdenken, das ganze Passwort-Wechseldich-Spiel in zwei bis drei Wochen – dann, wenn man annehmen darf, daß wirklich alle Anbieter von Online-Diensten reagiert haben – nochmals durchzuführen. Dies mag sich umständlich anhören, ist aber die einzige Lösung, die wirklich sicher ist – außer, sich derzeit nirgendwo mehr einzuloggen oder aber das Internet gleich ganz ausgeschaltet zu lassen. Immerhin kann man die Gelegenheit nutzen, um sich über sichere Passwörter sowie Passwort-Manager Gedanken zu machen.

9

nVidia bringt "Wundertreiber" 337.50 mit Mantle-Konter und kleinem Hardware-Tweak

(Un)passenderweise einen Tag vor den Launch der Radeon R9 295X2 hat nVidia den neuen Beta-Treiber 337.50 veröffentlicht, welcher aufgrund der von nVidia versprochenen Performance-Zugewinne von bis zu 64% bei einer einzelne GPU und bis zu 71% im SLI-Einsatz auch schon einmal als "Wundertreiber" bezeichnet wird. Hauptgrund des Performance-Gewinns sollen hierbei nicht Anpassungen bzw. Optimierungen auf einzelne Spiele sein, sondern eine Anpassung des Treibers im Sinne der Mantle-API – sprich, unter Vermeidung von zu vielen DirectX-Calls zugunsten der Performance in eher oder wenigstens teilweise CPU-limitierten Szenarien. nVidia unterstützt zwar kein Mantle, will aber rein durch Treiber-Anpassungen ähnliches wie bei Mantle erreichen und vergleicht sich in den offiziellen Präsentationen zum neuen Treiber auch direkt mit AMDs Mantle.

Die vorliegenden unabhängigen Benchmarks sehen die Sache weit weniger euphorisch: Auf das gesamte Testfeld gerechnet bringt der neue Treiber in etwa 4-5 Prozentpunkte mehr Performance mit sich. Einzelne Spiele laufen teilweise deutlich schneller, aber gerechnet auf ein großes Testfeld ergibt sich nur dieser Durchschnitt. Bemerkenswerte Ausreißer gibt es unter Battlefield 4, Thief, Sleeping Dogs, Hitman, BioShock Infinite, Total War: Rome 2 und der StarSwarm-Demo – also mehrheitlich dort, wo auch AMDs Mantle-API ihre Stärken hat. Die allgemeine Wertung zum neuen nVidia-Treiber ist allerdings eher geprägt vom schwachen durchschnittlichen Performance-Gewinn – was interessant ist, denn bei AMDs Mantle-API ist dies nicht viel anders, dort konzentrierte sich die breite Berichterstattung bislang aber eher auf die einzelnen Performance-Ausreißer und nicht auf das Gesamtbild.

Daneben hat nVidia in den neuen Treiber zumindest bei der (für die meisten Treiber-Tests bemühten) GeForce GTX 780 Ti noch eine kleine "Überraschung" eingebaut: Die maximal erreichbare Grafikchip-Temperatur der GeForce GTX 780 Ti wurde seitens nVidia beim 337.50er Treiber offenbar leicht um 2-3°C nach oben gesetzt. Dies läßt sich einem Posting im Forum der ComputerBase sowie auch dem Treiber-Test bei HardOCP entnehmen. Da die Performance heutiger Grafikkarten maßgeblich an ihren jeweiligen Temperatur-Limits hängt, ergibt sich hiermit auch eine automatische Performance-Verbesserung – ohne aber das deswegen der Treiber wirklich etwas besser machen würde. Angesichts der geringen Größe der Veränderung ist nVidia allerdings kaum ein Vorwurf zu machen, der Langlebigkeit der Hardware zu schaden. Bedenklich ist die Sache eher deswegen, weil die Grafikkarten-Käufer sicherlich keinen Wettstreit der Grafikchip-Entwickler mit solchen Mitteln wünschen – jene nVidia-Maßnahme beim 337.50er Treiber jedoch bei AMD die Hemmschwelle senkt, zukünftig ähnlich vorzugehen. Aus dieser Betrachtungsweise sind solcherart "Hardware-Tweaks" – vor allem wenn sie undokumentiert passieren – eher kritisch zu sehen.

Nachtrag vom 10. April 2014

Die ComputerBase hat sich noch einmal mit dem 337.50er nVidia-Treiber beschäftigt, um eine Erklärung für dessen Performance-Verhalten zu finden. Im Nebensatz hat man dabei der These, der Treiber hätte das Temperatur-Limit der GeForce GTX 780 Ti angehoben, eine Absage erteilt. Dies steht zwar weiterhin im Gegensatz zu dem, was HardOCP notiert haben – andererseits spricht die unter vielen Benchmarks völig gleich gebliebene Performance auch nicht zwingend für eine solche Hardware-Änderung, welche schließlich unter allen Performance-Messungen für irgendeinen Effekt sorgen sollte. Schön wäre natürlich noch eine Bestätigung seitens einer dritten Partei, da es sich hierbei immer noch um zwei widersprüchliche Aussagen handelt (und selbst die reinen Meßwerte der ComputerBase einen Temperatur-Anstieg um 2°C anzeigen).

Inhalt abgleichen