26

Hardware- und Nachrichten-Links des 25./26. April 2015

Bei der PC Games Hardware hat man sich die Grafikkarten-Performance unter Pillars of Eternity angesehen. In diesem Oldschool-RPG kommt natürlich aufgrund der sehr zahmen Systemanforderungen so gut wie jede Hardware noch gut mit – und wegen des Status als großer Überraschungshit dürften diese Benchmarks dennoch für ein gewisses Interesse sorgen. Trotzdem geht es unter 1920x1080 primär darum, welche alte oder schwache Hardware noch spielbare Frameraten bieten kann, da alle halbwegs potente Hardware diese Auflösung problemlos meistert. Die Grenze zu 40 fps in einer klaren WorstCase-Szene liegt augenscheinlich bei Radeon HD 5770 (Perf.Index 115%) oder GeForce GT 640 GDDR5 (Perf.Index ~85%) – was bedeutet, daß man für noch ältere LowCost-Beschleuniger die Grafikoptionen etwas herunterdrehen muß, ansonsten aber faktisch alles mitkommt. Echte Anforderungen an das Spiel stellt dann erst die 4K-Auflösung von 3840x2160, wo aber auch schon Radeon R9 280X und GeForce GTX 770 die 40-fps-Marke knacken und selbst Performance-Modelle wie Radeon R9 270X oder GeForce GTX 960 mehr als 30 fps bieten. Da die Benchmark-Sequenz klar eine der langsamstmöglichen Stellen im Spiel darstellt, wird das allgemeine Spiel dann jeweils deutlich schneller laufen als durch diese fps-Messungen ausgedrückt.

Golem berichten über erneute Unkenrufe, daß die Grafikqualität als Motor des Spieleabsatzes demnächst ausgedient haben wird – diesesmal aber garniert mit einer durchaus beachtbaren Erklärung: Denn selbst wenn die grafische Entwicklung auch in Zukunft weitergeht, so ist es dennoch schon jetzt abzusehen, daß die augenscheinlichen Optiksprünge kleiner werden. Die Hardware-Power für eine bessere Optik ist (noch) nicht das Problem – das Problem liegt vielmehr darin, daß weitere Optiksprünge nun unverhältnismäßig viel an Rohpower fressen, womit man mit einer Performance-Verdopplung einen wesentlich kleineren Optiksprung erzielen kann als beispielsweise in der letzten Dekade. Da Hardware-Power nun auch nicht auf Bäumen wächst, sondern vielmehr derzeit auch eher die Tendenz entwickelt, langsamer anzusteigen als zu früheren Zeiten, funkioniert das Geschäftsmodell "Optik-Kracher" immer seltener – nicht, weil man die Optik nicht nach vorn entwickeln könnte, sondern weil die Unterschiede zur jeweils letzten Optik-Generation zu klein werden, um noch von einem "optischem Durchbruch" reden zu können.

In dieser Erklärung liegt einiges an Wahrheit, denn es negiert nicht platt den Fortschritt bei der Optik, sondern weist auf das eigentliche Problem des zu geringen Sprungs hin: Findet die Optik-Weiterentwicklung zu langsam bzw. in zu kleinen Schritten statt, fällt jene unterhalb der Wahrnehmungsschwelle der Spielekäufer. Der Must-Have-Kauf wegen der überragenden Optik entfällt dann, wenn der optische Unterschied zum Vorgänger bzw. ähnlichen früheren Spielen zu gering ist. Aus dieser Warte her betrachtet kann man durchaus ein Abgehen der Spielebranche von der Produktion reiner Optik-Kracher fordern – allerdings sind in den letzten Jahren kaum solche Versuche unternommen worden, wurden dagegen eher hochwertige Spiele-Franchise aufgebaut, bei welchem die bestmöglich Spiele-Optik wenn dann allerhöchstens ein Element unter weiteren war. Der letzte wirklich reinrassige Optik-Kracher war sowieso "Crysis" – und jener Titel gilt nun trotz seiner jahrelang andauernden Medienpräsenz immer noch nicht als wirklicher Markterfolg. Die Spielebranche scheint in der Praxis kaum noch versucht zu sein, reine Optik-Kracher zu produzieren – aber für viele Spieleideen wird eine Optik nahe am technisch machbaren trotzdem immer von Vorteil sein und daher von den Spieleentwicklern auch eingesetzt werden.

News-Korrekturen: Die am 9. April gemeldete angebliche "XFX Radeon R9 390 Double Dissipation" ist nach aktualisierter Aussage von WCCF Tech wahrscheinlich leider nur eine Radeon R9 380X. Interessanterweise soll abgesehen vom veränderten Kühlkörper das Referenzdesign der Radeon R9 290X für diese Platine verwendet worden sein – ein deutlicher Hinweis darauf, daß die Radeon R9 380X dann eben doch den Hawaii-Chip zweitverwendet. Zu der am 29. März vermeldeten "MixedPrecision" mit einem SP/DP-Verhältnis von 1:2 in Hardware bei kommenden nVidia-Architekturen wäre noch zu ergänzen, daß AMD in dieser Frage schon weit vor nVidia steht, indem man eine solche "MixedPrecision"-Technologie bereits seit dem Hawaii-Chip anbietet. Jene Möglichkeiten werden nur bei den Consumer-Grafikkarten nie ausgefahren, jene bekommen SP/DP-Verhältnisse von 1:4 oder 1:8, während dann nur im Profi-Bereich bei den FirePro-Modellen SP/DP-Verhältnisse von 1:2 geboten werden.

Die kürzliche Meldung über den Performance-Effekt von Mantle nach anderthalb Jahren sprach auch den zunehmenden Mantle-Performancegewinn mit kleineren Prozessoren an: Dies hat aber weniger etwas mit Mantle selber zu tun, sondern vielmehr natürlich damit, daß bei langsameren Prozessoren das CPU-Limit in den jeweiligen Benchmarks viel öfter gesehen wird als bei schnelleren Prozessoren. Wenn man jenen schnelleren Prozessoren rein CPU-limitierte Benchmarks vorsetzt, kommen auf jenen die gleich guten Mantle-Resultate heraus wie auf den getesteten langsameren Prozessoren. Und abschließend: Die fälschlicherweise als April-Scherz vermutete PCI-Slotblech-Blindblende gibt es tatsächlich, von anderen Anbietern sogar schon viel länger. Da sind wir dann auf einen "umgekehrten" Aprilscherz voll hereingefallen ;)

26 26

Wie wichtig sind 8 GB Speicher beim Fiji-Chip?

Nachdem in der letzten Zeit die Gerüchte über die Speicherbestückung des Fiji-Chips (im SingleChip-Modus) hin- und herwogten, wollen wir mit dieser Umfrage herausfinden, wie wichtig die Speicherbestückung den potentiellen Käufern ist. Ausgangspunkt hierfür ist, daß es ansonsten kein Performance-Problem mit dem Fiji-Chip gibt, sich eine Radeon R9 390X auf Basis eines einzelnen Fiji-Chips also durchaus mit der GeForce GTX Titan X anlegen kann (und damit deutlich schneller als die GeForce GTX 980 ist). Könnten unter diese Situation 4 GB Speicher ausreichend sein – oder müssen es wirklich 8 GB Speicher sein?

26

Neuer 3DTester-Artikel: Crucials Budget-SSDs - M550, BX100 & MX100 im Test

Für den kleinen Geldbeutel sind die 120 und 128 GByte SSDs immer noch die erste Wahl. Sie können preiswerte Spiele-PCs beschleunigen oder älteren Notebooks einen zweiten Frühling bescheren, ohne dabei den Anwender in einen finanziellen Kollaps zu stürzen. Doch leider ändert sich das Angebot an entsprechenden Modellen, so dass sich ständig ein neuer Favorit bildet, den man erst mal finden muss ... zum Artikel.

Crucials Budget-SSDs – M550, BX100 & MX100 im Test
24

Hardware- und Nachrichten-Links des 24. April 2015

Entgegen der anderslautenden Gerüchte der letzten Tage wird bei Bits & Chips ausdrücklich betont, daß der Fiji-Chip (auch in seiner SingleChip-Ausführung) sehr wohl gleich 8 GB HBM-Speicher tragen kann, ergo nicht technisch oder produktpolitisch auf 4 GB begrenzt ist. Zudem wird zur zuletzt ebenfalls öfters erwähnten DualChip-Grafikkarte auf Fiji-Basis ausgesagt, daß zu dieser derzeit nur Prototypen vorliegen sollen, jene also folgerichtig deutlich später in den Markt kommen würde. Dies deckt sich grundsätzlich mit früheren Angaben – und in der Summe der Dinge liegen hiermit zwei mögliche und sich gegenseitig nahezu vollkommen ausschließende Zukunftsversionen vor: Zum einen ein Fiji-Chip mit bis zu 8 GB Speicher (pro Chip), bei welchem die DualChip-Versionen deutlich später kommen – und zum anderen ein Fiji-Chip mit bis zu 4 GB Speicher (pro Chip), bei welchem die DualChip-Version zeitnah erscheinen soll. Zu beiden Zukunftsversionen liegen allerdings nur eher Gerüchte und Annahmen vor, wirklich bewiesen oder bestätigt ist hiervon noch gar nichts.

Neben all den Gerüchten und Theorien, weshalb AMD seine Radeon R300 Serie nicht vor dem Juni bringt, ist bislang eine ganz profane Erklärung dieser Verschiebung wenig bis gar nicht genannt worden: Möglicherweise hat dies keinerlei technische, sondern einen rein praktischen Hintergrund – nämlich, daß AMD seine neue Grafikkarten-Serie im Dunstkreis von Windows 10 herausbringen will, welches angeblich Ende Juli vorgestellt werden soll. Trifft dieser Termin zu, dann wird das kommende Microsoft-Betriebssystem ungefähr zwei Monate vorher in den RTM-Status gehen – OEMs werden dann schon mit diesen Versionen beliefert und die Vorabtester können ab diesem Zeitpunkt auf diese dann vorläufig finale Version des Betriebssystems updaten. Zwei Monate vor Ende Juli wären Ende Mai – und ab diesem RTM-Termin zieht dann auch die öffentliche Wahrnehmung an, welche mit dem offiziellen Verkaufsstart dann ihren Höhepunkt findet. Neue Hardware inmitten dieser Zeitspanne zu veröffentlichen (welche zudem nach den bisherigen Anzeichen auch das DirectX 12 von Windows 10 unterstützen wird) dürfte in jedem Fall vorteilhaft sein – und könnte es am Ende sogar wert sein, eine möglicherweise bereits fertige Grafikkarten-Serie doch noch entsprechend lange warten zu lassen.

Daneben tobt in unserem Forum derzeit eine schöne Diskussion über die Möglichkeit, ob AMD nicht den Fiji-Chip gleich in der 20nm-Fertigung herstellen könnte – bzw. warum dies nicht möglich sein soll. Die 20nm-Fertigung steht sowohl bei TSMC (diverse Mobile-SoCs) als auch bei GlobalFoundries (Xbox-One-SoC) augenscheinlich bereit und bietet nach bisherigen, allerdings nur eher vagem Informationsstand einen erheblichen Flächenvorteil, aber kaum Vorteile bei den möglichen Taktraten bzw. der entstehenden Verlustleistung zu einem klar höheren Fertigungspreis und vor allem bei weitem nicht der Produktionsausbeute wie beim inzwischen nahe des Optimums laufendem 28nm-Verfahren. Und genau in diesen Nachteilen dürfte der Grund dafür liegen, warum keine 20nm-Grafikchips aufgelegt werden: Da die Taktraten nicht steigen und die Verlustleistung (gerade bei großen Chips) kaum sinkt, lassen sich unter 20nm nur schwerlich noch schnelleren Grafikchips auflegen.

Man könnte also zwar mehr Transistoren verbauen, aber die Verlustleistung würde dann ebenfalls hochgehen und schnell unübliche Regionen erreichen. Die unter 20nm hergestellten Mobile-SoCs sind hierbei kein guter Vergleichsgegenstand, da vorsätzlich auf möglichst geringe Lasten (mit einzelnen Lastspitzen) optimiert – im Gegensatz zu einem Grafikchip, welcher schließlich durchgehend eine massive Rohleistung liefern soll. Die bisher angesetzten 20nm-Fertigungsverfahren sind sowieso eher für kleinere Chips mit vor allem geringen Wattagen gedacht – diese Fertigungsverfahren werden um so ungünstiger, je größer die Chips werden und je mehr Stromverbrauch jene haben. Während man im Mobile-Bereich also durchaus mit der 20nm-Fertigung arbeiten kann, lohnt sich das im GPU-Bereich nicht – es kommen schlicht keine noch schnelleren Grafikchips heraus, egal ob die Chipfläche deutlich absinkt.

Und rein aus Sicht der Fertigungskosten lohnen GPUs unter 20nm noch weniger: Die Waferkosten sind deutlich höher, die Produktionsausbeute ist bei weitem nicht so gut wie unter 28nm – und auch hier gilt wieder: Je größer die Chips, um so schlechter wird das Verhältnis. Es ist daher derzeit wohl kostengünstiger, denselben (großen) Grafikchip unter 28nm als unter 20nm herstellen zu lassen. Bei kleineren Grafikchips (in SoC-Größe, sprich bis maximal 150mm²) kann dies vielleicht anders aussehen – ob es wirklich ein Geschäft ist, einen kleinen 28nm-Grafikchips unter zusätzlicher Arbeit auf 20nm zu portieren, darf angesichts der zu sehenden Praxis allerdings bezweifelt werden. In dieser Praxis werden AMD und nVidia die 20nm-Fertigung wohl komplett (für Grafkchips) auslassen und sich im nächsten Jahr der 14nm-Fertigung (AMD Arctic Islands bei GlobalFondries) bzw. der 16nm-Fertigung (nVidia Pascal bei TSMC) zuwenden.

24

Umfangreiche Modellinformationen zu Intels Skylake-Generation aufgetaucht

Die chinesische Webseite Benchlife (maschinelle Übersetzung ins Deutsche) bringt umfangreiche Modellinformationen zu Intels Skylake-Generation, welche erst einmal jene Informationen bestätigen, die zu diesem Thema kürzlich schon aus Fernost geliefert wurden – und jene um Angaben zu weiteren Skylake-Prozessoren ergänzt. Damit kann man sich nun nahezu sicher sein, daß dieses Portfolio stimmen mag, eventuelle kurzfristige Änderungen seitens Intel einmal vorbehalten. Bislang wurden allerdings nur die Vierkern-Modelle ausspezifiziert, die Zweikerner dürften aber genauso mit an den Start gehen, da das vollständige Skylake-Portfolio laut Benchlife noch zehn weitere Modelle enthalten soll.

Kerne Taktraten L3 integrierte Grafik Speicher TDP Listenpreis
Core i7-6700K 4 + HT 4.0/4.2 GHz 8 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i7-6700 4 + HT 3.4/4.0 GHz 8 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6600K 4 3.5/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i5-6600 4 3.3/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6500 4 3.2/3.6 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6400 4 2.7/3.3 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Alle Skylake-Prozessoren kommen im Sockel 1151 daher, für welche neue Mainboards auf Basis von Intels 100er Chipsatz-Serie benötigt werden.

Interessant ist der Speichersupport, welcher ausdrücklich auf DDR4/2133 und DDR3L/1600 bei allen Modellen lautet. Dies beantwortet gleich zwei Fragen: Zum einen, ob Skylake wirklich ein Kombi-Speicherinterface trägt, welches auch (zumindest bei den Vierkernern) in allen beiden Richtungen nutzbar ist – dies trifft augenscheinlich zu, dem Prozessor ist die konkrete Speicherbestückung egal (natürlich keine Mischbestückung DDR3 mit DDR4). Und zweitens scheint sich Intel mit der expliziten Anforderung von DDR3L darauf eingeschossen zu haben, wirklich nur DDR3L-Speicher mit Skylake zu unterstützen, nicht aber regulären DDR3-Speicher. Ob hier die Praxis vielleicht ein anderes Wort spricht (zwischen DDR3 und DDR3L besteht eigentlich kein echter Unterschied, nur wird der DDR3L-Speicher mit einer etwas niedrigeren Spannung betrieben, was aber dem Speicherinterface des Prozessors egal sein sollte) und regulärer DDR3-Speicher doch nutzbar ist, wird man noch sehen können – spätestens mit den ersten Skylake-Platinen der Mainboard-Hersteller klärt sich das auf.

Augenscheinlich enttäuscht sind die Taktraten dieser Skylake-Modelle, weil wenn dann geht es taktmäßig gegenüber dem aktuellen Haswell-Portfolio eher leicht nach unten, nach oben hingegen in keinem Fall. Intel muß sich daher bei der Skylake-Architektur voll und ganz auf die Vorteile eben dieser Prozessoren-Architektur sowieso des generell neuen Ökosystems aus neuen Mainboard-Chipsätzen und neuer Speichersorte verlassen. Hiermit scheint Skylake durchaus greifbare Vorteile bieten zu können, höhere Taktraten würden aber trotzdem von vielen Hardware-Enthusiasten besser angenommen. Da aber AMD der Skylake-Architektur nun gar nichts entgegensetzen kann (weil AMDs Zen-Architektur erst im Jahr 2016 antreten wird), sieht sich Intel sicherlich auch nicht gerade unter Zugzwang, jetzt gleich alles auf dem Tisch zu legen, was man denn wirklich liefern könnte.

Haswell Skylake
Top-Modell: 4C, HT & OC Core i7-4790K @ 4.0/4.4 GHz Core i7-6700K @ 4.0/4.2 GHz ±0/-200 MHz
Top-Modell: 4C, HT & nonOC Core i7-4790 @ 3.6/4.0 GHz Core i7-6700 @ 3.4/4.0 GHz -200/±0 MHz
Top-Modell: 4C & OC Core i5-4690K @ 3.5/3.9 GHz Core i5-6600K @ 3.5/3.9 GHz ±0/±0 MHz
Top-Modell: 4C & nonOC Core i5-4690 @ 3.5/3.9 GHz Core i5-6600 @ 3.3/3.9 GHz -200/±0 MHz
zweites Modell: 4C & nonOC Core i5-4590 @ 3.3/3.7 GHz Core i5-6500 @ 3.2/3.6 GHz -100/-100 MHz
drittes Modell: 4C & nonOC Core i5-4460 @ 3.2/3.4 GHz Core i5-6400 @ 2.7/3.3 GHz -500/-100 MHz

Somit scheint Intel den möglichen Taktratenvorteil der 14nm-Fertigung eher in niedrigere TDPs zu investieren. Alle Skylake-Modelle außerhalb der K-Prozessoren werden nämlich eine TDP von nur noch 65 Watt aufweisen – gegenüber den 84 Watt TDP bei den (non-K) Haswell-Vierkernern. Natürlich sind die TDP-Angaben bei Intel nur extrem grobe Angaben und zeigen nicht direkt an, was die einzelnen Prozessoren wirklich verbrauchen – aber zumindest in der Tendenz scheinen die Skylake-Modelle weniger zu verbrauchen als bisherige Consumer-Prozessoren von Intel. Als Terminlage wurde im übrigen erneut Intels IDF im August genannt – was Intel in die gute Position bringen würde, rechtzeitig für die ersten Windows-10-PCs sowie die in den USA wichtige "Back-to-School-Saison" mit Skylake im Markt zu stehen.

23

Hardware- und Nachrichten-Links des 23. April 2015

TweakTown wärmen mit einer eigenen Meldung zum Fiji-Chip leider weitgehend nur die kürzlich von Fudzilla gekommenen Gerüchte auf – ohne sich aber zu dieser Quelle zu bekennen, so daß auf den ersten Blick der (falsche) Eindruck einer Bestätigung aus anderer Quelle entsteht. Da aber dieselbe seltsame Performance-Story wie bei Fudzilla erzählt wird – daß die Radeon R9 390X nach all ihren hervorragenden Vorab-Benchmarks die GeForce GTX Titan X nicht schlagen kann – und sich dabei sogar auf die Speichermenge als augenscheinlicher Bremspunkt bezogen wird, ist klar, daß TweakTown hier nur von Fudzilla (schlecht) abschreibt. "Schlecht" deswegen, weil selbst wenn die Radeon R9 390X zurückliegt, dies garantiert nicht an der Speichermenge liegt: Heutige Spiele kommen mit 4 GB hervorragend zurecht, während die 12 GB der GeForce GTX Titan X für heutige Spiele maßlos übertrieben sind und generell nur für Multi-GPU-Setups einen Sinn ergeben. Daß die Mehrheit der an dem Fiji-Chip interessierten Grafikkarten-Enthusiasten nach einer Version mit 8 GB fragt, hat weniger mit einer besseren Grundperformance durch mehr Speicher als vielmehr mit Zukunftssicherheit als auch Reserven für HighEnd-Spielereien zu tun.

Daneben bringen TweakTown aber auch noch eine kleine eigene Information: Angeblich soll es deutliche Fertigungsprobleme beim HBM-Speicher geben, womit die Radeon R9 390 Serie bis zum Jahresende 2015 nur in vergleichsweise kleinen Stückzahlen verfügbar sein würde. Sollte dies stimmen, dürfte AMD natürlich auch weniger daran interessiert sein, vom Start weg eine 8-GB-Variante zu bieten, da man hiermit dann glatt nur die Hälfte an möglichen Karten verkaufen kann (die eventuelle DualChip-Version Radeon R9 395X2 rechtfertigt sich hingegen dann wieder über ihren doppelten Preis). Man kann nur hoffen, daß auch diese Information inkorrekt ist, denn nur 4 GB Standard-Speicherbestückung und schwache Lieferfähigkeit werden auf wenig Gegenliebe bei den potentiellen Käufern stoßen und AMD auch geschäftlich wenig weiterhelfen. Allerdings sind dies alles eben auch nur Gerüchte seitens Webseiten, welche wirklich alles unverdaut wiederkäuen, was da irgendwie vorbeifliegt – und manchmal hat man auch den leisen Verdacht, das gewisse Gerüchte auch bewußt kreiiert werden, ganz einfach um möglichst viele Klicks zu bekommen. Besonders ernst muß dies daher derzeit noch nicht genommen werden – dies würde erst dann gelten, wenn dasselbe von anderer, glaubwürdigerer Quelle erneut vermeldet würde.

nVidia spricht im Haus-eigenen Blog ein wenig über die Vorteile bzw. Performance-Zuwächse der kommenden nVidia-Interconnect-Technologie "NVLink", welche es erstmals ab der Pascal-Generation des Jahres 2016 geben wird. Dabei verspricht man für Multi-GPU-Setups durchaus Performance-Zuwächse in Richtung 100% – was aber eben auch nur für Anwendungen des GPGPU-Bereichs gilt und keinesfalls für Spiele. Letztere dürften weder durch NVLink profitieren noch damit in näherer Zukunft überhaupt damit in Berührung kommen: Für Gamer-Grafikkarten wird nVidia weiterhin auf PCI Express setzen und die NVLink-Funktionalität bei jenen vermutlich glatt deaktivieren. Daher dürfte es NVLink anfänglich sicherlich auch nur bei den jeweiligen Top-Grafikchips von nVidia geben, da eben nur aus jenen die wirklich leistungsfähigen Profi-Beschleuniger gezogen werden – und nur bei jenen die Aktivierung von NVLink ihren Sinn ergibt.

CPU-World vermelden genauere Daten zu zwei neuen Kaveri-Prozessoren, welche AMD offenbar demnächst in den Markt als Ablösung der bisherigen Spitzenmodelle zu schicken gedenkt. A8-7670K und A10-7870K haben im Gegensatz den lahmen Taktraten-Updates von Intel (100 MHz mehr haben mal zu Zeiten von Pentium II etc. interessiert) wenigstens 300 bzw. 200 MHz Mehrtakt – dafür aber das Problem, einer vom Markt letztlich nicht wirklich angenommenen Prozessoren-Serie zu entstammen und damit wohl das Schicksal ihrer Vorgänger teilen zu müssen. Sofern AMDs APUs irgendeine Begeisterung auslösen würden, müsste man eigentlich an dieser Stelle auf die noch diesen Sommer kommende Godavari-Nachfolgeserie verweisen, welche allerdings auch nur (maßvolle) Taktratensprünge ohne neue Technik mitbringen wird, ergo vermutlich vom Markt genauso weitestgehend verschmäht werden wird. APU-technisch dürfte eher AMDs kommende neue Technologie-Generation Carrizo interessant werden, welche allerdings (zumindest für dieses Jahr) allein nur ins Mobile-Segment gehen wird.

Bei HT4U hat man sich mit der durchaus wichtigen Frage beschäftigt, ob Spieler-Mäuse nun kabelgebunden sein müssen – oder ob eine Funkverbindung die Anbindung an den PC bzw. an die Spieleengine doch genauso gut lösen kann. Vom technischen Standpunkt her erscheint die Kabel-Maus erst einmal im generellen Vorteil – in der Praxis konnten HT4U mit der Razer Ouroboros Gaming-Maus, welche man wahlweise per Funk oder per Kabel anbinden kann, jedoch keine meß- oder beachtbaren Unterschiede feststellen. Die zwischen verschiedenen Funk- und Kabelmäusen anzutreffenden Differenzen im jeweiligen Handling dürften daher eher auf der konkreten Produktgestaltung basieren und weniger auf dem Anschlußverfahren, ob nun Kabel oder Funk verwendet wird.

Inhalt abgleichen