28

Umfrage-Auswertung: Wie häufig sind Feature-Updates für Windows 10 erwünscht?

Mittels einer Umfrage von Mitte November wurde die Frage im Zuge des "leicht" danebengegangenen Oktober-2018-Updates zu Windows 10 gestellt, wie häufig diese Feature-Updates bzw. Hauptversionen bei Windows 10 überhaupt erwünscht sind. Logischerweise teilen sich die Antworten hierzu breit auf, sind die Bedürfnisse in einer solchen Frage höchst individuell und kaum auf eine Antwort zu bündeln. Trotzdem läßt sich aus den Umfrageergebnissen schon einmal die klare Aussage herauslesen, das nur eine klare Minderheit (von 19,8% der Umfrageteilnehmer) das bisherige Microsoft-System mit zwei Feature-Updates im Jahr für weiterhin wünschenswert hält. Microsoft sollte sich also durchaus auf die Suche nach Ideen und Anregungen begeben, wie man sein Systema an Feature-Updates näher an die Nutzer heranbringt bzw. stärker auf deren Wünsche eingehen kann.

27

Hardware- und Nachrichten-Links des 27. November 2018

Die ComputerBase hat eine GeForce GTX 1060 GDDR5X seitens MSI entdeckt, welche ihren GDDR5X-Speicher nur mit dem Speichertakt der gewöhnlichen GDDR5-Karte betreibt – sprich mit 2000 MHz QDR, was 4000 MHz DDR und damit derselben Datenrate von 8 Gbps entspricht. Damit gäbe es keinerlei nominellen Unterschied zur regulären GeForce GTX 1060 6GB mehr – das die GDDR5X-Ausführung einen moderneren Speicher trägt, würde schlicht nicht mittels höherer Taktraten ausgenutzt werden und würde somit auch nicht Performance-wirksam herauskommen. Schon die erste dieserart genauer genannte GDDR5X-Ausführung der GeForce GTX 1060 seitens Palit nutzt mit einem Speichertakt von nur 2200 MHz QDR (8,8 Gbps Datenrate) die Möglichkeiten von GDDR5X-Speicher überhaupt nicht aus, welche bei 9 Gbps anfangen und sicherlich inzwischen hinauf bis zu 11-12 Gbps reichen. Damit läuft es immer mehr darauf hinaus, das nVidia die GDDR5X-Ausführung der GeForce GTX 1060 gar nicht als weiteren Konter zur Radeon RX 590 geplant hat – sondern wirklich nur als Resteverwertung an GP104-Chips und vor allem GDDR5X-Speicher.

GeForce GTX 1060 3GB GeForce GTX 1060 5GB GeForce GTX 1060 6GB GeForce GTX 1060 GDDR5X
Chipbasis nVidia GP106-300 nVidia GP106-350 nVidia GP106-400 angebl. nVidia GP104
Technik 2 Raster-Engines, 1152 Shader-Einheiten, 72 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Salvage) angebl. 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 40 ROPs, 160 Bit GDDR5-Interface (Salvage) 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 48 ROPs, 192 Bit GDDR5-Interface (Vollausbau) angebl. 2 Raster-Engines, 1280 Shader-Einheiten, 80 TMUs, 48 ROPs, 192 Bit GDDR5X-Interface (Salvage)
Taktraten 1506/1708/4000 MHz (DDR) angebl. 1506/1708/4000 MHz (DDR) 1506/1708/4000 MHz (DDR) angebl. 1506/1708/2000 MHz (QDR)
Speicherbausbau 3 GB GDDR5 5 GB GDDR5 6 GB GDDR5 6 GB GDDR5X
off. Verbrauch 120W (GCP) ? 120W (GCP) ?
FullHD Perf.Index 530% grob geschätzt ~520-540% 590% augenscheinlich 590%
Straßenpreis 205-230 Euro reine OEM-Ware für China 225-260 Euro ?
Release 18. August 2016 Anfang 2018 (rein China) 19. Juli 2016 Dezember 2018 (?)
27

Korrektur in eigener Sache: AMD hat KEINE schöngefärbten Benchmarks von Radeon RX 580 zu 590 abgegeben

Mit den News zum 24./25. November ist uns leider ein massiver Fehler unterlaufen: Die Darstellung, wonach sich AMD bei seinen Haus-eigenen Benchmarks zur Radeon RX 590 schöngerechnet hätte, basiert auf einer fehlerhaften Datenweitergabe – und ist damit in dieser Form überhaupt nicht korrekt. Im genauen haben wir hierzu die bei Videocardz vorab zu lesenden Benchmarks ausgewertet, welche auch durch die geleakten Folien bei HD Tecnologia (scheinbar) bestätigt wurden. Allerdings enthält der ursprüngliche Leak seitens Videocardz einen entscheidenden Fehler: Die Benchmark-Werte wurden dort teilweise den falschen Grafikkarten zugeordnet. So wurden zwar alle Vergleiche der Radeon RX 590 zur GeForce GTX 1060 6GB korrekt wiedergegeben, bei den Vergleichen zu Radeon RX 480 & 580 liegt dann der Hund begraben: Anstatt die genannten fps-Werte "Radeon RX 480" und "Radeon RX 580" (in dieser Reihenfolge) zuzuordnen sind, stammen jene real von "GeForce GTX 970" und "Radeon RX 480" (wiederum in dieser Reihenfolge). Damit wurde an dieser Stelle die Radeon RX 580 überhaupt nicht mitgetestet und alle bisher der Radeon RX 580 zugeordneten Werte zu Spiele-Benchmarks gehören demzufolge zur Radeon RX 480.

27

Umfrage-Auswertung: Wann werden die ersten 7nm-basierten Gamer-Grafikkarten erwartet?

Mittels einer Umfrage von Anfang September (und damit noch vor dem Turing-Launch) wurde die Frage gestellt, wann die ersten 7nm-basierten Gamer-Grafikkarten erwartet werden. Hierbei ging und geht es logischerweise nicht um Faktenwissen, sondern eine reine Erwartungshaltung – schließlich liegen die 7nm-Grafikkarten noch in einiger Entfernung, von nicht Gaming-bezogenen Pipecleanern wie Vega 20 prinzipgebunden abgesehen. Auch jetzt zwei Monate nach dem Zeitpunkt der Umfrage gibt es noch keine wirklich besseren Informationen zum Zeitpunkt der ersten 7nm-Beschleuniger – das ganze bleibt auch weiterhin rein im Bereich von Erwartungen. Und jene Erwartungshaltung sieht das Jahr 2019 in der Vorhand – für den Zeitraum Frühjahr bis Winter 2019 votierten mit 63,3% fast zwei Drittel der Umfrageteilnehmer. Dabei sieht die Tendenz eher nach Vorsicht als überschäumender Vorfreude aus – denn spätere Termine im Jahr 2019 bekamen leicht höhere Wertungen als frühere Termine im Jahr 2019.

26

Hardware- und Nachrichten-Links des 26. November 2018

Aus der Mücke einer Randbemerkung wird derzeit der Elefant gemacht, nVidia hätte schon eine 7nm-Generation für das Jahr 2019 bei Chipfertiger TSMC im Auftrag. Ausgangspunkt des ganzen ist ein Bericht der DigiTimes (Kopie im Forum von HK-Spot) – welcher allerdings nur die generellen Fortschritte bei TSMCs 7nm-Fertigung ausdrückt und dann im Nebensatz erwähnt, das man erwartet, das TSMC nächstes Jahr mit 7nm-Aufträgen seitens Apple, Huawei/HiSilicon, Qualcomm, nVidia, AMD, Xilinx sowie "other AI Chipmakers" zugeschüttet wird. Jene Erwartung hat jedoch nicht TSMC (oder nVidia) selber geäußert, sondern ist eine der für die DigiTimes typischen Einordnungen – basierend sicherlich auch auf Industriegerüchten, eigenen Erwartungen und Erfahrungen, aber eben keinesfalls eine gesicherte Information. Dabei ist es natürlich klar, das nVidia sich auch an TSMCs 7nm-Fertigung bedienen will und wird – wenn AMD unter dieser Fertigung nächstes Jahr Zen 2 sowie Navi herausbringt, wird nVidia logischerweise nicht weit weg sein.

TSMC's 7nm capacity is expected to be fully utilized to fulfill massive orders from Apple, Huawei/HiSilicon, Qualcomm, Nvidia, AMD, Xilinx, and other AI chipmakers in 2019.
Quelle:  DigiTimes am 8. November 2018 (Kopie im Forum von HK-Spot)

26

Gerüchteküche: Intel bringt nächstes Jahr "Comet Lake" mit 10 CPU-Kernen für das Consumer-Segment

Aus dem taiwanesischen Forum PTT.cc kommend frisst sich derzeit das Gerücht über eine neue Intel Prozessoren-Generation durchs Internet, welche augenscheinlich zwischen Coffee Lake und dem eigentlich für das Jahresende 2019 geplanten Ice Lake eingeschoben werden soll: Mittels "Comet Lake" (CML) soll dann im Consumer-Segment (sprich noch außerhalb der extra HEDT-Modelle) ein Zehnkern-Prozessor angeboten werden – interessanterweise weiterhin in der 14nm-Fertigung. Ausgangspunkt für dieses Gerücht sind die Postings von Foren-User 'chrisdar' – was laut der PC Games Hardware allerdings eine solide Quelle mit bekannten (und passenden) Leaks in der Vergangenheit darstellt. Jener Foren-User scheint seine Informationen von einem Meeting bei einem von Taiwans vielen Mainboard- und Zubehörherstellern herzuhaben, in welchem jene Comet-Lake-Generation derart genannt wurde:

I heard that CML-S 10C.
Comet Lake-S 14nm 10C only mentioned at the meeting.
But the supply current needs 250A to 10C.
CFL-S 8C has to be 19XA. XX Lake 10C pulls a 250A, but it doesn't matter.

Quelle:  User 'chrisdar' im PTT.cc-Forum am 8. November 2018 (maschinelle Übersetzung ins Englische)

26

Hardware- und Nachrichten-Links des 24./25. November 2018

Leider noch zu thematisieren ist AMDs Fehltritt mit den AMD-eigenen Benchmarks zur Radeon RX 590 bzw. der sich daraus herauslesbaren Performanceprognose zur Radeon RX 590 – welche maßgeblich danebenlag (wichtiges Update: diese komplette Aussage basiert auf einem Fehler unsererseits, ist also nichtig). Zum Glück für AMD liegen jene Benchmarks nur in Form eines Leaks vor, wurden also niemals seitens AMD direkt unters Volk gebracht – aber dennoch wird diese Unterlage natürlich AMD-Partnern und der Presse gezeigt. Und da sollte man natürlich wenigstens halbwegs richtig liegen – und nicht einen Performance-Vorteil der Radeon RX 590 von +20,8% zur Radeon RX 580 sowie von +15,7% zur GeForce GTX 1060 6GB zu prognostizieren, wenn real (jeweils) irgendwas bei ca. +9% herauskommt. Im Fall der Radeon RX 580 ist die Differenz zwischen AMD-Prognose und Launch-Realität dann schon regelrecht extrem, wenn real nicht einmal Hälfte des von AMD angegebenen Performancevorteils erreicht wird. Solcherart erhebliche Diskrepanzen sollten AMD (und anderen Herstellern) eigentlich nicht passieren – denn heutzutage muß man einfach damit rechnen, das so etwas dann auch nachgeprüft wird. Wir sind in jedem Fall erstaunt darüber, das man sich heutzutage so etwas überhaupt noch leistet, weil dies ja angesichts der Masse an entsprechenden Testberichten mit entsprechend klaren Performanceaussagen zur Radeon RX 590 sowieso nichts bringt.

AMD-Prognose Launch-Realität
Radeon RX 580 → Radeon RX 590 @ FullHD AMD +20,8% 3DCenter +8,9%
GeForce GTX 1060 6GB → Radeon RX 590 @ FullHD AMD +15,7% 3DCenter +9,3%
reine Spiele-Benchmarks, ohne jede theoretische Tester
25 25

Wie ist der bisherige Eindruck zu RayTracing?

Nachdem mit Battlefield V nunmehr die erste praktische Anwendung von RayTracing zur Verfügung steht, darf die Frage gestellt werden, wie jenes erklärte Zukunftsfeature derzeit bewertet wird. Natürlich ist klar, das man sich diesbezüglich noch ganz am Anfang der Entwicklung befindet – aber dennoch werden nun einmal nVidias RTX-Grafikkarten hiermit schon beworben und müssen sich demzufolge auch dieser Frage stellen. Als Anschauungsmaterial können zum einen die Screenshot-Vergleiche bei Tom's Hardware sowie zum anderen der kürzlich schon genannte Blindtest mittels eines YouTube-Videos von Optimum Tech dienen.

Vollkommen unbeeindruckend.
27% (485 Stimmen)
Optisch nett, aber keinesfalls zwingend.
30% (532 Stimmen)
Optisch interessant, aber mit derzeit noch zu hohem Performanceverlust.
39% (691 Stimmen)
Optisch interessant, wird genutzt werden egal des Performanceverlusts.
4% (78 Stimmen)
Gesamte Stimmen: 1786
23

Hardware- und Nachrichten-Links des 23. November 2018

Von der c't kommt ein guter Grundlagen-Artikel zu RayTracing (in Echtzeit in Videospielen). Erläutert wird hierbei unter anderen, wie gewöhnliche Rasterizer-Grafik und eben RayTracing-Grafik funktioniert, woraus sich teilweise wertvolle Schlüsse ziehen lassen: So kann die Rasterizer-Grafik ihre hohe Performance letztlich nur durch das aggressive Weglassen letztlich nicht zu sehender Bildteile erreichen – würde man die komplette Szene in allen Ansichten rendern wollen, läge der Leistungsbedarf bei einem Vielfachen. Da (reine) RayTracing-Grafik sich sowieso nur um zu sehende Bildteile kümmert (der Bildstrahl wird verfolgt, bis jener auf ein Objekt trifft), gibt es dort diese Problematik nicht, dafür dann aber auch kein so enormes Einsparpotential wie unter Rasterizer-Grafik. Allerdings ergeben sich bei den die kommende Zeit wahrscheinlich dominierenden Hybrid-Renderern diverse Probleme aus dieser Ansetzung: Denn das zusätzliche RayTracing kann durchaus auch auf Bildteile zugreifen, welche im Rasterizer-Teil längst als "nicht sichtbar" verworfen wurden. In jedem Fall werden mittels RayTracing nun die ganzen Vereinfachungen (und deren Limitationen) offengelegt, welche die Spiele- und Engineentwickler im Laufe der Zeit bei Rasterizer-Grafik vorgenommen haben.

23

Angeblicher Benchmark zur "GeForce RTX 2060" unter Final Fantasy XV aufgetaucht

In der Benchmark-Datenbank zu Final Fantasy XV ist mal wieder der Wert einer noch nicht veröffentlichten Grafikkarte aufgetaucht, welcher somit kontrovers diskutiert werden kann: Hierbei soll eine (derart genannte) "GeForce RTX 2060" unter der UltraHD-Auflösung auf der "High"-Bildqualität ihre 2589 Punkte erreicht haben – was um +30% schneller ist, als eine GeForce GTX 1060 6GB im Durchschnitt erreicht (1985 Punkte). Dies wäre wohl gerade so ausreichend für eine neue Midrange-Lösung, wobei man sich einen etwas höheren Performancegewinn zur Vorgänger-Lösung durchaus vorstellen könnte. Wirklich sicher, ob sich unter diesem Eintrag tatsächlich eine GeForce RTX 2060 verbirgt, kann man natürlich nicht sein – jener Benchmark greift vermutlich nur auf die offiziellen Device-IDs zu, welche sich allerdings mit einer BIOS-Modifikation problemlos verändern lassen. Im übrigen listet jene Benchmark-Datenbank nach wie vor das schon vor einiger Zeit genannte "NVIDIA Graphics Device" auf, welches mit seinem Performancebild von 3090 Punkten (und damit +56% zur GeForce GTX 1060 6GB) durchaus auch ein Kandidat für eine Turing-basierte Midrange-Lösung wäre.

Technik 4K @ "High"
GeForce RTX 2070 nVidia Turing TU106, 2304 SE @ 256 Bit GDDR6 3927
GeForce GTX 1080 nVidia Pascal GP104, 2560 SE @ 256 Bit GDDDR5X 3401
GeForce GTX 1070 Ti nVidia Pascal GP104, 2432 SE @ 256 Bit GDDR5 3136
"NVIDIA Graphics Device" unklar 3090
GeForce GTX 1070 nVidia Pascal GP104, 1920 SE @ 256 Bit GDDR5 2748
"GeForce RTX 2060" potentielle Midrange-Lösung von Turing 2589
GeForce GTX 1060 6GB nVidia Pascal GP106, 1280 SE @ 192 Bit GDDR5 1985
gemäß der Resultate aus der Final Fantasy XV Benchmark-Datenbank (Stand 23. November 2018)
Inhalt abgleichen