27

Hardware- und Nachrichten-Links des 27. August 2019

Aus Fernost vom chinesischen Fashaoyou (maschinelle Übersetzung ins Deutsche) kommt die Kunde von einer sich in der Zulieferindustrie angekündigenden GeForce GTX 1650 Ti als weiterer Mainstream-Grafikkarte der GeForce-16-Serie zwischen GeForce GTX 1650 (TU117, 896 SE) und GeForce GTX 1660 (TU116, 1408 SE). In der Frage der Existenz einer solchen Karte ist man sich ziemlich sicher, berichtet über einen Marktrelease im Zeitrahmen Ende September bis Anfang Oktober. In der Frage der technischen Daten hat man dagegen faktisch nichts zu bieten, sondern nennt nur die offensichtliche Einordnung zwischen GeForce GTX 1650 & 1660. Dabei ergibt sich aufgrund der nicht vollständigen Ausnutzung des zugrundeliegenden TU117-Chips durch die GeForce GTX 1650 bereits eine gute Annahme zu den technischen Spezifikationen der GeForce GTX 1650 Ti – schlicht auf dem Vollausbau des TU117-Chips liegend. Dies würde dann 1024 Shader-Einheiten an einem 128 Bit GDDR5-Speicherinterface bedeuten, das Performance-Potential liegt (ein klein wenig Mehrtakt einrechnend) bei ca. 10-15% mehr als bei der bekannten GeForce GTX 1650.

GeForce GTX 1650 GeForce GTX 1650 Ti GeForce GTX 1660
Chipbasis nVidia TU117 nVidia TU117 nVidia TU116
Technik 2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5-Interface (Salvage) 2 Raster-Engines, 16 Shader-Cluster, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5-Interface (Vollausbau) 3 Raster-Engines, 22 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR5-Interface (Salvage)
Taktraten 1485/1665/4000 MHz ? 1530/1785/4000 MHz
Rohleistungen 3,0 TFlops & 128 GB/sec ? 5,0 TFlops & 192 GB/sec
Speicher 4 GB GDDR5 4 GB GDDR5 6 GB GDDR5
TDP (GCP) 75W ? 120W
FHD Perf.Index 450% grob geschätzt ~490-520% 690%
Listenpreis 149$ geschätzt 170$ 219$
Release 23. April 2019 Sept./Okt. 2019 14. März 2019
Alle Daten zur GeForce GTX 1650 Ti sind derzeit reine Annahmen.

Mit dem größeren TU116-Chip hätte nVidia natürlich mehr Möglichkeiten und würde somit auch der Weg zu noch mehr Performance offenstehen – aber dies bedeutet dann auch den Einsatz von mehr Silizium, was in diesem Preissegment wohlüberlegt sein will. Denn rein preislich läßt sich die GeForce GTX 1650 Ti auch ohne Spezifikations-Angaben schon jetzt ganz gut einschätzen, da zwischen GeForce GTX 1650 (149$) und GeForce GTX 1660 (219$) nun wirklich nicht viel preislicher Spielraum existiert. Regulär ist da kaum mehr als ein Listenpreis von 170 Dollar für die GeForce GTX 1650 Ti realisierbar – besser wäre es allerdings, die GeForce GTX 1650 im Preis zu senken und die GeForce GTX 1650 Ti bei 150-160 Dollar anzusetzen. Denn auch wenn nVidia mit der GeForce GTX 1650 Ti in einem Bestcase die Performance der Radeon RX 570 erreichen kann, wird diese AMD-Karte nach wie vor für spartanische Preispunkte unterhalb von 150 Euro angeboten, was schon zum Launch der GeForce GTX 1650 als großer Minuspunkt galt. Im Idealfall wetzt nVidia diese Scharte mit einer starken wie auch preisgünstigen GeForce GTX 1650 Ti aus (dann eben um den Preis der Preissenkung bei der gewöhnlichen GeForce GTX 1650) – oder aber man verläßt sich weiterhin auf seine Markennamen und geht diesem Zweikampf mit der Radeon RX 570 aus dem Weg.

Von Igor's Lab kommt mal wieder ein feiner Praxisbericht, diesesmal zu den erlebbaren Untiefen bei X570-Mainboards. Augenscheinlich ist die speziell von Ryzen 300 dargebrachte Boost-Technologie reichlich anspruchsvoll, nicht jeder Mainboard-Hersteller hat selbige gleich gut im Griff. Im default-Betrieb macht dies noch keine wirklichen Unterschiede, aber unter Übertaktung kommt es dann auf Feinheiten wie die Effizienz der Spannungswandler an – denn wenn selbige verschwenderisch arbeiten, kommt weniger Saft beim Prozessor an und ist der Overclocking-Spaß beachtbar früher als auf anderen Mainboards beendet. Grundlage dieser Eigenheit ist augenscheinlich die BIOS-Kontrolle nicht nur über die Spannungsversorgung der CPU, sondern auch der zur CPU gehörigen Spannungswandler – bei AMD wird nunmehr halt der komplette SoC bewertet und gesteuert. Während früher also effiziente Spannungswandler ein Schönheitselement darstellten, sind jene nunmehr direkt für höhere Overclocking-Ergebnisse vonnöten – oder wie es Igor's Lab selber formulieren: "Der Endtakt ist abhängig von den Spannungswandlerverlusten!". Damit sind die Mainboard-Hersteller vor die Aufgabe gestellt, diesbezüglich auch wirklich qualitative Produkte aufzulegen – während es den Job der Mainboard-Hersteller darstellt, selbigen Effekt in ihren Tests entsprechend genau herauszuarbeiten.

Im Fall von Intels Ryzen-3000-Benchmarks kommt aus den Artikel-Kommentaren der Hinweis auf eine ältere Geschichte, welche wiederum Intel und den SYSmark beinhaltet: Im Jahr 2014 stimmte Intel einer außergerichtlichen Einigung wegen Benchmark-Manipulation in den Jahren 2000-2002 bei den Benchmarks "Webmark" (von Intel selber geschrieben) sowie SYSmark (von Intel als Mitglied der Betreiber-Organisation BAPCo beeinflußt) zu, wobei man im Gegenzug diese Vorwürfe jedoch weiterhin dementieren konnte. Sehr deutlich zeigte sich die seinerzeitige Benchmark-Manipulation beim SYSmark 2002, wo Arbeitsschritte entfernt und Skripte verändert wurden, welche das Performance-Verhältnis um 10-20% zugunsten von Intel verschoben – was beim seinerzeitigen Hauen & Stechen zwischen AMD und Intel auf einem insgesamt sehr kompetiven Niveau doch schon eine ganze Dimension darstellte. In der Folge dessen trat AMD der BAPCo bei, um sich einen eigenen Einfluß auf den SYSmark zu sichern – trat dann jedoch im Jahr 2011 wieder aus (später dann auch VIA & nVidia). Nachfolgend wurde es ziemlich still um diesen Benchmark, wegen der beschriebenen Kapriolen galt der SYSmark als "verbrannt" und wurde von unabhängigen Testern kaum bis gar nicht mehr eingesetzt.

Normalerweise sollte diese Vorgeschichte eher einen Ansatzpunkt für Intel darstellen, jenen Benchmark wie auch die BAPCo komplett aufzugeben und dafür mit etwas neuen, nicht belasteten daherzukommen. Natürlich kann jede neue SYSmark-Version durchaus die Fehler der Vergangenheit ausbügeln und einen soliden Benchmark ergeben – allein, dafür sollte man sich natürlich gerade aufgrund dieser Vorgeschichte darauf konzentrieren, irgendwie im Rahmen der Erwartungen herauszukommen und für jegliche Abweichungen eine besonders gute Erklärung parat zu haben. Wie allerdings anhand der Intel-Benchmarks zu sehen, weichen die SYSmark-Ergebnisse gravierend vom allgemeinen Schnitt ab – was gerade bei einem Groß-Benchmark, welcher viele Einzeltests unter mehreren unterschiedlichen Applikationen enthält, eigentlich in dieser krassen Form gar nicht so vorkommen dürfte. Noch schlimmer ist dann, das die Abweichung des SYSmark 2018 gegenüber dem allgemeinen Performance-Schnitt sogar deutlich größer ausfällt als die entsprechende Abweichung des von Intel kritisierten Cinebench. Nachfolgend wird dies anhand des neu gebildeten Performance-Durchschnitts ohne Rendering-Benchmarks belegt – wobei dieser Performance-Durchschnitt durch die Herausnahme jeglicher Rendering-Benchmarks (also nicht nur dem Cinebench) sowieso schon leicht zugunsten von Intel gefärbt ist.

(Ryzen R9 3900X = 100%) Anwendungen (o.R.) Cinebench R20 (M)   (Abweichung) SYSmark 2018   (Abweichung)
Core i9-9900K 76,6% 62,1%   23 Prozentpunkte 107%   40 Prozentpunkte
Core i7-9700K 63,8% 48,9%   31 Prozentpunkte 103%   61 Prozentpunkte
Anwendungs-Performance ohne Rendering-Benchmarks basierend auf unserer Launch-Analyse zu AMDs Ryzen 3000; Cinebench R20 Multi basierend auf Golems Benchmarks; SYSmark 2018 basierend auf Intels Angaben; die Prozentpunkt-Abweichung stellt die Abweichung des jeweiligen Benchmarks (Cinebench & SYSmark) gegenüber dem Performance-Durchschnitt dar

Die Ergebnisse sind überraschend klar: Intels SYSmark-Ergebnis weicht vom Performance-Durchschnitt ohne Rendering-Benchmarks mit 40 bzw. 60 Prozentpunkten überaus deutlich ab, die Abweichung des Cinebench R20 liegt hingegen mit 23 bzw. 31 Prozentpunkten zwar hoch, liegt aber durchaus noch in einem gängigen Rahmen. Gewisse Abweichungen unter einzelnen Benchmark-Programmen sind vollkommen normal, schließlich spricht jeder Benchmark jeweils andere Stärken und Schwächen der getesteten CPUs an – und am Ende werden möglichst viele Benchmarks miteinander verrechnet, um zu einem soliden Performance-Durchschnitt zu kommen. Auch die SYSmark-Abweichung ist so gesehen noch nicht völlig abwegig, ähnliche Resultate kommen bei umfangreichen Testsets durchaus schon einmal vor. Bei einem Programm wie dem SYSmark mit seinem Umfang und seiner Basis ist ein solches Ergebnis dann allerdings recht bedenklich, normalerweise sollte gerade eine Benchmark-Kompilation klar in Richtung des allgemeinen Schnitts tendieren. Das der SYSmark eher nur Office- und Adobe-Benchmarks enthält, ist auch kein gutes Argument, denn es war ein auffallendes Ergebnis des Ryzen-3000-Launches, das die neuen AMD-Prozessoren gerade auch unter diesen Disziplinen mit Intel mithalten können. In jedem Fall kann man nunmehr klar sagen: Der SYSmark 2018 bevorteilt Intel deutlich mehr als der Cinebench AMD bevorteilt.

Aus Fernost vom chinesischen Fashaoyou (maschinelle Übersetzung ins Deutsche) kommt die Kunde von einer sich in der Zulieferindustrie angekündigenden GeForce GTX 1650 Ti als weiterer Mainstream-Grafikkarte der GeForce-16-Serie zwischen GeForce GTX 1650 (TU117, 896 SE) und GeForce GTX 1660 (TU116, 1408 SE). In der Frage der Existenz einer solchen Karte ist man sich ziemlich sicher, berichtet über einen Marktrelease im Zeitrahmen Ende September bis Anfang Oktober. In der Frage der technischen Daten hat man dagegen faktisch nichts zu bieten, sondern nennt nur die offensichtliche Einordnung zwischen GeForce GTX 1650 & 1660. Dabei ergibt sich aufgrund der nicht vollständigen Ausnutzung des zugrundeliegenden TU117-Chips durch die GeForce GTX 1650 bereits eine gute Annahme zu den technischen Spezifikationen der GeForce GTX 1650 Ti - schlicht auf dem Vollausbau des TU117-Chips liegend. Dies würde dann 1024 Shader-Einheiten an einem 128 Bit GDDR5-Speicherinterface bedeuten, das Performance-Potential liegt (ein klein wenig Mehrtakt einrechnend) bei ca. 10-15% mehr als bei der bekannten GeForce GTX 1650.





GeForce GTX 1650
GeForce GTX 1650 Ti
GeForce GTX 1660





Chipbasis
nVidia TU117
nVidia TU117
nVidia TU116



Technik
2 Raster-Engines, 14 Shader-Cluster, 896 Shader-Einheiten, 56 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5-Interface (Salvage)
2 Raster-Engines, 16 Shader-Cluster, 1024 Shader-Einheiten, 64 TMUs, 32 ROPs, 1 MB Level2-Cache, 128 Bit GDDR5-Interface (Vollausbau)
3 Raster-Engines, 22 Shader-Cluster, 1408 Shader-Einheiten, 88 TMUs, 48 ROPs, 1.5 MB Level2-Cache, 192 Bit GDDR5-Interface (Salvage)



Taktraten
1485/1665/4000 MHz
?
1530/1785/4000 MHz



Rohleistungen
3,0 TFlops & 128 GB/sec
?
5,0 TFlops & 192 GB/sec



Speicher
4 GB GDDR5
4 GB GDDR5
6 GB GDDR5



TDP (GCP)
75W
?
120W



FHD Perf.Index
450%
grob geschätzt ~490-520%
690%



Listenpreis
149$
geschätzt 170$
219$



Release
23. April 2019
Sept./Okt. 2019
14. März 2019



Alle Daten zur GeForce GTX 1650 Ti sind derzeit reine Annahmen.