25

Gerüchteküche: nVidias "GeForce 16" Serie tritt im Februar & März mit drei Grafikkarten an

Seitens HardOCP kommt genaueres zu den Termin- und Preislagen zu nVidias kommenden Midrange- und Mainstream-Grafikkarten der Turing-Generation, was somit auch nVidias Grafikkarten-Portfolio für das Jahr 2019 klarer erscheinen läßt. So werden wohl alle Turing-basierten Grafikkarten ohne RayTracing als "GeForce 16" Serie laufen – die Namenswahl zwischen "GeForce 10" (Pascal) und "GeForce 20" (Turing mit RayTracing) soll dann wohl andeuten, das hierbei etwas "fehlt" (wobei RayTracing in diesem Preisbereich derzeit sowieso zu langsam wäre). Den Anfang soll die GeForce GTX 1660 Ti am 15. Februar zu einem Listenpreis von 279 Dollar machen, gefolgt von der GeForce GTX 1660 gegen Anfang März zu einem Listenpreis von 229 Dollar. Beide wohl TU116-basierte Grafikkarten wurden zuletzt schon recht genau beschrieben, die nunmehr genannten Listenpreise passen perfekt zu der bereits vorliegenden technischen Konzeption.

The Nvidia GeForce GTX 1660 Ti will launch on February 15, with an MSRP of $279.
The GTX 1660 will launch in early March at $229.
The GTX 1650 will go on sale for $179 in late March.
Nvidia will continue to supply the 1050 TI to retailers, and its price will drop to keep it competitive.

Quelle:  HardOCP am 23. Januar 2019

23

Hardware- und Nachrichten-Links des 23. Januar 2019

Auf Reddit ist ein Foto von einer angeblichen nVidia-Präsentation der GeForce GTX 1660 aufgetaucht – welche zum einen den Grafikkarten-Namen und zum anderen deren Turing-Abstammung ("One more thing ... new GTX Turing") bestätigt. An der Echtheit des Fotos gibt es zwar noch leichte Zweifel (die PC Games Hardware hat mit Adleraugen ein älteres nVidia-Logo entdeckt), aber passen würde das ganze schon: Diese neuen Midrange-Karten sollen wahrscheinlich ab Mitte Februar in den Markt kommen, aufgrund des chinesischen Neujahrsfest, welche Anfang Januar stattfindet, muß die Branche speziell in China allerdings schon jetzt gebrieft werden. Im übrigen scheint die im Hintergrund gezeigte Grafikkarte eine "GeForce GTX 1660" und keine "GeForce GTX 1660 Ti" zu sein, da der längere Schriftzug mit einem "Ti" nicht mehr gleichmäßig auf die Grafikkarte passen dürfte. Dies könnte darauf hindeuten, das nVidia GeForce GTX 1660 und 1660 Ti nicht mit getrennten Launches bedenkt, sondern beide TU116-basierte Grafikkarten am selben Tag ins Rennen schickt.

23

AMD legt "The Division 2" seinen Ryzen 5/7 2000 Prozessoren bei

Unsererseits leider etwas untergegangen ist das schon zur CES seitens AMD verkündete neue Spielebundle für AMD-Prozessoren der "Ryzen 5/7 2000" Serie, mittels welchem AMD das am 15. März erscheinende "The Division 2" diesen Prozessoren kostenlos beilegt. Teilnahmeberechtigt sind hierbei alle Prozessoren, welche sich in die "Ryzen 5 2xxx" oder "Ryzen 7 2xxx" Serien einordnen lassen – egal ob beispielsweise der Ryzen 5 2400G mit Raven-Ridge-Abstammung eigentlich gar nicht zu Zen+ gehört. Mittels dieses (im CPU-Bereich eher seltenen Schritts eines) Spielebundles versucht AMD natürlich, den Absatz dieser Prozessoren nochmals etwas anzukurbeln, nachdem derzeit bereits deren Nachfolger in Form der Zen-2-Generation bzw. der Ryzen 3000 Serie viel Aufmerksamkeit auf sich ziehen.

22

Hardware- und Nachrichten-Links des 22. Januar 2019

Zur Berichterstattung zu GeForce GTX 1660 & 1660 Ti gilt noch hinzuzufügen, das der zugrundeliegende nVidia TU116-Chip trotz aller vorliegenden Daten zu den genannten Grafikkarten immer noch nicht sicher bestätigt ist. Allerdings wird es mit den kleineren Grafikkarten-Varianten auf TU116-Basis immer unwahrscheinlicher, das nVidia hierfür den großen TU106-Chip von GeForce RTX 2060/2070 weiterbenutzt: Erstens einmal würde die angesetzte Abspeckung bei der GeForce GTX 1660 (non Ti) dann schon wirklich heftig sein, von 36 auf 20 Shader-Cluster heruntergehend, unter dem weiteren Verzicht auf RT- und Tensor-Cores sowie einem Drittel des Speicherinterfaces. Und zweitens erscheint der TU106-Chip mit 445mm² Chipfläche dann doch als zu "dick" für einen Einsatz im Midrange-Segment für Grafikkarten, welche im Preisbereich von grob 250 Dollar stehen, eventuell sogar bis zu 200 Dollar nach unten reichen. Die Turing-Generation hat zwar sicherlich die starke Tendenz von ziemlich dicken Grafikchips, dafür wurden aber auch (bei den größeren Beschleunigern) die Preislagen nach oben gerissen – was im typischen Midrange-Segment dann nicht mehr funktioniert.

Pascal Turing
Enthusiast GP102   471mm², 3840 Shader-Einheiten TU102   754mm², 4608 Shader-Einheiten + RT-Fähigkeit
HighEnd I GP104   314mm², 2560 Shader-Einheiten TU104   545mm², 3072 Shader-Einheiten + RT-Fähigkeit
HighEnd II TU106   445mm², 2304 Shader-Einheiten + RT-Fähigkeit
Midrange GP106   200mm² 1280 Shader-Einheiten TU116   ~250-300mm², 1536 Shader-Einheiten
Mainstream GP107   132mm², 768 Shader-Einheiten TU117   ~170-200mm², 896 Shader-Einheiten
22

Gerüchteküche: Spezifikationen zu GeForce GTX 1660 3GB, GeForce GTX 1660 6GB und GeForce GTX 1660 Ti

Bei Tom's Hardware hat man aktuelle Gerüchte zur GeForce GTX 1660 /Ti zusammengefasst, deren Quellenlage teilweise in Industriekreisen liegt, teilweise aber auch auf eigenen Vermutungen basiert. Da man dies jedoch extra gekennzeichnet hat, läßt sich unter anderem erkennen, das die Quellen von Tom's Hardware bereits fest von einer extra GeForce GTX 1660 6GB (non Ti) sprechen, während Tom's Hardware selber noch von einer zusätzlichen 3-GB-Ausführung dieser Karte ausgehen (ganz wie bei der vorhergehenden GeForce GTX 1060). Damit wäre das Midrange-Segment dann wirklich gefüllt, der zugrundeliegende TU116-Chip würde somit in gleich drei Karten-Versionen resultieren. Zusammen mit ersten Taktraten-Angaben zu GeForce GTX 1660 & GeForce GTX 1660 Ti ergibt sich somit ein inzwischen schon ganz zusammenhängendes Bild (welches nichtsdestotrotz natürlich noch viele unsichere bzw. nicht belegte Anteile enthält):

GeForce GTX 1060 6GB GeForce GTX 1660 3GB GeForce GTX 1660 6GB GeForce GTX 1660 Ti GeForce RTX 2060
Chip-Basis nVidia GP106-400 nVidia TU116-300 nVidia TU116-300 nVidia TU116-400 nVidia TU106-300
Architektur Pascal Turing ohne RT Turing ohne RT Turing ohne RT Turing mit RT
Technik 2 Raster-Engines, 10 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface 2 Raster-Engines, 20 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface 2 Raster-Engines, 20 Shader-Cluster, 1280 Shader-Einheiten, 80 TMUs, 192 Bit GDDR5-Interface 2 Raster-Engines, 24 Shader-Cluster, 1536 Shader-Einheiten, 96 TMUs, 192 Bit GDDR6-Interface 3 Raster-Engines, 30 Shader-Cluster, 1920 Shader-Einheiten, 120 TMUs, 192 Bit GDDR6-Interface
Taktraten 1506/1708/4000 MHz (DDR) 1530/1785/4000 MHz (DDR) 1530/1785/4000 MHz (DDR) 1500/1770/3000 MHz (QDR) 1365/1680/3500 MHz (QDR)
Rohleistungen 4,4 TFlops & 192 GB/sec 4,6 TFlops & 192 GB/sec 4,6 TFlops & 192 GB/sec 5,4 TFlops & 288 GB/sec 6,5 TFlops & 336 GB/sec
Speicher 6 GB GDDR5 3 GB GDDR5 6 GB GDDR5 6 GB GDDR6 6 GB GDDR6
FHD Perf.Index 590% ? geschätzt 630-670% geschätzt 770-820% 920%
Listenpreis 249$ ? geschätzt 199-229$ 279$ 349$
Release 19. Juli 2016 womöglich Frühjahr 2019 womöglich Frühjahr 2019 angeblich Mitte Februar 7. Januar 2019
Status bereits veröffentlicht derzeit reine Spekulation kommt angeblich kommt sicher bereits veröffentlicht
21

Hardware- und Nachrichten-Links des 21. Januar 2019

Vom bekannten Leaker Tum Apisak kommt der Hinweis auf einen ersten Benchmark zur GeForce GTX 1660 Ti – welcher leider unter Ashes of the Singularity stattfand, wo es eher schwer ist, wirklich passende Vergleichswerte zu finden (da hier jeweils viel an den konkreten Benchmark-Settings abhängt). Hinzu kommt der Punkt, das dieser AotS-Benchmark auf einem Notebook stattgefunden haben soll, gut auch an der Desktop-untypisch niedrigen CPU-Taktrate von 2.1 GHz zu sehen. Insofern muß der von Tum Apisak selber präsentierte Vergleichswert zu einer GeForce GTX 1060 reichen, wonach die Turing-basierte GeForce GTX 1660 Ti um +19,4% schneller war (7400 vs. 6200 Punkte). Dies ist etwas weniger als gedacht und bislang für die Turing-Generation typisch war, wo direkte Chip-Nachfolger in aller Regel 20% mehr Shader-Einheiten aufweisen, dann aber über die Verbesserungen an der Turing-Architektur sowie die viel höhere Speicherbandbreite durch GDDR6 ca. 35-40% bei der Performance zulegen können. Andererseits sind Notebook-Ergebnisse nie besonders akkurat zu vergleichen, hängen diese immer stark davon ab, wie hoch die Abspeckung der konkret benutzten Mobile-Lösung gegenüber dem Desktop-Standard aussieht.

21

Umfrage-Auswertung: Welche neue Hardware wird im Jahr 2019 am meisten erwartet?

Mittels der Umfrage der letzten Woche wurde nach der für das Jahr 2019 am meisten erwarteten Hardware gefragt, sich dabei beziehend auf den kürzlichen Artikel "Das Hardware-Jahr 2019 in der Vorschau" – welcher bewußt erst nach der CES geschrieben wurde, um besser erfassen zu können, was hierzu Realität und was unhaltbare Gerüchte sind. Daran, das AMD dieses Jahr die spannendsten Produkte bringen wird, hat dies allerdings nichts geändert bzw. wurde dies vielleicht gerade durch die CES-Ankündigung von Zen-2-basierten Prozessoren sogar noch verstärkt. In jedem Fall hat die diesjährige Umfrage zur 2019er Hardware damit mittels der Ryzen 3000 Prozessoren auf immerhin 53,6% Stimmenanteil einen sehr eindeutigen Sieger bekommen.

20

Hardware- und Nachrichten-Links des 19./20. Januar 2019

Die GameStar hat einen schönen Artikel zur nVidia Grafikkarten-Historie aufgelegt, welcher die wichtigsten Meilensteine seit dem gescheiterten NV1-Chip von anno 1995 beleuchtet. Auffallend bei der Betrachtung der Bilder insbesondere der Uralt-Grafikkarten ist deren doch eher geringe Größe – so etwas wie eine Riva TNT oder eine GeForce 256 würde man heute rein von den Abmaßen her nur noch im LowCost- oder gar LowEnd-Segment erleben können. Dies hängt primär mit den gerade in der Anfangszeit immer wieder ansteigenden Strombedarfsanforderungen zusammen – die ersten 3D-Grafikkarten versorgten sich halt allesamt noch rein aus dem PCI-Slot (maximal 25 Watt), wobei dann schnell AGP (maximal 50 Watt, ab 1997) aufkam und PCI Express (maximal 75 Watt, mehr über extra Stromstecker, ab 2004) noch um Jahre entfernt war. Dies begrenzte vor dem Aufkommen von extra Stromsteckern den Stromverbrauch seinerzeitiger 3D-Boliden ganz effektiv – was aber auch bedeutete, das die schnellen Leistungssprünge der anfänglichen wie der mittleren 3D-Historie zum gehörigen Teil auch auf das Konto eines steigenden Stromverbrauchs gingen.

AMD nVidia
2018 GeForce RTX 2080 Ti FE     271W real (PCI Express 3.0, 2x 8-pin)
2016/17 Radeon RX Vega 64     297W real (PCI Express 3.0, 2x 8-pin) GeForce GTX 1080 Ti     238W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin)
2015 Radeon R9 Fury X     289W real (PCI Express 3.0, 2x 8-pin) GeForce GTX 980 Ti     236W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin)
2013 Radeon R9 290X     276W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin) GeForce GTX 780 Ti     245W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin)
2012/13 Radeon HD 7970 "GHz"     233W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin) GeForce GTX Titan     206W real (PCI Express 3.0, 1x 6-pin + 1x 8-pin)
2010 Radeon HD 6970     186W real (PCI Express 2.0, 1x 6-pin + 1x 8-pin) GeForce GTX 580     224W real (PCI Express 2.0, 1x 6-pin + 1x 8-pin)
2009/10 Radeon HD 5870     138W real (PCI Express 2.0, 2x 6-pin) GeForce GTX 480     235W real (PCI Express 2.0, 1x 6-pin + 1x 8-pin)
2008/09 Radeon HD 4890     ~154W real (PCI Express 2.0, 2x 6-pin) GeForce GTX 285     ~186W real (PCI Express 2.0, 2x 6-pin)
2007 Radeon HD 2900 XT     ~160W real (PCI Express 1.0, 2x 6-pin) GeForce 8800 Ultra     ~145W real (PCI Express 1.0, 2x 6-pin)
2006 Radeon X1950 XTX     125W TDP (PCI Express 1.0, 1x 6-pin) GeForce 7900 GTX     120W TDP (PCI Express 1.0, 1x 6-pin)
2005 Radeon X1800 XT     113W TDP (PCI Express 1.0, 1x 6-pin) GeForce 7800 GTX     86W TDP (PCI Express 1.0, 1x 6-pin)
2004 Radeon X850 XT PE     67W TDP (PCI Express 1.0, 1x 6-pin) GeForce 6800 Ultra     81W TDP (PCI Express 1.0, 1x 6-pin)
2003 Radeon 9800 XT     60W TDP (AGP x8, 1x Molex) GeForce FX 5900 Ultra     59W TDP (AGP x8, 1x Molex)
2002 Radeon 9700     37W TDP (AGP x8, 1x Floppy) GeForce4 Ti 4600     ? (AGP x4, kein Molex)
2001 Radeon 8500     23W TDP (AGP x4, kein Molex) GeForce3 Ti500     ? (AGP x4, kein Molex)
20 20

Wie ist der Ersteindruck zu nVidias GeForce RTX 2060?

Alle Entscheidungsgrundlagen zur dieser Frage findet man in den zahlreichen Launchreviews, dem Forendiskussions-Thread zum Launch sowie natürlich der Launch-Analyse zu nVidias GeForce RTX 2060.

Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
6% (81 Stimmen)
Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung.
5% (72 Stimmen)
Positiver Ersteindruck, aber preislich außerhalb meiner Interessenlage.
3% (42 Stimmen)
Durchschnittlicher Ersteindruck, ist für eine Midrange-Lösung zu teuer.
13% (184 Stimmen)
Durchschnittlicher Ersteindruck, die 6 GB Speicher sind generell zu knapp.
24% (329 Stimmen)
Durchschnittlicher Ersteindruck, aus anderem Grund.
1% (12 Stimmen)
Negativer Ersteindruck, ist für eine Midrange-Lösung zu teuer.
18% (251 Stimmen)
Negativer Ersteindruck, die 6 GB Speicher generell sind zu knapp.
27% (373 Stimmen)
Negativer Ersteindruck, aus anderem Grund.
2% (21 Stimmen)
Gesamte Stimmen: 1365
18

Hardware- und Nachrichten-Links des 18. Januar 2019

Bei Brechpunkt hat man eine RayTracing-Version von Quake II erstellt – welche auch absolut spielbar ist, hierfür muß dem Spiel oder der Demo-Version von Quake II nur der extra Q2VKPT-Renderer zugeführt werden. Jener basiert auf der Vulkan-API, womit RayTracing auch schon außerhalb von DirectX 12 nutzbar ist – und somit aber natürlich Grafiklösungen mit Vulkan-Unterstützung voraussetzt (Update: leider nur eine nVidia-Grafiklösung, da die benutzte Vulkan-Extension nVidia-spezifisch ist). Im Gegensatz zum RayTracing heutiger PC-Spiele, welches in seinen Features noch stark eingeschränkt ist, bietet Q2VKPT das volle RayTracing-Paket inklusive auch einer dynamischen Beleuchtung. Das Ergebnis ist gemessen am Alter des Spiels (welches anno 1998 herauskam) ganz vernünftig, kann aber natürlich kaum wirklich gegenüber heutigen Spielen verglichen werden. Der nachfolgende (rechte) Screenshot (aus dem zur Verfügung gestellten YouTube-Video) zeigt zumindest das einwandfreie Funktionieren anhand der (korrekten) Explosions-Reflektion im Wasser an.

Inhalt abgleichen