30

Hardware- und Nachrichten-Links des 30. August 2018

Bei Hardwareluxx hat man ein YouTube-Interview mit Tom Petersen von nVidia ausgewertet, welches einige interessante Details zur GeForce RTX offenbart. Das wichtigste ist sicherlich die Performance-Abschätzung zur GeForce RTX 2080 Ti, welche laut Tom Petersen auf 35-45% gegenüber der GeForce GTX 1080 Ti einzuordnen ist – und damit im selben Rahmen wie zwischen GeForce RTX 2080 und GeForce GTX 1080 liegen soll. Gegenüber ganz überzogenen Erwartungen wurde aber genauso auch auf die Bremse getreten, denn die teilweise in der nVidia-Prognose erreichten +50% Performancegewinn sollen sich nur unter extrem GPU-limitierten Szenarien erreichen lassen, sind somit der Bestcase und keinesfalls als durchschnittlicher Performancegewinn zu betrachten. Die von nVidia genannten +35-45% liegen dabei auch im Rahmen unserer letzten Performance-Prognose, welche mit +40-45% nur minimal höher angesetzt ist. Als gewisser Bremsblock bei der GeForce RTX 2080 Ti könnte sich allerdings noch deren Power-Limit herausstellen, denn im Gegensatz zu den beiden anderen Turing-Grafikkarten ist selbiges bei der GeForce RTX 2080 Ti nicht gestiegen (nur bei der Founders Edition um +10W).

Grafikkarten Performance TDP Listenpreis
GeForce GTX 1080 TiGeForce RTX 2080 Ti 175% ➔ ~245-263% 250W ➔ 250W 699$ ➔ 999$
GeForce GTX 1080GeForce RTX 2080 132% ➔ ~178-185% 180W ➔ 215W 499$ ➔ 699$
GeForce GTX 1070GeForce RTX 2070 107% ➔ ~150-155% 150W ➔ 175W 379$ ➔ 499$
Performance-Werte gemäß des 4K Performance-Index, alle Performance-Angaben zu Turing-Karten sind derzeit natürlich nur hochgerechnet.

Die seitens nVidia erreichte Übertaktung einer GeForce GTX 2080 Ti "Founders Edition" auf immerhin 2113 MHz hört sich zudem spannend an – und passt auch mehr zu der These, das Turing im realen Taktverhalten einiges mehr in petto hält als es die offiziellen Taktraten versprechen. Und letztlich gibt es interessante Informationen zu SLI über NVLink, welches bei einer doppelten Brücke (wie bei der GeForce RTX 2080 Ti) immerhin eine Bandbreite von 100 GB/sec zwischen beiden Karten zur Verfügung stellt. Trotzdem warnte nVidia davon, das ganze nur anhand dieser hohen Bandbreite zu betrachten: Denn die Speicherbandbreite des direkten Zugriffs vom Grafikchip zu seinem Speicher liegt bei der GeForce RTX 2080 Ti mit 616 GB/sec viel höher (GeForce RTX 2080: 448 GB/sec; diese Karte hat aber nur einen NVLink-Anschluß aka 50 GB/sec zwischen zwei Karten), das eigentliche Problem sind allerdings die zusätzlich über NVLink entstehenden Latenzen. Das man mittels SLI über NVLink dann also mit einem Grafikchip den Speicher beider Grafikkarten nutzen kann, ist somit (unter DirectX 12) zwar theoretisch möglich, dürfte in der Praxis aber dennoch weiterhin mit Performanceproblemen und Mikrorucklern verbunden sein.

Von Forbes kommt eine Betrachtung der Turing-Vorstellung, welche eine allerdings kuriose Fehlinformation über die Turing-Preislage enthält: Danach würde im Beispiel der GeForce RTX 2080 Ti der Launchpreis der Karte bei 1200 Dollar liegen und jene nach dem Launch allerdings auf einen Preis von 999 Dollar zurückgehen – nVidia somit einen "Launch-Aufschlag" verlangen. Dem ist natürlich nicht so, hier ist einiges in den falschen Hals geraten – ganz besonders, wenn die Forbes-Meldung dann in dieser Form weiterverbreitet wird. Die 1200 Dollar der GeForce RTX 2080 Ti beziehen sich allerdings nur auf den Preis von nVidias eigener Founders Edition, welche auch nur nVidia in dieser Form in seinem eigenen Online-Shop vertreibt – und zwar generell zu diesem Preis, auch nach dem Launch weiterhin bei 1200 Dollar liegend. Die 999 Dollar sind hingegen der von nVidia festgesetzte Listenpreis für die einfachen Modelle der Grafikkarten-Hersteller, sprich Referenzdesigns mit Referenztaktung sollen auf diesem Preispunkt erscheinen. Die Grafikkartenhersteller sind hier durchaus frei in ihrer Preisgestaltung, nVidia setzt mit diesem Listenpreis nur eine Referenzmarke – sprich, hochklassige Eigendesigns der Grafikkartenhersteller werden garantiert mehr kosten, eher in Richtung von nVidias Founders Edition. Ein "Launch-Aufschlag" existiert hiermit in keiner Form – aber es wird zu überprüfen sein, ob sich denn überhaupt Angebote zu den genannten Listenpreise im Markt einfinden werden.

GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti
Referenzdesign
(vertrieben durch die Grafikkarten-Hersteller)
Boosttakt 1620 MHz, GCP 175W, 499$ Boosttakt 1710 MHz, GCP 215W, 699$ Boosttakt 1545 MHz, GCP 250W, 999$
Founders Edition
(vertrieben nur über nVidias Online-Shop)
Boosttakt 1710 MHz, GCP 185W, 599$ (639€) Boosttakt 1800 MHz, GCP 225W, 799$ (849€) Boosttakt 1635 MHz, GCP 260W, 1199$ (1259€)
Herstellerdesigns
(vertrieben durch die Grafikkarten-Hersteller)
nach Hersteller-Gusto, mindestens auf dem Niveau des Referenzdesigns, aber eher in Richtung der Founders Edition (und mehr)

Golem bringen in ihrer Betrachtung von RayTracing unter Battlefield V noch einen interessanten Punkt zur Sprache: Für die dort gezeigte RayTracing-Qualität hat Spieleentwickler DICE sehr extrem getrickst, verwendet beispielsweise einen RayTracing-Strahl für mehrere Pixel – was aus Qualitätssicht normalerweise undenkbar erscheint. Echtes RayTracing wird nicht unterhalb von 2-4 RayTracing-Strahlen pro Pixel sinnvoll, bis zu 16 RayTracing-Strahlen pro Pixel kann man wohl noch beachtbare Qualitätsunterschiede erreichen. Aber selbst nur ein RayTracing-Strahl pro Pixel ist mit derzeitiger Hardware und trotz arg begrenztem RayTracing-Einsatz wohl nicht machbar, ergo musste DICE somit sehr kreativ sein, um das ganze hinzubekommen. Die damit erreichte Bildqualität überzeugt sicherlich (größtenteils), allerdings hat man mit "Spiegelungen" auch das allereinfachste Thema bezüglich der Bildqualität gewählt – die müssen einfach nur vom Gesamteindruck überzeugen, aber keinesfalls perfekt sein. Davon ausgehend ist der Weg zu echtem RayTracing aber noch noch wirklich sehr weit – man arbeitet derzeit schließlich nur an einzelnen Bildteilen, mit (stark) heruntergedrehter RayTracing-Qualität und auf niedrigerer Auflösung.

Daneben weisen Golem in einer Meldung über die neuen Intel-Mobile-Prozessoren von "Whiskey Lake" und "Amber Lake" auf deren differiende Abhärtung gegenüber den verschiedenen Spectre-Lücken hin: Während "Whiskey Lake" gegenüber den neuesten Spectre-Lücken bereits in Hardware geschützt sein soll, gibt es bei "Amber Lake" nur Microcode-Updates dagegen. Das Schutzlevel ist somit das gleiche, aber die Herangehensweise weicht ab: Das eine erfordert ein verändertes Stück Silizium (bei "Whiskey Lake"), im anderen Fall bleibt das Silizium wohl wirklich identisch (bei "Amber Lake"), gibt es nur neue Firmware. Anders formuliert benutzt Intel für die nur als Zweikerner erscheinenden Amber-Lake-Prozessoren wohl dasselbe Kaby-Lake-Zweikern-Die wie schon immer, für die Whiskey-Lake-Prozessoren hingegen wohl ein neues Stepping des Kaby-Lake-Vierkern-Dies. Denn Hardware-Änderungen bedingen zumindest ein neues Stepping – was sich aber natürlich wegen der (geringfügig) verbesserten Fertigungsstufe (von 14+ auf 14++) sowieso anbietet. Interessant hieran ist, das Intel in der Lage ist, echte Hardware-Änderungen zum Spectre-Schutz rein nur in neue Prozessoren-Steppings einfließen zu lassen – dies ergibt auch in anderne Fällen die Möglichkeit, ähnlich kurzfristig zu reagieren.

Mit einem hypothetischen neuen Coffee-Lake-Stepping könnte Intel dann eben auch die aktuellen Hardware-Patches gegenüber Spectre und Spectre NG noch in die Coffee-Lake-Generation einfließen lassen – zumindest in diese Prozessoren, welche tatsächlich mit einem der beiden Coffee-Lake-Dies antreten (die Zwei- und Vierkerner kommen nach wie vor aus der Kaby-Lake-Fertigung, für Coffee Lake gibt es nur ein Sechskern- und zukünftig ein Achtkern-Die). Denkbar ist dies beispielsweise schon beim Coffee-Lake-Refresh bzw. den darauf basierenden Achtkern-Prozessoren: Hier legt Intel ja sowieso ein neues Prozessoren-Die auf, dies könnte dann ähnlicherweise bereits Hardware-Änderungen gegenüber Spectre & Co. mitbringen. Ein neues Prozessoren-Stepping braucht zwar auch seine Zeit (mehrere Wochen), ist also nur in relativem Sinne "schnell" erreichbar – aber erscheint dennoch als sinnvoller Weg, um Hardware-Änderungen gegenüber Spectre & Co. in bereits bestehende Prozessoren-Serien oder aber wenigsten Refresh-Produkte (wie konkret im Fall von "Whiskey Lake" und "Amber Lake") einzubringen. Ob dieser Weg für alle Spectre-basierten Lücken gangbar ist, muß allerdings als Frage offenbleiben. Und für einen generellen Ansatz gegenüber der gesamten Spectre-Problematik wird dennoch kein Weg daran vorbeiführen, zurück ans Reißbrett und dort in die Tiefen der CPU-Architektur zu gehen – eine Aufgabe für die CPU-Designs späterer Jahre, womöglich noch nicht einmal beim (schon im Tape-Out-Status befindlichen) Ice Lake im Jahr 2019 erreichbar.