17

News des 17. Mai 2022

Twitterer Kepler_L2 wirft ein paar Codenamen zu AMDs "Navi 31" Chip in den Raum: So soll sich der Grafikchip selber "Plum Bonito" nennen, das entsprechende Grafikboard dann "Gemini" – derzeit aber ohne Gewähr darauf, dass dies korrekt zugeordnet ist. Beachtenswert ist vielleicht der späte Zeitpunkt, zu welchem diese Codename bekannt werden – denn bei den RDNA2-Chips war dies jeweils deutlich früher der Fall. Ganz generell gerät AMDs RDNA3-Projekt derzeit etwas ins Hintertreffen, nachdem sich die Ada-Lovelace-Chips von nVidia sowohl kräftiger als gedacht (zusätzliche INT32-Einheiten in den Shader-Clustern) als nunmehr auch früher als gedacht ankündigen. Zuungunsten der RDNA3-Chips kommt hier sicherlich hinzu, dass die nominelle Abspeckung der Anzahl der Hardware-Einheiten bei Navi 31/32 oftmals als Verringerung der Rechenleistung wahrgenommen wird.

Plum Bonito = Navi31 ASIC?
Gemini = Navi31 board?
gfx1200 = Navi41?

Quelle:  Kepler_L2 @ Twitter am 17. Mai 2022

Dies ist allerdings nicht korrekt, denn AMD hat gleichzeitig die Taktraten angezogen – will das nach wie vor identische Ziel von 75 TFlops FP32-Rechenleistung schlicht nur auf einem anderen Weg erreichen. Insofern ist unklar, ob man wirklich "enttäuscht" von RDNA3 sein kann, wie es Twitterer Kopite7kimi kürzlich ausdrückte: AMD kam in der Ampere/RDNA2-Generation mit nominell 21 zu 36 TFlops FP32-Rechenleistung (6900XT vs 3090) sogar fast an nVidia heran, womit man in der kommenden Ada/RDAN3-Generation mit nominell 75 zu 80-100 TFlops trotz aller interner Verbesserungen bei nVidia weiterhin seine Chance haben sollte. Insofern sind Navi 31/32 derzeit noch keineswegs abzuschreiben, können immer noch gleich gut oder gar kräftiger als "Ada" herauskommen. Allerdings hat AMD sicherlich den Malus, dass man klar später als nVidia daherkommt – gerade Navi 31/32 sind ja angeblich nicht vor Anfang 2023 zu erwarten.

Von Igor's Lab kommt ein hervorragender Artikel, welcher sich mit Schwierigkeiten und Feinheiten der Stromverbrauchs-Messungen bei Grafikkarten beschäftigt. Wichtigster Punkt des Artikels ist die klare Feststellung, dass bei AMD mittels Software-Tools immer nur die TGP ausgelesen wird – welche in diesem Fall rein die ASIC-Power ermittelt, sprich den Stromverbrauch von Grafikchip und Speicher (letzter bringt üblicherweise nur ein paar Watt in die Gleichung ein). Was Grafikplatine, Lüfter und vor allem die Spannungswandler verbrauchen, geht bei AMD nicht mit in die TGP-Rechnung bzw. -Auslesung ein. Demzufolge zeigt letztlich ein und dasselbe Auslese-Tool bei AMD-Grafikkarten nur den Chip-Verbrauch an und bei nVidia-Grafikkarten hingegen den Verbrauch der kompletten Grafikkarte. Und dabei können durchaus große Differenzen herauskommen, wie ein Blick in den Stromverbrauchs-Überblicksartikel zeigt:

RX480 Vega64 6900XT 6950XT
TDP & ASIC-Power 150W / 110W 295W / 220W 300W / 255W 335W / 284W
gemessener realer Gesamtverbrauch 161 Watt 297 Watt 303 Watt 352W
Differenz ASIC vs. Gesamtverbrauch +51 Watt +77 Watt +48 Watt +68 Watt
gemäß dem Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten

Damit ist es letztlich nicht möglich, den Realverbrauch einer AMD-Grafikkarte mittels irgendwelcher Software-Tools zu bestimmen – da geht ein erheblicher Anteil des Realverbrauchs verloren. Irgendeine Näherungsformel, um von der ASIC-Power auf den Gesamtverbrauch zu kommen, gibt es auch nicht, dies ist augenscheinlich von Grafikkarte zu Grafikkarte verschieden. Doch interessanterweise spricht eine gewisse Eigenheit von nVidia-Grafikkarten auch dafür, dort lieber zur echten Messung anstatt einer Software-Auslesung zu greifen: Denn bei nVidia wird immer noch die 3,3V-Schiene benutzt – und jene fließt nicht in nVidias Verbrauchs-Monitoring mit ein. Hier liegt letztlich auch (ein) Grund, wieso manche nVidia-Grafikkarten so konsequenz ein paar Watt oberhalb ihres eigentlich festen Power-Limits ausgemessen werden – dort wird dann jene 3,3V-Schiene bemüht. In der Summe liefert für beide Hersteller nur die echte Messung einen klaren Wert – und bewahrt den Hardwaretester zudem auch davor, in irgendwelche Fallen oder Manipulationen seitens der Hersteller zu tappen.

Laut VideoCardz bereitet nVidia derzeit eine "GeForce GTX 1630" Grafikkarte vor, welche die (immer noch verkaufte) GeForce GTX 1050 Ti im LowEnd-Markt beerben soll. Letztgenannte Pascal-Karte wird derzeit für 180-210 Euro angeboten, was exakt dem aktuellen Preisbereich der (klar schnelleren) Radeon RX 6400 entspricht. Inwiefern nVidia die GeForce GTX 1630 von der Performance her auf das Niveau der Radeon RX 6400 bringen oder hingegen jene AMD-Karte beim Preispunkt unterbieten will, bleibt vorerst offen. Die GeForce GTX 1650 in ihren beiden Varianten mit GDDR5- oder GDDR6-Speicher erfüllt diese Zielsetzung eines Kontrahenten zur Radeon RX 6400 jedenfalls nicht wirklich, da derzeit auf (etwas) zu hohen Straßenpreisen angeboten. Denkbar ist, dass nVidia die GeForce GTX 1630 etwas stärker (als die GeForce GTX 1650) abspeckt, um näher an den niedrigeren Verbrauch der Radeon RX 6400 heranzukommen.

Wahrscheinlich muß nVidia nicht einmal ganz die Performance der Radeon RX 6400 aufbieten, denn man hätte als Pluspunkte der GeForce GTX 1630 das (höchstwahrscheinlich) volle PCI-Express-Interface sowie die unbeschnittenen Encoding/Decoding-Fähigkeiten. Mit der Ablösung der GeForce GTX 1050 Ti könnte dann auch die Fertigung des zugrundeliegenden GP107-Chips der Pascal-Generation eingestellt werden, welcher immerhin schon seit dem Jahr 2016 in nVidias Angebot ist. Ob nVidia mit dem vermutlich für die GeForce GTX 1630 benutzten TU117-Chip wirtschaftlich besser kommt, darf allerdings bezweifelt werden, denn jener ist doch deutlich größer als der GP107 und kommt als einer grundsätzlich ähnlichen Fertigung. Die letzten xx7er-Chips von nVidia sind allesamt etwas zu groß für LowEnd-Bedürfnisse ausgefallen, so dass für diese Zwecke nach wie vor ältere Grafikchips bemüht werden – bis hinunter zu GeForce GT 710 & 730 für reine Display-Zwecke, beiderseits noch Kepler-basiert.

GeForce GTX 1050 Ti GeForce GTX 1630 GeForce GTX 1650 GDDR5 GeForce GTX 1650 GDDR6 Radeon RX 6400
Chip-Basis nVidia GP107 (Pascal) augenscheinlich nVidia TU117 nVidia TU117 (Turing) nVidia TU117 (Turing) AMD Navi 24 XL (RDNA2)
Fertigung 3,3 Mrd. Tr. in 14nm auf 132mm² bei Samsung 4,7 Mrd. Tr. in 12nm auf 200mm² bei TSMC 5,4 Mrd. Tr. in 7nm auf 107mm² bei TSMC
Hardware 6 Shader-Cluster (768 FP32), 128 Bit Interface vermutlich kleiner als GTX1650 14 Shader-Cluster (896 FP32) @ 128 Bit Interface 12 Shader-Cluster (768 FP32) @ 64 MB Interface, 16 MB IF$
Speicher 4 GB GDDR5 vermutlich 4 GB GDDR6 4 GB GDDR5 4 GB GDDR6 4 GB GDDR6
Taktraten 1290/1392 MHz & 7,5 Gbps unbekannt 1485/1665 MHz & 8 Gbps 1410/1590 MHz & 12 Gbps ?/2039/2321 MHz & 16 Gbps
Rohleistungen 2,1 TFlops & 112 GB/sec unbekannt 3,0 TFlops & 128 GB/sec 2,8 TFlops & 192 GB/sec 3,1 TFlops & 128 GB/sec
PCI Express PCIe 3.0 x16 vermutlich PCIe 3.0 x16 PCIe 3.0 x16 PCIe 3.0 x16 PCIe 4.0 x4
TDP 75W vermutlich kleiner als 75W 75W 75W 53W
FHD Perf.Index 360% vermutlich Richtung RX6400 450% 480% 440%
Listenpreis $139 unbekannt $149 $149 $159
Straßenpreis 180-210 Euro - 220-250 Euro 205-250 Euro 180-210 Euro
Release 25. Oktober 2016 unbekannt 23. April 2019 April 2020 20. April 2022