24

News des 24. März 2022

Laut Twitterer Greymon55 kommt der 16-Kerner von Zen 4 mit einer TDP von 170 Watt, während der entsprechende 12-Kerner auf der bisher benutzten Höchststufe von 105 Watt verbleiben soll. Augenscheinlich gibt es derzeit keine Zwischenstufe zwischen 105 und 170 Watt TDP – was leicht irrtierend ist, denn so drastisch unterschiedlich schnell sind 12- und 16-Kernern nicht und sofern der 16-Kerner wirklich 170W benötigt, würde der 12-Kerner mit nur 105W sicherlich etwas ausgebremst. Andererseits könnte über den Sprung zur 5nm-Fertigung bei gleichzeitig nicht höherer Anzahl an CPU-Kernen das Stromverbrauchs-Verhalten von Zen 4 sogar besser als bei Zen 3 sein, sprich die Prozessoren ihre hohe TDP nicht wirklich benötigen. Denkbar auch, dass AMD die 170-Watt-Klasse nur einführt, um sich Reserven für die Zukunft mit mehr CPU-Kernen zu lassen – beispielsweise wenn man irgendwann einen 24-Kerner im Consumer-Segment bringt.

Raphael R9 SKU
65W
105W
170W
No sign of 120W.

Quelle:  Greymon55 @ Twitter am 24. März 2022
 
170W 16C 32T
105W 12C 24T

Quelle:  Greymon55 @ Twitter am 24. März 2022
 
16C32T 170W TDP, 230W PPT (5nm CCD+6nm IOD)
5950X 105W TDP, 140W PPT (7nm CCD+12nm IOD)
PPT=Package Power Tracing

Quelle:  HXL @ Twitter am 24. März 2022

Insofern kann auf Grundlage dieses einzelnen Prozessors auf 170 Watt TDP auch noch nicht zwingend gesagt werden, dass AMD das von Intel spätestens mittels Alder Lake angestossene Watt-Rennen wirklich mitmacht – die allermeisten Zen-4-Prozessoren werden schließlich nicht mehr verbrauchen als ihre jeweiligen Vorgänger. Das Restrisiko auf ein Watt-Rennen bleibt allerdings bestehen, denn Intel hat die Grenzen des üblicherweise gangbaren Stromverbrauchs im Consumer-Segment zuletzt wirklich neu gesetzt. Twitterer HXL weisst zudem in diesem Zusammenhang darauf hin, dass das eigentliche Verbrauchslimit bei einer TDP von 170W dann bei 230 Watt liegen sollte. Mittels des "Package Power Tracing" (PPT) definiert AMD den tatsächlichen Stromverbrauchs-Grenzwert seiner Desktop-Prozessoren, jener Wert lag zuletzt durchgehend bei der TDP zuzüglich 35%.

Igor's Lab haben (intern) das Schema einer AD102-Referenzplatine vorliegen und können daraus interesssante Dinge zur GeForce RTX 4090 (und womöglich zur GeForce RTX 4080, sofern ebenfalls AD102-basiert) ableiten. So gibt es Platz für 12 Speicherbausteine, was eine (zum bekannten 384-Bit-Speicherinterface passende) Speicherbestückung von 12 oder 24 GB ermöglicht. Die Spannungsversorgung des Grafikchips soll immerhin 24 Spannungswandler umfassen und die gesamte Platine inklusive Kühlsystem tatsächlich für bis zu 600 Watt Strombelastung und somit auch Wärmeabgabe vorgesehen sein. Einschränkenderweise sei dazugesagt, dass hier auch eine Übertaktungsreserve mit drin liegen könnte, damit also nicht zwingend die Karten-TDP beim Maximalwert von 600 Watt liegen muß.

    GeForce RTX 4090 PCB, gemäß der Angaben von Igor's Lab, basierend auf dem Schema einer AD102-Referenzplatine

  • 12 Plätze für Speicherchips (ergibt 12 oder 24 GB Speicherbestückung)
  • PCB ist entwickelt für 600 Watt Verlustleistung
  • 24 Spannungswandler für den Grafikchip (sowie 4 für den Speicher)
  • GA102 & AD102 sind Pin-kompatibel
  • Founders Edition soll mit 3-Slot-Kühlung daherkommen, Herstellerdesigns mit 3,5 Slots
  • primär wird es weiterhin Luftkühlung geben, AiO oder Wasserblöcke nur als zusätzliche Designs
  • benutzt den neuen 12VHPWR-Stromstecker, Adapter auf die üblichen 8poligen Stecker werden jedoch beiliegen

Die Referenz-Kühllösung soll nVidia angeblich mit 3 Slots realisieren wollen, während die meisten Grafikkarten-Hersteller für ihre Eigendesigns zu Kühlern mit gleich 3,5 Slots Breite schreiten werden. Dabei soll weiterhin primär mit Luftkühlung gearbeitet werden, wenngleich über zusätzliche Kartendesigns mit AiO oder Wasserblöcken nachgedacht wird. Da GA102 und AD102 angeblich Pin-kompatibel sein sollen, können die Grafikkarten-Hersteller mit einem 600-Watt-BIOS bereits jetzt an ihren Eigendesigns für die kommende GeForce RTX 40 Grafikkarten basteln. Wie bei der am 29. März anstehenden GeForce RTX 3090 Ti wird die GeForce RTX 40 Serie mit dem neuen PCIe-5.0-Stromstecker "12VHPWR" daherkommen, wie auch bei jener letzten Ampere-Karte soll aber generell ein Adapter auf die bisherigen 8poligen Stromstecker beiliegen.

Intel hat auf der GDC 2022 seinen eigenen Upscaler "Xe Super Sampling" (XeSS) präsentiert. Dahinter verbirgt sich ein temporaler Upscaler mit starken Einsatz von DeepLearning – wobei Intel dies selber eher umgedreht beschreibt, wahrscheinlich um sich stärker von DLSS abzusetzen. Letztlich dürfte das Grundprinzip allerdings demjenigen von DLSS ähneln, womit auch eine ähnliche Bildqualität erwartet werden kann. Im Gegensatz zu DLSS wird Intel XeSS allerdings allen Grafikchip-Entwicklern zur Verfügung stehen, technische Vorraussetzung ist das Shader-Model 6.4 sowie die Unterstützung von DP4a-Instruktionen. XeSS wird fünf Bildqualitäts-Stufen haben, zu welchen Intel bereits die Skalierungs-Faktoren und erste Performance-Werte aus einer eigenen Grafik-Demo bekanntgab:

Skalierung Perf. WQHD Perf. 4K
XeSS "Ultra Performance" x2,3 +97% +153%
XeSS "Performance" x2,0 +79% +120%
XeSS "Balanced" x1,7 +59% +80%
XeSS "Quality" x1,5 +41% +53%
XeSS "Ultra Quality" x1,3 +21% +27%
Performance-Werte von Intel, erzielt mit einer Alchemist-Grafikkarte unter der "XeSS Rens Demo"

Die Performance-Skalierung der verschiedenen Bildqualitäts-Stufen erscheint dabei als etwas breiter gegenüber DLSS angelegt, wobei sich die Wahrheit in dieser Frage ausschließlich nach unabhängigen Tests ergeben kann. Interessanterweise gab es keine Angaben zur FullHD-Auflösung – was nicht unbedingt darauf hindeutet, dass XeSS bei der FullHD-Beschleunigung grundlegend bessere Resultate als AMD & nVidia erzielen kann. Wie FSR und DLSS wird XeSS eine Upscaler-Lösung für den Einbau durch den Spieleentwickler sein – womit gute Kontakte in die Entwickler-Szene samt Hilfe bei allen auftauchenden Fragen & Problemen obligatorisch sind. Hierzu steht Intel sicherlich eher noch am Anfang, wobei XeSS durchaus als weiterer Türöffner wirken könnte. Dies setzt voraus, dass vor allem die Performance-Ergebnisse von nicht-Intel-Hardware ansprechend sind – ansonsten dürften sich nur die wenigsten Spieleentwickler hiermit beschäftigen, bevor Intel nicht gewisse Marktanteile bei Desktop-Grafikkarten vorweisen kann.

Ob XeSS auf nicht-Intel-Hardware ähnlich gut wie auf Intels eigenen Grafikkarten funktioniert, ist dabei durchaus in Frage zu stellen – denn Intels Hardware-Ansatz bei der "Alchemist"-Generation mit einer selbst dem GA104-Chip überlegenen Tensor-Power (260-290 TOPs INT8 bei DG2-512 gegenüber 174 TOPs INT8 bei der GeForce RTX 3070 Ti) dürfte wohl bewußt zur XeSS-Beschleunigung derart gewählt worden sein. Trotzdem ist es weiterhin möglich, dass sich der Performance-Nachteil bei XeSS auf nicht-Intel-Hardware in Grenzen hält oder aber zumindest auf der nächsten nVidia-Generation dann nicht mehr existiert, insofern "Ada" die höhere Tensor-Power von "Hopper" übernimmt. In jedem Fall gibt es für die Spieleentwickler zukünftig viele Möglichkeiten, mit Upscalern zu arbeiten – darunter mit FSR 1.0, NIS, FSR 2.0 und XeSS auch eine gute Auswahl an nicht Hardware-gebundenen Upscalern, womit also mit einer einzelnen Lösung alle Grafiklösungen bedient werden. Die Luft für das rein an RTX-Grafikkarten gebundene DLSS wird damit zusehens dünner.