28

News des 28. Mai 2025

VideoCardz haben erste Geekbench-Werte zur Radeon RX 9060 XT ausgegraben, was eine gewisse erste Performance-Einordnung der kommenden Mainstream-Models von AMD möglich macht. Natürlich sind Geekbench-Werte oftmals schlecht zwischen den Herstellern zu vergleichen, wie auch ganz augenscheinlich in diesem Fall. Aber zumindest der AMD-interne Vergleich sollte halbwegs zielführend sein sein – wenngleich jener mit +32-37% mehr gegenüber der Radeon RX 7600 (non-XT) erstaunlich gut für die Radeon RX 9060 XT ausfällt. Immerhin treten beide Karten mit 32 Shader-Clustern an einem 128-Bit-Speicherinterface samt jeweils 32 MB Infinity Cache an, der Unterschied liegt allein in den Architekturen (RDNA3RDNA4) sowie in den höheren Taktraten, welche der Fertigungsnode-Sprung ermöglicht (6nm → 4nm). Andererseits hat die Radeon RX 9070 Serie sehr wohl bewiesen, dass RDNA4 einen starken Sprung bei der Performance pro Shader-Cluster mit sich bringt (Radeon RX 9070 XT ist +45% schneller als Radeon RX 7800 XT trotz nur +7% mehr Shader-Cluster), insofern ist ein vernünftiger Performancesprung zwischen Radeon RX 7600 (XT) und Radeon RX 9060 XT durchaus zu erwarten.

GB6 OpenCL GB6 Vulkan FHD Perf-Index
GeForce RTX 5060 Ti 138'869 133'861 1980%
Radeon RX 7700 XT 127'276 141'288 1930%
Radeon RX 9060 XT 16GB 109'315 124'251 geschätzt ~1700-1800%
GeForce RTX 5060 123'883 118'299 ~1680-1700%
Radeon RX 7600 XT 83'313 86'521  (?) 1430%
Radeon RX 7600 82'628 90'574 1330%
Quellen: Radeon RX 9060 XT seitens VideoCardz, andere Karten sind offizielle Geekbench-Mittelwerte unter OpenCL bzw. unter Vulkan

Wegen der Unsicherheit, ob diese Geekbench-Ergebnisse zwischen einzelnen Grafik-Architekturen überhaupt ausreichend akkurat sind, kann man hieraus derzeit noch keine besonders genaue Performance-Schätzung zur Radeon RX 9060 XT ableiten. Es sollte wohl irgendwo zwischen ~1700-1800% im FullHD Performance-Index herauskommen, vermutlich eher am oberen als am unteren Ende dieser Spanne. So oder so dürfte damit die Performance der Radeon RX 7700 XT nicht erreicht werden und die Radeon RX 9060 XT sich zwischen GeForce RTX 5060 & 5060 Ti einordnen müssen, allerdings mit klarer Tendenz zur kleineren nVidia-Karte. Grob dürfte die Radeon RX 9060 XT in etwa wie "GeForce RTX 5060 plus ein paar Prozente mehr" ausfallen, sicherlich nicht in den zweistelligen Prozentbereich an Mehrperformance gehend. Das Hauptargument der AMD-Karte dürfte die Wahlmöglichkeit beim Grafikkartenspeicher sein – eine Option, welche nVidia bei der GeForce RTX 5060 wie bekannt nicht bietet. Genauer wird sich dies mit den kommenden Launch-Reviews zur Radeon RX 9060 XT voraussichtlich am 4. Juni ergeben (einen Tag vor Marktstart am 5. Juni).

YouTuber Moore's Law Is Dead zeigt einen (angeblichen) Dieshot zum MediaTek/nVidia "N1X" Windows-on-ARM-SoC sowie liefert ein paar neue Daten zu selbigem hinzu. Am Dieshot selber ist wenig zu erkennen, allenfalls zeigen die acht drumherum liegenden Speicherchips auf ein Speicherinterface á 128 oder 256 Bit hin. Insofern hierbei LPDDR5X-Speichchips abgebildet sind, könnte der N1X somit auf eine Chipfläche von ca. 140mm² kommen (±20mm²), was Massenmarkt-tauglich erscheint und dann ziemlich sicher ein 128-Bit-Speicherinterface nahelegt. Wie groß die hierbei unterbrachte nVidia-Grafiklösung ist, läßt sich mangels einer sicheren Angabe zur Fertigungstechnologie schwer schätzen. Generell dürfte die Grafik-Einheit grob die Hälfte des SoCs belegen, allerdings ohne das Speicherinterface und PCI Express gerechnet, jenes wird bei einem SoC bzw. APU gewöhnlich dem CPU-Teil zugeschlagen. Auf grob 70mm² könnte man unter der 4nm-Fertigung womöglich die Rechenwerke eines GB207-Chips (24 Shader-Cluster) unterbringen, nachdem der GB206-Chip auf 181mm² seine 36 Shader-Cluster trägt (wovon grob die Hälfte der Chipfläche die Rechenwerke sind).

    MediaTek N1X

  • entstanden in Kooperation mit nVidia, welche eine wohl Blackwell-basierte Grafikeinheit beisteuern
  • möglicherweise ca. 140mm² Chipfläche (±20mm²)
  • Chipfertigung unbekannt, denkbarerweise TSMC 4nm
  • ARM-basierte CPU-Kerne in unbekannter Anzahl (angenommen werden um die 10 CPU-Kerne)
  • Blackwell-basierte Grafiklösung, möglicherweise 24-30 Shader-Cluster, anzunehmenderweise in Konkurrenz zu AMDs Strix Halo
  • TPU mit 180-200 TOPs
  • möglicherweise 128-Bit-Speicherinterface
  • 80-120W TDP bei einem Engineering Sample (muß nichts zum finalen Produkt sagen)
  • Windows on ARM
  • Seitenvariante N1, unsicher ob dies eine Chipvariante oder ein extra Chip darstellt
  • Massenmarktausrichtung, ursprünglich wollte man im ersten vollen Verkaufsjahr schon 13 Mio. Stück absetzen
  • Vorstellung: denkbarerweise CES Anfang 2026
  • Auslieferung zu erwarten kaum vor Sommer 2026
  • Quellen: Gerüchte und ungesicherte Leaks, nichts davon ist auf die Goldwaage zu legen

Unter einer besseren Fertigung (3nm) wäre dann sogar mehr möglich – was aber vielleicht auch zu teuer dafür wäre, jenen MediaTek/nVidia-SoC im Massenmarkt unterbringen zu wollen. Dabei deutet die TDP des Engineering Samples von 80-120 Watt durchaus darauf hin, dass man bestenfalls in den Zweikampf mit AMDs Strix Halo gehen kann, welches ebenfalls diese maximale TDP (120W) trägt, dafür aber 40 Shader-Cluster ins Feld führt. Andererseits benötigt AMD unter RDNA3(.5) bekannterweise eine höhere Anzahl an Shader-Clustern, eine gewisse Annäherung an die Performance pro Shader-Cluster gegenüber nVidia fand eben erst mittels der RDNA4-Architektur statt. So gesehen wären 24-30 Shader-Cluster @ 120W bei nVidia durchaus in der Lage, mit Strix Halo und dessen 40 Shader-Clustern @ 120W zu konkurrieren. Ganz genau muß nVidia den Performance-Punkt von Strix Halo sowieso nicht treffen. Relevant wird eher sein, dass man in Masse zu vernünftigen Preislagen liefern kann, was derzeit auf Strix Halo beiderseits nicht zutrifft – es ist teuer und (weiterhin) nur selten verfügbar. Natürlich hat AMD jetzt noch Zeit, gerade letzteren Punkt zu verbessern, denn der MediaTek/nVidia-SoC ist nunmehr für eine Auslieferung kaum vor Jahresfrist zu erwarten.

Gestern schon verlinkt, wäre noch auf die neu aufgestellten Grafikkarten-Stromverbrauchsmessungen der ComputerBase zu verweisen. Dabei hat man sich zum einen für ein anderes Spiel zugunsten der Messung zum maximalen Stromverbrauch entschieden (Star Wars Outlaws anstatt Metro Exodus Enhanced Edition), was aus nVidia-Grafikkarten dann durchaus echte Maximalwerte herauskitzeln kann (586W bei der GeForce RTX 5090 FE mit Powerlimit von eigentlich 575W). Und zum anderen gibt es nun erstmals bei der ComputerBase auch einen wirklich gemessenen Durchschnittswert, wobei hierfür 5 Spiele-Titel herangezogen werden. Bisher gab es zwar auch schon Durchschnitts-Werte zum Grafikkarten-Stromverbrauch bei der ComputerBase, jene basierten allerdings auf dem kompletten Benchmark-Parcours und wurden nicht gemessen, sondern per Tool ermittelt. Letzterer Effekt ist vielleicht gering, aber Stromverbrauchs-Angaben über komplette Benchmark-Felder haben Prinzip-bedingt den kleinen Nachteil, dass damit Ausreißer-Spiele nach unten hin den Durchschnitt auch (deutlich) nach unten hin ziehen können – während nach oben hin eben das Powerlimit greift.

Dies hat in letzter Zeit zu einem deutlichen Auseinanderdriften der Stromverbrauchswerte von einzelnen Messungen (hierfür wird üblicher ein bekannter Stromschlucker verwendet) und den Durchschnittswerten für komplette Benchmark-Felder geführt, wie nachfolgender Tabelle zu entnehmen. Generell ist die Methode, hierfür sich nicht auf einen einzelnen Verbrauchstest zu verlassen, sondern eben mehrere zu verwenden, zu begrüßen. Aber nun wird der Durchschnitt zu stark über Spiele mit Verbrauchswerten beeinflußt, welche weit weg vom Powerlimit liegen. Gesucht wird bei diesen Angaben zum realen Stromverbrauch am ehesten so etwas wie ein "oberer Durchschnitt" – nicht der Durchschnitt aller Spiele und auch nicht der absolute Maximalwert, sondern viel eher ein Durchschnitt, welcher mehrere gut verbrauchende Titel abbildet. Zu viele Titel mit unterdurchschnittlichen Verbrauchswerten in den Durchschnitt einzumischen, verwässert diesen nur – gerade da die Erfahrung zeigt, dass Grafikkarten mit Differenz zwischen Realverbrauch und TDP selbigen im Laufe der Zeit verlieren, neu erscheinende Spiele-Titel die klare Tendenz haben, bei älteren Grafikkarten (mit vorherigem Spielraum) immer näher an deren TDP heranzugehen.

TDP Ø Gaming Launchreviews: Einzelwerte Launchreviews: Meßreihen Quelle
Radeon RX 9070 XT 304W Ø 302W 291W, 307W Ø298W, Ø303W, Ø309W Launch-Analyse 5070 & 9070(XT)
Radeon RX 9070 220W Ø 220W 208W, 216W, 223W, 227W Ø218W, Ø219W, Ø220W, Ø224W Launch-Analyse 5070 & 9070(XT)
GeForce RTX 5090 575W Ø 509W 540W, 559W, 563W, 569W, 578W,
587W, 589W, 589W
Ø469W, Ø474W, Ø476W, Ø484W, Ø498W, Ø515W Launch-Analyse 5090
GeForce RTX 5080 360W Ø 311W 324W, 325W, 325W, 328W, 330W, 341W, 353W, 369W Ø282W, Ø294W, Ø297W, Ø300W,
Ø302W, Ø320W
Launch-Analyse 5080
GeForce RTX 5070 Ti 300W Ø 287W 279W, 282W, 297W, 302W, 315W Ø265W, Ø279W, Ø283W, Ø288W, Ø289W, Ø293W Launch-Analyse 5070Ti
GeForce RTX 5070 250W Ø 230W 229W, 253W, 254W, 259W, 262W Ø208W, Ø215W, Ø222W, Ø223W, Ø228W, Ø237W Launch-Analyse 5070 & 9070(XT)
GeForce RTX 5060 Ti 16GB 180W Ø 163W 158W, 163W, 166W, 169W, 181W, 182W, 183W, 186W Ø147W, Ø148W, Ø157W, Ø158W, Ø160W, Ø164W Launch-Analyse 5060Ti