16

News des 16. September 2025

AMD hat auf seinen Webseiten nunmehr die neuen Zen5-Modelle Ryzen 5 9500F und Ryzen 7 9700F offiziell gemacht. Die ersten F-Modelle des Ryzen-9000-Portfolios bereiten selbiges darauf vor, preislich nach unten hin ausgedehnt zu werden. Dabei tritt der Ryzen 7 9700F mit den exakten Daten des Ryzen 7 9700X an, während hingegen dem Ryzen 5 9500F immerhin –200 MHz Boosttakt gegenüber dem Ryzen 5 9600 fehlen (zuzüglich natürlich zu bei den F-Modellen deaktivierter iGPU). Derzeit sind beide F-Modelle augenscheinlich nur für OEMs und Systemintegratoren vorgesehen, gibt es auch keine offizielle Preisnotierung. In der Praxis tauchen jene Prozessoren dann trotzdem über kurz oder lang im Einzelhandel auf – allerdings anfänglich mit zumeist unpassenden, nicht niedrigeren Preispunkten. Selbiges ist immer noch beim Ryzen 5 9600 zu sehen, welcher fast ein dreiviertel Jahr nach Launch gerade einmal 3 Euro günstiger als der Ryzen 5 9600X angeboten wird (und lange Zeit sogar teurer war als selbiger).

AMD Zen 5 Kerne L2+L3 3DVC Takt iGPU OC TDP/PPT Listenpreis Retail Release
"Ryzen 9 9990X3D" 16C/32T 16+64 MB 128 MB ? ? ? ? reines Gerücht
Ryzen 9 9950X3D 16C/32T 16+64 MB 64 MB 4.3/5.7 GHz 170/200W $699 / 769€ ab 668€ 12. März 2025
Ryzen 9 9950X 16C/32T 16+64 MB 4.3/5.7 GHz 170/200W $649 / 709€ ab 482€ 15. Aug. 2024
Ryzen 9 9900X3D 12C/24T 12+64 MB 64 MB 4.4/5.5 GHz 120/162W $599 / 659€ ab 575€ 12. März 2025
Ryzen 9 9900X 12C/24T 12+64 MB 4.4/5.6 GHz 120/162W $499 / 539€ ab 376€ 15. Aug. 2024
Ryzen 7 9800X3D 8C/16T 8+32 MB 64 MB 4.7/5.2 GHz 120/162W $479 / 529€ ab 449€ 7. Nov. 2024
"Ryzen 7 9700X3D" 8C/16T 8+32 MB 64 MB ? ? ? ? ? reines Gerücht
Ryzen 7 9700X 8C/16T 8+32 MB 3.8/5.5 GHz 65/88W $359 / 399€ ab 258€ 8. Aug. 2024
Ryzen 7 9700F 8C/16T 8+32 MB 3.8/5.5 GHz 65/88W ? ? 16. Sept. 2025
Ryzen 5 9600X3D 6C/12T 6+32 MB 64 MB ? ? ? ? ? unbestimmt
Ryzen 5 9600X 6C/12T 6+32 MB 3.9/5.4 GHz 65/88W $279 / 309€ ab 188€ 8. Aug. 2024
Ryzen 5 9600 6C/12T 6+32 MB 3.8/5.2 GHz 65/88W ? ab 185€ Januar 2025
Ryzen 5 9500F 6C/12T 6+32 MB 3.8/5.0 GHz 65/88W ? ? 16. Sept. 2025
Hinweis: Angaben zu noch nicht offiziell vorgestellter Hardware basieren auf Gerüchten & Annahmen

Diese Situation klärt sich bei AMD-Prozessoren üblicherweise erst im langen Lauf, denkbarerweise werden die neuen F-Modelle erst tief im Jahr 2026 dann tatsächlich günstiger angeboten als die normalen Modelle. Daneben hat AMD auch noch den Ryzen 5 5600F als weitere Zen3-basierte Programmergänzung vorgestellt, dessen Boosttakt dann aber um immerhin –400 MHz hinter dem Ryzen 5 5600 non-F zurückliegt. Auch bei diesem Modell bleibt, abzuwarten, wann in der Praxis der Straßenpreise hiermit wirklich ein Preisvorteil gegenüber den existierenden Modellen aufgeboten werden kann. Nicht auszuschließen, dass dies speziell beim Ryzen 5 5600F dann auch niemals passiert, der Prozessor kommt 9 Jahre nach den ersten AM4-Prozessoren einfach zu spät bzw. trifft auf eine schon ausreichend niedrige Preisstruktur der noch am Markt befindlichen Zen3-Modelle. Jene dürfte AMD auch kaum noch besonders günstiger anbieten, sondern vielmehr eher daran arbeiten, jene langsam vom Markt zu nehmen – angefangen wurde hierzu bereits mit Ryzen 7 5800X3D und 5700X3D.

ComputerBase und PC Games Hardware berichten über die inoffizielle Möglichkeit, FSR4 auf RDNA 2/3 sowie RTX-Grafikkarten von nVidia nutzen zu können. Ausgangspunkt hierfür ist eine FSR4-DLL, welche von Redditor 'AthleteDependent926' für die Nutzung von INT8-Rechenoperationen kompiliert wurde – was den ansonsten geltenden Zwang zu RDNA4-Hardware aufhebt. In die Spiele gebracht werden kann diese DLL entweder über direkten DLL-Austausch für Spiele mit eigenem FSR4-Support (zusätzlich notwendig hierzu die Installation von AMDs FSR-SDK) oder aber bei allen anderen Spielen mittels Optiscaler. Die ersten Nutzerberichte sprechen von einem klaren Optikgewinn durch FSR4, während die Performance-Anforderungen zwar spürbar wären, aber doch im Rahmen bleiben würden. Die klar höhere Bildqualität läßt letztlich auch aggressivere FSR4-Modi zu, welche den Performanceverlust reduzieren helfen. Je älter die Grafikkarte allerdings ist, um so höher fallen die Performanceanforderungen aus bzw. steigt zudem die Chance auf Optikfehler. Wenn man nVidia-Hardware mal herausrechnet, die sowieso mit DLSS gut bedient wird, ist dieser Trick in erster Linie auf RDNA3-Hardware nutzbar. Von dort kommen bislang auch die überzeugendsten Nutzermeldungen, gleichlautend dem Bericht von YouTuber Ancient Gameplays.

Zur von nVidia wohl zuerst benutzten TSMC A16-Fertigung gibt es den berechtigten Einwand, dass man normalerweise die Verwendung allerneuester Prozesse für jegliche Großchips zu vermeiden versucht, weil anfänglich die Yield-Rate neuer Nodes natürlich noch nicht hoch sein kann. Bei den vergleichsweise kleinen Chips für Smartphone-SoCs ist dies weniger kritisch, zudem hat Apple wohl auch als einziger TSMC-Abnehmer (zumindest in der Vergangenheit) nur für vollständig funktionierende Dies gezahlt, hatte also nicht das wirtschaftliche Risiko der Fertigungsausbeute zu tragen. Ob TSMC für nVidia als Erstabnehmer der A16-Fertigung nunmehr den gleichen Deal anbietet, ist hingegen ungewiß. Selbst wenn nicht, ist nVidia hier dennoch in keiner ganz schlechten Situation: Denn zum einen ist die Marge der HPC/AI-Chips astronomisch hoch, da spielt eine teure Chipfertigung mit anfänglichen Ausbeuteproblemen nicht so richtig stark hinein. Und zweitens sind die HPC/AI-Chips von nVidia eben kein Massenprodukt wie die Smartphone-SoCs von Apple.

nVidia benötigt für selbige eine deutlich kleinere Menge an Wafern, kann damit auch mit anfänglichen Ausbeuteproblemen leben und wird trotzdem auf die gewünschte Anzahl an "guten" Chips kommen. Seitenmäßig spielen hier auch noch folgende Effekte hinein: Erstens hat nVidia wegen seiner großen Grafikchips eine wirklich langjährige Erfahrung darin, mit teildefekten Chips zu arbeiten, wo also nur einige wenige Silizium-Fehler existieren. Kaum einer der nVidia-Großchips (egal ob HPC/AI oder Consumer/Gaming) wird mit der vollen Anzahl an Recheneinheiten in den Handel entlassen, zusätzlich gibt es auch Chipteile mit gewisser Redudanz (macht man gern bei Caches) gegenüber einzelnen Fertigungsfehlern. Und zweitens hat nVidia speziell bei seinen HPC/AI-Chips keinen solchen Lieferdruck wie Apple bei seinen Smartphone-SoCs. Wenn letztere vorgestellt werden, erwartet schließlich jeder von Apple die zeitnahe Auslieferung in Millionen-Stückzahl.

Bei seinen HPC/AI-Chips hat nVidia hingegen inzwischen erfolgreich das Prozedere etabliert, dass jene ganze Quartale vor der Auslieferung vorgestellt werden – und sich keiner daran stößt, dass selbst die Erstliefermenge erst ein dreiviertel Jahr später anrollt. In der Summe ist die Erstbenutzung der A16-Fertigung für Großchips in diesem speziellen Fall also nicht so tragisch, wie es gemäß Lehrbuch sein sollte. Nebenbei tragen Heise hier noch ein Detail bei, wieso speziell die A16-Fertigung für Apple nicht besonders interessant ist: Die hiermit gebotene rückseitigen Chipstromversorgung (Backside Power Delivery) ist wohl nicht besonders zweckmäßig für Mobile-Chips, allerdings natürlich für Watt-starke Großchips um so mehr. Deswegen könnte sich Apple bei A16 auch generell zurückhalten, sprich diese Fertigung nicht später noch benutzen. Vielmehr könnte Apple beim nachfolgenden A14 der Erstkunde von TSMC sein – weil dort die Backside Power Delivery wiederum fehlt und dieser Node somit für die Großchips von nVidia weniger interessant ist.