Forenneuigkeiten

AMD P-State (EPP), Einstellungen im UEFI und TDP

Neue Forenbeiträge - Di, 07.10.2025 10:40
Hallo,

da mein alter Laptop (Ryzen 4600U, Renoir) wegen Altersschwäche und dadurch entstandenem akutem Defekt ersetzt werden musste, habe ich mir ein neues ideapad 5 mit Ryzen 7 350 (Krackan) gegönnt.
Einrichtung von Nobara lief problemlos und alles tut erstmal was es soll. Im Gegensatz zum alten, der noch auf acpi-cpufreq angewiesen war, läuft der neue direkt mit amd-pstate epp.
Über die KDE-Oberfläche kann ich somit auch direkt den epp-hint einstellen: Batteriesparen schaltet auf power(save), Ausbalaciert auf balance-performance und Höchstleistung auf performance.

Soweit, so gut. Nun gibt es im BIOS/UEFI noch die Möglichkeit ebenfalls drei verschiedene Performance-Einstellungen zu setzen - Battery saving, Intelligent Cooling und High Performance. Bei meinem alten Laptop hatten die auch mess- und spürbare Wirkung, vergleichbar mit der Wirkung der epp-hints.
Beim neuen scheinen die aber praktisch keine Auswirkung zu haben, bzw. werden sie von der EPP Einstellung überschrieben? Kann das jemand bestätigen?

Wie es scheint (wenn ich den Energistatistiken aus KDE trauen kann), hat Lenovo die APU direkt mit den maximal möglichen 54W cTDP konfiguriert.
Damit boostet er potentiell zwar ordentlich, aber er zieht unter Volllast auch eine Menge Saft. Ich möchte noch ein bisschen weiter testen, aber es scheint mir, dass er mit powersave ca 35W, mit Ausbalanciert kurzfristig bis 54W und dann ca ~45W zieht. Alles wenn ich ihn ordentlich fordere, natürlich.
Powersave begrenzt v.a. die CPU relativ stark im Boosttakt, die GPU ist weniger betroffen.
Ich vermute mal, ich könnte die EPP-Einstellungen manuell anpassen, um z.B. der CPU mehr Boost zu ermöglichen?
Gibt es eine einfache Möglichkeit die cTDP unter Linux (idealerweise persistent) zu ändern? Im eher spartanischen BIOS habe ich leider nichts gefunden.
Ich bin über ryzenadj gestolpert, aber das scheint nicht ganz aktuell zu sein.
Kategorien: 3DCenter Forum

Synology NAS langsam

Neue Forenbeiträge - Mo, 06.10.2025 23:24
Servus!

Irgendwie lahmt mein Synology NAS. Ich habe eine DS720+ mit 6 GB Ram.
Als Speichermedien verwende ich 2.5" SSDs.

Wenn ich von meinem Mac auf das NAS über 1 GBIT Netzwerk schreibe, scheint auch alles normal schnell zu sein. Wenn ich aber lesend auf das Nas zugreife ist alles stinklangsam. Ich dachte schon das wäre normal.

Wenn ich aber die gleichen Dateien über ein am NAS angeschlossenes USB-Laufwerk auslese, erreiche ich quasi die erwartete Performance (rund 100mb/s)

Ich habe jetzt keine Benchmarks gemacht, aber gefühlt Faktor 4 langsamer über das Netzwerk,

Könnte hier ggf. etwas falsch konfiguriert sein?
Kategorien: 3DCenter Forum

AMD Ryzen AI 7 350 vs. Ryzen AI 9 365, 5060-Laptop vs. 5070-Laptop

Neue Forenbeiträge - Mo, 06.10.2025 22:35
Hi,

ich helfe meinem Bruder gerade bei der Auswahl eines neuen Laptops für Gaming und CAD. Er möchte eine AMD-CPU und NVIDIA-Grafik. Jetzt hat man die Qual der Wahl:

CPU: AMD Ryzen AI 7 350 oder AMD Ryzen AI 9 365
Grafik: Nvidia Geforce RTX 5060 laptop oder Nvidia Geforce 5070 laptop

Bei der Grafikkarte spricht aus meiner Sicht viel dafür den Aufpreis auf die 5070 zu sparen: https://www.notebookcheck.com/Nvidia...1021303.0.html

Bei der CPU finde ich es komplizierter: Der Aufpreis auf den Ryzen AI 9 365 ist moderat (ca. 100€) und der AI 9 hat mehr Kerne. Andererseits hat er "nur" mehr Zen 5c-Cores und Strix Point soll mit seinen zwei CCX ein Latenz-Problem haben, dass es bei Krackan Point mit seinem Einzel-CCX nicht gibt. So richtig handfeste Informationen habe ich zu dem ganzen Thema aber nicht gefunden.

Was meint ihr?
Kategorien: 3DCenter Forum

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mo, 06.10.2025 21:18
Dann sind es eher 15°C weniger mit Samsung. Ich komme kaum über 70°C Vram bei 1100RPM und 261W.

3-in-1 USB-C für Bildübertragung, Mikrophon und Powerbank gleichzeitig

Neue Forenbeiträge - Mo, 06.10.2025 17:25
Ist es mit einem USB-C 3-in-1 Splitter möglich, an einem Smartphone z.B ein Mikroohon, eine Powerbank und ein externes Display (4k60) zu übertragen ? Also Powerbank lädt dann das Handy auf und das Display und das Mikrophon ist am Handy angeschlossen (Datenübertragung 4k60 Videosignal + Mikrophon + Stromübertragung)

Geht sowas alles gleichzeitig ? Das Handy wäre das Xiaomi 14 Ultra
Kategorien: 3DCenter Forum

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von robbitop (Beitrag 13822383) Dass es mit dem light model disocclusion Artefakte und keine Glättung nach dem Kamera Cut gibt spricht IMO gegen den Einsatz eines NNs bei der tiny Version. Das sind ja nicht "nur" disocclusion Artefakte und Kameracuts, es gibt ja quasi keine Glättung mehr bei der geringsten Bewegung, ganz ohne Disocclusion.

Das ist ja vollkommen unbrauchbar, da würde reguläres TAA besser aussehen, nicht mal FSR ist wirklich schlechter.

nVidia - GeForce RTX 4090 Review-Thread

Grafikchips - Mo, 06.10.2025 12:54
Ich habe meine noch ;)

Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Mo, 06.10.2025 11:49
Zitat: Zitat von Pitman (Beitrag 13822438) Das Ausus Board B850F hat 2 PCi5 M2 Steckplätze ohne Linesharing! Oh,ok,war mir entgangen,vielen Dank

Checkmate IPS Retromonitor

Neue Forenbeiträge - So, 05.10.2025 21:23
Hi Leute,


bekomme Morgen den sogenannten Retro Monitor geliefert:

https://dragonbox.de/de-de/checkmate...k#/farbe-weiss

Wenn Interesse hier besteht, kann ich meine Erfahrungen mitteilen. Welche Systeme sollen gestet wird?

Orginalhardware( Nintendo Konsolen, PSX, PS2, Xbox 1, Dreamcast) und Mister FPGA für Heimcomputer wie Amiga vorhanden.

Test von Mondern Vintage Gamer:

https://www.youtube.com/watch?v=28CCNh4YYIk
Kategorien: 3DCenter Forum

Unraid upgrade

Neue Forenbeiträge - So, 05.10.2025 09:07
Hi an Alle,

ich möchte gerne bei meinem Unraid-Server bezüglich Speicherplatz und 1. Backupstufe upgraden. Ich habe folgende Randbedingungen:
  • Unraid Server
  • 1x 2TB NVM SSD
  • 1x 5TB SATA SSD
  • Noch 3 freie SATA Steckplätze

Folgende Anforderungen:
  • Massive Erweiterung der Speicherkapazität
  • Die unterschiedlichen Geschwindigkeiten der Festplattenspeicher sollen ausgereizt werden
  • Die schnellen Festplattenspeicher sollen möglichst komplett ausgelastet werden
  • Implementierung einer ersten Backupstufe für wichtige Daten
  • Perfomracekritische Teile wie Datenbanken sollen auf schnellsten Speicher
  • Oft abgerufene Daten sollen auf effizienten Speicher (z.B. hochfahren HDDs verhindern)
  • Budget bis ca. Euro 400 folgende

Umsetzungsidee:
  • Erstellung von einem Cache Pool mit NVM SSD
    • Hier würde ich appdata, VMs, erstmal die Fotos und die Dokumente platzieren
    • Aufgefüllt mit am häufigsten geschauten Mediadaten
    • Tägliches autamtisiertes Backup auf neue 24TB HDD
  • Erstellung von einem Cache Pool mit SATA SSD
    • Hier würde ich die häufig geschauten Mediadaten platzieren
    • Auffüllen mit weniger häufig genutzen Mediadaten
    • Tägliches autamtisiertes Backup auf neue 24TB HDD
  • Erstellung Array mit neuer 24TB HDD
    • Hier würden die restlichen Mediadaten liegen
    • Noch kein Backup dieser 24TB HDD (in Zukunft eventuell über eine seperate NAS in seperatem Raum wöchentlich)
  • Ich würde jetzt immer mal manuel schauen, dass die NVM SSD und SATA SSD nicht überäuft und ggf. Daten auf die große 24TB HDD verschieben
  • Irgendwann in Zukunft könnte ich mir vorstellen, dass übr ein Script zu machen
  • Ich würde lieber nur einen Cachopool erstellen aus NVM und SATA SSD, aber dann kann ich leider nicht sicherstellen, dass mindestens appdata und VMs immer auf der SSD liegen. So ein "Device-Pinning" gibt es whl nicht bei btrfs (obwohl ChatGPT das behaupted hat)

Habt Ihr vielleicht andere Ansatzpunkte?
Kategorien: 3DCenter Forum

OLED macht Fortschritte

Custom Font "MacType" für OLEDs:



Edit: Sein Reddit Link ist schon mal falsch...

Edit2: Ist jetzt korrekt, aber ein Beitrag der 4 Jahre alt ist.

13900K in Games nur noch bei 4300 MHz

CPU's und Mainboards - Sa, 04.10.2025 16:01
LEUTE: Ich habe in einem Reddit-Beitrag einen Hinweis auf das Intel Extreme Tuning Utility (XTU) bekommen. Das hatte ich ewig nicht gestartet und auch nicht aktualisiert. Hier stand der P2 auf einem Multi von 30 statt 55. Ich habe diesen Wert wieder hochgesetzt und schon bekomme ich wieder ein dynamisches Boosting auf ALLEN Cores über die 4300 und 3000 MHz (P2) hinaus. Cinebench läuft bei 150W Power Limit nun auf 4600 MHz und in Games habe ich wieder meine typischen Frequenzschwankungen jenseits der 5000 MHz-Marke. Warum diese Einstellung (dazu nie von mir selbst eingestellt!) eine so weitreichende Auswirkung hat, ist mir ein Rätsel.

Floi, ich werde mal das BIOS auf diese Einstellung hin überprüfen, aber nach Update und Laden von Default Werten kann ich mir nicht vorstellen, dass sich hier etwas eingeschlichen hat.

Wie bekloppt...

Win 11 - Abgesicherter Modus löst Boot-Odyssee aus

Neue Forenbeiträge - Sa, 04.10.2025 15:38
Oh Mann was für eine Kacke.

Wollte das AMD Clean Up Utility ausführen, um Reste von GraKa Treibern zu entfernen. Dazu muss Windows 11 im abgesicherten Modus gestartet werden.
Kein Problem, dachte ich.
Aber dann ging es los: es ist ein Fehler aufgetreten und ich sollte meinen PIN neu einrichten. Aber das funktioniert nicht. Anmelden mit Passwort ist nicht möglich, PIN einrichten geht nicht - man kommt an dem Screen einfach nicht mehr vorbei. Neu starten geht auch nicht, da man immer wieder auf die PIN einrichten Seite kommt, die nicht funktioniert.
Warum geht Anmeldung mit Passwort, Bestätigungscode nicht? Auch da immer nur die PIN-Kacke.
Jetzt setze ich gerade den PC zurück mit der Option eigene Daten behalten.

Was für ein Riesen Haufen Shice. Wer hat sich das ausgedacht..?
Kategorien: 3DCenter Forum

AMD Strix, Point, Halo etc. NPU, FP8-fähig, Nutzung beim Upscaling als Koprozessor?

Neue Forenbeiträge - Sa, 04.10.2025 15:28
habe mich gefragt, ob bei zB. APU's, RDNA3.5 Strix etc., es nicht möglich ist,
das fehlende Feature bei der GPU, also FP8, über die NPU nutzbar zu machen und damit zB. FSR4 zu ermöglichen.

mal abgesehen vom höheren Verbrauch der den anderen Komponenten dann fehlt, wird da 8Bit Gleitkomma überhaupt unterstützt?
und zwar nativ ohne Emulationsschicht!
wie ist der Verbrauch einer NPU, in der Größenordnung, bei 50 Tops Leistung im Vergleich GPU/CPU ?

konnte da auf die schnelle nix finden
Kategorien: 3DCenter Forum

Monitor-Fehldarstellungen: Nur der Monitor betroffen - oder auch der PC/Grafiklösung?

Neue Forenbeiträge - Sa, 04.10.2025 15:17
Hallo,
ich habe hier den Fall eines AiO, wo entweder nur der Monitor defekt ist oder auch die Grafiklösung und damit auch der PC. Letzterer funktioniert erst einmal anständig, zeigt auch gut das Bild auf 2. Monitor (TV) an.

Aber: Der eigentliche Monitor des AiO macht Macken. Zuerst nur diagonale Streifen, die recht bunt waren, bei weissem Hintergrund kaum zu sehen waren, mit der Zeit mehr wurden. Jetzt aber horizontale Streifen und zudem eigentlich 95% des Monitorbildes hinter einem schwarzen Standbild (mit ein paar Fransen an den Ecken). Dahinter arbeitet der Computer, das kann man daran ermessen, das oben 5% normal dargestellt wird und man dort sogar Bedienelemente von Windows-Fenstern sehen kann.

Logischerweise dürfte hier das Display hinüber sein. Aber: Wenn ich mit der Maus (kann man nur blind führen) über die horizontalen Streifen gehen, welchseln jene die Farbe, werden aus Schwarz dann Weiss. Und wirklich nur dort, wo ich mit der Maus lang fahre. Über die oberen "guten" 5% kann man ungefähr mitbekommen, wo man ist.

Frage: Könnte gemessen an diesem letzten Fehler nicht auch die Grafiklösung einen Hieb haben? Dann wäre der ganze AiO defekt und es würde sich nicht lohnen, nur den Monitor zu ersetzen. Wäre wichtig, das vorher zu wissen. Ich bitte um Hilfe hierzu.
Kategorien: 3DCenter Forum

Megabonk

Neue Forenbeiträge - Sa, 04.10.2025 13:07
Wurde mir vorgeschlagen, weil ich Vampire Survivor durchgespielt hatte, scheint in die gleiche Schiene zu gehen, aber halt in 3D

https://store.steampowered.com/app/3405340/Megabonk/

Spielt das hier einer? Soll die absolute Sucht sein, ich finde es rein optisch uninteressant, habs aber auch noch nicht gespielt....
Kategorien: 3DCenter Forum

Frame Generation mit AFMF und FSR3-Mods (Fokus auf AMD)

Grafikkarten - Sa, 04.10.2025 09:04
Ich würde eher vermuten dass man testet und Spiele auf eine whitelist setzt und es dann nicht in jedem Spiel geht. Diese ganzen hooking shinanigons klappen nicht immer weil jeder es irgendwie anders baut oder schlimmer es wird instabil.
Zumindest war es mit OptiFG schon immer mal wieder ziemlich wackelig und der macht zumindest konzeptionell das gleiche.

12VHPWR-Stecker: Das Problem und mögliche Lösungen

Grafikchips - Sa, 04.10.2025 00:39
Zitat: Zitat von dargo (Beitrag 13821566) Und dennoch wird fleißig dieses Armutszeugnis weiter gekauft. Während in Villabajo noch geruckelt wird, wird in Villariba schon gezockt.

13900K in Games nur noch bei 4300 MHz

Neue Forenbeiträge - Fr, 03.10.2025 22:12
Ich habe seit langem ein Asus Z790 Hero mit einem 13900K. Das Powerlimit hatte ich schon immer bei 150 W und leicht per Loadline undervoltet. In Spielen hatte ich damit meist schwankende Taktraten von 5000-5500 MHz, weil dort die CPU ja nie voll ausgelastet ist, insbesondere bei Singleplayer Games mit 20-40% Auslastung.

Seit ein paar Wochen beobachte ich jedoch, dass in Games die Taktrate bei 4300 MHz festgetackert ist, unabhängig von der Auslastung. Temp ist bei um 75 Grad OK. In Windows schwankt die CPU mal bis 5500 MHz hoch. Der Multi funktioniert also grundsätzlich.

Mit den Raptor Lake Microcode Updates kann dies nichts zu tun haben, denn ich hatte die höheren Taktraten auch mit dem Intel korrigierten Microcode 0x12B und nun nicht mehr. Heute habe ich noch ein neues BIOS Update mit dem neusten Microcode 0x12F aufgespielt, im BIOS im Prinzip nur wieder die PL1/PL2 auf 150 W gestellt und wieder nur die 4300 MHz in Games und Cinebench.

Cinebench spuckt mir mit 150 W Powerlimit ca. 10.000 Punkte (R20) und ca. 25.000 Punkte (R23 Multi) aus. Das ist gefühlt ca. 15 % zu wenig.

Ich kann nicht sagen, was ich geändert habe, seit dieses Verhalten greift (im BIOS jedenfalls nichts). Ich habe neulich mal die Intel Treiber (Chipsatz etc.) aktualisiert, kann es zeitlich aber nicht sicher damit verorten. Windows 11 mit neuesten Updates ist installiert.

Was denkt ihr?
Kategorien: 3DCenter Forum

NVIDIA GeForce Game Ready-Treiber 581.08

Grafikkarten - Fr, 03.10.2025 20:22
Zitat: Zitat von aufkrawall (Beitrag 13821783) Dafür funktioniert NULL nicht mit SM in dem Spiel, capt nicht bei 138fps... Ja, geht auch hier bis 141 FPS und dazu noch 0 FPS/kompletten slowdown. wtf
Inhalt abgleichen