da mein alter Laptop (Ryzen 4600U, Renoir) wegen Altersschwäche und dadurch entstandenem akutem Defekt ersetzt werden musste, habe ich mir ein neues ideapad 5 mit Ryzen 7 350 (Krackan) gegönnt.
Einrichtung von Nobara lief problemlos und alles tut erstmal was es soll. Im Gegensatz zum alten, der noch auf acpi-cpufreq angewiesen war, läuft der neue direkt mit amd-pstate epp.
Über die KDE-Oberfläche kann ich somit auch direkt den epp-hint einstellen: Batteriesparen schaltet auf power(save), Ausbalaciert auf balance-performance und Höchstleistung auf performance.
Soweit, so gut. Nun gibt es im BIOS/UEFI noch die Möglichkeit ebenfalls drei verschiedene Performance-Einstellungen zu setzen - Battery saving, Intelligent Cooling und High Performance. Bei meinem alten Laptop hatten die auch mess- und spürbare Wirkung, vergleichbar mit der Wirkung der epp-hints.
Beim neuen scheinen die aber praktisch keine Auswirkung zu haben, bzw. werden sie von der EPP Einstellung überschrieben? Kann das jemand bestätigen?
Wie es scheint (wenn ich den Energistatistiken aus KDE trauen kann), hat Lenovo die APU direkt mit den maximal möglichen 54W cTDP konfiguriert.
Damit boostet er potentiell zwar ordentlich, aber er zieht unter Volllast auch eine Menge Saft. Ich möchte noch ein bisschen weiter testen, aber es scheint mir, dass er mit powersave ca 35W, mit Ausbalanciert kurzfristig bis 54W und dann ca ~45W zieht. Alles wenn ich ihn ordentlich fordere, natürlich.
Powersave begrenzt v.a. die CPU relativ stark im Boosttakt, die GPU ist weniger betroffen.
Ich vermute mal, ich könnte die EPP-Einstellungen manuell anpassen, um z.B. der CPU mehr Boost zu ermöglichen?
Gibt es eine einfache Möglichkeit die cTDP unter Linux (idealerweise persistent) zu ändern? Im eher spartanischen BIOS habe ich leider nichts gefunden.
Ich bin über ryzenadj gestolpert, aber das scheint nicht ganz aktuell zu sein.
Irgendwie lahmt mein Synology NAS. Ich habe eine DS720+ mit 6 GB Ram.
Als Speichermedien verwende ich 2.5" SSDs.
Wenn ich von meinem Mac auf das NAS über 1 GBIT Netzwerk schreibe, scheint auch alles normal schnell zu sein. Wenn ich aber lesend auf das Nas zugreife ist alles stinklangsam. Ich dachte schon das wäre normal.
Wenn ich aber die gleichen Dateien über ein am NAS angeschlossenes USB-Laufwerk auslese, erreiche ich quasi die erwartete Performance (rund 100mb/s)
Ich habe jetzt keine Benchmarks gemacht, aber gefühlt Faktor 4 langsamer über das Netzwerk,
ich helfe meinem Bruder gerade bei der Auswahl eines neuen Laptops für Gaming und CAD. Er möchte eine AMD-CPU und NVIDIA-Grafik. Jetzt hat man die Qual der Wahl:
CPU: AMD Ryzen AI 7 350 oder AMD Ryzen AI 9 365
Grafik: Nvidia Geforce RTX 5060 laptop oder Nvidia Geforce 5070 laptop
Bei der CPU finde ich es komplizierter: Der Aufpreis auf den Ryzen AI 9 365 ist moderat (ca. 100) und der AI 9 hat mehr Kerne. Andererseits hat er "nur" mehr Zen 5c-Cores und Strix Point soll mit seinen zwei CCX ein Latenz-Problem haben, dass es bei Krackan Point mit seinem Einzel-CCX nicht gibt. So richtig handfeste Informationen habe ich zu dem ganzen Thema aber nicht gefunden.
Ist es mit einem USB-C 3-in-1 Splitter möglich, an einem Smartphone z.B ein Mikroohon, eine Powerbank und ein externes Display (4k60) zu übertragen ? Also Powerbank lädt dann das Handy auf und das Display und das Mikrophon ist am Handy angeschlossen (Datenübertragung 4k60 Videosignal + Mikrophon + Stromübertragung)
Geht sowas alles gleichzeitig ? Das Handy wäre das Xiaomi 14 Ultra
Zitat:
Zitat von robbitop
(Beitrag 13822383)
Dass es mit dem light model disocclusion Artefakte und keine Glättung nach dem Kamera Cut gibt spricht IMO gegen den Einsatz eines NNs bei der tiny Version.
Das sind ja nicht "nur" disocclusion Artefakte und Kameracuts, es gibt ja quasi keine Glättung mehr bei der geringsten Bewegung, ganz ohne Disocclusion.
Das ist ja vollkommen unbrauchbar, da würde reguläres TAA besser aussehen, nicht mal FSR ist wirklich schlechter.
Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)
ich möchte gerne bei meinem Unraid-Server bezüglich Speicherplatz und 1. Backupstufe upgraden. Ich habe folgende Randbedingungen:
Unraid Server
1x 2TB NVM SSD
1x 5TB SATA SSD
Noch 3 freie SATA Steckplätze
Folgende Anforderungen:
Massive Erweiterung der Speicherkapazität
Die unterschiedlichen Geschwindigkeiten der Festplattenspeicher sollen ausgereizt werden
Die schnellen Festplattenspeicher sollen möglichst komplett ausgelastet werden
Implementierung einer ersten Backupstufe für wichtige Daten
Perfomracekritische Teile wie Datenbanken sollen auf schnellsten Speicher
Oft abgerufene Daten sollen auf effizienten Speicher (z.B. hochfahren HDDs verhindern)
Budget bis ca. Euro 400 folgende
Umsetzungsidee:
Erstellung von einem Cache Pool mit NVM SSD
Hier würde ich appdata, VMs, erstmal die Fotos und die Dokumente platzieren
Aufgefüllt mit am häufigsten geschauten Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung von einem Cache Pool mit SATA SSD
Hier würde ich die häufig geschauten Mediadaten platzieren
Auffüllen mit weniger häufig genutzen Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung Array mit neuer 24TB HDD
Hier würden die restlichen Mediadaten liegen
Noch kein Backup dieser 24TB HDD (in Zukunft eventuell über eine seperate NAS in seperatem Raum wöchentlich)
Ich würde jetzt immer mal manuel schauen, dass die NVM SSD und SATA SSD nicht überäuft und ggf. Daten auf die große 24TB HDD verschieben
Irgendwann in Zukunft könnte ich mir vorstellen, dass übr ein Script zu machen
Ich würde lieber nur einen Cachopool erstellen aus NVM und SATA SSD, aber dann kann ich leider nicht sicherstellen, dass mindestens appdata und VMs immer auf der SSD liegen. So ein "Device-Pinning" gibt es whl nicht bei btrfs (obwohl ChatGPT das behaupted hat)
LEUTE: Ich habe in einem Reddit-Beitrag einen Hinweis auf das Intel Extreme Tuning Utility (XTU) bekommen. Das hatte ich ewig nicht gestartet und auch nicht aktualisiert. Hier stand der P2 auf einem Multi von 30 statt 55. Ich habe diesen Wert wieder hochgesetzt und schon bekomme ich wieder ein dynamisches Boosting auf ALLEN Cores über die 4300 und 3000 MHz (P2) hinaus. Cinebench läuft bei 150W Power Limit nun auf 4600 MHz und in Games habe ich wieder meine typischen Frequenzschwankungen jenseits der 5000 MHz-Marke. Warum diese Einstellung (dazu nie von mir selbst eingestellt!) eine so weitreichende Auswirkung hat, ist mir ein Rätsel.
Floi, ich werde mal das BIOS auf diese Einstellung hin überprüfen, aber nach Update und Laden von Default Werten kann ich mir nicht vorstellen, dass sich hier etwas eingeschlichen hat.
Wollte das AMD Clean Up Utility ausführen, um Reste von GraKa Treibern zu entfernen. Dazu muss Windows 11 im abgesicherten Modus gestartet werden.
Kein Problem, dachte ich.
Aber dann ging es los: es ist ein Fehler aufgetreten und ich sollte meinen PIN neu einrichten. Aber das funktioniert nicht. Anmelden mit Passwort ist nicht möglich, PIN einrichten geht nicht - man kommt an dem Screen einfach nicht mehr vorbei. Neu starten geht auch nicht, da man immer wieder auf die PIN einrichten Seite kommt, die nicht funktioniert.
Warum geht Anmeldung mit Passwort, Bestätigungscode nicht? Auch da immer nur die PIN-Kacke.
Jetzt setze ich gerade den PC zurück mit der Option eigene Daten behalten.
Was für ein Riesen Haufen Shice. Wer hat sich das ausgedacht..?
habe mich gefragt, ob bei zB. APU's, RDNA3.5 Strix etc., es nicht möglich ist,
das fehlende Feature bei der GPU, also FP8, über die NPU nutzbar zu machen und damit zB. FSR4 zu ermöglichen.
mal abgesehen vom höheren Verbrauch der den anderen Komponenten dann fehlt, wird da 8Bit Gleitkomma überhaupt unterstützt?
und zwar nativ ohne Emulationsschicht!
wie ist der Verbrauch einer NPU, in der Größenordnung, bei 50 Tops Leistung im Vergleich GPU/CPU ?
Hallo,
ich habe hier den Fall eines AiO, wo entweder nur der Monitor defekt ist oder auch die Grafiklösung und damit auch der PC. Letzterer funktioniert erst einmal anständig, zeigt auch gut das Bild auf 2. Monitor (TV) an.
Aber: Der eigentliche Monitor des AiO macht Macken. Zuerst nur diagonale Streifen, die recht bunt waren, bei weissem Hintergrund kaum zu sehen waren, mit der Zeit mehr wurden. Jetzt aber horizontale Streifen und zudem eigentlich 95% des Monitorbildes hinter einem schwarzen Standbild (mit ein paar Fransen an den Ecken). Dahinter arbeitet der Computer, das kann man daran ermessen, das oben 5% normal dargestellt wird und man dort sogar Bedienelemente von Windows-Fenstern sehen kann.
Logischerweise dürfte hier das Display hinüber sein. Aber: Wenn ich mit der Maus (kann man nur blind führen) über die horizontalen Streifen gehen, welchseln jene die Farbe, werden aus Schwarz dann Weiss. Und wirklich nur dort, wo ich mit der Maus lang fahre. Über die oberen "guten" 5% kann man ungefähr mitbekommen, wo man ist.
Frage: Könnte gemessen an diesem letzten Fehler nicht auch die Grafiklösung einen Hieb haben? Dann wäre der ganze AiO defekt und es würde sich nicht lohnen, nur den Monitor zu ersetzen. Wäre wichtig, das vorher zu wissen. Ich bitte um Hilfe hierzu.
Ich würde eher vermuten dass man testet und Spiele auf eine whitelist setzt und es dann nicht in jedem Spiel geht. Diese ganzen hooking shinanigons klappen nicht immer weil jeder es irgendwie anders baut oder schlimmer es wird instabil.
Zumindest war es mit OptiFG schon immer mal wieder ziemlich wackelig und der macht zumindest konzeptionell das gleiche.
Zitat:
Zitat von dargo
(Beitrag 13821566)
Und dennoch wird fleißig dieses Armutszeugnis weiter gekauft.
Während in Villabajo noch geruckelt wird, wird in Villariba schon gezockt.
Ich habe seit langem ein Asus Z790 Hero mit einem 13900K. Das Powerlimit hatte ich schon immer bei 150 W und leicht per Loadline undervoltet. In Spielen hatte ich damit meist schwankende Taktraten von 5000-5500 MHz, weil dort die CPU ja nie voll ausgelastet ist, insbesondere bei Singleplayer Games mit 20-40% Auslastung.
Seit ein paar Wochen beobachte ich jedoch, dass in Games die Taktrate bei 4300 MHz festgetackert ist, unabhängig von der Auslastung. Temp ist bei um 75 Grad OK. In Windows schwankt die CPU mal bis 5500 MHz hoch. Der Multi funktioniert also grundsätzlich.
Mit den Raptor Lake Microcode Updates kann dies nichts zu tun haben, denn ich hatte die höheren Taktraten auch mit dem Intel korrigierten Microcode 0x12B und nun nicht mehr. Heute habe ich noch ein neues BIOS Update mit dem neusten Microcode 0x12F aufgespielt, im BIOS im Prinzip nur wieder die PL1/PL2 auf 150 W gestellt und wieder nur die 4300 MHz in Games und Cinebench.
Cinebench spuckt mir mit 150 W Powerlimit ca. 10.000 Punkte (R20) und ca. 25.000 Punkte (R23 Multi) aus. Das ist gefühlt ca. 15 % zu wenig.
Ich kann nicht sagen, was ich geändert habe, seit dieses Verhalten greift (im BIOS jedenfalls nichts). Ich habe neulich mal die Intel Treiber (Chipsatz etc.) aktualisiert, kann es zeitlich aber nicht sicher damit verorten. Windows 11 mit neuesten Updates ist installiert.
Zitat:
Zitat von aufkrawall
(Beitrag 13821783)
Dafür funktioniert NULL nicht mit SM in dem Spiel, capt nicht bei 138fps...
Ja, geht auch hier bis 141 FPS und dazu noch 0 FPS/kompletten slowdown. wtf