Ja, leider hat die gesamte Gigabyte Aorus Master Serie (x570, x670) ein Battery drain problem, d.h. die MoBo Batterie entlädt sich schneller als sie sollte. Ist seit x570 bekannt, aber Gigabyte macht natürlich nichts dagegen.
Mein x670e habe ich deswegen wieder verkauft, weil man die Backplate abschrauben musste, damit man die Abdeckung über der Batterie entfernen kann. :ugly: Und das hätte ich dann alle 3-6 Monate machen müssen.
Ich meine die Linux Treiber für die VII sind noch ganz anständig, da soll sogar RT auf der VII laufen (wenn auch nicht besonders schnell, vermutlich recht ähnlich zur Titan V im Beispiel CyberPunk). Habe selbst noch nicht groß mit spielen getestet sondern nur LM Studio unter Windows und ein ganz klein wenig mit AMD ROCm. Habe in Summe 4 MI50 hier, 3x 32GB und 1x 16GB (ich war Neugierig was da so geht). :D
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
ich habe eine 9060 XT und in Kenshi möchte ich gerne VSR nutzen als Supersampling-Ersatz, weil das Spiel sonst kein AA bietet und sehr flimmert.
Der Monitor hat QHD (2560x1440).
VSR ist aktiviert und ich kann höhere Auflösungen auswählen, allerdings werden diese nicht auf QHD zurückskaliert. Wenn ich für das Spiel bspw. 5120x2880 dann sehe ich nur das obere linke Viertel auf meinem Bildschirm, der Rest ist quasi außerhalb meines Bildschirms.
Wenn ich hingegen in Windows 5120x2880 einstelle, dann wird das korrekt auf meinen Bildschirm skaliert. Wenn ich dann in diesem "5K-Windows" das Spiel starte, dann sehe ich das Spiel auch komplett und der SS-Effekt kommt sehr gut rüber.
Ich möchte aber Windows nicht erstmal jedesmal umstellen, sondern möchte dass nur das Spiel skaliert wird.
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.
da mein alter Laptop (Ryzen 4600U, Renoir) wegen Altersschwäche und dadurch entstandenem akutem Defekt ersetzt werden musste, habe ich mir ein neues ideapad 5 mit Ryzen 7 350 (Krackan) gegönnt.
Einrichtung von Nobara lief problemlos und alles tut erstmal was es soll. Im Gegensatz zum alten, der noch auf acpi-cpufreq angewiesen war, läuft der neue direkt mit amd-pstate epp.
Über die KDE-Oberfläche kann ich somit auch direkt den epp-hint einstellen: Batteriesparen schaltet auf power(save), Ausbalaciert auf balance-performance und Höchstleistung auf performance.
Soweit, so gut. Nun gibt es im BIOS/UEFI noch die Möglichkeit ebenfalls drei verschiedene Performance-Einstellungen zu setzen - Battery saving, Intelligent Cooling und High Performance. Bei meinem alten Laptop hatten die auch mess- und spürbare Wirkung, vergleichbar mit der Wirkung der epp-hints.
Beim neuen scheinen die aber praktisch keine Auswirkung zu haben, bzw. werden sie von der EPP Einstellung überschrieben? Kann das jemand bestätigen?
Wie es scheint (wenn ich den Energistatistiken aus KDE trauen kann), hat Lenovo die APU direkt mit den maximal möglichen 54W cTDP konfiguriert.
Damit boostet er potentiell zwar ordentlich, aber er zieht unter Volllast auch eine Menge Saft. Ich möchte noch ein bisschen weiter testen, aber es scheint mir, dass er mit powersave ca 35W, mit Ausbalanciert kurzfristig bis 54W und dann ca ~45W zieht. Alles wenn ich ihn ordentlich fordere, natürlich.
Powersave begrenzt v.a. die CPU relativ stark im Boosttakt, die GPU ist weniger betroffen.
Ich vermute mal, ich könnte die EPP-Einstellungen manuell anpassen, um z.B. der CPU mehr Boost zu ermöglichen?
Gibt es eine einfache Möglichkeit die cTDP unter Linux (idealerweise persistent) zu ändern? Im eher spartanischen BIOS habe ich leider nichts gefunden.
Ich bin über ryzenadj gestolpert, aber das scheint nicht ganz aktuell zu sein.
Irgendwie lahmt mein Synology NAS. Ich habe eine DS720+ mit 6 GB Ram.
Als Speichermedien verwende ich 2.5" SSDs.
Wenn ich von meinem Mac auf das NAS über 1 GBIT Netzwerk schreibe, scheint auch alles normal schnell zu sein. Wenn ich aber lesend auf das Nas zugreife ist alles stinklangsam. Ich dachte schon das wäre normal.
Wenn ich aber die gleichen Dateien über ein am NAS angeschlossenes USB-Laufwerk auslese, erreiche ich quasi die erwartete Performance (rund 100mb/s)
Ich habe jetzt keine Benchmarks gemacht, aber gefühlt Faktor 4 langsamer über das Netzwerk,
ich helfe meinem Bruder gerade bei der Auswahl eines neuen Laptops für Gaming und CAD. Er möchte eine AMD-CPU und NVIDIA-Grafik. Jetzt hat man die Qual der Wahl:
CPU: AMD Ryzen AI 7 350 oder AMD Ryzen AI 9 365
Grafik: Nvidia Geforce RTX 5060 laptop oder Nvidia Geforce 5070 laptop
Bei der CPU finde ich es komplizierter: Der Aufpreis auf den Ryzen AI 9 365 ist moderat (ca. 100) und der AI 9 hat mehr Kerne. Andererseits hat er "nur" mehr Zen 5c-Cores und Strix Point soll mit seinen zwei CCX ein Latenz-Problem haben, dass es bei Krackan Point mit seinem Einzel-CCX nicht gibt. So richtig handfeste Informationen habe ich zu dem ganzen Thema aber nicht gefunden.
Ist es mit einem USB-C 3-in-1 Splitter möglich, an einem Smartphone z.B ein Mikroohon, eine Powerbank und ein externes Display (4k60) zu übertragen ? Also Powerbank lädt dann das Handy auf und das Display und das Mikrophon ist am Handy angeschlossen (Datenübertragung 4k60 Videosignal + Mikrophon + Stromübertragung)
Geht sowas alles gleichzeitig ? Das Handy wäre das Xiaomi 14 Ultra
Zitat:
Zitat von robbitop
(Beitrag 13822383)
Dass es mit dem light model disocclusion Artefakte und keine Glättung nach dem Kamera Cut gibt spricht IMO gegen den Einsatz eines NNs bei der tiny Version.
Das sind ja nicht "nur" disocclusion Artefakte und Kameracuts, es gibt ja quasi keine Glättung mehr bei der geringsten Bewegung, ganz ohne Disocclusion.
Das ist ja vollkommen unbrauchbar, da würde reguläres TAA besser aussehen, nicht mal FSR ist wirklich schlechter.
Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)
ich möchte gerne bei meinem Unraid-Server bezüglich Speicherplatz und 1. Backupstufe upgraden. Ich habe folgende Randbedingungen:
Unraid Server
1x 2TB NVM SSD
1x 5TB SATA SSD
Noch 3 freie SATA Steckplätze
Folgende Anforderungen:
Massive Erweiterung der Speicherkapazität
Die unterschiedlichen Geschwindigkeiten der Festplattenspeicher sollen ausgereizt werden
Die schnellen Festplattenspeicher sollen möglichst komplett ausgelastet werden
Implementierung einer ersten Backupstufe für wichtige Daten
Perfomracekritische Teile wie Datenbanken sollen auf schnellsten Speicher
Oft abgerufene Daten sollen auf effizienten Speicher (z.B. hochfahren HDDs verhindern)
Budget bis ca. Euro 400 folgende
Umsetzungsidee:
Erstellung von einem Cache Pool mit NVM SSD
Hier würde ich appdata, VMs, erstmal die Fotos und die Dokumente platzieren
Aufgefüllt mit am häufigsten geschauten Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung von einem Cache Pool mit SATA SSD
Hier würde ich die häufig geschauten Mediadaten platzieren
Auffüllen mit weniger häufig genutzen Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung Array mit neuer 24TB HDD
Hier würden die restlichen Mediadaten liegen
Noch kein Backup dieser 24TB HDD (in Zukunft eventuell über eine seperate NAS in seperatem Raum wöchentlich)
Ich würde jetzt immer mal manuel schauen, dass die NVM SSD und SATA SSD nicht überäuft und ggf. Daten auf die große 24TB HDD verschieben
Irgendwann in Zukunft könnte ich mir vorstellen, dass übr ein Script zu machen
Ich würde lieber nur einen Cachopool erstellen aus NVM und SATA SSD, aber dann kann ich leider nicht sicherstellen, dass mindestens appdata und VMs immer auf der SSD liegen. So ein "Device-Pinning" gibt es whl nicht bei btrfs (obwohl ChatGPT das behaupted hat)
LEUTE: Ich habe in einem Reddit-Beitrag einen Hinweis auf das Intel Extreme Tuning Utility (XTU) bekommen. Das hatte ich ewig nicht gestartet und auch nicht aktualisiert. Hier stand der P2 auf einem Multi von 30 statt 55. Ich habe diesen Wert wieder hochgesetzt und schon bekomme ich wieder ein dynamisches Boosting auf ALLEN Cores über die 4300 und 3000 MHz (P2) hinaus. Cinebench läuft bei 150W Power Limit nun auf 4600 MHz und in Games habe ich wieder meine typischen Frequenzschwankungen jenseits der 5000 MHz-Marke. Warum diese Einstellung (dazu nie von mir selbst eingestellt!) eine so weitreichende Auswirkung hat, ist mir ein Rätsel.
Floi, ich werde mal das BIOS auf diese Einstellung hin überprüfen, aber nach Update und Laden von Default Werten kann ich mir nicht vorstellen, dass sich hier etwas eingeschlichen hat.
Wollte das AMD Clean Up Utility ausführen, um Reste von GraKa Treibern zu entfernen. Dazu muss Windows 11 im abgesicherten Modus gestartet werden.
Kein Problem, dachte ich.
Aber dann ging es los: es ist ein Fehler aufgetreten und ich sollte meinen PIN neu einrichten. Aber das funktioniert nicht. Anmelden mit Passwort ist nicht möglich, PIN einrichten geht nicht - man kommt an dem Screen einfach nicht mehr vorbei. Neu starten geht auch nicht, da man immer wieder auf die PIN einrichten Seite kommt, die nicht funktioniert.
Warum geht Anmeldung mit Passwort, Bestätigungscode nicht? Auch da immer nur die PIN-Kacke.
Jetzt setze ich gerade den PC zurück mit der Option eigene Daten behalten.
Was für ein Riesen Haufen Shice. Wer hat sich das ausgedacht..?
habe mich gefragt, ob bei zB. APU's, RDNA3.5 Strix etc., es nicht möglich ist,
das fehlende Feature bei der GPU, also FP8, über die NPU nutzbar zu machen und damit zB. FSR4 zu ermöglichen.
mal abgesehen vom höheren Verbrauch der den anderen Komponenten dann fehlt, wird da 8Bit Gleitkomma überhaupt unterstützt?
und zwar nativ ohne Emulationsschicht!
wie ist der Verbrauch einer NPU, in der Größenordnung, bei 50 Tops Leistung im Vergleich GPU/CPU ?