Zitat:
Zitat von Exxtreme
(Beitrag 13824260)
Wenn du weisst, dass der TV eine Sekunde für die Interpolation braucht dann kannst du auch den Sound am TV um eine Sekunde verzögern. Dann würde es wieder passen wenn man es richtig macht.
Kann man, ist bei modernen Geräten auch üblich, kann aber längst nicht jeder AVR der noch im Einsatz ist.
Zitat:
Aber wie gesagt, einfach in die verlinkte Tabelle schauen. Der Nicht-Gaming-Modus klatscht da locker 100 ms Latenz drauf. Und 100 ms bedeutet eine Eingabeverzögerung eines 10 fps-Spiels.
Nicht Gaming-Modi haben in der Regel schon ohne FG Latenzen im dreistelligen ms Bereich.
Ja, leider hat die gesamte Gigabyte Aorus Master Serie (x570, x670) ein Battery drain problem, d.h. die MoBo Batterie entlädt sich schneller als sie sollte. Ist seit x570 bekannt, aber Gigabyte macht natürlich nichts dagegen.
Mein x670e habe ich deswegen wieder verkauft, weil man die Backplate abschrauben musste, damit man die Abdeckung über der Batterie entfernen kann. :ugly: Und das hätte ich dann alle 3-6 Monate machen müssen.
Ich meine die Linux Treiber für die VII sind noch ganz anständig, da soll sogar RT auf der VII laufen (wenn auch nicht besonders schnell, vermutlich recht ähnlich zur Titan V im Beispiel CyberPunk). Habe selbst noch nicht groß mit spielen getestet sondern nur LM Studio unter Windows und ein ganz klein wenig mit AMD ROCm. Habe in Summe 4 MI50 hier, 3x 32GB und 1x 16GB (ich war Neugierig was da so geht). :D
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
ich habe eine 9060 XT und in Kenshi möchte ich gerne VSR nutzen als Supersampling-Ersatz, weil das Spiel sonst kein AA bietet und sehr flimmert.
Der Monitor hat QHD (2560x1440).
VSR ist aktiviert und ich kann höhere Auflösungen auswählen, allerdings werden diese nicht auf QHD zurückskaliert. Wenn ich für das Spiel bspw. 5120x2880 dann sehe ich nur das obere linke Viertel auf meinem Bildschirm, der Rest ist quasi außerhalb meines Bildschirms.
Wenn ich hingegen in Windows 5120x2880 einstelle, dann wird das korrekt auf meinen Bildschirm skaliert. Wenn ich dann in diesem "5K-Windows" das Spiel starte, dann sehe ich das Spiel auch komplett und der SS-Effekt kommt sehr gut rüber.
Ich möchte aber Windows nicht erstmal jedesmal umstellen, sondern möchte dass nur das Spiel skaliert wird.
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.
da mein alter Laptop (Ryzen 4600U, Renoir) wegen Altersschwäche und dadurch entstandenem akutem Defekt ersetzt werden musste, habe ich mir ein neues ideapad 5 mit Ryzen 7 350 (Krackan) gegönnt.
Einrichtung von Nobara lief problemlos und alles tut erstmal was es soll. Im Gegensatz zum alten, der noch auf acpi-cpufreq angewiesen war, läuft der neue direkt mit amd-pstate epp.
Über die KDE-Oberfläche kann ich somit auch direkt den epp-hint einstellen: Batteriesparen schaltet auf power(save), Ausbalaciert auf balance-performance und Höchstleistung auf performance.
Soweit, so gut. Nun gibt es im BIOS/UEFI noch die Möglichkeit ebenfalls drei verschiedene Performance-Einstellungen zu setzen - Battery saving, Intelligent Cooling und High Performance. Bei meinem alten Laptop hatten die auch mess- und spürbare Wirkung, vergleichbar mit der Wirkung der epp-hints.
Beim neuen scheinen die aber praktisch keine Auswirkung zu haben, bzw. werden sie von der EPP Einstellung überschrieben? Kann das jemand bestätigen?
Wie es scheint (wenn ich den Energistatistiken aus KDE trauen kann), hat Lenovo die APU direkt mit den maximal möglichen 54W cTDP konfiguriert.
Damit boostet er potentiell zwar ordentlich, aber er zieht unter Volllast auch eine Menge Saft. Ich möchte noch ein bisschen weiter testen, aber es scheint mir, dass er mit powersave ca 35W, mit Ausbalanciert kurzfristig bis 54W und dann ca ~45W zieht. Alles wenn ich ihn ordentlich fordere, natürlich.
Powersave begrenzt v.a. die CPU relativ stark im Boosttakt, die GPU ist weniger betroffen.
Ich vermute mal, ich könnte die EPP-Einstellungen manuell anpassen, um z.B. der CPU mehr Boost zu ermöglichen?
Gibt es eine einfache Möglichkeit die cTDP unter Linux (idealerweise persistent) zu ändern? Im eher spartanischen BIOS habe ich leider nichts gefunden.
Ich bin über ryzenadj gestolpert, aber das scheint nicht ganz aktuell zu sein.
Irgendwie lahmt mein Synology NAS. Ich habe eine DS720+ mit 6 GB Ram.
Als Speichermedien verwende ich 2.5" SSDs.
Wenn ich von meinem Mac auf das NAS über 1 GBIT Netzwerk schreibe, scheint auch alles normal schnell zu sein. Wenn ich aber lesend auf das Nas zugreife ist alles stinklangsam. Ich dachte schon das wäre normal.
Wenn ich aber die gleichen Dateien über ein am NAS angeschlossenes USB-Laufwerk auslese, erreiche ich quasi die erwartete Performance (rund 100mb/s)
Ich habe jetzt keine Benchmarks gemacht, aber gefühlt Faktor 4 langsamer über das Netzwerk,
ich helfe meinem Bruder gerade bei der Auswahl eines neuen Laptops für Gaming und CAD. Er möchte eine AMD-CPU und NVIDIA-Grafik. Jetzt hat man die Qual der Wahl:
CPU: AMD Ryzen AI 7 350 oder AMD Ryzen AI 9 365
Grafik: Nvidia Geforce RTX 5060 laptop oder Nvidia Geforce 5070 laptop
Bei der CPU finde ich es komplizierter: Der Aufpreis auf den Ryzen AI 9 365 ist moderat (ca. 100) und der AI 9 hat mehr Kerne. Andererseits hat er "nur" mehr Zen 5c-Cores und Strix Point soll mit seinen zwei CCX ein Latenz-Problem haben, dass es bei Krackan Point mit seinem Einzel-CCX nicht gibt. So richtig handfeste Informationen habe ich zu dem ganzen Thema aber nicht gefunden.
Ist es mit einem USB-C 3-in-1 Splitter möglich, an einem Smartphone z.B ein Mikroohon, eine Powerbank und ein externes Display (4k60) zu übertragen ? Also Powerbank lädt dann das Handy auf und das Display und das Mikrophon ist am Handy angeschlossen (Datenübertragung 4k60 Videosignal + Mikrophon + Stromübertragung)
Geht sowas alles gleichzeitig ? Das Handy wäre das Xiaomi 14 Ultra
Zitat:
Zitat von robbitop
(Beitrag 13822383)
Dass es mit dem light model disocclusion Artefakte und keine Glättung nach dem Kamera Cut gibt spricht IMO gegen den Einsatz eines NNs bei der tiny Version.
Das sind ja nicht "nur" disocclusion Artefakte und Kameracuts, es gibt ja quasi keine Glättung mehr bei der geringsten Bewegung, ganz ohne Disocclusion.
Das ist ja vollkommen unbrauchbar, da würde reguläres TAA besser aussehen, nicht mal FSR ist wirklich schlechter.
Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)
ich möchte gerne bei meinem Unraid-Server bezüglich Speicherplatz und 1. Backupstufe upgraden. Ich habe folgende Randbedingungen:
Unraid Server
1x 2TB NVM SSD
1x 5TB SATA SSD
Noch 3 freie SATA Steckplätze
Folgende Anforderungen:
Massive Erweiterung der Speicherkapazität
Die unterschiedlichen Geschwindigkeiten der Festplattenspeicher sollen ausgereizt werden
Die schnellen Festplattenspeicher sollen möglichst komplett ausgelastet werden
Implementierung einer ersten Backupstufe für wichtige Daten
Perfomracekritische Teile wie Datenbanken sollen auf schnellsten Speicher
Oft abgerufene Daten sollen auf effizienten Speicher (z.B. hochfahren HDDs verhindern)
Budget bis ca. Euro 400 folgende
Umsetzungsidee:
Erstellung von einem Cache Pool mit NVM SSD
Hier würde ich appdata, VMs, erstmal die Fotos und die Dokumente platzieren
Aufgefüllt mit am häufigsten geschauten Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung von einem Cache Pool mit SATA SSD
Hier würde ich die häufig geschauten Mediadaten platzieren
Auffüllen mit weniger häufig genutzen Mediadaten
Tägliches autamtisiertes Backup auf neue 24TB HDD
Erstellung Array mit neuer 24TB HDD
Hier würden die restlichen Mediadaten liegen
Noch kein Backup dieser 24TB HDD (in Zukunft eventuell über eine seperate NAS in seperatem Raum wöchentlich)
Ich würde jetzt immer mal manuel schauen, dass die NVM SSD und SATA SSD nicht überäuft und ggf. Daten auf die große 24TB HDD verschieben
Irgendwann in Zukunft könnte ich mir vorstellen, dass übr ein Script zu machen
Ich würde lieber nur einen Cachopool erstellen aus NVM und SATA SSD, aber dann kann ich leider nicht sicherstellen, dass mindestens appdata und VMs immer auf der SSD liegen. So ein "Device-Pinning" gibt es whl nicht bei btrfs (obwohl ChatGPT das behaupted hat)