Zitat:
Zitat von Sardaukar.nsn
(Beitrag 13825902)
Die neuen Standards bestimmt in Zukunft maßgeblich China.
Ja. Natürlich. Klar :ufinger:
Zitat:
Daher kommt eh schon 90% der Ware. In den nächsten 10 Jahren wird man auch bei den ganzen Normen und Standards entscheiden: https://www.vdma.eu/viewer/-/v2article/render/4665076
Du meinst wie sie sich bei Wifi 6 auch einbrachten, und dann allen hinterherliefen Lizenzen für OFDMA zu zahlen?
Aber ok, wer kennt denn nicht die chinesischen Normen bei Netzteilen für Kleingeräte... Oder die chinesische Norm für Werkzeugstahl. Alles sehr sehr beeindruckend :freak:
PS:
Zitat:
Zitat von Shink
(Beitrag 13825920)
Warum denn auch nicht, wenn die den Krempel fertigen müssen und die Standards so auf Kante genäht sind.
Wir sollten sowas alles jetzt nicht auf den HPWR reduzieren ;)
Ich habe mich für einen separaten Thread dafür entschieden um nicht andere Threads mit diesem Thema zu belasten.
Folgendes Problem... sobald ich in AC: Shadows Frame Generation verwende sehe ich auf meinem ASUS XG27UCDMG QD-OLED leichtes VRR-Flicker. Hauptsächlich in Cutszenen, extrem selten auch im Gameplay. Dieses Problem tritt auf weil die Frequenz vom Monitor in sehr schnellen Schritten stark schwankt sobald FG aktiv ist. Warum die Frequenz am Monitor so stark mit FG schwankt kann ich nicht sagen und versuche den Grund gerade dafür zu finden. Ohne FG gibt es überhaupt kein VRR-Flicker da die Frequenz vom Monitor immer zu den Frames Ingame passt ohne stark zu schwanken. In beiden Fällen sind die Frametimes aber sauber, sowohl mit als auch ohne FG. Wäre gut wenn jemand eine Lösung dafür hätte denn aktuell teste ich 240Hz am Monitor und 120fps Limit im Treiber (RX 9070 XT im Einsatz) inkl. FG ohne VRR in diesem Spiel was zwar absolut sauber bei jeder Drehbewegung vom Char aussieht, blöderweise liegt die Systemlatenz dann aber schon bei recht hohen 41ms mit den dann 60 Basis Frames was schon spürbar "zäh" sich an der Maus anfühlt. Ohne Framelimit war ich vorher eher bei ~30ms Systemlatenz mit entsprechend höheren Frameraten, was für mich noch ok war.
Bei dem Test mit 240Hz ohne VRR und 120fps Limit fällt mir auch auf, dass das FG mit VRR und ohne fps-Limit doch nicht 100% sauber am Bildschirm rüber kommt. Wenn ich die Umgebung genau bei einer Drehung vom Char beobachte merke ich minimales Mikrostuttering trotz sauberen Frametimes. FG-Implementierung Grütze oder liegt das alleine auch nur an der stark schwankenden Frequenz vom Monitor? Im OSD vom Monitor sehe ich auch oft, dass die Frequenz nicht zu den Frames Ingame passt sobald FG aktiv ist. Als Beispiel... ich habe Ingame in Szene X 134fps und das OSD vom Monitor zeigt mir 18xHz an. Das könnte wiederum das Mikrostutttering mit FG erklären. :uponder:
Zitat:
Zitat von Evil Ash
(Beitrag 13825701)
"Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat" zum Beispiel. Warum sollte man eine 5090 verkaufen?
Wenn man mit der Karte unzufrieden ist ein ein höherwertiges Modell möchte? Oder abrüsten? Oder geld brauch?
Ich suche ein USB-C zu USB-C Ladekabel, dass möglichst wie eine Schnur ist, so wie bei den hochwertigen PC-Mäusen das Kabel (also extrems beweglich und leicht).
Das Kabel muss min. 9V 2A können hinsichtlich Handy aufladen. Ich frage das hier, weil es extrem schwierig ist, auf Bildern zu erkennen, wie beweglich das Kabel ist.
Ich weiss schon, dass es diese "Stoffkabel" gibt, aber darunter gibt es eben solche, die wie bei hochwertigen PC-Mäusen super flexibel sind und auch solche, die starr wie sonst was sind.
Kennt jemand ein Produkt? Ich habe die Razer Viper Ultimate (als Vergleich für das Kabel).
Edit: Das Kabel soll 1m lang sein.
Edit2: Das Kabel der Razer Viper Ultimate kann mein Handy Problemlos aufladen. Problem ist einfach, dass es ein Micro-USB Kabel ist und vor allem weit über 1m. Ich suche daher mal nach Mauskabeln, die aber USB-C sind und super flexible, aber eben nur 1m (ziemlich schwierig zu finden). Kennt jemand sowas?
Aus Neugierde habe ich mir auch ein B860/245K System geholt (der K war sogar günstiger, denn der KF) ... positive Überraschung. Preislich und Leistungsmässig auf der 7700 Ryzen 7 Tray, die schwierig zu bekommen sind inzwischen, Linie.
Kann nicht fliegen ... aber läuft solide imo.
Den Trick mit der B580 werd ich ergo auch mal testen, denn der PC steht meisst mit einfachen Aufgaben da.
aalso, hab mir da meine Gedanken gemacht und meine persönliche Schlussfolgerung ist
da die meisten Enthusiasten, un davon gibts nicht wenig, ihre virtuellen Welten lieber mit "Praline, als Synonym für ohne DRM, geniesen,
aber trotzdem schön brav ihre Sachen, nach gefallen der "Demo, bei Steam kaufen.
eine große Masse davon ist auch rein Singleplayer/offline und werden, da Sie ja alternative Frontends und Launcher nutzen,
sogut wie nie vom Steam Server erfasst. Deshalb auch die Unterbesetzung von Linux und Der AMD 9000er Graka Serie.
was meint Ihr, liege ich damit falsch?
Kollege Mod, kann vielleicht nach Spekulationen, erst jetz so richtig realisiert?! mercy
Im gaming ist es ja stabil solange ich nicht zwischen Chrome und Game wild rum klicke. Denke da bringt Karte runter drehen nix. Hab auch Beschleunigung im Chrome ausgeschaltet.
wollte nach paar Monaten einen Windows Cleaninstall durchführen nachdem ich vorher das Upgrade von Win10 auf Win11 gemacht hatte. Heute also Win11 Cleaninstall gemacht und plötzlich komme ich nicht mehr in Windows rein wenn ich DDU im abgesicherten Modus starte. WTF? :freak: Dann sagt mir Windows es wäre ein Fehler mit meiner Pin aufgetreten und ich müsste eine neue Pin einrichten. Nur das funktioniert auch nicht. :uup: Kann mir einer sagen was hier unter Windows wieder spinnt? Vorher ging das ohne Probleme, jetzt nach dem Cleaninstall nicht mehr. xD Der normale Modus funktioniert mit der Pin einwandfrei, nur der abgesicherte will irgendwie nicht.
Zitat:
Zitat von Exxtreme
(Beitrag 13824260)
Wenn du weisst, dass der TV eine Sekunde für die Interpolation braucht dann kannst du auch den Sound am TV um eine Sekunde verzögern. Dann würde es wieder passen wenn man es richtig macht.
Kann man, ist bei modernen Geräten auch üblich, kann aber längst nicht jeder AVR der noch im Einsatz ist.
Zitat:
Aber wie gesagt, einfach in die verlinkte Tabelle schauen. Der Nicht-Gaming-Modus klatscht da locker 100 ms Latenz drauf. Und 100 ms bedeutet eine Eingabeverzögerung eines 10 fps-Spiels.
Nicht Gaming-Modi haben in der Regel schon ohne FG Latenzen im dreistelligen ms Bereich.
Ja, leider hat die gesamte Gigabyte Aorus Master Serie (x570, x670) ein Battery drain problem, d.h. die MoBo Batterie entlädt sich schneller als sie sollte. Ist seit x570 bekannt, aber Gigabyte macht natürlich nichts dagegen.
Mein x670e habe ich deswegen wieder verkauft, weil man die Backplate abschrauben musste, damit man die Abdeckung über der Batterie entfernen kann. :ugly: Und das hätte ich dann alle 3-6 Monate machen müssen.
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
ich habe eine 9060 XT und in Kenshi möchte ich gerne VSR nutzen als Supersampling-Ersatz, weil das Spiel sonst kein AA bietet und sehr flimmert.
Der Monitor hat QHD (2560x1440).
VSR ist aktiviert und ich kann höhere Auflösungen auswählen, allerdings werden diese nicht auf QHD zurückskaliert. Wenn ich für das Spiel bspw. 5120x2880 dann sehe ich nur das obere linke Viertel auf meinem Bildschirm, der Rest ist quasi außerhalb meines Bildschirms.
Wenn ich hingegen in Windows 5120x2880 einstelle, dann wird das korrekt auf meinen Bildschirm skaliert. Wenn ich dann in diesem "5K-Windows" das Spiel starte, dann sehe ich das Spiel auch komplett und der SS-Effekt kommt sehr gut rüber.
Ich möchte aber Windows nicht erstmal jedesmal umstellen, sondern möchte dass nur das Spiel skaliert wird.
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.
da mein alter Laptop (Ryzen 4600U, Renoir) wegen Altersschwäche und dadurch entstandenem akutem Defekt ersetzt werden musste, habe ich mir ein neues ideapad 5 mit Ryzen 7 350 (Krackan) gegönnt.
Einrichtung von Nobara lief problemlos und alles tut erstmal was es soll. Im Gegensatz zum alten, der noch auf acpi-cpufreq angewiesen war, läuft der neue direkt mit amd-pstate epp.
Über die KDE-Oberfläche kann ich somit auch direkt den epp-hint einstellen: Batteriesparen schaltet auf power(save), Ausbalaciert auf balance-performance und Höchstleistung auf performance.
Soweit, so gut. Nun gibt es im BIOS/UEFI noch die Möglichkeit ebenfalls drei verschiedene Performance-Einstellungen zu setzen - Battery saving, Intelligent Cooling und High Performance. Bei meinem alten Laptop hatten die auch mess- und spürbare Wirkung, vergleichbar mit der Wirkung der epp-hints.
Beim neuen scheinen die aber praktisch keine Auswirkung zu haben, bzw. werden sie von der EPP Einstellung überschrieben? Kann das jemand bestätigen?
Wie es scheint (wenn ich den Energistatistiken aus KDE trauen kann), hat Lenovo die APU direkt mit den maximal möglichen 54W cTDP konfiguriert.
Damit boostet er potentiell zwar ordentlich, aber er zieht unter Volllast auch eine Menge Saft. Ich möchte noch ein bisschen weiter testen, aber es scheint mir, dass er mit powersave ca 35W, mit Ausbalanciert kurzfristig bis 54W und dann ca ~45W zieht. Alles wenn ich ihn ordentlich fordere, natürlich.
Powersave begrenzt v.a. die CPU relativ stark im Boosttakt, die GPU ist weniger betroffen.
Ich vermute mal, ich könnte die EPP-Einstellungen manuell anpassen, um z.B. der CPU mehr Boost zu ermöglichen?
Gibt es eine einfache Möglichkeit die cTDP unter Linux (idealerweise persistent) zu ändern? Im eher spartanischen BIOS habe ich leider nichts gefunden.
Ich bin über ryzenadj gestolpert, aber das scheint nicht ganz aktuell zu sein.
Irgendwie lahmt mein Synology NAS. Ich habe eine DS720+ mit 6 GB Ram.
Als Speichermedien verwende ich 2.5" SSDs.
Wenn ich von meinem Mac auf das NAS über 1 GBIT Netzwerk schreibe, scheint auch alles normal schnell zu sein. Wenn ich aber lesend auf das Nas zugreife ist alles stinklangsam. Ich dachte schon das wäre normal.
Wenn ich aber die gleichen Dateien über ein am NAS angeschlossenes USB-Laufwerk auslese, erreiche ich quasi die erwartete Performance (rund 100mb/s)
Ich habe jetzt keine Benchmarks gemacht, aber gefühlt Faktor 4 langsamer über das Netzwerk,
ich helfe meinem Bruder gerade bei der Auswahl eines neuen Laptops für Gaming und CAD. Er möchte eine AMD-CPU und NVIDIA-Grafik. Jetzt hat man die Qual der Wahl:
CPU: AMD Ryzen AI 7 350 oder AMD Ryzen AI 9 365
Grafik: Nvidia Geforce RTX 5060 laptop oder Nvidia Geforce 5070 laptop
Bei der CPU finde ich es komplizierter: Der Aufpreis auf den Ryzen AI 9 365 ist moderat (ca. 100) und der AI 9 hat mehr Kerne. Andererseits hat er "nur" mehr Zen 5c-Cores und Strix Point soll mit seinen zwei CCX ein Latenz-Problem haben, dass es bei Krackan Point mit seinem Einzel-CCX nicht gibt. So richtig handfeste Informationen habe ich zu dem ganzen Thema aber nicht gefunden.
Ist es mit einem USB-C 3-in-1 Splitter möglich, an einem Smartphone z.B ein Mikroohon, eine Powerbank und ein externes Display (4k60) zu übertragen ? Also Powerbank lädt dann das Handy auf und das Display und das Mikrophon ist am Handy angeschlossen (Datenübertragung 4k60 Videosignal + Mikrophon + Stromübertragung)
Geht sowas alles gleichzeitig ? Das Handy wäre das Xiaomi 14 Ultra