Hier hab ich ein Paper von Epic gefunden was den Blog-Post beschreibt den ich in Erinnerung hatte: https://assets-unreal2-epic-prod-us2...60b4ddd19b.pdf
Das macht Sinn und könnte auch wenn die history lang genug ist oftmals bei Disocclusion Artefakten passen.
Ist denn bekannt ob DLSS das nicht auch macht? Für mich ist das eigentlich die offensichtliche Wahl alle möglichen Artefakte zu reduzieren und gerade wenn man ein NN basiertes Verfahren hat was für das Wiederfinden sinnvoller Positionen von Samples in vergangenen Frames hat, wäre das eigentlich extrem passsend und naheliegend. :)
Wenn man es nicht nutzt, lässt man wertvolle Informationen die temporal vorhanden sind jedenfalls ungenutzt aka verschwendet sie. :)
Zitat:
Zitat von DrFreaK666
(Beitrag 13859555)
Also mit der vorletzten Version von hier ging es. Musste das Spiel neu starten.
Bin nicht zu Hause und kann nichts testen. Aber genau, nach der Änderung der INI bzw. nach der Änderungen im HUD von Optiscaler + Speichern, muss natürlich das Spiel beendet und neu gestartet werden.
Zitat:
Zitat von Semmel
(Beitrag 13860011)
Das war Neuware vom Händler mit Gewährleistung.
Gebrauchte 5800X3D gehen für 400-450 € weg. Immer noch genug für einen kostenneutralen Tausch in einen 9800X3D.
Ja. Bis zum Punkt der DDR5 RAM Preise.
Der 5800X3D wird es einfach länger machen.
Hatte auch überlegt auf ebay einen 5900X für ~200€ zu holen und den 5800X3D verkaufen und dann so 200-300€ plus zu machen.
Aber letztendlich gilt das Bild, welches Exxtreme gepostet hat.
Für Gaming auf AM4 gibt es einfach nichts besseres als den 5800X3D.
Zitat:
Zitat von Exxtreme
(Beitrag 13859976)
Zitat:
Zitat von robbitop
(Beitrag 13860015)
Naja dank DDR5 Krise wird das kostenneutral nichts ^^
This!
Zitat:
Zitat von user77
(Beitrag 13860014)
Habe auch noch nen 5800x3d, 400€ innerhalb 10min wären bei willhaben.at definitiv möglich...
fine aber aktuell keine billige Ersatz cpu (5600-5700)
5700X/5800X für unter 200€ oder eben den 5900X für ~200 ocken, fühlt sich dann wg der 12 Kerne nicht ganz so als Downgrade an :ugly:
Als Path of Exile II herauskam, gab es viele Berichte, dass das Game so heftige Abstürze verursachen würde, dass viele meinten, es hätte ihre Grafikkarte beschädigt (anhaltende treiber timeouts). Wahrscheinlich waren das ebenfalls solche krassen Lastwechsel wie du sie in EU5 beschreibst. Scheinbar wurde es herausgepatcht, aber das ist schon interessant.
edit: Ich erinnere mich, dass man POEII zwischen DX12 und Vulkan umschalten kann. Möglich, dass vor allem Vulkan betroffen ist, bei mir lief es mit DX12 jedenfalls stabiler.
Zitat:
Zitat von Theworlds
(Beitrag 13859744)
Der Link führt aber zu der Notebook Version mit sehr viel überflüssigen Text in Englisch,
eine Desktop Version gibt es offensichtlich nicht ?
ich hatte das aber am PC und am Notebook da wieder zurück auf 581.80
Wie schon gesagt wurde, das Treiber Paket ist für Desktop UND Notebook.
Sag jetzt bloß, du hast den 591.67 Hotfix noch immer nicht installiert und wunderst dich weiterhin, warum du das Symbol nicht abschalten kannst?! ;D
Zitat:
Zitat von PatkIllA
(Beitrag 13859898)
Abschalten über Taskbar-Einstellungen? Das ist doch leider bei jedem Programm mit SystemTray icon so, dass es nach einem Update als neues Icon gilt.
Darum geht es doch gar nicht. Ja, man kann jedes Taskleistensymbol ausblenden, dann ist es aber weiterhin in der Taskleiste im "ausgeblendet" Menü vorhanden.
Hier geht es darum, das Symbol komplett zu deaktivieren. Man kann das über die Nvidia Systemsteuerung abschalten. Das ging jetzt mit den neueren Treibern nicht mehr und wurde erst mit dem 591.67 Hotfix behoben.
Zitat:
This hotfix addresses the following:
Slight banding may be observed on gradients in SDR color mode [5720512]
Colors are not applied correctly when using Digital Vibrance [5718365] Unable to deselect "Show Notification Tray Icon" from NVIDIA Control Panel [5622213]
Aber scheinbar übersetzt euer Browser das was ich schreibe auf chinesisch oder klingonisch. Anders kann ich mir nicht erklären, dass das scheinbar noch immer nicht klar ist. :freak:
Ich habe hier ein seltsames Problem.
Ich kann hier unter Windows 11 weder mit Edge noch mit Firefox auf die Webinterfaces im Heimnetz zugreifen. (Fritzboxen/Repeater/Cameras,Switches,Drucker). Das ganze geht wenn ich die Intel 810 Netzwerkkarte deaktiviere und die integrierte Realtekkarte nutze.
Was noch geht sind die Web-Interfaces von NAS und der Fritzbox per IPv6. SMB geht auch.
Unter Ubuntu geht es auch und auf dem Handy gibt es auch keine Probleme.
Pingen der IPv4 geht auch aber bei Zugriff per http gibt es einen Timeout.
Zitat:
Zitat von Wuge
(Beitrag 13859820)
Ich verstehe nicht wieso du auf 120 FPS abschneidest wenn das Panel mit 165 Hz läuft. Da wäre es doch besser echte 83 FPS oder eben 165 FPS mit FG anzeigen zu lassen zwecks tearing, lag VSync sofern gewünscht...
Und wenn Du 3x FG hast, dann rendert die Enging nur 1/3 der angezeigten FPS und Du hast den dementsprechenden Lag. 120 FPS mit 3x FG = 40 input FPS.
Stimmt da hast du Recht, da sollte ich das FPS Limit wohl doch ausschalten. Scheiß auf den Energieverbrauch:wink:
Es gibt keinen bestimmten Cut-off, aber ich denke eine Range von mindestens 10 Jahren wäre erstrebenswert. Posted mal ein paar, dann kann ich den 7 Jahre Eintrag entfernen :)
Angehängte Grafiken
Es gibt keinen bestimmten Cut-off, aber ich denke eine Range von mindestens 10 Jahren wäre erstrebenswert. Posted mal ein paar, dann kann ich den 7 Jahre Eintrag entfernen :)
Angehängte Grafiken
Mein System wurde 2021 zusammengebaut und besteht aus:
MSI Z490-A Pro
Intel Core i9-10900KF, 10C/20T, 3.70-5.30GHz, tray
ASUS TUF Gaming GeForce RTX 3080 OC
G.Skill RipJaws V schwarz DIMM Kit 32GB, DDR4-3600, CL16-19-19-39
Seasonic FOCUS GX 850
be quiet! Dark Rock Pro 4
Nun spiele ich mit dem Gedanken, die RTX 3080 durch eine RTX 5080 zu ersetzen.
Würde sich ein reiner GraKa-Wechsel für dieses System ausgehen?
Zitat:
Zitat von gedi
(Beitrag 13859612)
Dass die Eintracht derzeit so mies spielt, dafür kann AMD vermutlich nix.
Ne, ernsthaft: CMOS-Reset mal durchgeführt und mit Default-Settings gespielt? Wäre so mein erster Ansatz. Der 2. wäre, dass dein NT die Biege macht
äh was hat die Eintracht damit zu tun? gibt wichtiger Dinge wie Fussball.
Denke ich nicht, da es nur bei dem Spiel unter die von mir genannten Bedienungen Auftritt. Wäre sonst ein globales Problem und kein lokales auf ein Gebiet beschränktes Problem.
Aber Thema ist für mich erledigt, 3DCenter mal wieder in a Nutshell.
@Wisemann
Sorry wer im Glashaus sitzt, sollte nicht mit Steine werfen.
Zitat:
Zitat von Semmel
(Beitrag 13859232)
Selbstverständlich nicht, allerdings habe ich ein solches Verhalten bei anderen CPUs, die schonender behandelt wurden, nicht beobachtet.
Wobei das auch auftritt, wenn man die CPUs nur mit "normalem" Boost oft benutzt. Dauert dann nur einen Ticken länger im Vergleich zu einem positiven Clock-Offset, einfach weil die Takt-Stabilitätsreserve größer ist.
Wenn man Ryzens frei laufen lässt und sie lange so belastet, dass lange der maximale Takt anliegt, altern sie alle relativ schnell. Macht sich dann besonders bemerkbar, wenn man vorher undervoltet hat und damit auch noch die Spannungsreserve weggenommen hat.
Man muss sich nur mal die Spannungen angucken, die AMD immer wieder kurzfristig auf die TSMC-Kerne beim Boost draufhaut und dann mal mit Intel vergleichen und noch bedenken, dass die Ryzens deutlich niedrigere Kerninnenwiderstände als Intels P- und auch E-Cores haben.
Lemonade ist eine Open‑Source‑Plattform, die es ermöglicht, lokale LLMs (Large Language Models) einfach auf dem eigenen Rechner auszuführen – und zwar optimiert für GPU‑ und NPU‑Beschleunigung.
Es dient als LLM‑Server, der Modelle bereitstellt, verwaltet und für Apps über eine OpenAI‑kompatible API verfügbar macht.
NPU‑Support
Lemonade kann ONNX‑Modelle direkt auf der Ryzen AI NPU ausführen.
Damit lassen sich LLMs energieeffizient und mit sehr geringer Leistungsaufnahme betreiben.
Für Strix Point / Strix Halo Nutzer ist Lemonade aktuell die einfachste Möglichkeit, LLMs lokal auf der AMD‑NPU laufen zu lassen – ohne komplizierte Einrichtung, mit fertigen Modellen und einer stabilen API.
Das größte Modell was man über die NPU laufen lassen kann ist GPT-OSS 20B. Auch multimodale Modelle wie Qwen 3 und Gemma 3 stehen als NPU-optimierte Versionen zur Verfügung.
die 5060 ist echt hart beschissen.. wenn die plaste von der MSI ventus, die ich im epyc stecken habe noch etwas dünner wäre, könnte man die karte aufrollen. das wirkt so unglaublich billig..
ok, die leistung ist auch beschnitten.. weniger wegen der 128bit, aber umso mehr durch die "nur" 8 lanes. mein serverboard kann nur PCIe4.0 und mit der 5060 gibts da auch nur 8 lanes.. naja.. man merkt an allen enden dass das teil zusammengespart und runterkastriert ist.
aber hey, DLSS und MFG.. RTX ON und so.. cyberpunk, bf6 und ne handvoll benchmarks liefern das erwartbare.. nutzbar zwischen mittel und hoch in FHD und WQHD.. für schlappe 300€ habe ich genau das erwartet; allerdings habe ich nicht damit gerechnet, dass sich auch die hardware so temuartig anfühlt.. wenn man sonst die teuren modell kauft, ist das echt ein trauriges erlebnis.. mit manuell aufgerissenem lüfter fängt alles an zu vibrieren und es wird richtig laut, wenn die angedeutete backplate mit dem vorderen plastik um die wette klappert..
___________
unterm strich macht sie aber was sie soll. ins system passen und den alten boliden irgendwie tauglich für einen win11 desktopbetrieb machen.
habe seit Monaten ein Problem beim spielen von COD. Immer wieder habe ich Miniruckler, es macht mich wahnsinnig :D Habe sogar schon einige Komponente über die Zeit ausgetauscht, es hat sich aber nichts verändert. Hier mein System:
Alle Treiber, Bios, Mainboard, GPU usw. sind immer auf dem neusten Stand.
Auf der großen Map ( Warzone ) sind die Miniruckler deutlich schlimmer, als zB im Multiplayer. Trotzdem treten sie dort auch auf, wenn auch nicht jede Runde. Gerade auch in Gunfights fühlt es sich so an, als würde mein Monitor für kurze Zeit die HZ verringern, was aber nicht der Fall ist. Habe es auch schon mit 2 weiteren Monitoren ausprobiert. Mittlerweile habe ich meine FPS gelogged, und spiele mit G Sync, weil es hier weniger Probleme zu verursachen scheint. Aber auf der großen Map, wenn nur die FPS von 160 auf 140 fallen, fühlt es sich rucklig und unsauber an. Ohne G Sync und geloggten FPS, ist es eine Vollkatastrophe.. ein absolutes Vollgeruckel :/
Heute Morgen bin ich auf einen Beitrag gestoßen, in dem empfohlen wurde, per CapFrameX das Ganze mal auszuwerten.. und ich werde mal die Screenshots dazu hochladen, vlt fällt dem einen oder anderen etwas auf, was mir ggf. helfen könnte.
Hoffe ihr hattet ein schönes Fest, liebe Grüße
Miniaturansicht angehängter Grafiken