Ich hab deinen Death Stranding 2 CPU-Benchmark (Downhill Parcours auf Motorrad) gesehen. Wenn du mal Lust und Zeit hast, könntest du das Save-game hochladen. Würde mich schon interessieren, wie es dort auf meiner CPU läuft.
Ich machte heute auf dem GPU-Downhill-Parcours meinen CPU-Test.
CPU: 9800X3D, underclocked 65W Eco-Mode, ansonsten alles AUTO
RAM: alles AUTO
GPU: 9700XT stock, max Detail-Settings
Zitat:
Zitat von sarge
(Beitrag 13902244)
Früher kam nach dem update die meldung system neustarten. nun seit eine ewigkeit kommt die meldung nicht mehr. deshalb habe ich selten neustart gemacht. Aber jetzt mache ich da wie gesagt mein Overload sich komisch verhält, bis ich den computer neustarte.
Wenn man ganz ehrlich ist, wenn was mit Nvidia und oder Kernel ist, geht es ohne Neustart des Betriebsystems auch bei Linux nicht wirklich gescheit :smile:
Mit ner AMD-Karte und den wirklich komplett offenen integrierten Treibern, wohlmöglich aber wenn da nen Kernel-Update kommt, spätestens dann macht man auch da mit ner Linuxdistri wie CachyOS besser nen neustart.
Es gibt es dir sogar meistens als Benachrichtigung, habe hier CachyOS mit Cinnamon Desktop laufen (wie linux Mint halt, optisch)
Davor ne Weile Manjaro, wenn da was mit Kernel war und oder Nvidia, sagt er dir immer "reboot recommended" sicherlich nicht ohne Grund :smile:
Nvidia hat auf Linux aber auch immer was mit dem Kernel zutun, wegen dem "Kleber" mit dem Module beim Booten.
Wann wird sowas bei Windows aber auch allerdings schonmal gemacht, der modernisierte NT-Kernel (von dem Namen nach schon Windows NT aus den vor den 2000er Jahren) da weiss man es zum einen nicht so offensichtlich, aber joa....man kann sich sicher sein, das des letzte Kernelupdate höchstwahrscheinlich von Windows 10 zu 11 gemacht worden ist ;D
Und trrotzdem ist nach wie vor ein Neustart besser bei sowas, eben wie immer :smile:
Könnte wohl aber damit zusammen hängen:
Ohje, na jetzt fällt mir auf der RTX 3070 OC von Gigabyte aber auch einiges auf, war bislang nichts triviales in meinem Alltag aber ja, g-sync compatible :rolleyes:
Oh und HDR auch, geile Kombi :D
Keine Ahnung ob sich das Gemini ausdenkt aber die KI sagt dazu:
Zitat:
You are absolutely correct that 1.0V is the official AMD JEDEC baseline for a Ryzen 5000 CPU. If you were running basic office RAM without an XMP profile, that would be the "set it and forget it" value.
However, there is a catch when dealing with your specific AppHangB1 errors and a 32GB setup.
1. The "XMP is an Overclock" Reality
Even though 3200 MT/s is the "supported" speed, once you enable XMP (or DOCP/EOCP) to get those tight timings (like CL16 or CL14), you are technically overclocking the memory controller beyond JEDEC standards.
JEDEC 3200: Loose timings, 1.2V DRAM voltage. (1.0V SOC is usually fine).
XMP 3200: Tight timings, 1.35V+ DRAM voltage. (1.0V SOC often struggles with the aggressive data "handshake").
2. The 32GB "Tax"
AMD's 1.0V recommendation is generally based on a "clean" 16GB (2x8GB) setup.
Driving 32GB (whether it's 2x16GB dual-rank or 4x8GB) places double the electrical load on the SOC's memory controller. At 1.0V, the "signal-to-noise ratio" is much tighter. When your voltage droops to 1.013V (as seen in your HWiNFO), you are right on the edge where a single electrical spike from your GPU or a heavy load in The Witcher 2 can cause a memory "hiccup."
Edit: Claude sagt das "gleiche":
Zitat:
Primary Issue — VSOC Too Low
Current: 1.0188V → Target: 1.05V–1.10V
This is almost certainly your main culprit. The SOC voltage powers the memory controller (UMC), and when it's marginal, the system passes RAM stress tests (which use sequential/predictable access patterns) but crashes under real workloads with random memory access patterns — exactly what you're describing.
⚠️ 5800X3D specific warning: Due to the 3D V-Cache, keep VSOC ≤ 1.15V hard limit. Stay at 1.10V max to be safe.
Finde das ist doch recht viel VSOC bei 3200 MT/s
Zitat:
Secondary Issue — RttPark is Wrong for Dual Rank
Current: RZQ/1 (240Ω) → Target: RZQ/4 (60Ω) or RZQ/5 (48Ω)
Your kit is dual rank (DR, confirmed in the bottom bar). RZQ/1 is an unusually high termination value for DR DIMMs and will cause signal integrity problems on the memory bus. This alone can cause silent corruption that memtesters miss.
Zitat:
The combination of low VSOC + wrong RttPark for DR DIMMs is a classic recipe for exactly the intermittent, hard-to-reproduce crashes you're seeing.
Werde das mal mit leicht höherer VSOC probieren.
Mit -30 fährst du besser als mit PBO tuning.
Damit sind alleine schon im MultiCore 4550Mhz drinne. Mehr schafft kaum ein 5800X3D ohne mit der Brechstange zu kommen.
3D Drucker und ein Shroud für 80/90er Lüfter drucken wenn genug Platz ist. Die K80 ist aber eine Dual GPU Karte, die Anwendung muss das dann auch unterstützen. Ich habe so eine Lösung für ein Bastelproject auf meiner Tesla M60 (quasi der Nachfolger der K80).
MfG
Raff
Das liegt nicht am Treiber, sondern am Spiel :
Aus den Crimson Q/A :
Does Crimson Desert support Intel Arc?
Regarding Crimson Desert support for Intel Arc:
We are currently working on compatibility and optimization support so that Crimson Desert can also be enjoyed on Intel Arc GPU systems. We are preparing to provide a smooth and stable gameplay experience, and we ask for your patience until the support update becomes available.
We apologize for any confusion our previous FAQ wording regarding playability on Intel Arc GPUs may have caused. Please regard this as our latest official news on the subject.
Bei einem Asus NB Windows 11 23H2 ,
gibt es Probleme mit dem installieren kommt Fehler ,
bei meinen anderen PCs 23H2 und einer mit 24H2 ging es problemlos .
Hat jemand eine Idee ohne Windows gleich Neu installieren zu müssen ?
Edit die meisten Tipps im Internet stammen von Leuten mit k.A,
u.a wird auch Empfohlen Windows Neu zu installieren
was dieser Unsinn eigentlich soll da es nur ein Bug ist in der Innenstadt Routine ist
wer das Problem auch hat:
habe was gefunden was bei mir funktioniert hat ,
in Programm Files x86 Verzeichnis ,
das Verzeichnis AMD in AMD.Bat umbenennen
danach ging es ohne Fehler, danach kann man das AMD.Bat dann löschen .
AMD hat es immer noch nicht geschafft eine vernünftige Installroutine zu bauen.
Hab' mich interessehalber noch ein wenig mit Surround beschäftigt. Mein Fazit: was für eine grottige Funktion. Will hier gar nicht tiefer in's Detail gehen, aber wenn man im Netz danach sucht wird man mit Problemen geradezu überflutet.
Falls jemand diesen Thread mal in der Zukunft ausgräbt: Meine Lösung heißt jetzt Resize Racoon.
Anscheinend habe ich doch BT-Probleme - denn BT ist nicht verfügbar, obwohl im BIOS aktiviert.
Muss das jetzt nochmal ein- und ausschalten und sehen, ob es dann geht.
Edit: BT im Bios deaktiviert -> Neustart -> Meldung mit "fehlerhaftem USB-Gerät" kommt nicht.
Dann BT im Bios wieder aktiviert -> Neustart -> Meldung mit "fehlerhaftem USB-Gerät" kommt nicht -> BT funktioniert wieder. :ugly:
\o/ mein Problem ist damit behoben, das BT Modul musste wohl mal zurückgesetzt werden, jetzt geht es wieder.
Hilfreich wäre allerdings eine entsprechende Meldung gewesen. Da ich BT nur sporadisch nutze, ist mir das zuerst nicht aufgefallen.
Ryzen Master geht noch immer nicht. Vermutlich wäre ein CMOS-Reset hilfreich. Habe ich aber aktuell keinen Bock drauf.
Zitat:
Zitat von Exxtreme
(Beitrag 13890154)
Eventuell wollen sie nicht, dass man DirectX 11 nutzt. Das ist eine Asbach-Uralt-Technologie und möglicherweise als Überbleibsel in der Engine.
Dann kann man aber als Intel Graka Besitzer nicht Star Citizen " Testen "
Der Treiber fixt eine Frame Time-Regression mit FG + Vsync auf Blackwell. Immerhin.
Bei forciertem AF und insbesondere DX11 aber offenbar keine Verbesserung feststellbar. Weiß echt nicht, was daran so schwer sein soll.
Zitat:
Your program implements three key mitigations against texture filtering corruption when anisotropic filtering is forced:
1. Skip Non-Mipmapped Textures (Primary Fix)
The code detects and skips samplers targeting single-mip textures (non-mipmapped):
- D3D11/D3D12/Vulkan: Checks if MaxLOD == 0.0f or MinLOD == MaxLOD
- D3D9: Checks GetLevelCount() == 1 on the currently bound texture
The code comment explicitly states:
// Applying mip bias or AF to single-mip textures can cause GPU driver corruption
// on some hardware (e.g., Nvidia). D3D12 decouples samplers from textures, so we
// cannot check the texture's actual MipLevels here; this LOD-based heuristic covers
// the standard case where games set MaxLOD=0 for non-mipmapped samplers.
2. Skip Border-Addressed Samplers (Shadow Map Protection)
Samplers with border address mode (D3D11_TEXTURE_ADDRESS_BORDER, D3D12_TEXTURE_ADDRESS_MODE_BORDER, VK_SAMPLER_ADDRESS_MODE_CLAMP_TO_BORDER) are excluded, as these are commonly used for shadow map PCF sampling.
3. Preserve Comparison Filters
When converting filter types, the code preserves comparison modes to avoid breaking shadow map sampling:
bool comparison = (desc.Filter >= D3D11_FILTER_COMPARISON_MIN_MAG_MIP_POINT);
desc.Filter = comparison ? D3D11_FILTER_COMPARISON_ANISOTROPIC : D3D11_FILTER_ANISOTROPIC;
Technical Challenge
The implementation was moderately challenging because:
1. API Decoupling: Modern graphics APIs (D3D11, D3D12, Vulkan) decouple samplers from textures. At sampler creation time, you don't know what texture will eventually be bound to it. The code uses LOD-based heuristics as a proxy.
2. Cross-API Consistency: The fix had to be implemented across 5+ different hook points:
- D3D9 (immediate mode state tracking)
- D3D10/D3D11 (sampler state objects)
- D3D12 (static samplers in root signatures + dynamic sampler descriptors)
- Vulkan (sampler create info in the validation layer)
3. Edge Cases: Games using MaxLOD=FLT_MAX with single-mip textures evade the heuristic, requiring bind-time tracking that adds complexity.
Could Nvidia Fix This Easily?
Yes, Nvidia could fix this more easily and more robustly at the driver level because:
| Aspect | Application-Level Fix | Driver-Level Fix |
|--------|----------------------|------------------|
| Texture Knowledge | Uses heuristics (LOD values) | Knows actual MipLevels |
| Timing | At sampler creation | At draw-time binding |
| Coverage | May miss edge cases | Perfect coverage |
| Performance | Zero overhead (already doing work) | Minimal overhead |
The driver has access to both the sampler state AND the actual texture resource at bind/draw time, so it could trivially skip AF when Texture.MipLevels == 1 without any heuristic guessing.
btw.
Das MFG-overide scheint auch in "Games" zu funzen, wo man per Setting nur einfaches FG angeboten bekommt,
z.Bsp. Wukong-Benchmark-Tool und Hitman3
btw.
inzwischen gibts die DLSS-Enabler Version "4.0.0.12 stabil"
sieht noch ein mue anders aus, ... müsste man mal irgendwo mit "forced FG" testen, auf RDNA3/4, mit RDNA2 wirds wohl
nicht so easy mit Streamline DLSSG.
erstmal nur ohne in Avatar, funzt genausogut wie ältere Versionen, MFG lässt sich im Gamemenü selbst wechseln
btw.
Der DLSS-Enabler bekommt jetzt ne andere Nummerierung ab 4.1 ... 4.2 ... 4.3 und etliche gamespezifische Anpassungen.
(evtl. sind dann in der ini mehr Voreinstellungen bereits erfolgt)
btw.
der DLSS-Enabler ist jetzt in Optiscaler eingebunden, kann also mit neuestem OS betrieben werden
Damit braucht man jetzt nur noch den OS-Thread besuchen und ggf. dort nachfragen.
Miniaturansicht angehängter Grafiken
Meine Vermutung geht auch in Richtung SATA-Schnittstelle. Windows liegt auf einer SATA-SSD (hatte ich vergessen anzugeben).
Ich bin schon ein älteres Semester und kenne es von früher (BIOS vor UEFI Zeiten) so, dass bei fehlendem bootbaren Datenträger eine entsprechende Fehlermeldung angezeigt wird (weiß auf schwarz). Aus diesem Grund war ich erstmal ratlos.
Ich prüfe im UEFI das beim nächsten Auftreten, ob boot devices angezeigt werden.