Bei meinem Dell auch nicht. Aber der ist halt auch immer komplett aus. Erst wenn ich ein großes weißes Browserfenster offen habe und die Helligkeit erhöhe, springt der Lüfter nach einiger Zeit an. Aber selbst dann hör ich nur den Anlaufmoment. Danach nur zu hören, wenn man das Ohr an den Monitor hält, selbst wenn es im Raum extrem leise ist. Meine Gehäuselüfter mit 500RPM sind deutlich lauter, obwohl die kaum hörbar sind...
Kommt halt wirklich drauf an. Wer hohe Helligkeit braucht wird den Lüfter bestimmt bemerken.
Wer keine so hohen Helliigkeiten vollflächig nutzt oder den Darkmode nutzt, der wird ggf. gar nicht mitbekommen, dass ein Lüfter verbaut ist, falls er dann eben tatsächlich immer aus bleibt. Hängt eben auch vom jeweiligen Modell ab.
ich habe ein Problem mit einem ASUS PRIME A620M-A (mit AMD Ryzen 5 8500G) mit BIOS Version 3602.
Ab und an startet der PC direkt ins BIOS. Es wird keine Fehlermeldung o.ä. angezeigt. Wenn ich auf exit without saving klicke, komme ich wieder im BIOS raus. Es hilft dann nur (am Netzteil) Ausschalten. Danach fährt der PC normal hoch. Das Problem tritt alle paar Tage oder Wochen auf.
ich habe ein Problem mit einem ASUS PRIME A620M-A (mit AMD Ryzen 5 8500G) mit BIOS Version 3602.
Ab und an startet der PC direkt ins BIOS. Es wird keine Fehlermeldung o.ä. angezeigt. Wenn ich auf exit without saving klicke, komme ich wieder im BIOS raus. Es hilft dann nur (am Netzteil) Ausschalten. Danach fährt der PC normal hoch. Das Problem tritt alle paar Tage oder Wochen auf.
Wenn du z.B. eine Hack-Krücke für diesen obs-Schrotthaufen nutzt, dann schon, denn das hat kein eigenes Inject-Overlay. Hab mir für diesen Zweck ein entsprechendes Tool gevibe-coded: https://github.com/aufkrawall/obs-indicator/tags
Und das profitiert tatsächlich davon.
Selbst zusammenbauen kann er nicht und ich bin 300km weit weg...
Weiß oder Schwarz ist auch egal, AIO oder LuKü auch, leise soll es sein.
Preis ist egal, der hat genug Geld.
Habe bei dubaru.de geschaut, da kostet aber den 7800X3D und RTX 5080 auch 2.849,00 € ohne Windows 11
Zitat:
Zitat von Lehdro
(Beitrag 13886459)
Super, damit ist ein Problem beseitigt. Bleibt noch der Rest:
- Load Balancing/Management/Monitoring nicht vorhanden
- lächerliche Sicherheitsmargen
Die Dell "Lösung" hätte bei meinen Erfahrungen genau 0,0 zur Entschärfung des Anschlusses beigetragen.
Sehe ich genau so. Nichts gewonnen bei der neuen Version.
Zitat:
Zitat von reunion
(Beitrag 13886464)
Waren sicher alte Samples. Spätestens jetzt wie man auch einen 9850X3D verkauft, wird man die besseren Chips beim Topmodell verbauen.
Möglich, sogar sehr wahrscheinlich. Garantieren kann dir das aber keiner, darauf wollte ich hinaus.
Was denkt ihr, wann wird es erste OLED Geräte mit Gsync Pulsar geben? Schlussendlich ist das ja nichts anderes als die RGB-Werte im gleichen Schema wie das Pulsen des LCD Backlights zu updaten. Die RGB-Werte müssten also mit z.B. 8...16x schneller updaten (rolling scan-out) als die maximale Refreshrate des Monitors. Obendrauf evtl. sogar was in die Richtung eines Röhrenmonitors, wo man RGB Werte mehr wie eine Welle / Sinuskurve und nicht wie ein Rechteck moduliert. Ich denke aber die "Rechteckmodulation" (Ein/Aus eines OLED Streifen-Segments) ist deutlich einfacher umzusetzen.
Vielleicht bekommt man damit auch das OLED Flickern bei VRR besser in den Griff. Das OLED "Backlight Strobing / Rolling Scan-Out" wird immer mit einer fixen Frequenz gemacht. z.B. 10x 240Hz = 2.4 kHz. Aber auch ohne fixe Scan-Out Frequenz könnte sich das Verhalten verbessern, da eben 10x VRR Framerate.
Aktuell wir mir meine RX 6650XT zu langsam, die Auslastung in Spielen ist bei 99% und geht runter, bzw. es wird deutlich flüssiger, wenn ich auf Full HD runtergehe oder Details reduziere. Meine bevorzugten Spiele aktuell sind ARPGs wie Enshrouded und Titan Quest 2. Beide zwar noch im EA, aber so wahnsinnig wird sich an der Performance nicht mehr ändern. Zukünftig natürlich auch andere Spiele aus diesen Bereichen. Ich zocke in WQHD am 27" Monitor und der Rest des Systems sieht so aus:
i5-10400f auf H510M-H2/M.2 SE
32 GB Aegis DDR4 3200 MHz
RX 6650XT
1TB SSD WD
Asus XG27WCS 2560x1440
Aktuell ist auch keine tolle Zeit aufzurüsten, aber eine 9060XT für ca. 390 oder eine 9070 knapp unter 600 wären noch ok. Einerseits möchte ich nicht unnötig Geld ausgeben, auf der anderen Seite sollte die Karte ein paar Jahre auch kommende Titel im ARPG Bereich in WQHD stemmen. Bei einer 9070 stellt sich mir die Frage, ob men restliches System dann nicht limitiert, der Ram läuft durch das Mainboard (oder die CPU?) nur mit 2666 MHz. Daher auch die Frage, ob ein Sidegrade des Unterbaus zusammen mit einer 9070 in Richtung AM4 aufgrund der aktuellen Speicherkrise Sinn machen würde mit Ryzen 5700x und aktuellem Mainboard, zusamen für ca. 220, um längere Zeit Ruhe zu haben. Oder meint ihr, eine neue Grafikkarte reicht aus und passt gut zum restlichen System?
Ach ja, ich zocke unter Nobara Linux, daher soll es auch weiterhin eine AMD Karte sein. Auch wenn Linux Gaming schon recht weit ist, habe ich im Vergleich zu Kumpels das Gefühl, dass im Endeffekt je nach Spiel immer ein paar fps weniger ankommen.
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Achill
(Beitrag 13886025)
Weil ich es gerade gesehen habe in den Screenshort und auch in den vom 2026-02-11, du hast FSR 2.1 als Methode eingestellt. Ist das gewollt?
Seit ich@6800 in HogwartsLegacy mit FSR 3.1.5 mehr Fehler hatte, fang ich meist mit FSR 2.1.2 an.
(kann sein, ist nicht soo auf Perf. getrimmt oder/und passt besser zu RDNA2)
Die Fehler gabs gleich am Anfang in der Höhle auf den Felsen links neben dem Ausgang, warum auch immer.
(k.A. ob jetzt speziell bei mir auf der Festplatte ein Shader oder ne Textur hierfür kaputt ist)
In OW2 ist glaube FSR3.1.5 besser gewesen.
Spielt eigentlich auch kaum ne Rolle, weils on the fly im Optiscaler gewechselt werden kann.
(probieren erspart da FSR4-INT, was Fps + 3ms Latenz mehr kostet)
btw.
Für CP2077 muss man evtl. noch ein bisschen Geduld haben, bis Ghostbuster-Version X das beim Autoschatten fixen kann.
Zumindestens ist das Problem bekannt.
Geht das ohne RT mit mehr Fps eigentlich besser? (könnte z.T. an zu hoher Auslastung der GPU liegen)
Naja während ML Upsampling / FG usw läuft, kann bereits der nächste Frame begonnen zu rendern werden. Ansonsten stünde die ganze GPU still um zu warten.
Zitat:
Zitat von kemedi
(Beitrag 13886040)
Mal so gefragt:
RR hat ja bisher kein Update bezüglich 2nd Generation Transformer bekommen - so weit, so bekannt. Mir stellt sich die Frage, ob ein solches Update überhaupt nötig ist, was mich dann zu folgendem geführt hat:
Ich habe mir mal Ultra-Performance in Dark Ages angeschaut. Native Auflösung sind 3440x1440 Pixel.
Hab ich was auf der Brille oder ist RR, egal ob mit Preset D oder E, einfach total matschig im Vergleich zu Preset M/L ohne RR? Rein auf Dark Ages bezogen. Keine Ahnung, wie es zum Beispiel in Cyberpunk o.Ä. aussieht, muss ich mir anschauen :D
Was RR im Vergleich zum Standard-Denoiser besser macht, ist in diesem Fall zum Beispiel deutlich an den Texturen zu sehen. Die sind auch mit Preset M/L ohne RR deutlich matschiger. Dafür ist aber das gesamte Bild sehr unscharf im Vergleich zu den anderen Presets ohne RR.
Grundsätzlich ist das ja nachvollziehbar - aber gibt es da Tricks, um entweder RR schärfer zu bekommen oder ohne RR bessere Texturen zu haben?
SpecialK? OptiScaler? MipMap-Bias? Irgendwas? :D
Bilder liefere ich bei Bedarf gern nach, hab nur grad spontan keine zur Hand ;)
Edit:
Mit deaktiviertem Pathtracing ist das Problem mit den Texturen @Standard Denoiser weg. Aber leider gibt's bei Dark Ages ja kein RR ohne PT X_X
Naja eines der neuen Modelle hat den Namen RR mini. Insofern ist es das normale DLSS-SR was durch 4.5 ein upgrade bekommen hat was mehr Richtung RR geht und damit auf den gleichen Stand gebracht wurde. Wenn man sich mal den overhead in ms anschaut ergibt das so auch Sinn.
Für Games muss man die Simulationen natürlich vereinfachen. Man kann weniger Vertices / Segments nehmen, da oftmals eine deutlich geringere Simulations-Auflösung ausreicht.
Der Wuschel-Afro dauerte nur 7ms zum simulieren und sah verdammt gut aus. Anstatt 1.5 Mio Segmente zu nehmen, kann man das evtl. auf 200...300k senken und schon sind wir im brauchbaren Rahmen für einen Heldencharakter. Und sowas kann man in Games via Optionsmenü skalieren. Hat man eine schlechtere GPU, reduziert man die Simulationsqualität (entweder Anzahl Vertices oder zeitliche Simulationsauflösung).
Und wer weiss was die Zukunft bringt. Der direkte Vorgänger (VBD) ist erst 1 Jahr alt und wurde mit der neuen Technologie deutlich überrundet.
Ein weiterer Ansatz:
Diese Simulationen als Input für ein DNN nehmen. Das DNN ersetzt dann den "Brute Force" Simulations-Algorithmus. Oder den Algo mittels DNN erweitern: Die zeitliche Step-Size erhöhen und die Zwischenschritte mittels DNN approximieren.
"Was nach außen wie eine einfache Jugendschutzmaßnahme klingt, wird technisch über eine Plattform abgewickelt, die von Haus aus darauf ausgelegt ist, Identitäten tiefgehend zu analysieren, zu klassifizieren und mit externen Datenquellen abzugleichen."
btw.
@wiseman, lass Dich bitte nicht abhalten, ab heute 19.00 Uhr in die Gamepreviews@steam reinzuschnuppern
(bin gespannt, welche Games dabei sind und obs mit dem Treiber funzt )
Wenn man zB. an (m)einer Soundblaster Z in dessen Software-Umgebung "Pro Studio" Dinge einstellt wie Surround, Crytalizer, Bass+ etc., wer berechnet das heute eigentlich? CPU? Die Zeiten, wo auf deren Karten noch teure Chips drauf waren, die solche Dinge übernommen haben, sind doch seit 20 Jahren vorbei oder? :confused: