@sapito Ebenfalls nope.
G-Sync auf "Fullscreen und Windowed" braucht es nicht. "Fullscreen" reicht.
Damit werden Borderless Fullscreen, Fullscreen und Exclusive Fullscreen gleichermaßen mit G-Sync funktionieren.
Windowed bezieht sich wirklich nur auf Fenster mit Fensterrahmen.
Ich würde sogar davon abraten das zu aktivieren, weil dann von einigen Programmen deren GUI mit z.B. 30 FPS läuft das ganze Display auf 30 Hz drosselt (bzw. dann 60 Hz mit LFC)
Die Aussage von Exxtreme, dass Overlays G-Sync abschalten ist ebenfalls falsch. Ingame Overlays wie RTSS oder das Steam Overlay haben auf VRR generell keinerlei Einfluss. Erst wenn das Overlay vom Desktop gezeichnet wird, also z.B. das Windows Overlay für die Lautstärkeregelung oder ein Fenster das über dem Spiel angezeigt wird, dann wird VRR deaktiviert.
Lässt sich ja auch alles via Monitor OSD anzeigen, indem man sich die aktuelle Bildfrequenz anzeigen lässt. Man muss da also wirklich keine Mutmaßungen aufstellen.
Zitat:
Zitat von joe kongo
(Beitrag 13886369)
Welche CPU würdet ihr nehmen?
Bei aktuell nur 30 Preisunterschied den 9850X3D.
Alleine das bessere Binning ist den Aufpreis schon wert, auch wenn ich der CPU sonst nicht viel abgewinnen kann.
Dann kannst du sie immer noch gedrosselt betreiben, wenn du zu hohe Spannungen vermeiden willst.
Was denkt ihr, wann wird es erste OLED Geräte mit Gsync Pulsar geben? Schlussendlich ist das ja nichts anderes als die RGB-Werte im gleichen Schema wie das Pulsen des LCD Backlights zu updaten. Die RGB-Werte müssten also mit z.B. 8...16x schneller updaten (rolling scan-out) als die maximale Refreshrate des Monitors. Obendrauf evtl. sogar was in die Richtung eines Röhrenmonitors, wo man RGB Werte mehr wie eine Welle / Sinuskurve und nicht wie ein Rechteck moduliert. Ich denke aber die "Rechteckmodulation" (Ein/Aus eines OLED Streifen-Segments) ist deutlich einfacher umzusetzen.
Vielleicht bekommt man damit auch das OLED Flickern bei VRR besser in den Griff. Das OLED "Backlight Strobing / Rolling Scan-Out" wird immer mit einer fixen Frequenz gemacht. z.B. 10x 240Hz = 2.4 kHz. Aber auch ohne fixe Scan-Out Frequenz könnte sich das Verhalten verbessern, da eben 10x VRR Framerate.
Aktuell wir mir meine RX 6650XT zu langsam, die Auslastung in Spielen ist bei 99% und geht runter, bzw. es wird deutlich flüssiger, wenn ich auf Full HD runtergehe oder Details reduziere. Meine bevorzugten Spiele aktuell sind ARPGs wie Enshrouded und Titan Quest 2. Beide zwar noch im EA, aber so wahnsinnig wird sich an der Performance nicht mehr ändern. Zukünftig natürlich auch andere Spiele aus diesen Bereichen. Ich zocke in WQHD am 27" Monitor und der Rest des Systems sieht so aus:
i5-10400f auf H510M-H2/M.2 SE
32 GB Aegis DDR4 3200 MHz
RX 6650XT
1TB SSD WD
Asus XG27WCS 2560x1440
Aktuell ist auch keine tolle Zeit aufzurüsten, aber eine 9060XT für ca. 390 oder eine 9070 knapp unter 600 wären noch ok. Einerseits möchte ich nicht unnötig Geld ausgeben, auf der anderen Seite sollte die Karte ein paar Jahre auch kommende Titel im ARPG Bereich in WQHD stemmen. Bei einer 9070 stellt sich mir die Frage, ob men restliches System dann nicht limitiert, der Ram läuft durch das Mainboard (oder die CPU?) nur mit 2666 MHz. Daher auch die Frage, ob ein Sidegrade des Unterbaus zusammen mit einer 9070 in Richtung AM4 aufgrund der aktuellen Speicherkrise Sinn machen würde mit Ryzen 5700x und aktuellem Mainboard, zusamen für ca. 220, um längere Zeit Ruhe zu haben. Oder meint ihr, eine neue Grafikkarte reicht aus und passt gut zum restlichen System?
Ach ja, ich zocke unter Nobara Linux, daher soll es auch weiterhin eine AMD Karte sein. Auch wenn Linux Gaming schon recht weit ist, habe ich im Vergleich zu Kumpels das Gefühl, dass im Endeffekt je nach Spiel immer ein paar fps weniger ankommen.
Na also - liegt doch nicht am Stecker die ganze Problematik :-D
Endlich bestätigt. Es liegt an den Usern die unfähig sind die Stecker richtig einzustecken. Deswegen hat Dell auch den DAU-sicheren Stecker mit Raster-klick verschluß eingekauft.
Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.
nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)
ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Achill
(Beitrag 13886025)
Weil ich es gerade gesehen habe in den Screenshort und auch in den vom 2026-02-11, du hast FSR 2.1 als Methode eingestellt. Ist das gewollt?
Seit ich@6800 in HogwartsLegacy mit FSR 3.1.5 mehr Fehler hatte, fang ich meist mit FSR 2.1.2 an.
(kann sein, ist nicht soo auf Perf. getrimmt oder/und passt besser zu RDNA2)
Die Fehler gabs gleich am Anfang in der Höhle auf den Felsen links neben dem Ausgang, warum auch immer.
(k.A. ob jetzt speziell bei mir auf der Festplatte ein Shader oder ne Textur hierfür kaputt ist)
In OW2 ist glaube FSR3.1.5 besser gewesen.
Spielt eigentlich auch kaum ne Rolle, weils on the fly im Optiscaler gewechselt werden kann.
(probieren erspart da FSR4-INT, was Fps + 3ms Latenz mehr kostet)
btw.
Für CP2077 muss man evtl. noch ein bisschen Geduld haben, bis Ghostbuster-Version X das beim Autoschatten fixen kann.
Zumindestens ist das Problem bekannt.
Geht das ohne RT mit mehr Fps eigentlich besser? (könnte z.T. an zu hoher Auslastung der GPU liegen)
Naja während ML Upsampling / FG usw läuft, kann bereits der nächste Frame begonnen zu rendern werden. Ansonsten stünde die ganze GPU still um zu warten.
Zitat:
Zitat von kemedi
(Beitrag 13886040)
Mal so gefragt:
RR hat ja bisher kein Update bezüglich 2nd Generation Transformer bekommen - so weit, so bekannt. Mir stellt sich die Frage, ob ein solches Update überhaupt nötig ist, was mich dann zu folgendem geführt hat:
Ich habe mir mal Ultra-Performance in Dark Ages angeschaut. Native Auflösung sind 3440x1440 Pixel.
Hab ich was auf der Brille oder ist RR, egal ob mit Preset D oder E, einfach total matschig im Vergleich zu Preset M/L ohne RR? Rein auf Dark Ages bezogen. Keine Ahnung, wie es zum Beispiel in Cyberpunk o.Ä. aussieht, muss ich mir anschauen :D
Was RR im Vergleich zum Standard-Denoiser besser macht, ist in diesem Fall zum Beispiel deutlich an den Texturen zu sehen. Die sind auch mit Preset M/L ohne RR deutlich matschiger. Dafür ist aber das gesamte Bild sehr unscharf im Vergleich zu den anderen Presets ohne RR.
Grundsätzlich ist das ja nachvollziehbar - aber gibt es da Tricks, um entweder RR schärfer zu bekommen oder ohne RR bessere Texturen zu haben?
SpecialK? OptiScaler? MipMap-Bias? Irgendwas? :D
Bilder liefere ich bei Bedarf gern nach, hab nur grad spontan keine zur Hand ;)
Edit:
Mit deaktiviertem Pathtracing ist das Problem mit den Texturen @Standard Denoiser weg. Aber leider gibt's bei Dark Ages ja kein RR ohne PT X_X
Naja eines der neuen Modelle hat den Namen RR mini. Insofern ist es das normale DLSS-SR was durch 4.5 ein upgrade bekommen hat was mehr Richtung RR geht und damit auf den gleichen Stand gebracht wurde. Wenn man sich mal den overhead in ms anschaut ergibt das so auch Sinn.
Für Games muss man die Simulationen natürlich vereinfachen. Man kann weniger Vertices / Segments nehmen, da oftmals eine deutlich geringere Simulations-Auflösung ausreicht.
Der Wuschel-Afro dauerte nur 7ms zum simulieren und sah verdammt gut aus. Anstatt 1.5 Mio Segmente zu nehmen, kann man das evtl. auf 200...300k senken und schon sind wir im brauchbaren Rahmen für einen Heldencharakter. Und sowas kann man in Games via Optionsmenü skalieren. Hat man eine schlechtere GPU, reduziert man die Simulationsqualität (entweder Anzahl Vertices oder zeitliche Simulationsauflösung).
Und wer weiss was die Zukunft bringt. Der direkte Vorgänger (VBD) ist erst 1 Jahr alt und wurde mit der neuen Technologie deutlich überrundet.
Ein weiterer Ansatz:
Diese Simulationen als Input für ein DNN nehmen. Das DNN ersetzt dann den "Brute Force" Simulations-Algorithmus. Oder den Algo mittels DNN erweitern: Die zeitliche Step-Size erhöhen und die Zwischenschritte mittels DNN approximieren.
"Was nach außen wie eine einfache Jugendschutzmaßnahme klingt, wird technisch über eine Plattform abgewickelt, die von Haus aus darauf ausgelegt ist, Identitäten tiefgehend zu analysieren, zu klassifizieren und mit externen Datenquellen abzugleichen."
Wenn man zB. an (m)einer Soundblaster Z in dessen Software-Umgebung "Pro Studio" Dinge einstellt wie Surround, Crytalizer, Bass+ etc., wer berechnet das heute eigentlich? CPU? Die Zeiten, wo auf deren Karten noch teure Chips drauf waren, die solche Dinge übernommen haben, sind doch seit 20 Jahren vorbei oder? :confused:
Seit einigen Wochen habe ich Fehler in Browsern beim Wechsel vom WLAN ins Mobilfunknetz (Fraenk). Zuerst dachte ich es würde nur den Brave-Browser betreffen, der dann diverse Fehlerseiten beim Laden mancher geöffneter Webseiten anzeigt, vor allem ERR_CONNECTION_RESET. Ich denke aber es passiert auch bei Firefox, nur dass der keine Fehlerseite anzeigt, sondern die Seite kurz aufblinkt, als wäre ein Reload gelaufen, in Wirklichkeit aber nur eine gecachte Version angezeigt wird.
In Apps konnte ich das noch nicht beobachten, zumindest nicht offensichtlich. Wenn es die gleiche Ursache hat dürften die auch prinzipiell betroffen sein.
Naheliegende Dinge wie das Zurücksetzen der Netzwerkeinstellungen habe ich bereits hinter mir. Bis auf einen kompletten Reset fällt mir gerade nichts mehr ein. Jemand Ideen?
Zitat:
Zitat von Shink
(Beitrag 13885726)
Ähm und der schwarze Krümel leitet eh nicht, oder?:freak:
Der wohnt im Altbau, das ist Schimmel vom falschen Lüften neben der kalten Außenwand.