Forenneuigkeiten

NVIDIA GeForce Game Ready-Treiber 591.86

Grafikkarten - vor 1 Stunde 28 Minuten
@sapito Ebenfalls nope.
G-Sync auf "Fullscreen und Windowed" braucht es nicht. "Fullscreen" reicht.
Damit werden Borderless Fullscreen, Fullscreen und Exclusive Fullscreen gleichermaßen mit G-Sync funktionieren.

Windowed bezieht sich wirklich nur auf Fenster mit Fensterrahmen.
Ich würde sogar davon abraten das zu aktivieren, weil dann von einigen Programmen deren GUI mit z.B. 30 FPS läuft das ganze Display auf 30 Hz drosselt (bzw. dann 60 Hz mit LFC)



Die Aussage von Exxtreme, dass Overlays G-Sync abschalten ist ebenfalls falsch. Ingame Overlays wie RTSS oder das Steam Overlay haben auf VRR generell keinerlei Einfluss. Erst wenn das Overlay vom Desktop gezeichnet wird, also z.B. das Windows Overlay für die Lautstärkeregelung oder ein Fenster das über dem Spiel angezeigt wird, dann wird VRR deaktiviert.

Lässt sich ja auch alles via Monitor OSD anzeigen, indem man sich die aktuelle Bildfrequenz anzeigen lässt. Man muss da also wirklich keine Mutmaßungen aufstellen.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - vor 1 Stunde 38 Minuten
Zitat: Zitat von joe kongo (Beitrag 13886369) Welche CPU würdet ihr nehmen? Bei aktuell nur 30 € Preisunterschied den 9850X3D.
Alleine das bessere Binning ist den Aufpreis schon wert, auch wenn ich der CPU sonst nicht viel abgewinnen kann.
Dann kannst du sie immer noch gedrosselt betreiben, wenn du zu hohe Spannungen vermeiden willst.

OLED macht Fortschritte

Neue Beiträge im Forum Technologie - vor 1 Stunde 51 Minuten
Was denkt ihr, wann wird es erste OLED Geräte mit Gsync Pulsar geben? Schlussendlich ist das ja nichts anderes als die RGB-Werte im gleichen Schema wie das Pulsen des LCD Backlights zu updaten. Die RGB-Werte müssten also mit z.B. 8...16x schneller updaten (rolling scan-out) als die maximale Refreshrate des Monitors. Obendrauf evtl. sogar was in die Richtung eines Röhrenmonitors, wo man RGB Werte mehr wie eine Welle / Sinuskurve und nicht wie ein Rechteck moduliert. Ich denke aber die "Rechteckmodulation" (Ein/Aus eines OLED Streifen-Segments) ist deutlich einfacher umzusetzen.

Vielleicht bekommt man damit auch das OLED Flickern bei VRR besser in den Griff. Das OLED "Backlight Strobing / Rolling Scan-Out" wird immer mit einer fixen Frequenz gemacht. z.B. 10x 240Hz = 2.4 kHz. Aber auch ohne fixe Scan-Out Frequenz könnte sich das Verhalten verbessern, da eben 10x VRR Framerate.

Aufrüstung der Grafikkarte - und noch mehr?

Neue Forenbeiträge - vor 4 Stunden 55 Minuten
Aktuell wir mir meine RX 6650XT zu langsam, die Auslastung in Spielen ist bei 99% und geht runter, bzw. es wird deutlich flüssiger, wenn ich auf Full HD runtergehe oder Details reduziere. Meine bevorzugten Spiele aktuell sind ARPGs wie Enshrouded und Titan Quest 2. Beide zwar noch im EA, aber so wahnsinnig wird sich an der Performance nicht mehr ändern. Zukünftig natürlich auch andere Spiele aus diesen Bereichen. Ich zocke in WQHD am 27" Monitor und der Rest des Systems sieht so aus:

i5-10400f auf H510M-H2/M.2 SE
32 GB Aegis DDR4 3200 MHz
RX 6650XT
1TB SSD WD
Asus XG27WCS 2560x1440

Aktuell ist auch keine tolle Zeit aufzurüsten, aber eine 9060XT für ca. 390€ oder eine 9070 knapp unter 600€ wären noch ok. Einerseits möchte ich nicht unnötig Geld ausgeben, auf der anderen Seite sollte die Karte ein paar Jahre auch kommende Titel im ARPG Bereich in WQHD stemmen. Bei einer 9070 stellt sich mir die Frage, ob men restliches System dann nicht limitiert, der Ram läuft durch das Mainboard (oder die CPU?) nur mit 2666 MHz. Daher auch die Frage, ob ein Sidegrade des Unterbaus zusammen mit einer 9070 in Richtung AM4 aufgrund der aktuellen Speicherkrise Sinn machen würde mit Ryzen 5700x und aktuellem Mainboard, zusamen für ca. 220€, um längere Zeit Ruhe zu haben. Oder meint ihr, eine neue Grafikkarte reicht aus und passt gut zum restlichen System?

Ach ja, ich zocke unter Nobara Linux, daher soll es auch weiterhin eine AMD Karte sein. Auch wenn Linux Gaming schon recht weit ist, habe ich im Vergleich zu Kumpels das Gefühl, dass im Endeffekt je nach Spiel immer ein paar fps weniger ankommen.
Kategorien: 3DCenter Forum

12VHPWR-Stecker: Das Problem und mögliche Lösungen

Grafikchips - vor 5 Stunden 41 Minuten
Na also - liegt doch nicht am Stecker die ganze Problematik :-D
Endlich bestätigt. Es liegt an den Usern die unfähig sind die Stecker richtig einzustecken. Deswegen hat Dell auch den DAU-sicheren Stecker mit Raster-klick verschluß eingekauft.

Unreal Engine 5

Zumindestens haben die Dev´s die Wahl, obs performant oder episch+futureFeatures aussehen soll.

nette Demo auf Steam, die ähnlich performant wie ARC läuft, siehe Anhang
(erstaunlicherweise ist DX11 voreingestellt, kann aber evtl. schon SoftwareLumen)

ganz ohne Upscaler+FG
Miniaturansicht angehängter Grafiken  

Frame Generation mit AFMF und FSR3-Mods (Fokus auf AMD)

Grafikkarten - So, 22.02.2026 23:22
Zitat: Zitat von Achill (Beitrag 13886025) Weil ich es gerade gesehen habe in den Screenshort und auch in den vom 2026-02-11, du hast FSR 2.1 als Methode eingestellt. Ist das gewollt? Seit ich@6800 in HogwartsLegacy mit FSR 3.1.5 mehr Fehler hatte, fang ich meist mit FSR 2.1.2 an.
(kann sein, ist nicht soo auf Perf. getrimmt oder/und passt besser zu RDNA2)

Die Fehler gabs gleich am Anfang in der Höhle auf den Felsen links neben dem Ausgang, warum auch immer.
(k.A. ob jetzt speziell bei mir auf der Festplatte ein Shader oder ne Textur hierfür kaputt ist)

In OW2 ist glaube FSR3.1.5 besser gewesen.

Spielt eigentlich auch kaum ne Rolle, weils on the fly im Optiscaler gewechselt werden kann.
(probieren erspart da FSR4-INT, was Fps + 3ms Latenz mehr kostet)

btw.
Für CP2077 muss man evtl. noch ein bisschen Geduld haben, bis Ghostbuster-Version X das beim Autoschatten fixen kann.
Zumindestens ist das Problem bekannt.
Geht das ohne RT mit mehr Fps eigentlich besser? (könnte z.T. an zu hoher Auslastung der GPU liegen)

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Naja während ML Upsampling / FG usw läuft, kann bereits der nächste Frame begonnen zu rendern werden. Ansonsten stünde die ganze GPU still um zu warten.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von kemedi (Beitrag 13886040) Mal so gefragt:
RR hat ja bisher kein Update bezüglich 2nd Generation Transformer bekommen - so weit, so bekannt. Mir stellt sich die Frage, ob ein solches Update überhaupt nötig ist, was mich dann zu folgendem geführt hat:

Ich habe mir mal Ultra-Performance in Dark Ages angeschaut. Native Auflösung sind 3440x1440 Pixel.
Hab ich was auf der Brille oder ist RR, egal ob mit Preset D oder E, einfach total matschig im Vergleich zu Preset M/L ohne RR? Rein auf Dark Ages bezogen. Keine Ahnung, wie es zum Beispiel in Cyberpunk o.Ä. aussieht, muss ich mir anschauen :D

Was RR im Vergleich zum Standard-Denoiser besser macht, ist in diesem Fall zum Beispiel deutlich an den Texturen zu sehen. Die sind auch mit Preset M/L ohne RR deutlich matschiger. Dafür ist aber das gesamte Bild sehr unscharf im Vergleich zu den anderen Presets ohne RR.
Grundsätzlich ist das ja nachvollziehbar - aber gibt es da Tricks, um entweder RR schärfer zu bekommen oder ohne RR bessere Texturen zu haben?

SpecialK? OptiScaler? MipMap-Bias? Irgendwas? :D

Bilder liefere ich bei Bedarf gern nach, hab nur grad spontan keine zur Hand ;)

Edit:
Mit deaktiviertem Pathtracing ist das Problem mit den Texturen @Standard Denoiser weg. Aber leider gibt's bei Dark Ages ja kein RR ohne PT X_X Naja eines der neuen Modelle hat den Namen „RR mini“. Insofern ist es das normale DLSS-SR was durch 4.5 ein upgrade bekommen hat was mehr Richtung RR geht und damit auf den gleichen Stand gebracht wurde. Wenn man sich mal den overhead in ms anschaut ergibt das so auch Sinn.

AI/Machine Learning in Gaming

Für Games muss man die Simulationen natürlich vereinfachen. Man kann weniger Vertices / Segments nehmen, da oftmals eine deutlich geringere Simulations-Auflösung ausreicht.

Der Wuschel-Afro dauerte nur 7ms zum simulieren und sah verdammt gut aus. Anstatt 1.5 Mio Segmente zu nehmen, kann man das evtl. auf 200...300k senken und schon sind wir im brauchbaren Rahmen für einen Heldencharakter. Und sowas kann man in Games via Optionsmenü skalieren. Hat man eine schlechtere GPU, reduziert man die Simulationsqualität (entweder Anzahl Vertices oder zeitliche Simulationsauflösung).

Und wer weiss was die Zukunft bringt. Der direkte Vorgänger (VBD) ist erst 1 Jahr alt und wurde mit der neuen Technologie deutlich überrundet.

Ein weiterer Ansatz:
Diese Simulationen als Input für ein DNN nehmen. Das DNN ersetzt dann den "Brute Force" Simulations-Algorithmus. Oder den Algo mittels DNN erweitern: Die zeitliche Step-Size erhöhen und die Zwischenschritte mittels DNN approximieren.

Persona non grata Verification

Neue Forenbeiträge - So, 22.02.2026 10:12
Ufpasse Leute.

"Was nach außen wie eine einfache Jugendschutzmaßnahme klingt, wird technisch über eine Plattform abgewickelt, die von Haus aus darauf ausgelegt ist, Identitäten tiefgehend zu analysieren, zu klassifizieren und mit externen Datenquellen abzugleichen."

https://www.igorslab.de/persona-disc...fincen-riecht/
Kategorien: 3DCenter Forum

AMD Software: Adrenalin Edition 26.2.1

Grafikkarten - Sa, 21.02.2026 21:39
Solange es keine großen Probleme mit dem Treiber gibt, könnte man dann auch nur ne News schreiben,
weil dann Post 2ff nicht mehr erforderlich sind.

Die Gametests von Wiseman zeigen wie gut der Treiber läuft, keine Artefakte, Performance passt,
also why not.

Wenn Dir das zuviel ist, schau halt bei guru3d rein.
https://forums.guru3d.com/threads/am...tional.459361/
(da finden sich "immer" irgendwelche kleine Problemchen)

Wo werden "Soundverbesserungen" gerechnet, DSP oder CPU?

Neue Forenbeiträge - Sa, 21.02.2026 21:37
Wenn man zB. an (m)einer Soundblaster Z in dessen Software-Umgebung "Pro Studio" Dinge einstellt wie Surround, Crytalizer, Bass+ etc., wer berechnet das heute eigentlich? CPU? Die Zeiten, wo auf deren Karten noch teure Chips drauf waren, die solche Dinge übernommen haben, sind doch seit 20 Jahren vorbei oder? :confused:
Kategorien: 3DCenter Forum

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - Sa, 21.02.2026 20:18
Danke :up:

Browserfehler beim Wechsel von WLAN zu Mobilfunk

Neue Forenbeiträge - Sa, 21.02.2026 15:54
Seit einigen Wochen habe ich Fehler in Browsern beim Wechsel vom WLAN ins Mobilfunknetz (Fraenk). Zuerst dachte ich es würde nur den Brave-Browser betreffen, der dann diverse Fehlerseiten beim Laden mancher geöffneter Webseiten anzeigt, vor allem ERR_CONNECTION_RESET. Ich denke aber es passiert auch bei Firefox, nur dass der keine Fehlerseite anzeigt, sondern die Seite kurz aufblinkt, als wäre ein Reload gelaufen, in Wirklichkeit aber nur eine gecachte Version angezeigt wird.

In Apps konnte ich das noch nicht beobachten, zumindest nicht offensichtlich. Wenn es die gleiche Ursache hat dürften die auch prinzipiell betroffen sein.

Naheliegende Dinge wie das Zurücksetzen der Netzwerkeinstellungen habe ich bereits hinter mir. Bis auf einen kompletten Reset fällt mir gerade nichts mehr ein. Jemand Ideen?
Kategorien: 3DCenter Forum

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Sa, 21.02.2026 13:44
Frühling - Sommer naht!
Durch die hohen Speicherpreise nochmals stärkerer Rückgang in den wärmeren Jahreszeiten
da lässt man den Preis etwas nach!

Bessere Monitore?

Guter Preis...aber der Lüfter warum LG warum.

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Sa, 21.02.2026 11:44
Neue AM4 Benchmarks Zen 1 bis Zen3XD.


RIP 5800X3D

CPU's und Mainboards - Sa, 21.02.2026 11:19
Zitat: Zitat von Shink (Beitrag 13885726) Ähm und der schwarze Krümel leitet eh nicht, oder?:freak: Der wohnt im Altbau, das ist Schimmel vom falschen Lüften neben der kalten Außenwand.
Inhalt abgleichen