Das Interessante für alte 60Hz-Monis ist Enhanced Sync.(Vsync ist damit automatisch im Treiber aus)
Hab jetzt spassenshalber bei ner Range von 40-60Hz mal FRTC auf 83fps gesetzt.(inGameLimit 120fps)
scheint zu funzen @23.30, ... Helligkeit/Gamma ist bei mir irgendwie tricky mit dem Treiber in dem Spiel
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von raupi12
(Beitrag 13402416)
Hallo Forum.
Weiss jemand von euch was es mit diesen "V2" Versionen bei ASUS "Dual" Grafikkarten auf sich hat? Es gibt z.B. eine RX6600 und eine RX 6600 "V2". Genau das gleiche bei der 6650XT. Auch bei der 7600 gibt es eine normale und eine "V2". Und beide Versionen der jeweiligen Karten sind zeitgleich im Handel, es kann sich also nicht um eine "neuere" Revision handeln denn warum sollten sie dann die alte weiterbauen? Nur als Beispiel mal die 6650XT Dual:
Genau, das meinte ich. Ja, Schärfe wäre der bessere Ausdruck gewesen, habe mich da an dem Begriff Skalierung aufgehängt. NIS hieß das also, wollen wir hoffen, daß die alte Einstellung noch etwas erhalten bleibt. Merci.
Zitat:
Zitat von DozerDave
(Beitrag 13402464)
Bei der vorherigen RX 580 habe ich alle Parameter im Treiber eingetragen. Aber diese Einstellungen finde ich nicht mehr.
Bei Polaris hat man noch für die einzelnen Stufen manuell Frequenz/Spannung gesetzt, bei RDNA2 geht das so nicht, jedenfalls nicht im Treibermenü.
Du kannst einen offset auf die Spannungskurve geben, einen maximalen Chiptakt einstellen und am Powertarget drehen. Der Treiber/die Karte macht dann irgendwas daraus. :biggrin:
Oder du könntest das More Power Tool von Igors Seite nutzen, damit hast du deutlich mehr Möglichkeiten, musst aber auch mehr selbst einstellen und ausloten. Anleitungen gibt's dazu zur Genüge.
Treiber läuft in Games grundsätzlich sehr gut, einzig beim Steam Start und aufploppen des Tagesangebots gefühlt 2fps und ein Freeze. (einmalig)
Nicht geil aber bin ich nach einem Jahr AMD GPU mittlerweile gewohnt. :biggrin:
Irgendwie greift der fps-Limiter des Treibers hier nicht, wenn ich ihn pro Game, also per Treiberprofil, regle. Weder bei The Outer Worlds: SCE noch Portal RTX oder GRID Legends. Stelle ich den jedoch global im Treiber ein, funktioniert es. :confused: Hat das noch jemand?
Und ist's an sich wumpe, ob man's global oder pro Game regelt? Ich meine mich zu erinnern, dass es pro Spielprofil je nach Einstellung besser sein konnte, da womöglich noch zusätzliche Optimierungen im Hintergrund griffen. Ich brauch's auch nur für Titel, die ich A.) gern auf 140 fps begrenzen möchte und B.) die entweder keinen eigenen Limiter haben oder eben nur 144 statt 140 fps als Option bieten. Sowieso pure Facepalm, dass selbst neuere Games immer noch solche Werte anbieten, die man hinsichtlich Sync-Range einfach nicht gebrauchen kann. Aber das ist ein anderes Thema.
Edit: Via nvProfileInspector klappt es, obwohl der ja auch nix anderes macht als die Treiberprofile der Spiele abzurufen und einzustellen, oder? Strange.
Zitat:
Zitat von horn 12
(Beitrag 13398209)
Ja, da haste wohl vollkommen Recht.
Der Verbrauch ist auch mir das Wichtigste und UV wo ich nur kann.
That's the spirit.
Ich undervolte auch, wo es nur geht. Muss man halt von Spiel zu Spiel überprüfen. Ich bin diesbezüglich mit meiner Custom XTX, 'ner Hellhound 7900XTX, sehr zufrieden. Von Stock 1150mV kann ich in dem einen oder anderen Spiel bis auf 1050mV runtergehen. Manchmal sind sogar 1040mV möglich.
Zitat:
Zitat von user77
(Beitrag 13395820)
Habe jetzt noch eine RTX A4000 16GB in die Finger bekommen.
die macht im Time Spy Grafik:
bei 100% TDP, 140W = 11055 Punkte
bei 71% TDP 100W = 8183
Laut den Hardwaredaten ist die A4000 eine langsamer getaktete (max 1560mhz) 3070ti aber deutlich powereffizienter mit max 140W gegen max 290W
finde ich schon interessant.
Wobei in Spielen, die nicht so speicherbandbreitenlastig sind, das mit 100 Watt negativ ist. Da ist es besser, die Spannung auf unter 0,737 V zu per Kurve zu begrenzen, bei manchen Spielen und unter OpenGL muss man den Spannungspunkt aber sogar sperren, ansonsten wird es ignoriert. Dann bleibt der Speichercontroller in P2 und der VRam auf 5000 Mhz. Dann verbraucht man auch nur ca. 100 Watt, hat aber oft mehr Performance als mit P1 und 7000 Mhz VRam und 100 Watt TDP. Weil alleine das Takten von P2 auf P1 kostet mehr als 15 Watt, was bei Ampere sehr viel GPU-Taktverlust bei 100 Watt TDP bedeutet.
Zitat:
Zitat von Lowkey
(Beitrag 13393492)
Na ausnahmsweise hat Rampage 2 mal recht. Früher: es geht oder es geht nicht. 2023: es läuft oder es läuft einwandfrei. Ich hatte bei mir wegen CB24 festgestellt, dass der PC letztlich das Stromsparprofil auf eine Form von "Energiesparen" eingestellt hatte. Dann verliere ich halt 40% Leistung, aber praktisch merke ich das nicht einmal. Die Spiele laufen dennoch sehr flüssig.
Ich nutze seit das hier erwähnt wurde den Trick mit dem Erstellen einer benutzerdefinierten Auflösung im AMD Treiber und "CVT-verinngerte Abtastung". Habe bisher keine Probleme feststellen können, außer mit Valheim, was damit partout nicht laufen will.
Ist "normal", hatte ich anfangs auch mehrmals mit meiner RX 5700. Und dann einfach ohne UV betrieben. ;-)
Auch die maximalen Energieeinsparungen der PCIe-Verbindung unter Windows (Energiesparplan) können z. B. weitere Probleme mit Standby und das anschließende Aufwecken verursachen. Habe dort auch wieder die mittleren Einstellungen aktiviert.
Zitat:
Zitat von Gast
(Beitrag 13380767)
Oder soll ich im Spiel 4K (2160p) einstellen (die native Monitorauflösung) und FSR 2.2 auf "Performance"? Würde in dem Fall das Rendern automatisch in 1080p erfolgen (obwohl 2160p eingestellt), samt anschließender Heraufskalierung auf die 4K?
Das wird der reinste Matsch...kauf dir eine Karte die 4 K nativ schafft.
Du redest hier davon das dir FSR aus einem Pixel vier macht, dass klappt nie und nimmer.
Hohl dir eine ab 6800xt und stelle dann 1800p oder 1440p ein, aber nie von 1080p auf 2160p. Das funktioniert nicht. Du kannst es über das Spiel (FSR, FiidelityFX) machen, oder den Treiber. Dabei kannst du fasst jedes Spiel in den Upscalingmodus zwingen.
Sapphire bietet mit der GPU ein Tool Namens TRIXX an, wo du dir deine Wunschskalierungsauflösung auch außerhalb fester p Standards festlegen kannst. 1680, 1768 usw., abhängig vom Format und der Pixelanzahl des Monitors.
1080p auf 2160p klappt nicht, geht nicht mal mit DLSS. Da muss man echt schmerzfrei sein, aber wozu kauft man sich dann einen UHD Bildschirm. Da wäre WQHD viel sinnvoller.
Grundsätzlich sollte man bei FSR von einer Auflösung niedriger ausgehen, in 4K fällt es am wenigsten auf und wird die besten visuellen Ergebnisse erzielen. Performance ist in jedem Fall eine Matschorgie.
naja gibt noch viele Spiele mit DX11 , für diese ist Low Latency auf Ultra gedacht. Die 5 Sekunden im Treiber das anschalten sollte doch nicht das Problem sein, man hat ja dann auch keine Nachteile für Dx12/Vulkan sonst wärs was anderes.
Zusammenfassung ist diese
- Gsync an ;)
- VSYNC Global: Ein
- Modus für geringe Latenz: Ultra (auch wenn nur für Dx11 Spiele wichtig)
- Maximale Bildfrequenz: mindestens -3 FPS unter max Hz des Monitors (nur wichtig wenn man DX12 spielt und es keinen ingame limiter gibt, bevorzugt ingame Limiter nehmen)
im Spiel
- Vsync : aus
ich persönlich lasse den Limiter im Treiber weg weil durch Low latency ultra bei DX11 spielen der eh ein limit automatisch setzt(bei mir 120Hz Monitor setzt er das auf 115FPS), und Dx12/Vulkan spiele haben meist einen eingebauten limiter im spiel den man benutzen sollte.