Arbeiten die bei der Radeon Group in Teilzeit?
Nee... in Lifestyle-Teilzeit. ;D
Zitat:
Zitat von Relex
(Beitrag 13879684)
Du meinst auf 15 Zoll Laptops mit hoher Auflösung? Das mag ausreichend sein, aber sonst ist das doch kein ersatz so blurry und grisselig wie FSR3 aussieht.
Und selbst auf High DPI Displays verschenkt man viel performance wenn man mit besserem Upscaling die Qualitätsstufe weiter reduzieren könnte.
Also egal wie mans dreht und wendet, der Nachteil lässt sich nicht einfach wegzaubern.
Wenn das so ein Drama ist warum werden diese Produkte denn gekauft? Ihr solltet vielleicht endlich mal von euren Nerdniveau/Blase etwas runter kommen. Die ganzen Millionen Konsolen Spieler müssten nach eurer Logik auch schon längst Augenkrebs bekommen.
Ich nehme an das ist dem Thema logarithmischem / linearem Scaling des Farbraums geschuldet. Helle Objekte (wie dieser Energieball) werden bei Log-Scale helligkeitsmässig "komprimiert". Dadurch haben helle Objekt einen relativ gesehen kleineren Beitrag zum Gesamtergebnis. Mit linearem Scaling ist der Beitrag korrekt. RR Preset E ist noch auf Stand DLSS 4.0 mit logarithmischem Scaling.
Das "farblich richtigste" Bild wird am ehesten das nicht-denoised DLSS 4.5 Bild abgeben. Von da aus kannst du jetzt einen der verschiedenen Denoising-Tode sterben :D RR oder Standard Denoiser
- RR ist bei Schatten, Reflexion usw. akkurater aber nutzt farblich noch das alte Log-Scaling und ist generell blurrier
- Standard Denoiser pfuscht bei Beleuchtungsgenauigkeit, Preset M nutzt die akkuratere lineare Farbraum Skalierung und kann mehr Details herausarbeiten
Zitat:
Zitat von GerryB
(Beitrag 13877209)
Das würde ich momentan noch gar nicht ausschließen wollen.
Optiscaler 7.9.1 lässt sich z.Bsp. in Hitman3 öffnen, damit sollte evtl. mittels reinkopieren der dll
auch ein Wechsel ingame möglich sein. (was noch nicht richtig klar ist, = Konflikt mit der nvgx.ini, wo er lieber die optiscaler ini hätte) oder
zumindestens in Zukunft mit Beta-->Final machbar sein
btw.
inzwischen hat der ROG Ally schon ne inoffizielle 4.006 vom Enabler ausprobiert https://www.youtube.com/watch?v=QxpumuYCv1E
(gibts aber noch nicht bei Nexus) edit: dafür gibts jetzt die 4.0.0.7 version vom Enabler
In CP2077 hab ich zumindestens für mich@RDNA2 die Ursache für die Crashs gefunden.
Der Enabler verträgt sich nicht mit RT !!!
ohne RT läufts, ... FPS-Limit ist momentan noch komisch, hab jetzt FRTC = 1/3 für MFG 3x eingestellt
(um auch den Oscaler zu haben, erst 7.9.1 als ASI, dann Enabler als winmm drübergebügelt)
CP2077 hatte wie auch Star Wars Outlaws Probleme bei mir gemacht, wenn ich damals DLSS Enabler nutzte (oder auch OptiScaler) für DLSS-FG -> FSR-FG und eine aktuelle NV GPU (4090) gefakt wird. Die Spiele haben u.a. SER was NV Shader instruction sind. Bei SW Outlaws war bei mir das RT kaput (schwarze Reflektionen) und bei CP musste ich damals RR deaktiviert lassen (bzw. das erzeugte den CTD). Generell hilft es, eine RTX 20xx GPU zu faken, da diese u.a. kein SER nutzt.
Dies geht mit DLSS Enabler via Start Argument: --dlss-arch=turing
Einfach bei Steam zu den Startoptionen hinzufügen.
Bei OptiScaler gibt es seit einiger Zeit die Gruppe: [Spoofing] in der INI Datei. Die Einträge SpoofedVendorId und SpoofedDeviceId könnten das gleiche bewirken. Siehe hier ein Beispiel für die Vendor + DeviceId: https://www.techpowerup.com/vgabios/222597/222597
Baue Frühjahr - Sommer Neuen Spiele Rechner PC
4 Komponenten habe ich bereits gekauft um noch nicht noch teurer zu kommen
und da geht meine 9070 XT Hellhound rein,
die 7900 XT ist Reserve,- man weiss ja nie und kommt auch in den derzeitigen Rechner anschließend.
PS:
Die RTX 5080 wird an Bedürftigen weitergegeben.
Hat schon fix zugesgt!
Zitat:
Zitat von Gast
(Beitrag 13879473)
Die Reaktionszeiten von OLEDs sind mindestens 10x schneller, und das im best case den LCDs nur bei bestimmten Farben und maximaler Frequenz erreichen.
Die Schaltzeiten, aber nicht der Input-Lag. Mein alter 4K-TV hat ca. 31ms@60Hz. Mein neuer QD-OLED ca. 11ms@60Hz.
Zitat:
Zitat von aceCrasher
Die angekündigten Beschichtungen a la "black shield" reduzieren das Problem zwar, die Schwarzwerte in einem hellen Raum sind aber weiterhin nicht so gut wie die von WOLEDs.
Tiefe Schwarzwerte brauche ich in zwei Situationen. a)Video/Fotoediting b)Gaming/Video gucken
Im Fall a) kauft man vermutlich eher keinen OLED, sondern ich weiß nicht was die Profis da heute kaufen, vermutlich immer noch IPS. Und im Fall b) dämmt man sein Umgebungslicht normalerweise herunter, um das Spiel/Film besser genießen zu können, oder nicht? Man muss ja nicht im Dunkeln sitzen, je nach Coating darf halt keine starke Birne im Umkreis von ca. 2m um den Sitzenden an sein. Overblown, wie auch das mit dem violett-Stich, in my opinion.
Zitat:
Zitat von Radeonator
(Beitrag 13874149)
Warum ? Der Chip soll doch in Form einer B70 kommen, wieso sollten Sie es dabei belassen ? Ausser der künstlich hochgetrieben Preise (HBM / KI Gate ;) ) und Verfügbarkeit von GDDR6
Mittlerweile wurde es bestätigt das b770 nicht mehr kommt sondern nur noch als Arc Pro B70 .
Intel wird sich auf den Datacenter-GPU markt allem Anschein konzentrieren.
Bis jetzt bleibt zumindest die Arc B580 und B570 als einziges im Consumer Markt bestehen.
Da kann man sich wirklich fragen ob es überhaupt noch sinn macht allgemein eine Arc Graka zu kaufen, wenn Intel eh den Markt aufgegeben hat.
Ich sehe echt schwarz das von Intel noch einmal eine Graka kommt, auch wenn die "bekräftigten " das es weiter GPU´s von ihnen geben soll.
Da hilft es auch nicht das man Eric Demers nun verpflichtet hat. Man schaut nur mal darauf von wo er kommt und wie dort die Graka einheit "verbaut" ist.
@SentinelBorg
ich dachte bis 200 Watt wäre PBO nicht mehr an.Weil mir einer geschrieben hatte,PBO sei erst ab 230 Watt aktiv.Ist es der auch bei 200 Watt Aktiv?
Da sind es ja dann maximal 5,2 ghz .Also zumindest beim 9950x3d soll das so sein.
Oder ist das einfach nur falsch die Infos?
Bei 10 Watt wäre es dann wohl jeweils pro Kern 100 mhz weniger Takt,richtig ?
Beim 265k sind es 215 Watt mit 90 Grad und es sind bei P Kerne 5,2 ghz und 4,6 ghz e Kerne
Also auf gut deutsch die standard.Will ich es das bei AMD,9950x,wären das bestimmt 5 ghz Maximal.
Vorsprung sinkt leicht,st jedeoch noch immer vorhanden.Wll ich es kühl haben sind beides mit drossel verbunden.bei unter 200 Watt wird wohl der 265k gewinnen,wenn auch knap.
3000 Std. mixed content. Die sind bei WfH inkl. privaten Gaming Session mit etwas über einem Jahr schon drinnen. :freak:
Ich sehe nach einem Tag Home Office am IPS den Afterglow für eine halbe Ewigkeit. Wie sieht das inzwischen bei euch so aus.
Nachdem ein TDR jetzt auch ingame in Detroit auftrat: Evtl. habe ich die Ursache gefunden. Habe die Karte nochmal aus- und wieder eingebaut und die hatte ziemlich viel Spiel im Slot. Vielleicht passten die Kontakte dadurch nicht mehr.
Nach zwei Stunden Indi gabs jetzt jedenfalls kein Problem mehr, und das hat es zuletzt ja recht zuverlässig ausgelöst. Ich beobachte mal weiter...
Id tech engine kannst nicht als Referenz heranziehen, die belegen einfach statisch einen gewissen Speicher je nach eingestellter Pool size, deswegen sehen die Texturen aber auch nicht schlechter aus.