Wenn nur ein winziger Bereich über Schwarz liegt, entscheidet die Zone: "dimmen auf Minimum" → Shadow Crush.
Mini-LED kann Schwarz nur zonal erreichen und muss sich hart entscheiden.
Es gibt keine „Per-Pixel-Feinabstufung“ wie bei OLED. Daher kann auch Mini Led nur eine zwischen Lösung sein, und die ganzen Fanatiker im r/Monitor Sub kann ich nicht ernst nehmen. ^^
Trotzdem besser als der LCD/IPS Rotz ohne jegliches LD. Und wenn OLED Kopfschmerzen bereitet, kann ich dich schon verstehen.
Wir haben in der Firma die Visualiserung von Revit Dateien (Gebäude) in Envision getestet, da gab es DLSS als Upscaler. Man kann die Gebäude dann virtuell begehen und bsp. Videos für einen Kunden erzeugen - oder es ihm sogar live zeigen.
Gutes Upscaling ist da bitter nötig, die Mitarbeiter arbeiten auf mobilen RTX PRO / Quadro GPUs, die sind nicht so wahnsinnig leistungsfähig. Gleichzeitig haben sie aber 4K Monitore, da man darauf die feinen Strukturen einfach besser sieht. Aktuell kaufen wir RTX PRO 2000 Blackwells in den Thinkpads, das sind de facto mobile 5060s mit weniger TGP - die profitieren sehr stark von DLSS.
Live-Event mit 8-10 Millionen Spielern gleichzeitig und mutmaßlich 60fps HWRT auf PS5:
Ich behaupte mal, dass wäre mit keiner anderen verfügbaren Tech auch nur im Ansatz so möglich gewesen (auch wenn ein paar Glitches).
Lief hier mit DX12 und immer noch schönen Legacy-Details wie Butter.
Zitat:
Zitat von Relex
(Beitrag 13846369)
(CoD oder Das Spiel hier)
Zwei Spiele zeigen noch keinen Trend.
Vielleicht sollten sie neue Engines entwickeln, die sofort für RT optimiert sind.
RT wurde hier ja auf vorhandene Engine angeflanscht
Zitat:
Zitat von ][immy
(Beitrag 13844452)
Nvidia ist auch gerade dabei den gaming Markt quasi zu verlassen, ist ja inzwischen für die nur noch ärgerlich das man die Produkte dich in anderen Bereichen teurer verkaufen könnte.
Klar deswegen tritt man gerade voll auf Holiday Season Marketingschiene und veranstaltet sowas wie die Geforce Gamer Festival in Seaul wo sogar Jensen anwesend war. Was macht AMD schnell?
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Zitat:
Zitat von dargo
(Beitrag 13840788)
Nee du, danke. Von Nvidia kaufe ich nichts. :) Und schon gar nicht einen völlig überteuerten Heizofen @RTX 5090. ;) Ich spiele momentan eh nichts anderes als AC: Shadows. Und das ist auch das einzige Spiel wo ich bisher FG nutze.
na Gut:smile:
stimmt, hattest ja schonmal erwähnt, also AC suchten
da gibbet schon paar nette Teile davon!
bin überzeugt das wird schon wieder und solange hat man ja auch noch andere Optionen
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Zitat von Leonidas
(Beitrag 13832087)
Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren.
im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...
Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.
Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.
Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D
btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.
Interesting discussion on the 3DCenter forumlots of technical insights and active member participation.
If you also need reliable Mandarin translations, check out TranslationServicesWorld : https://www.translationservicesworld.com/chinese_translation/"