Zitat:
Zitat von Daredevil
(Beitrag 13868409)
Bin gespannt ob Nvidia ab und an mal noch die Ref für den UVP rausfallen lässt, um die Leute bei Stange zu halten. Das hat ja bei den vorigen Generationen immer ganz gut geklappt. Das steigert enorm die Marken Desirebility, könnte eine typische Nvidia Kunden unfreundliche Marktstrategie sein.
gerade nvidia will wohl den MSRP don 2k USD auf 5k USD im laufe des Jahren anheben (Stufenweise...)
Zitat:
Zitat von SamLombardo
(Beitrag 13868597)
Nicht korrekt. K ist in Quality das beste Kosten-Nutzen Verhältnis. Die beste Bildqualität (wenn man die Leistung übrig hat) ist Preset M. Erst Recht bei HDR.
Nicht wirklich, wenn man ruhiges supersampled Bild und flimmerfreie Filterung bevorzugt, dann sind die neuen Presets L/M weit entfernt von optimal.
Ich werde jetzt wohl erstmal den TCL 27R83U behalten. Weniger aus Überzeugung als aus Mangel an Alternativen. Und da ich nach wie vor nicht weiß woran es genau liegt, ergibt es auch keinen Sinn wahllos weiter Monitore zu bestellen.
Hätte den MSI IPS Mini LED behalten, aber da gingen die Kopfschmerzen auch in SDR ohne LD nicht weg. Warum auch immer. Laut Rtings hat der Helligkeitsfluktuationen in SDR, aber nur minimale und mit sehr hoher Frequenz.
Den TCL vertrage ich in SDR gut, in HDR neige ich auch zu Kopfschmerzen, also gibt kein HDR-fähiges Display, das ich einwandfrei vertrage. Aber sie erscheinen mir zumindest weniger intensiv/häufig.
OLED ging ja weder in SDR noch HDR.
Wenn das VA-Smearing mal großflächig auftritt ist man aber echt gearscht. Die Vegetation in Stalker 2 ist ganz schlimm. Da ist der Upscaler fast schon irrelevant, weil eh alles verschmiert.
Mal schauen wie es jetzt die nächsten Monate so läuft, würde mich nicht wundern wenn ich am Ende wieder auf einen SDR-IPS-Monitor wechsle und es einfach sein lasse... :ugly:
Naja, der Framework stand bei mir auch zu Debatte. Ist schon cool. Aber wäre bei gleicher Ausstattung nochmal 100-200€ mehr gewesen gegenüber meinem HP Mini inkl. 3 Jahre Vorort Service.
Habe am Montag noch die ZOTAC GeForce RTX 5080 SOLID geholt. Seitdem ist der Preis um 100 Euro gestiegen.
Vielleicht fällt er wieder aber ich denke das er mittelfristig steigen wird. Die Preise waren von Mai bis Mitte November am besten. Die RTX 5090 kostet jetzt mindestens 3100 Euro. Im Dezember habe ich sie noch für 2700 Euro gesehen.
Zitat:
Zitat von Dant3
(Beitrag 13868371)
Ich habe mit der 9070 XT noch nicht viel gemacht, aber bei etwas arbeiten am Desktop und Audio Ausgabe über die Boxen von meinem Monitor stolpere ich doch direkt über folgendes Problem ->
Über die Interne Soundkarte ist es nicht vorhanden, auch hört es auf, wenn wie dort beschrieben der GPU RAM nicht in tiefen Idle Modis verweilt.
AMD und HDMI Sound ist echt eine Seuche. Mit RDNA2/3 hatte ich auch nur Probleme in Kombination mit meinem AVR und Atmos. Völlig random gab es da auch Sound knacken. In einem Spiel war es vorhanden, im anderen nicht.
Der verlinkte Thread ist ein halbes Jahr alt und immer noch kein richtiger fix ... puh.
Die Windows Soundeinstellungen im Hintergrund (nicht minimiert) offen zu lassen unterbindet das knacken zumindest im Moment bei mir.
Hatte das Problem vor paar Monaten auch. Bei mir war es die Soundausgabe via Hdmi an meinem Denon AV Receiver. Sobald bissl Last auf der Grafikkarte lag (zb. bei Spotify noch der Videostream rechts mit lief) taktet der Chip nicht mehr auf "0" MhZ sondern bleibt etwas höher. Dann sind die Störgeräusche weg.
Hab mir damals damit geholfen, den ULPS (Ultra Low Power State oder so) zu deaktivieren.
Hatte es später mit neuem Treiber und Windowsneuinstallation nicht mehr weiter verfolgt. Hatte das Gefühl das es dann nicht mehr aufgetreten ist bzw. bei Deaktivierung des ULPS es aufeinmal Probleme bei Videowiedergabe bei MKVs gekommen ist.
Einmal die aktuelle Version (0.9.0-pre9 vom 13.01.2026) für alle die kein Bock auf den Discord haben: https://drive.google.com/file/d/1NeD...usp=drive_link
Zitat:
Changes
Grouped FG options under a collapsable,
Fixed and improved some hooks (restrack, AgilitySDK, d3d12 etc.),
Fixed some Vulkan extensions issues,
Fixed Show UI not visible with Upscaler inputs,
Changed how Dxgi spoofing value saves - should save Dxgi=true on Nvidia,
Added FSR2 DX11 input support (WIP) - e.g. Trails in the Sky 1st Chapter,
Make linux setup script take args for various automation projects (xXJSONDeruloXx and FakeMichau),
Made resource tracking optional,
Separated DLSS/DLSSD preset overrides, also added ability to revert back to games original preset,
Improve XeFG interpolation and naming ,
Added FSR2 Vulkan input support (WIP) - e.g. WWZ,
Changed heap releasing logic
Inkl. FSR4 INT8 DLL, aktuelle fakenvapi-Version und DLSS.dll falls nötig
Der Schreiber von diesem Artikel hat wohl festgestellt, daß auf den NVIDIA Grafikkarten immer noch Rechenleistung eingespart wird? Oder ist dessen Algorithmus für die Berechnung nicht optimal für NVIDIA?
Zitat:
Zitat von https://pema.dev/2025/05/09/mipmaps-too-much-detail/Anhang 95257
A few notes on my findings:
All tested vendors seem to roughly agree on the mapping function. Every image resembles a set of concentric circles with the same radius. The extent to which the circle is approximated differs quite a bit across every vendor, though.
No two vendors agree entirely on the implementation.
All tested vendors seem to be consistent across their hardware lineup. Interestingly, AMDs APUs are consistent with their dedicated GPUs.
The result is the same across all the graphics libraries Unity supports (I checked).
And with this, I present perhaps the first-ever GPU tier list ranked in order of fidelity of partial-derivative-to-mipmap-level-mapping-function (the only important metric, clearly):
Adreno/Qualcomm > AMD > Intel > MacBook/Apple > Nvidia. You heard it here first, Nvidia hardware bad! (/s)
Miniaturansicht angehängter Grafiken
20$ pro Karte für B580 per Luftfracht... kann das wirklich stimmen? Finde ich schon etwas teuer.
Die Packungen sind doch immer unnötig groß selbst für Low End Karten.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.
Nach Hundert 20 Sec. Clips in LTX2 würde ich sagen, die ersten AI Games werden Point&Click Adventures. Sprich es wird eine reale Welt sein, aber man wird sein Char nicht in Echtzeit bewegen können. Aber dafür wird man alles andere wie in einer echten Welt machen.
Im Prinzip würde es recht einfach funktionieren. Einmal ein Vision-Chatbot der nach User-Eingaben die aktuelle Story vorantreibt. Und einmal sowas wie LTX2 was die Chat-Bot Prompts sofort in kurze Video-Sequenzen umsetzt. Man braucht jetzt nur noch einen extrem schnellen und sehr kleinen reasoning Chatbot, der paar Tausend Tokens pro Sekunde raushauen kann. Und eine fette KI Grafikkarte die 20 Sek. Video mit einer Latenz wie bei Point&Clicks üblich ist, raushauen kann. Als Ergebnis würde man faktisch eine Lebenssimulation erhalten die man wie ein Point&Click Adventure mit offenem Ende spielt. Wäre extrem geil.
Zitat:
Zitat von Atma
(Beitrag 13866281)
AC/DC LL regelt - unabhängig des genutzten Microcodes. Manuelles untervolten in Form von fixen Spannungen oder Offsets ist doch von vorgestern.
OffSets/V/F tuning ist aber sowas von aktuell... zumindest bei Intel S1700. Funktioniert mit dem letzten Microcode nicht mehr wg. zwangsweise undervolt protection aber davor top.
AC_LL runter schrauben hilft nur bei Vollast. Ich hab im Gaming 50mV weniger auf der CPU als mit der AC_LL Methode. Mühsam erarbeitetes setting aber läuft perfekt.
Mit langen 20 sek. Videos wie jetzt bei LTX2 führt kein Weg dran vorbei sich eine weitere GPU anzuschaffen. Das sind wirklich lange , hochkomplexe Prompts. Mit Sound und Musik. Ohne GLM 4.6 Flash 9B das parallel auf einer 5070ti läuft, steht man auf verlorenem Posten.
Danke für den Eindruck. Es ist schon generell nicht das stabilste Spiel, würde mich nicht wundern, wenn das beim Idlen irgendwas auslöst. Wobei das damals zum Release nicht der Fall war, aber da hatte ich auch noch die 4070 und natürlich viel ältere Treiber.
Ich bin wegen des SDR/HDR-Bugs aber gerade auch noch beim 581er-Treiber.