Zitat:
Zitat von Tesseract
(Beitrag 13510603)
hab das hier grob erklärt.
trainiert wird das mit hochauflösenden bildern als referenz. samples werden geclampt und verrechnet und das resultat mit dem referenzbild verglichen. je näher man dran ist umso besser.
danke, jetzt hab ich ne idee davon.
Gast, hast du mal ein Beispiel für deine These, dass es am Content liegt?
Ja, VA ist auch betroffen. IHMO sogar stärker als OLED. IPS ist der einzige Displaytyp aktuell, der praktisch gar keine VRR Flacker/Flimmern hat. Dafür aber auch nur 1000:1 Kontrast in der Regel.
Hatte am Wochenende nur noch Zeit Timespy laufen zu lassen (2900 Graphics Score bei 45W TDP om BIOS)... APU wird ca 60°C warm... Das heißeste ist die SSD (Samsung 990 Pro 2TB)... die geht auf 70°C... habe sie auch in Gen3 Mode am laufen... ob die Temp sinkt wenn ich die nur bei Gen2 laufen lasse?
Hört sich das nach DXVK an? Für mich nicht. Intel verwendet derzeit zwei UMD DX11 Treiber Architekturen. Bei einer DXVK Lösung würde sich der Layer zwischen UMD und D3D Runtime platzieren.
Auch wenn's wahrscheinlich niemanden mehr interessiert, wenn man so die letzten Posts hier liest, im Mindstar gibt's die PowerColor XTX derzeit für schlappe 899,--€ versandkostenfrei. https://www.mindfactory.de/Highlights/MindStar
Jo fertige mini PCs mit 4000er Ryzen APU und 15w-25w gibts ab knapp unter 200, die 5500er ab 350. Klar die leisten mehr, brauchen aber auch etwas mehr Strom (was im ultra low power bereich halt fast das doppelte ist).
Ich bevorzuge aber meistens ITX Boards oder wie hier beim N100 sogar matx, sowas gabs bei AMD schon immer selten und mittlerweile quasi gar nichts aktuelles was halt die Möglichkeiten doch etwas begrenzt. Klar das ist alles nicht gerade Mainstream.
Next Level Graphics
Kannte ich noch nicht, aber sehr geil sofern das alles auch wirklich in Echtzeit ist. Was mir bei der UE5 auch sehr gut gefällt sind die Partikeleffekte. :up: Animationen sind überwiegend auch auf höchsten Niveau hier. :)
btw.
Beautiful Light = Nachfolger von "The Division"?
Retrieval = Nachfolger von "The Callisto Protocol"?
Off the Grid = Angelehnt an den Film "Universal Soldier"?
Dann hat er ein schlechte Gerät erwischt.
Da fringed absolut nichts.
Irgendeine Kompression bzw. niedrige Farbtiefe oder ein beschränkter Ausgabebereich könnten das auch erklären.
Pixeldichte ist natürlich vom Betrachtungsabstand abhängig, aber selbst aus geringster Entfernung gibt es keine Artefakte.
add.: ich kenne die Paneele nicht, die für die "kleineren" Monitore verwendet werden.
Das hier ist eines das auch für die TVs verwendet wurde.
Vielleicht hat LG da irgendwo gespart.
Zitat:
Zitat von DrFreaK666
(Beitrag 13508791)
Wieso wird eigentlich immer bemerkt, dass RDNA3 mit RT im Vergleich langsamer ist? Wissen wir das nicht schon seit Release?
Wenn man viel Geld für etwas ausgegeben hat dann muss dieses Produkt auch gut sein. Ansonsten müsste man sich eingestehen eine Fehlinvestition getätigt zu haben.
Zitat:
Zitat von Lurtz
(Beitrag 13508548)
Du hast ja nur Behauptungen, keine Nachweise geliefert ;) Dein Text klang so, als müsste man das recht eindeutig unterscheiden können.
Kann man auch ;)
Ich mach nachher auch mal Screenshots, wo man den Unterschied sehr gut sehen sollte.
EDIT: Okay, das wird nix. Ich kanns in Screenshots nicht festhalten. Die Unterschiede sind einfach zu subtil oder nur in Bewegung sichtbar.
Man sieht aber, dass es definitiv Unterschiede gibt, wie das Bild auf mittlerer Entfernung aufgelöst wird, wenn man zwei Screenshots hin und her schaltet. Das sieht einfach anders aus. Ob es besser/schlechter ist sieht man dann aber nur in Bewegung.
Ich teile einfach mal mit euch den Link, da ich ihn fürs DDR5 OC wirklich hilfreich fand. Er erklärt nicht alle Timings, aber gibt einen groben Überblick, was wirklich wichtig ist, welche Spannungen für hohen Takt nötig sind und welche Abhängigkeiten Latenz X zu Latenz Y hat. Ich habe mir auch kurze Notizen gemacht, bin aber auch noch nicht fertig mit meinen Settings:
Zitat:
Zitat von The_Invisible
(Beitrag 13508251)
Hört sich mal wieder nach Problemen mit den zwei CCDs an...
Weil AMD ein Nischenspiel nicht im Profil hat um es auf den richtigen Kernen laufen zu lassen.
Zitat:
Zitat von dildo4u
(Beitrag 13508111)
Macht Sinn das sie was testen wollten was verfügbar ist AMD braucht immer ewig bis die Geräte im Markt sind.
Bei reiner CPU-Nutzung per AVX2 oder AVX512 unterscheiden sich 7840U und 8840U nur minimal (haben ja identische Specs, was CPU/GPU angeht; die 8840U sind angeblich minimal stromsparender [entweder gebinnt und/oder per Firmware]).
Deswegen vermute ich, daß wir dort AVX2 mit intel vs. AVX512 mit AMD sehen (GPU-Nutzung wäre vermutlich etwas unfair gegenüber intel, weil die bisher offenbar nicht offiziell supportet werden [keine Ahnung, ob es nicht trotzdem läuft]).