Zitat:
Zitat von Annator
(Beitrag 13510952)
Ich habe den Monitor und 0 flackern in Starfield oder sonst wo. Ich tüddel aber auch nicht viel in den Settings rum. Gsync ist aber an. Wichtig ist bei dem Monitor die aktuelle Firmware drauf zu haben.
Sehr interessant wie unterschiedlich die Erfahrungen mit ein und dem selben Modell sein können.
Zitat:
Zitat von dargo
(Beitrag 13510906)
Ach komm... hör mir doch auf. CP77 verwendet XeSS 1.2 und die Bildstabilität ist genauso grausam wie die von FSR 2.1. Da finde ich die Bildstabilität von XeSS in anderen Spielen besser, ohne jetzt die Version zu kennen.
PS: ich kann natürlich nur die Sparversion von XeSS bewerten. Ich werde mir sicherlich keinen ARC holen um die "bessere" Version zu testen.
Es ging Exxtreme aber darum, dass es keine Innovation mehr gab. Nicht ob die Innovation in CP77 gut genug ist, um dargo zu gefallen. ;) Und auf genau ersteres habe ich geantwortet.
Und XeSS (dp4a) hat auch ein gewisses Spektrum. In manchen Spielen sieht es nicht so doll aus und in anderen hingegen deutlich besser als FSR.
Zitat:
Zitat von dargo
(Beitrag 13510951)
Wow... echt? Da wäre ich selbst nicht drauf gekommen. :freak:
Nun es addressiert deinen Kommentar aber. Auf was du kommst und nicht kommst, kann ich nicht beurteilen.
Next Level Graphics
Kannte ich noch nicht, aber sehr geil sofern das alles auch wirklich in Echtzeit ist. Was mir bei der UE5 auch sehr gut gefällt sind die Partikeleffekte. :up: Animationen sind überwiegend auch auf höchsten Niveau hier. :)
btw.
Beautiful Light = Nachfolger von "The Division"?
Retrieval = Nachfolger von "The Callisto Protocol"?
Off the Grid = Angelehnt an den Film "Universal Soldier"?
Dann hat er ein schlechte Gerät erwischt.
Da fringed absolut nichts.
Irgendeine Kompression bzw. niedrige Farbtiefe oder ein beschränkter Ausgabebereich könnten das auch erklären.
Pixeldichte ist natürlich vom Betrachtungsabstand abhängig, aber selbst aus geringster Entfernung gibt es keine Artefakte.
add.: ich kenne die Paneele nicht, die für die "kleineren" Monitore verwendet werden.
Das hier ist eines das auch für die TVs verwendet wurde.
Vielleicht hat LG da irgendwo gespart.
Zitat:
Zitat von Lurtz
(Beitrag 13508548)
Du hast ja nur Behauptungen, keine Nachweise geliefert ;) Dein Text klang so, als müsste man das recht eindeutig unterscheiden können.
Kann man auch ;)
Ich mach nachher auch mal Screenshots, wo man den Unterschied sehr gut sehen sollte.
EDIT: Okay, das wird nix. Ich kanns in Screenshots nicht festhalten. Die Unterschiede sind einfach zu subtil oder nur in Bewegung sichtbar.
Man sieht aber, dass es definitiv Unterschiede gibt, wie das Bild auf mittlerer Entfernung aufgelöst wird, wenn man zwei Screenshots hin und her schaltet. Das sieht einfach anders aus. Ob es besser/schlechter ist sieht man dann aber nur in Bewegung.
Zitat:
Zitat von The_Invisible
(Beitrag 13508251)
Hört sich mal wieder nach Problemen mit den zwei CCDs an...
Weil AMD ein Nischenspiel nicht im Profil hat um es auf den richtigen Kernen laufen zu lassen.
Für das "Computing" an sich? Aktuell nicht. Aber nVidia stellt Software bereit, dass in dem Bereich über deren GPUs schneller und besser geforscht werden kann.
Zu letztgenanntem Punkt möchte ich meine Nachfrage nochmal stellen. Nightspider hat weiter oben geschrieben, dass es angeblich auch high PPI microLED gäbe. Hat jemand dazu einen Link?
Zitat:
Zitat von basix
(Beitrag 13504970)
Ach ja? Eigene Vorlieben für z.B. SW Features, unterschiedliche Speichermengen, Nutzungsprofil usw. haben keinen Einfluss?
Für all diese Punkte gibt es eine eindeutige Definition was besser und was schlechter ist. Der einzig subjektive Unterschied ist wie schon erwähnt wie viel einem persönlich jeder einzelne Punkt wert ist.
Zitat:
Wenn man das Radeon Control Panel nice findet oder etwas mehr Speicher für den gleichen Preis braucht, landet man eher bei AMD.
Mehr Speicher ist immer besser, das ist vollkommen objektiv und unabhängig von AMD oder Nvidia, der Preis spielt dafür keine Rolle.
Zitat:
Vielleicht finde ich einfach das Nvidia grün hässlich, was machst du hier mit einem "objektiven" Argument?
Kann man subjektiv finden, allerdings hat weder das Nvidia grün noch das keinerlei Einfluss auf die Qualität der Karte.
Du zählst Punkte auf warum jemand die eine oder andere Kaufentscheidung tätigt. Und ja Kaufentscheidungen werden nicht immer, sondern sehr oft durch subjektive "Gefühle" beeinflusst die nichts mit der objektiven Produktqualität zu tun haben.
Ändert nichts daran, dass fast alle Eigenschaften einer Grafikkarte objektiv messbar sind und auch klar definiert ist wann welche Eigenschaft besser ist.
Zum Ende der Woche bringt mir jemand bei dieser Gelegneheit einfach mal so eine P1600X :| Wurde auf dem Job im Schrank noch verpackt gefunden und zum Entsorgen freigegeben.
Was kann ich damit anfangen? Kann ich damit was anfangen? :rolleyes:
Der zweite M.2 auf dem X99 - auf welchem ein Xenon steckt, ergo volle Lines - ist grad frei. Gebootet wird von 970EvoPlus. Dahinter ist ein 2x860Pro RAID0.
Finde ich legitim im Free Tier.
ich habe jetzt schon einige Monate das Ultimate-Abo und habe nicht vor es zu kündigen. Ich merke nicht, ob es lokal oder bei GFN läuft. Bin sehr happy mit dem Dienst! Selbst bei kompetitiven Shootern ist es kaum noch bemerkbar, gute Anbindung vorausgesetzt.
das ging schnell
Zitat:
„Buche mir einen Flug zum Viertelfinale“. Einfach per Sprachbefehl gehorcht der intelligente Assistent aufs Wort. Der Showcase zeigt anhand von konkreten Beispielen wie ein KI-Smartphone bei Reiseplanung, Einkauf, Videoerstellung oder Fotobearbeitung das Leben erleichtert. Möglich macht das ein digitaler Assistent der Telekom. Mittels KI übernimmt er die Funktionen unterschiedlichster Apps und kann alle täglichen Aufgaben erledigen, für die normalerweise mehrere Anwendungen auf dem Gerät benötigt würden. Ganz mühelos und intuitiv lässt sich der Concierge über Sprache und Text steuern.
https://www.telekom.com/de/medien/me...n-apps-1060268
Ich sehe schon das Video vor mir, in dem Kanzler Scholz alles zugibt, Chemtrails, 11.9. Inside Job, Impflüge, Corona Verschwörung, QAnon, gezielter Bevölkerungsaustausch in Deutschland/ Europa.....
Und die Hälfte der Deppen in den einschlägigen Telegramgruppen wird das glauben, weil das Video beweist das ja und so.
Zitat:
Zitat von Troyan
(Beitrag 13491317)
Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.
Offiziell aus der TensorRT Homepage:
Zitat:
TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]
Zitat:
Zitat von Trap
(Beitrag 13491360)
Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB.
Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)
Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.
Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)
Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:
Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.
Zitat:
Zitat von betasilie
(Beitrag 6350270)
...IBM/Sony/Toshiba und MS) RT positiv gegenüber, mit Ausnahme von nVidia, die das ganze zumindest hinauszögern werden wollen. Wie AMD/ATi dazu stehen mögen, würde mich allerdings mal interessieren.
Stellt sich raus es ist genau andersrum. ;D