Ich hatte bereits eine Asus Dual und eine Asus Prime. Beide deutlich schlechter als die TUF. Sowohl von der Kühlleistung wie auch von der Optik. Dual und Prime sind Plastikbomber. TUF ist Vollmetall und fühlbar schwerer.
Zur Kühlleistung: Eine Dual war selbst mit 84 % Powerlimit noch immer lauter als eine TUF bei 100 %.
Ich empfehle daher den Aufpreis zur TUF.
Vielleicht gibt es zum Black Friday noch bessere Angebote, aber ich bezweifle es. Für Grafikkarten war der BF noch nie sonderlich gut.
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D
Zitat:
Zitat von Denniss
(Beitrag 13839236)
Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump.
Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Zitat von Leonidas
(Beitrag 13832087)
Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren.
im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...
Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.
Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.
Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D
btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.
Ich habe immer noch ein älteres Bios bei mir. Hatte es mit neueren einfach nicht so zum laufen gebracht wie gewünscht, sobald UV eingestellt hat es Leistung verloren und der Takt ging auch nicht mehr wie eingestellt hoch. Ist auch nur ein 13600K der etwas übertaktet ist. Sollte es wirklich mal Probleme machen (raptor lake problem) kostet ein neuer 14600k ~180, oder ich habe einen Grund aufzurüsten :)
Zitat:
Zitat von Matrix316
(Beitrag 13827798)
Vor allem weil die Karten nur noch halb so lange sind wie früher.
Nicht die Karten, sondern die Platinen. Musste es zwei mal lesen bevor ich es kapiert habe.
Da aber auch Implementierungen mit anders verlegtem Stecker (siehe Sapphires 9070 XT Nitro) das "Problem" haben, ist das maximal ein Teil der Lösung, aber nicht die Lösung. So wie auch der Wireview II Pro nur das Problem aufdeckt, aber nicht behebt.
So etwas aktiv überwachendes & regelndes wie Aquacomputer mit dem Ampinel hat, fest verbaut, wäre die Lösung. Oder halt ein weniger pfriemeliger Stecker mit ordentlich Sicherheitsmarge on top.
Um den Bogen zum Thema zu spannen: Dass das bei NVidia auch mal passiert ist zwar sehr unwahrscheinlich aber auch nicht unmöglich. Vielleicht läuft Volta in 10 Jahren ja unter Nouveau/Nova besser als mit dem NVidia-Treiber.
Zitat:
Zitat von Sardaukar.nsn
(Beitrag 13825902)
Die neuen Standards bestimmt in Zukunft maßgeblich China.
Ja. Natürlich. Klar :ufinger:
Zitat:
Daher kommt eh schon 90% der Ware. In den nächsten 10 Jahren wird man auch bei den ganzen Normen und Standards entscheiden: https://www.vdma.eu/viewer/-/v2article/render/4665076
Du meinst wie sie sich bei Wifi 6 auch einbrachten, und dann allen hinterherliefen Lizenzen für OFDMA zu zahlen?
Aber ok, wer kennt denn nicht die chinesischen Normen bei Netzteilen für Kleingeräte... Oder die chinesische Norm für Werkzeugstahl. Alles sehr sehr beeindruckend :freak:
PS:
Zitat:
Zitat von Shink
(Beitrag 13825920)
Warum denn auch nicht, wenn die den Krempel fertigen müssen und die Standards so auf Kante genäht sind.
Wir sollten sowas alles jetzt nicht auf den HPWR reduzieren ;)
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak: