Zitat:
Zitat von dargo
(Beitrag 13840487)
Schmiert leider auch. Mittlerweile weiß ich aber, dass dieses Geschmiere ab neuer 03.11 nur beim Streamline-Input vorkommt. Mit Nukems-FG ist alles sauber, kein Geschmiere.
was, Bahnhof, streamline?
ach, Du meinst nvapi FG input, FG is gerade voll dein Ding oder
kann ich Dir nicht doch meine 5090 schmackhaft machen,
als Briefbeschwerer taugt die auch nich so optimal:confused:
glaub, ich muss die doch bei Ebay mit Gewinn verkaufen
komm schon, NV ist groß, NV ist mächtig und dann hast auch MFG mit 3 Frames, hoch sechzig
Zitat:
Zitat von VfBFan
(Beitrag 13840539)
Dann war das Kabel eben generell Schrott.
Das hatte ich auch schon, beim Scrollen im weißen Startmenü von Windows 10 waren dann z. B. dauerhaft rote Schlieren sichtbar. DP-Kabel in Kupfer/Elektroschrott und mit neuem 0815-Kabel war alles gut.
Könnte auch sein, dass der Monitor vorher nicht in der nativen Auflösung war.
Skalierung unter Windows/macOS war anders eingestellt
Falscher Farbraum / falscher Eingang im OSD
Schärfe-Einstellungen geändert.
Vielleicht sogar einfach ein Zufall (Browser-Zoom, anderer Viewer usw.)
Technisch macht es überhaupt keinen Sinn, was er im Beitrag #22950 auch wieder erzählt. Auf der anderen Seite kann natürlich jeder machen was er will, und wenn es sich mit einem 100€ DP Kabel wohler fühlt, bitte.
Zitat:
Zitat von x-force
(Beitrag 13840544)
die allgemeine schärfe ist für mich der größte gewinn.
Der Witz ist ja gerade, dass dies eben nicht in Bewegung immer bei DLSS-RR zutrifft. Sieht man auch wunderbar bei Szene 1 @CB. Da gibt es viele Reflektionen die in Bewegung mit FSR-RR schärfer aussehen als DLSS-RR. Nur schwabelt ersteres dann wieder an den Kanten. :freak: Reinste Baustellen noch. Da kann man nur hoffen, dass es in Zukunft besser wird, in beiden Lagern. Auch keine Ahnung ob das so von AMD geplant war mit CoD 7 wenn ich da schon wieder was von v0.9 bei der amd_fidelityfx_denoiser_dx12.dll lese. Nicht, dass die DEVs da zu früh eine Testversion reingeschmissen haben und das Ding sollte womöglich erst etwas später mit v1.0 per Patch nachgeliefert werden. Würde mich alles nicht wirklich überraschen. :ulol:
Edit:
Szene 2 genauso lustig. :ulol:
Bei FSR-RR sehe ich schön am Anfang rechts an der Säule korrekterweise Bewegung der einzelnen Pixel während dies bei DLSS-RR nicht vorhanden ist. Dafür rauscht das eine Glas im zweiten Raum links mit FSR-RR furchtbar (typischer Ameisenhaufen bei miserablen Denoiser) während es bei DLSS-RR nicht rauscht. Ich sehe hier aktuell nur die Wahl zwischen Pest und Cholera und keinen wirklichen "Gewinner oder Verlierer". ;D
Dieses Feature braucht wieder Jahre bis das überall überzeugt. Falls überhaupt. Wobei ich mir nicht sicher bin ob hier der Standarddenoiser nicht verwendet wurde. Wäre auch möglich da es im Video um den Vergleich RT Off/On geht.
Nein, Igors Lab vergleicht überhaupt nix - sondern fasst eine Meldung von WTF Tech zusammen, die sich wiederum auf einen Blog von GMKtec beziehen ... einen Anbieter von PCs mit Strix Halo :freak:
Zitat:
Zitat von dildo4u
(Beitrag 13840149)
Es nutzt 5.3.2 von 2023
Bei der UE hat man seit Jahren auch den Eindruck, das die neueste 5.x Version dann die ist, die man eigentlich nutzen muss damit es besser läuft.
Hier sieht man wie komplex die Entwicklung ist und Epic hat nun wirklich nicht zu wenig Ressourcen.
Zitat:
Zitat von Raff
(Beitrag 13839669)
Wäre es gefixt, gäbe es dazu einen Presse-Loop mit Tamtam. Da wurde bestenfalls etwas gebastelt, aber noch nix öffentlich Vorzeigbares. :)
MfG
Raff
Man merkt das es in die richtige Richtung geht ...
Sind wir mal ehrlich - zZ haut mir Acer ne B580 für CHF 175 um die Ohren. Für das Geld kriegst von Fraktion Rot oder Grün höchstens ne RX 6600 als Ladenhüter oder ein 3050 mit 6 GB VRAM - angesichts angeblich total hoher RAMpreise - irgendwie fraglich.
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D
XMP ist der letzte Rotz... die Spannungen die Du auf der Plattform für Grenzbetrieb (> 8000 auf 2 DIMM Boards, >7.000 auf High End 4-DIMM-Boards, > 6.400 auf 0815 Boards) brauchst müssen feinst abgestimmt sein. XMP kann das gar nicht, da gehts nach Motto viel hilft viel. Ich hatte es schon mal geschrieben... ich gehe jede Wette ein, dass die Hälfte der Systeme mit XMP latent instabil sind und das >90% aller Probleme mit Raptor Lake genau da her kommen.
Das ist halt ein generelles Problem wenn man extrem viele Shader im Spiel hat. Aber das haben die Spieleentwickler selbst in der Hand ob sie Shader spammen oder nicht. Und offenbar finden sie das Ruckeln nicht allzu kritisch.
Zitat:
Zitat von Denniss
(Beitrag 13839236)
Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump.
Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?
Zitat:
Zitat von Hochzeit2
(Beitrag 13838790)
Nvidia bietet für den Privatuser keinerlei SLI / Multi- (KI)Möglichkeit an.
Als jemand, der mittlerweile in das Konzernthema IT-Securitiy abgerutscht ist, würde ich folgende generelle Aussage treffen:
JEDE APP die dir das verspricht ist Verarschung.
Und jeder der etwaige Apps nutzt ist selber Schuld. Zu 100%!
Das hat mit Nvidia nichts mehr zu tun. Die genutzte App kann dir einfach die Auswahl anbieten was du auf welcher CUDA GPU ausführen willst. Ich muss gerade wie ein Clown mit den verfügbaren 72Gb Vram jonglieren.
Um z.b. gpt-oss 120b mit TTS gleichzeitig zu nutzen oder SDXL, muss man diese kleinen Modelle zuerst starten. Damit später das große LLM gleichmäßig über alle GPUs verteilt wird. Macht man das nicht, dann bleiben bei jeder GPU vielleicht 2Gb frei insgesamt also 6Gb - aber das nützt einem nichts mehr, weil ein einizes 6Gb Checkpoint als Ganzes rein muss.
Und noch was zum Compute vs VRAM. Meine Tokenrate bricht um die Hälfte ein wenn ich gpt-oss 120b gemeinsam mit TTS nutze. Das ist bei 80t/s -->40t/s noch verkraftbar. Aber so ein APU wäre dann unbenutzbar. Es sei denn man steckt sich noch eine eGPU extra dafür.
ist das bei den Karten "normal" das die in 2D nicht mehr komplett runter takten (180MHz) wenn man die übertaktet hat bzw den Curve Editor vom MSI AB benutzt?
Wenn ich AB benutze wird mir 592MHz als Minimum angezeigt.
Ach, das K hat auch noch genug Macken.
Außerdem soll J eher (minimal) weniger Ghosting haben als K, es hat dafür aber wesentlich schlechtere temporale Stabilität.
K funktioniert ganz toll mit der Fortnite Simpsons-Season. Dafür wirkt es wie gemacht. :ulol: