Zitat:
Zitat von TheAntitheist
(Beitrag 13841100)
also Nvidias RR lief von Anfang an besser als das was AMD versucht nachzumachen... DAS ist doch das traurige. wieder Null Innovation UND schlecht kopiert
AMD sollte wirklich besser von Nvidia kopieren wie hier am Swimmingpool. :uup: https://youtu.be/ISrPis9TdHE?si=3FmcID7SSJs-uTSg&t=888
Immer wieder erstaunlich was die grünen Lemminge alles abfeiern.
@ OgrEGT
Das geht leider nicht mehr, da die alten Kabel entsorgt wurden. Glaube habe aber noch eines im Büro (zum Testen am Eizo).
Der Asus VP32AQ zeigt beispielsweise auch nur Eingang (Display Port bzw. HDMI), die Auflösung 2560*1440, 89 KHz und 60 Hz sowie "HDR aus" an.
Grafikkarte ist hier und beim Eizo EV 2795 je eine GeForce GT 1030 (von meinem PC siehe Profil) mit Desktop Farbtiefe 32 bit, Ausgabe Farbtiefe 8 bpc, RGB, Dynamischer Ausgabebereich Voll (alles ausgegraut, da "Standard-Einstellungen"). Da hat sich nichts mit dem Wechsel des Kabels geändert. Das alte Kabel konnte auch 2160p bei 240 Hz ohne für mich sichtbare Bildfehler darstellen (hatte keine roten Schlieren oder anderes), da sollten 2560 x 1440 mit 60 Hz kein Problem sein.
Und selbst wenn sich irgendwelche Einstellungen mit dem einfacheren Kabel ändern sollten liegt es immer noch am Kabel, von daher macht es am Ende keinen Unterschied. ;)
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von Raff
(Beitrag 13840823)
Ich fänds ja geil, wenn sich hier jemand so ein Teil holen und bei Liquid Extasy einen Wasserkühler schnitzen ließe. Was für dich? :D
MfG
Raff
Eigentlich interessant, aber meine nächste Karte hört auf UDNA/RDNA5. Bin sehr zufrieden mit meiner 9070XT, von daher habe ich keinen Grund etwas zu verändern. Die Treiber sind okay und dank Wakü-Block gehen -130mV immer, egal in welchem Spiel. Manche lassen gar -160mV zu. Der Vorteil ist, dass ich das Profil pro Game speichern kann und immer max. Leistung garantiert ist.
Zitat:
Zitat von dargo
(Beitrag 13840788)
Nee du, danke. Von Nvidia kaufe ich nichts. :) Und schon gar nicht einen völlig überteuerten Heizofen @RTX 5090. ;) Ich spiele momentan eh nichts anderes als AC: Shadows. Und das ist auch das einzige Spiel wo ich bisher FG nutze.
na Gut:smile:
stimmt, hattest ja schonmal erwähnt, also AC suchten
da gibbet schon paar nette Teile davon!
bin überzeugt das wird schon wieder und solange hat man ja auch noch andere Optionen
Die Power optimierte 5090 spart massig mehr Strom als default 5070Ti. In Path of Exile hab ich 4k@60 Hz 90W und mit 4k120 um die 120W. Die 5070Ti zieht 4k60 schon über 140W.
Nein, Igors Lab vergleicht überhaupt nix - sondern fasst eine Meldung von WTF Tech zusammen, die sich wiederum auf einen Blog von GMKtec beziehen ... einen Anbieter von PCs mit Strix Halo :freak:
Zitat:
Zitat von dildo4u
(Beitrag 13840149)
Es nutzt 5.3.2 von 2023
Bei der UE hat man seit Jahren auch den Eindruck, das die neueste 5.x Version dann die ist, die man eigentlich nutzen muss damit es besser läuft.
Hier sieht man wie komplex die Entwicklung ist und Epic hat nun wirklich nicht zu wenig Ressourcen.
Zitat:
Zitat von Raff
(Beitrag 13839669)
Wäre es gefixt, gäbe es dazu einen Presse-Loop mit Tamtam. Da wurde bestenfalls etwas gebastelt, aber noch nix öffentlich Vorzeigbares. :)
MfG
Raff
Man merkt das es in die richtige Richtung geht ...
Sind wir mal ehrlich - zZ haut mir Acer ne B580 für CHF 175 um die Ohren. Für das Geld kriegst von Fraktion Rot oder Grün höchstens ne RX 6600 als Ladenhüter oder ein 3050 mit 6 GB VRAM - angesichts angeblich total hoher RAMpreise - irgendwie fraglich.
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D
XMP ist der letzte Rotz... die Spannungen die Du auf der Plattform für Grenzbetrieb (> 8000 auf 2 DIMM Boards, >7.000 auf High End 4-DIMM-Boards, > 6.400 auf 0815 Boards) brauchst müssen feinst abgestimmt sein. XMP kann das gar nicht, da gehts nach Motto viel hilft viel. Ich hatte es schon mal geschrieben... ich gehe jede Wette ein, dass die Hälfte der Systeme mit XMP latent instabil sind und das >90% aller Probleme mit Raptor Lake genau da her kommen.
Das ist halt ein generelles Problem wenn man extrem viele Shader im Spiel hat. Aber das haben die Spieleentwickler selbst in der Hand ob sie Shader spammen oder nicht. Und offenbar finden sie das Ruckeln nicht allzu kritisch.
Zitat:
Zitat von Denniss
(Beitrag 13839236)
Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump.
Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?
Zitat:
Zitat von Hochzeit2
(Beitrag 13838790)
Nvidia bietet für den Privatuser keinerlei SLI / Multi- (KI)Möglichkeit an.
Als jemand, der mittlerweile in das Konzernthema IT-Securitiy abgerutscht ist, würde ich folgende generelle Aussage treffen:
JEDE APP die dir das verspricht ist Verarschung.
Und jeder der etwaige Apps nutzt ist selber Schuld. Zu 100%!
Das hat mit Nvidia nichts mehr zu tun. Die genutzte App kann dir einfach die Auswahl anbieten was du auf welcher CUDA GPU ausführen willst. Ich muss gerade wie ein Clown mit den verfügbaren 72Gb Vram jonglieren.
Um z.b. gpt-oss 120b mit TTS gleichzeitig zu nutzen oder SDXL, muss man diese kleinen Modelle zuerst starten. Damit später das große LLM gleichmäßig über alle GPUs verteilt wird. Macht man das nicht, dann bleiben bei jeder GPU vielleicht 2Gb frei insgesamt also 6Gb - aber das nützt einem nichts mehr, weil ein einizes 6Gb Checkpoint als Ganzes rein muss.
Und noch was zum Compute vs VRAM. Meine Tokenrate bricht um die Hälfte ein wenn ich gpt-oss 120b gemeinsam mit TTS nutze. Das ist bei 80t/s -->40t/s noch verkraftbar. Aber so ein APU wäre dann unbenutzbar. Es sei denn man steckt sich noch eine eGPU extra dafür.
ist das bei den Karten "normal" das die in 2D nicht mehr komplett runter takten (180MHz) wenn man die übertaktet hat bzw den Curve Editor vom MSI AB benutzt?
Wenn ich AB benutze wird mir 592MHz als Minimum angezeigt.