Zitat:
Zitat von ][immy
(Beitrag 13844452)
Nvidia ist auch gerade dabei den gaming Markt quasi zu verlassen, ist ja inzwischen für die nur noch ärgerlich das man die Produkte dich in anderen Bereichen teurer verkaufen könnte.
Klar deswegen tritt man gerade voll auf Holiday Season Marketingschiene und veranstaltet sowas wie die Geforce Gamer Festival in Seaul wo sogar Jensen anwesend war. Was macht AMD schnell?
Zitat:
Zitat von Daredevil
(Beitrag 13843690)
Mit Thunderbolt 5 kannst du maximal 4x M3 Ultra zusammenschalten ( MacOS 26.2 ) und kommst auf 2TB VRAM. Und wenn du Bock auf basteln hast, kannste an die Macs auch noch ne AMD/Nvidia Karte anstöpseln per USB. ( https://x.com/__tinygrad__/status/1991927844562522311 )
Gilt das als MutliGPU? :D
Ja natürlich gilt das als multiGPU. Man muss eigentlich die Macs immer im Auge behalten. Aber das ist auch nicht günstig... Wenn ich bei Idealo auf 96Gb Ram klicke , dann sind es effektiv wie meine 72Gb Vram mit 3 Karten. Für etwa den gleichen Preis. 128Gb sind schon mal deutlich günstiger und 256Gb,512Gb sind quasi Schnäppchen... :uup:
Ne, in meinem Fall nutze ich AI als Resteverwertung. Quasi jede neue Grafikkarte ist künftige neue AI Karte. Ich kaufe "KI" nur noch in Teilstückchen dazu, falls es für irgendwas signifikant nützliches reichen soll.
Wie gerade jetzt mit 800€ 2-Slot 5070Ti. Für 60Gb LLMs. Wenn man eine recht frische 100B LLM per Systemprompt jailbreaken kann, ohne sie gleichzeitig dümmer zu machen, dann kommt man an erstaunliches Wissen heran. Um mal das Gegenwert für diese teure multi-gpu Spielerei zu verdeutlichen.
PS.
Für Vibe-Coding reichen lokale Rechenkapazitäten eh nicht aus. Wie ich feststellte, brauche ich für meine Verhältnisse 200B+ Modell mit minimum 70t/s, besser 150t/s...
Wozu so viel txt um ein Netzteil, das erst vllt mit der 6090 getauscht wird.
Bis dahin hat es 8 Jahren geballert, top Netzteil, can man nix meckern. (y)
Die Kosten für das Netzteil sind aber jedenfalls auf alle Hardware umzulegen und mit den Watt des jeweiligen Verbrauchers (Mobo, RAM, CPU, Graka, Pumpe, Lüfter, Beleuchtung etc...) zu gewichten.
Ich hatte bereits eine Asus Dual und eine Asus Prime. Beide deutlich schlechter als die TUF. Sowohl von der Kühlleistung wie auch von der Optik. Dual und Prime sind Plastikbomber. TUF ist Vollmetall und fühlbar schwerer.
Zur Kühlleistung: Eine Dual war selbst mit 84 % Powerlimit noch immer lauter als eine TUF bei 100 %.
Ich empfehle daher den Aufpreis zur TUF.
Vielleicht gibt es zum Black Friday noch bessere Angebote, aber ich bezweifle es. Für Grafikkarten war der BF noch nie sonderlich gut.
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D
XMP ist der letzte Rotz... die Spannungen die Du auf der Plattform für Grenzbetrieb (> 8000 auf 2 DIMM Boards, >7.000 auf High End 4-DIMM-Boards, > 6.400 auf 0815 Boards) brauchst müssen feinst abgestimmt sein. XMP kann das gar nicht, da gehts nach Motto viel hilft viel. Ich hatte es schon mal geschrieben... ich gehe jede Wette ein, dass die Hälfte der Systeme mit XMP latent instabil sind und das >90% aller Probleme mit Raptor Lake genau da her kommen.
Das ist halt ein generelles Problem wenn man extrem viele Shader im Spiel hat. Aber das haben die Spieleentwickler selbst in der Hand ob sie Shader spammen oder nicht. Und offenbar finden sie das Ruckeln nicht allzu kritisch.
Zitat:
Zitat von Denniss
(Beitrag 13839236)
Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump.
Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Zitat von Leonidas
(Beitrag 13832087)
Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren.
im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...
Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.
Zitat:
Zitat von crux2005
(Beitrag 13831627)
Keine Ahnung ob "besser", aber bekannter: Krisfix https://krisfix.de/
Lol... 230 für eine Reparatur bei N48? Das lohnt ja gar nicht. Nach 3 Jahren Garantiezeit kaufe ich mir lieber eine neue Graka falls so ein N48 Hops geht. :freak: Zumal die neue Graka dann auch etwa schneller sein dürfte. Und du hast halt alles wieder neu mit neuer Garantie. Aber danke für den Link, kannte ich noch nicht.
btw.
Und dann noch sowas. :freak:
Zitat:
1) der Preis enthält bis zu 5 SMD Komponenten (Kondensatoren, Spulen, Filter, Widerstände, Dioden und MOSFET exkl. DRAM und DrMOS)
Ist ein RAM-Chip Hops darfst noch mehr zahlen.
Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.
Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D
btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.