Zitat:
Zitat von Holundermann
(Beitrag 13853889)
Für 10.000 ist das ja ein Schnäppchen.
Jap die 48 GB Speicher auslöten, sind bald deutlich mehr wert als 10k und das PCB kann man sich dann immer noch an die Wand hängen ;).
Ich glaube relevanter ist das Cashback von Asus :), also Cashback + Gutschein oder Resident Evil
Edit: Sry da hab ich Mist erzählt, steht "Der Teilnehmer erhält ein Cashback oder einen Gamesplanet-Code in der im Anhang aufgelisteten Höhe", daher entweder oder.
Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:
Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.
Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.
PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..
Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen
Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.
Zitat:
Zitat von phoenix887
(Beitrag 13849029)
Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie.
Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.
Zitat:
Zitat von Daredevil
(Beitrag 13843690)
Mit Thunderbolt 5 kannst du maximal 4x M3 Ultra zusammenschalten ( MacOS 26.2 ) und kommst auf 2TB VRAM. Und wenn du Bock auf basteln hast, kannste an die Macs auch noch ne AMD/Nvidia Karte anstöpseln per USB. ( https://x.com/__tinygrad__/status/1991927844562522311 )
Gilt das als MutliGPU? :D
Ja natürlich gilt das als multiGPU. Man muss eigentlich die Macs immer im Auge behalten. Aber das ist auch nicht günstig... Wenn ich bei Idealo auf 96Gb Ram klicke , dann sind es effektiv wie meine 72Gb Vram mit 3 Karten. Für etwa den gleichen Preis. 128Gb sind schon mal deutlich günstiger und 256Gb,512Gb sind quasi Schnäppchen... :uup:
Ne, in meinem Fall nutze ich AI als Resteverwertung. Quasi jede neue Grafikkarte ist künftige neue AI Karte. Ich kaufe "KI" nur noch in Teilstückchen dazu, falls es für irgendwas signifikant nützliches reichen soll.
Wie gerade jetzt mit 800€ 2-Slot 5070Ti. Für 60Gb LLMs. Wenn man eine recht frische 100B LLM per Systemprompt jailbreaken kann, ohne sie gleichzeitig dümmer zu machen, dann kommt man an erstaunliches Wissen heran. Um mal das Gegenwert für diese teure multi-gpu Spielerei zu verdeutlichen.
PS.
Für Vibe-Coding reichen lokale Rechenkapazitäten eh nicht aus. Wie ich feststellte, brauche ich für meine Verhältnisse 200B+ Modell mit minimum 70t/s, besser 150t/s...
Wozu so viel txt um ein Netzteil, das erst vllt mit der 6090 getauscht wird.
Bis dahin hat es 8 Jahren geballert, top Netzteil, can man nix meckern. (y)
Die Kosten für das Netzteil sind aber jedenfalls auf alle Hardware umzulegen und mit den Watt des jeweiligen Verbrauchers (Mobo, RAM, CPU, Graka, Pumpe, Lüfter, Beleuchtung etc...) zu gewichten.
Ich hatte bereits eine Asus Dual und eine Asus Prime. Beide deutlich schlechter als die TUF. Sowohl von der Kühlleistung wie auch von der Optik. Dual und Prime sind Plastikbomber. TUF ist Vollmetall und fühlbar schwerer.
Zur Kühlleistung: Eine Dual war selbst mit 84 % Powerlimit noch immer lauter als eine TUF bei 100 %.
Ich empfehle daher den Aufpreis zur TUF.
Vielleicht gibt es zum Black Friday noch bessere Angebote, aber ich bezweifle es. Für Grafikkarten war der BF noch nie sonderlich gut.
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D