Das erste Game mit Mantle war damals BF4! Allerdings hatte Nvidia den DX11 Wundertreiber rausgebracht und war Mantle damit ebenbürtig. Siehe auch Video von der PCGH damals. Mit BF Hardline.
Ja, bei der 7900XTX MBA wollte ich eine mit Honey Pad erwerben und nach dem Bezahlen (Paypal) war der User nicht mehr present und hat nicht mehr geantwortet.
Eben dies war mir nun eine 2-te Lehre,- die erste 7900 XTX Asus für Kollege habe ich nun nach einigen 100 Kontakten erhalten - die Karte nie aber den bezahlten Preis!
Ich kann den Kühler immer noch nicht richtig einorden, meine aber bei der Nitro wäre der etwas besser. Und die OC-Version dürfte eh max. 245W saufen. Sollte zumindest theoretisch keine große Herausforderung also sein.
Zitat:
Zitat von dmsephiroth
(Beitrag 13843859)
Wie macht sich die Asus Prime 9070xt vs z.B. eine Powercolor Hellhound 9070xt ?
Ist die Asus viel lauter?
Ja. Bei der Asus Prime XT würden sich eher max. 250W anbieten, was ja spielend mit dem Treiber geht, um sie wirklich leise zu bekommen.
Zitat:
Zitat von CyLord
(Beitrag 13843860)
Kuehltechnisch scheinen die XFX tiptop zu sein.
Bei hohen Lautstärken auch kein Wunder. :tongue: Und an einer XFX Swift XT ist kühltechnisch gar nichts tiptop. Selbst hier gehabt. ;)
Zitat:
Zitat von Daredevil
(Beitrag 13843690)
Mit Thunderbolt 5 kannst du maximal 4x M3 Ultra zusammenschalten ( MacOS 26.2 ) und kommst auf 2TB VRAM. Und wenn du Bock auf basteln hast, kannste an die Macs auch noch ne AMD/Nvidia Karte anstöpseln per USB. ( https://x.com/__tinygrad__/status/1991927844562522311 )
Gilt das als MutliGPU? :D
Ja natürlich gilt das als multiGPU. Man muss eigentlich die Macs immer im Auge behalten. Aber das ist auch nicht günstig... Wenn ich bei Idealo auf 96Gb Ram klicke , dann sind es effektiv wie meine 72Gb Vram mit 3 Karten. Für etwa den gleichen Preis. 128Gb sind schon mal deutlich günstiger und 256Gb,512Gb sind quasi Schnäppchen... :uup:
Ne, in meinem Fall nutze ich AI als Resteverwertung. Quasi jede neue Grafikkarte ist künftige neue AI Karte. Ich kaufe "KI" nur noch in Teilstückchen dazu, falls es für irgendwas signifikant nützliches reichen soll.
Wie gerade jetzt mit 800€ 2-Slot 5070Ti. Für 60Gb LLMs. Wenn man eine recht frische 100B LLM per Systemprompt jailbreaken kann, ohne sie gleichzeitig dümmer zu machen, dann kommt man an erstaunliches Wissen heran. Um mal das Gegenwert für diese teure multi-gpu Spielerei zu verdeutlichen.
PS.
Für Vibe-Coding reichen lokale Rechenkapazitäten eh nicht aus. Wie ich feststellte, brauche ich für meine Verhältnisse 200B+ Modell mit minimum 70t/s, besser 150t/s...
Zitat:
Zitat von Hakim
(Beitrag 13823663)
Gibt es immer noch Battlefield 6 wenn man intel CPUs kauft? :)
Edit: ok schon abgelaufen
Jetzt wieder, der 245KF für 165€ oder der 245K für 179€ und du bekommst eines der Spiele je nach Wahl on Top: https://www.proshop.de/CPU/Intel-Cor...uehler/3295787 Sid Meier's Civilization® VII
Assassin's Creed® Shadows
Dying Light: The Beast
Battlefield™ 6
Was man also nun bei der CPU inkl. Spiel spart, kann man in RAM den stecken. ;D
Wozu so viel txt um ein Netzteil, das erst vllt mit der 6090 getauscht wird.
Bis dahin hat es 8 Jahren geballert, top Netzteil, can man nix meckern. (y)
Die Kosten für das Netzteil sind aber jedenfalls auf alle Hardware umzulegen und mit den Watt des jeweiligen Verbrauchers (Mobo, RAM, CPU, Graka, Pumpe, Lüfter, Beleuchtung etc...) zu gewichten.
Zitat:
Zitat von dildo4u
(Beitrag 13842392)
Es ist doch ziemlich sicher das RDNA3 FSR4 bekommt die ganzen Notebook Chips bekommen bis 2027 keine Next Gen GPU.
Das wäre absolut cool wenns so kommt :cool:
So kann ich mit meiner 7900XT noch besser bis RDNA5 abwarten... noch besser für den 8700G...
Ich hatte bereits eine Asus Dual und eine Asus Prime. Beide deutlich schlechter als die TUF. Sowohl von der Kühlleistung wie auch von der Optik. Dual und Prime sind Plastikbomber. TUF ist Vollmetall und fühlbar schwerer.
Zur Kühlleistung: Eine Dual war selbst mit 84 % Powerlimit noch immer lauter als eine TUF bei 100 %.
Ich empfehle daher den Aufpreis zur TUF.
Vielleicht gibt es zum Black Friday noch bessere Angebote, aber ich bezweifle es. Für Grafikkarten war der BF noch nie sonderlich gut.
Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.
Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.
Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.
Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von dargo
(Beitrag 13840788)
Nee du, danke. Von Nvidia kaufe ich nichts. :) Und schon gar nicht einen völlig überteuerten Heizofen @RTX 5090. ;) Ich spiele momentan eh nichts anderes als AC: Shadows. Und das ist auch das einzige Spiel wo ich bisher FG nutze.
na Gut:smile:
stimmt, hattest ja schonmal erwähnt, also AC suchten
da gibbet schon paar nette Teile davon!
bin überzeugt das wird schon wieder und solange hat man ja auch noch andere Optionen
Nein, Igors Lab vergleicht überhaupt nix - sondern fasst eine Meldung von WTF Tech zusammen, die sich wiederum auf einen Blog von GMKtec beziehen ... einen Anbieter von PCs mit Strix Halo :freak:
Zitat:
Zitat von dildo4u
(Beitrag 13840149)
Es nutzt 5.3.2 von 2023
Bei der UE hat man seit Jahren auch den Eindruck, das die neueste 5.x Version dann die ist, die man eigentlich nutzen muss damit es besser läuft.
Hier sieht man wie komplex die Entwicklung ist und Epic hat nun wirklich nicht zu wenig Ressourcen.