Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .
welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !
Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?
Zitat:
Zitat von Raff
(Beitrag 13840823)
Ich fänds ja geil, wenn sich hier jemand so ein Teil holen und bei Liquid Extasy einen Wasserkühler schnitzen ließe. Was für dich? :D
MfG
Raff
Eigentlich interessant, aber meine nächste Karte hört auf UDNA/RDNA5. Bin sehr zufrieden mit meiner 9070XT, von daher habe ich keinen Grund etwas zu verändern. Die Treiber sind okay und dank Wakü-Block gehen -130mV immer, egal in welchem Spiel. Manche lassen gar -160mV zu. Der Vorteil ist, dass ich das Profil pro Game speichern kann und immer max. Leistung garantiert ist.
Die Power optimierte 5090 spart massig mehr Strom als default 5070Ti. In Path of Exile hab ich 4k@60 Hz 90W und mit 4k120 um die 120W. Die 5070Ti zieht 4k60 schon über 140W.
Zitat:
Zitat von Raff
(Beitrag 13839669)
Wäre es gefixt, gäbe es dazu einen Presse-Loop mit Tamtam. Da wurde bestenfalls etwas gebastelt, aber noch nix öffentlich Vorzeigbares. :)
MfG
Raff
Man merkt das es in die richtige Richtung geht ...
Sind wir mal ehrlich - zZ haut mir Acer ne B580 für CHF 175 um die Ohren. Für das Geld kriegst von Fraktion Rot oder Grün höchstens ne RX 6600 als Ladenhüter oder ein 3050 mit 6 GB VRAM - angesichts angeblich total hoher RAMpreise - irgendwie fraglich.
Zitat:
Zitat von Raff
(Beitrag 13830893)
Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D
Zitat:
Zitat von Hochzeit2
(Beitrag 13838790)
Nvidia bietet für den Privatuser keinerlei SLI / Multi- (KI)Möglichkeit an.
Als jemand, der mittlerweile in das Konzernthema IT-Securitiy abgerutscht ist, würde ich folgende generelle Aussage treffen:
JEDE APP die dir das verspricht ist Verarschung.
Und jeder der etwaige Apps nutzt ist selber Schuld. Zu 100%!
Das hat mit Nvidia nichts mehr zu tun. Die genutzte App kann dir einfach die Auswahl anbieten was du auf welcher CUDA GPU ausführen willst. Ich muss gerade wie ein Clown mit den verfügbaren 72Gb Vram jonglieren.
Um z.b. gpt-oss 120b mit TTS gleichzeitig zu nutzen oder SDXL, muss man diese kleinen Modelle zuerst starten. Damit später das große LLM gleichmäßig über alle GPUs verteilt wird. Macht man das nicht, dann bleiben bei jeder GPU vielleicht 2Gb frei insgesamt also 6Gb - aber das nützt einem nichts mehr, weil ein einizes 6Gb Checkpoint als Ganzes rein muss.
Und noch was zum Compute vs VRAM. Meine Tokenrate bricht um die Hälfte ein wenn ich gpt-oss 120b gemeinsam mit TTS nutze. Das ist bei 80t/s -->40t/s noch verkraftbar. Aber so ein APU wäre dann unbenutzbar. Es sei denn man steckt sich noch eine eGPU extra dafür.
ist das bei den Karten "normal" das die in 2D nicht mehr komplett runter takten (180MHz) wenn man die übertaktet hat bzw den Curve Editor vom MSI AB benutzt?
Wenn ich AB benutze wird mir 592MHz als Minimum angezeigt.
Spoiler: old posts
Zitat:
Zitat von Sweepi
(Beitrag 11813208)
... Stand 09/2018
Zitat:
Zitat von Sweepi
(Beitrag 11840364)
... Stand 11/2018
Zitat:
Zitat von Sweepi
(Beitrag 12889668)
... Stand 01/2022
Zitat:
Zitat von Sweepi
(Beitrag 13714231)
... Stand 02/2025
Hatte ganz vergessen, den Kauf der 9070 XT einzupflegen...
@Robbitop: Dein "Update" fängt in der Uhrzeit mit FX 5900 und 6800 Ultra an, fügt 11 Einträge hinzu, und trotzdem war die ursprüngliche Liste bereits länger (12), hättest noch ein Update abwarten sollen für perfekte Symmetrie ;D
Radeon 9600 (9250? 9200? 9500? keine Ahnung....)
Nvidia 8800 GTS 640 MiB GDDR3 (erste selbstgekaufte... auf einer Lanparty das neue System gebaut - damals noch mit 5600+)
9800 GT Green 1 GiB (8800 ging 2 Wochen nach Garantieablauf vor die Hunde - G80 Speichergate)
3870 512 MiB GDDR4 (3850? leihweise von 'nem Freund)
GTX 285 1 GiB GDDR3 (hat jemand im Studentenwohnheim für 90.- verkauft)
GTX 680 4 GiB GDDR5 @Wakü
XFX Fury X 4 GiB HBM @Wakü
PNY GTX 1080 FE 8 GiB GDDR5X @Luft
Nvidia RTX 2080 Ti FE 11 GiB GDDR6 @Luft (Für 1260 im 10/2018 gekauft und für 850 im 06/2020 verkauft)
Asus Strix OC RTX 3090 24 GiB GDDR6X @Wakü (Für 2150 im 02/2021 gekauft und für 2550 im 12/2021 verkauft)
EVGA GTX 980 Ti SC2 6 GiB GDDR5 @Wakü (Die lag hier noch rum, hatte ich vorher nie benutzt. Jetzt habe ich sowohl Fury X als auch 980 Ti in Betrieb gehabt, und beide mit Wakü :D)
??? RTX 3060 Ti 8 GiB GDDR6 @Luft (Gebrauchte Karte aus einem OEM system... HP? gekauft fuer 300-400 (?!))
PNY RTX 4090 XLR8 VERTO 24 GiB GDDR6X @Luft @Linux :uban: (Für 1710 im 05/2023 gekauft und für 1880 im 02/2025 verkauft)
PowerColor(?) Vega 56 Nano 8 GiB HBM2 @Luft @Linux :freak:
Asus Prime OC 9070 XT 16 GiB GDDR6 @Luft @Linux :freak: (Für 700 im 03/2025 gekauft)
Ausgaben für Grafikkarten im Spielerechner:
Name Einkauf Verkauf Result Notes8800 GTS 640 330 0 -330 Broken, daher kein Verkauf 9800 GT Green 1 GiB ??? ? ?? Auch kaputt?GTX 285 90 verschenkt - 90 -GTX 680 4 GiB ~550 verschenkt(?) -550 -Fury X ~700(?) verschenkt(?) -700 -GTX 1080 ~800 300 -500 -RTX 2080 Ti 1260 850 -410 -RTX 3090 2150 2550 +400 -GTX 980 Ti 0 0 + 0 [1]RTX 3060 Ti ~350 verschenkt -350 -RTX 4090 1710 1880 +170 -Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner9070 XT 700 n/a -700
[1] Hab eine Zeitlang alte High-end Karten gekauft/gesammelt, dann aber die meisten verkauft - mit Gewinn, da Covid. Werte daher die 980 Ti als kostenneutral - hat natürlich Zeit "gekostet".
Spoiler: Tabelle
Name Einkauf Verkauf Result Notes
8800 GTS 640 330 0 -330 Broken, daher kein Verkauf
9800 GT Green 1 GiB ??? ? ?? Auch kaputt?
GTX 285 90 verschenkt - 90
GTX 680 4 GiB ~550 verschenkt(?) -550
Fury X ~700(?) verschenkt(?) -700
GTX 1080 ~800 300 -500
RTX 2080 Ti 1260 850 -410
RTX 3090 2150 2550 +400
GTX 980 Ti 0 0 + 0 *1
RTX 3060 Ti ~350 verschenkt -350
RTX 4090 1710 1880 +170
Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner
9070 XT 700 n/a -700
Zitat:
Zitat von crux2005
(Beitrag 13831627)
Keine Ahnung ob "besser", aber bekannter: Krisfix https://krisfix.de/
Lol... 230 für eine Reparatur bei N48? Das lohnt ja gar nicht. Nach 3 Jahren Garantiezeit kaufe ich mir lieber eine neue Graka falls so ein N48 Hops geht. :freak: Zumal die neue Graka dann auch etwa schneller sein dürfte. Und du hast halt alles wieder neu mit neuer Garantie. Aber danke für den Link, kannte ich noch nicht.
btw.
Und dann noch sowas. :freak:
Zitat:
1) der Preis enthält bis zu 5 SMD Komponenten (Kondensatoren, Spulen, Filter, Widerstände, Dioden und MOSFET exkl. DRAM und DrMOS)
Ist ein RAM-Chip Hops darfst noch mehr zahlen.
Zitat:
Zitat von Matrix316
(Beitrag 13827798)
Vor allem weil die Karten nur noch halb so lange sind wie früher.
Nicht die Karten, sondern die Platinen. Musste es zwei mal lesen bevor ich es kapiert habe.
Da aber auch Implementierungen mit anders verlegtem Stecker (siehe Sapphires 9070 XT Nitro) das "Problem" haben, ist das maximal ein Teil der Lösung, aber nicht die Lösung. So wie auch der Wireview II Pro nur das Problem aufdeckt, aber nicht behebt.
So etwas aktiv überwachendes & regelndes wie Aquacomputer mit dem Ampinel hat, fest verbaut, wäre die Lösung. Oder halt ein weniger pfriemeliger Stecker mit ordentlich Sicherheitsmarge on top.
Um den Bogen zum Thema zu spannen: Dass das bei NVidia auch mal passiert ist zwar sehr unwahrscheinlich aber auch nicht unmöglich. Vielleicht läuft Volta in 10 Jahren ja unter Nouveau/Nova besser als mit dem NVidia-Treiber.
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)
Jedi Survivor habe ich mit den ganzen Patches und Einstelloptionen nicht so konkret im Gedächtnis.
Hat auch RT, DLSS und FG plus weiter modifizierte Engine von Fallen Order PS5 Build. Okay. Schon sehr interessantes Spiel.
Aber irgendwie speziell dieses Game und der PC Port mit den ganzen Patches.
Life is Strange True Colors mit UE4 fällt mir gerade so auf Anhieb ein.
Das zog überraschend am Limit.
Life Is Strange: Double Exposure mit UE5 zog AFAIR dann weniger.
Gleiches Studio plus Engine Wechsel. Das passt finde ich auch besser.
Würde Raff und aufkrawall auf jeden Fall zustimmen. Ist jedenfalls auch meine Beobachtung bislang.
Seit gestern läuft bei mir die Acer Nitro 9060XT und ich bin bislang sehr zufrieden. Was ich so nicht finden konnte: Die Karte schaltet die Lüfter auch komplett ab und ist auch vollkommen unauffällig im geschlossenen Gehäuse. Ich nutze sie bei 160 W Power Target, da das Netzteil nicht mehr das neuste ist.
Zusammen mit einem Upgrade des Ryzen 1600 auf einen 5700X (auf ASUS Prime B350A) und dem Wechsel auf eine M2 SSD ist das System mit überschaubarem finanziellen Aufwand (~550€) wieder auf einem aktuellen Stand und beerbt die Radeon 480 8GB.
Die Preise scheinen im Moment minimal höher zu sein, 359€ wird für die günstigste 9060XT mit 16 GB aufgerufen. Da waren die 329€ wirklich nur ein kurzfristiges Angebot...