Zitat:
Zitat von Hakim
(Beitrag 13834009)
Ich finde die Erklärung gegen ein Balacing wie bei er Konkurrenz ehrlich gesagt nicht sehr überzeugend. Ich persönlich würde eher das von Ampinel holen. Aber muß jeder für sich selber Wissen.
Er hat ja Elektrotechnik studiert oder? Da wird er sich schon auskennen. Macht aber schon Sinn was er sagt, wenn du einen schlechten Kontakt hast musst du den widerstand auf allen anderen guten erhöhen, mehr wärme und Verlustleistung.
Aber wie schon gesagt, wenn es da wirklich viele fälle geben würde könnte er unmöglich die erweiterte Garantie anbieten.
Spoiler: old posts
Zitat:
Zitat von Sweepi
(Beitrag 11813208)
... Stand 09/2018
Zitat:
Zitat von Sweepi
(Beitrag 11840364)
... Stand 11/2018
Zitat:
Zitat von Sweepi
(Beitrag 12889668)
... Stand 01/2022
Zitat:
Zitat von Sweepi
(Beitrag 13714231)
... Stand 02/2025
Hatte ganz vergessen, den Kauf der 9070 XT einzupflegen...
@Robbitop: Dein "Update" fängt in der Uhrzeit mit FX 5900 und 6800 Ultra an, fügt 11 Einträge hinzu, und trotzdem war die ursprüngliche Liste bereits länger (12), hättest noch ein Update abwarten sollen für perfekte Symmetrie ;D
Radeon 9600 (9250? 9200? 9500? keine Ahnung....)
Nvidia 8800 GTS 640 MiB GDDR3 (erste selbstgekaufte... auf einer Lanparty das neue System gebaut - damals noch mit 5600+)
9800 GT Green 1 GiB (8800 ging 2 Wochen nach Garantieablauf vor die Hunde - G80 Speichergate)
3870 512 MiB GDDR4 (3850? leihweise von 'nem Freund)
GTX 285 1 GiB GDDR3 (hat jemand im Studentenwohnheim für 90.- verkauft)
GTX 680 4 GiB GDDR5 @Wakü
XFX Fury X 4 GiB HBM @Wakü
PNY GTX 1080 FE 8 GiB GDDR5X @Luft
Nvidia RTX 2080 Ti FE 11 GiB GDDR6 @Luft (Für 1260 im 10/2018 gekauft und für 850 im 06/2020 verkauft)
Asus Strix OC RTX 3090 24 GiB GDDR6X @Wakü (Für 2150 im 02/2021 gekauft und für 2550 im 12/2021 verkauft)
EVGA GTX 980 Ti SC2 6 GiB GDDR5 @Wakü (Die lag hier noch rum, hatte ich vorher nie benutzt. Jetzt habe ich sowohl Fury X als auch 980 Ti in Betrieb gehabt, und beide mit Wakü :D)
??? RTX 3060 Ti 8 GiB GDDR6 @Luft (Gebrauchte Karte aus einem OEM system... HP? gekauft fuer 300-400 (?!))
PNY RTX 4090 XLR8 VERTO 24 GiB GDDR6X @Luft @Linux :uban: (Für 1710 im 05/2023 gekauft und für 1880 im 02/2025 verkauft)
PowerColor(?) Vega 56 Nano 8 GiB HBM2 @Luft @Linux :freak:
Asus Prime OC 9070 XT 16 GiB GDDR6 @Luft @Linux :freak: (Für 700 im 03/2025 gekauft)
Ausgaben für Grafikkarten im Spielerechner:
Name Einkauf Verkauf Result Notes8800 GTS 640 330 0 -330 Broken, daher kein Verkauf 9800 GT Green 1 GiB ??? ? ?? Auch kaputt?GTX 285 90 verschenkt - 90 -GTX 680 4 GiB ~550 verschenkt(?) -550 -Fury X ~700(?) verschenkt(?) -700 -GTX 1080 ~800 300 -500 -RTX 2080 Ti 1260 850 -410 -RTX 3090 2150 2550 +400 -GTX 980 Ti 0 0 + 0 [1]RTX 3060 Ti ~350 verschenkt -350 -RTX 4090 1710 1880 +170 -Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner9070 XT 700 n/a -700
[1] Hab eine Zeitlang alte High-end Karten gekauft/gesammelt, dann aber die meisten verkauft - mit Gewinn, da Covid. Werte daher die 980 Ti als kostenneutral - hat natürlich Zeit "gekostet".
Spoiler: Tabelle
Name Einkauf Verkauf Result Notes
8800 GTS 640 330 0 -330 Broken, daher kein Verkauf
9800 GT Green 1 GiB ??? ? ?? Auch kaputt?
GTX 285 90 verschenkt - 90
GTX 680 4 GiB ~550 verschenkt(?) -550
Fury X ~700(?) verschenkt(?) -700
GTX 1080 ~800 300 -500
RTX 2080 Ti 1260 850 -410
RTX 3090 2150 2550 +400
GTX 980 Ti 0 0 + 0 *1
RTX 3060 Ti ~350 verschenkt -350
RTX 4090 1710 1880 +170
Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner
9070 XT 700 n/a -700
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Wir haben mit Hilfe eines metallischen Kontaktes, der Strom in eine organische Leuchtdiode fließen lässt und gleichzeitig das emittierte Licht verstärkt und aussendet, ein Pixel für orangefarbenes Licht auf einer Fläche realisiert, die gerade einmal 300 mal 300 Nanometer groß ist. Dieses Pixel ist genauso hell wie ein herkömmliches OLED-Pixel mit Abmessungen von fünf mal fünf Mikrometer, beschreibt Bert Hecht das zentrale Ergebnis der Studie. Zur besseren Einordnung: Ein Nanometer entspricht dem Millionstel Teil eines Millimeters. Damit würde ein Display oder Projektor mit einer Auflösung von 1920 mal 1080 Pixeln bequem auf eine Fläche von einem Quadrat-Millimeter passen. Ein solches Display könnte in die Bügel einer Brille integriert werden und das Bild auf das Brillenglas projizieren.
Zitat:
Zitat von Leonidas
(Beitrag 13832087)
Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren.
im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...
Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.
Zitat:
Zitat von crux2005
(Beitrag 13831627)
Keine Ahnung ob "besser", aber bekannter: Krisfix https://krisfix.de/
Lol... 230 für eine Reparatur bei N48? Das lohnt ja gar nicht. Nach 3 Jahren Garantiezeit kaufe ich mir lieber eine neue Graka falls so ein N48 Hops geht. :freak: Zumal die neue Graka dann auch etwa schneller sein dürfte. Und du hast halt alles wieder neu mit neuer Garantie. Aber danke für den Link, kannte ich noch nicht.
btw.
Und dann noch sowas. :freak:
Zitat:
1) der Preis enthält bis zu 5 SMD Komponenten (Kondensatoren, Spulen, Filter, Widerstände, Dioden und MOSFET exkl. DRAM und DrMOS)
Ist ein RAM-Chip Hops darfst noch mehr zahlen.
Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.
Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D
btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.
Zitat:
Zitat von Der_Korken
(Beitrag 13828293)
Ja, aber der RAM ist bei RPL "nur" 16% schneller als bei ADL (die 14% oben von mir waren falsch rum gerechnet). Daraus können keine 30% werden, ohne dass zusätzlich noch die Timings um ~14% runtergesetzt werden.
Du hast aber noch den L2 (2 MiB pro Kern anstatt 1.25 MiB pro Kern: +60%) und L3 Cache, plus deren bessere Anbindung.
Zitat:
Zitat von Der_Korken
(Beitrag 13828293)
Der Durchschnitt kann ja nicht größer sein als alle Einzelwerte, selbst wenn nur eine einzelne Komponente zu 100% limitiert.
Die "Komponente" die wohl limitiert wird wohl das Speichersubsystem sein. Das kann man durch Erweitern der Bandbreite als auch Reduktion der Latenz (beides durch mehr Takt bei selben Timings) reduzieren als auch mit Cache Verbesserungen (Anbindung & Größe + Organisation) bekämpfen, die den Bedarf an Bandbreite und Latenzabhängigkeit deutlich reduzieren.
Ich habe immer noch ein älteres Bios bei mir. Hatte es mit neueren einfach nicht so zum laufen gebracht wie gewünscht, sobald UV eingestellt hat es Leistung verloren und der Takt ging auch nicht mehr wie eingestellt hoch. Ist auch nur ein 13600K der etwas übertaktet ist. Sollte es wirklich mal Probleme machen (raptor lake problem) kostet ein neuer 14600k ~180, oder ich habe einen Grund aufzurüsten :)
Zitat:
Zitat von Matrix316
(Beitrag 13827798)
Vor allem weil die Karten nur noch halb so lange sind wie früher.
Nicht die Karten, sondern die Platinen. Musste es zwei mal lesen bevor ich es kapiert habe.
Da aber auch Implementierungen mit anders verlegtem Stecker (siehe Sapphires 9070 XT Nitro) das "Problem" haben, ist das maximal ein Teil der Lösung, aber nicht die Lösung. So wie auch der Wireview II Pro nur das Problem aufdeckt, aber nicht behebt.
So etwas aktiv überwachendes & regelndes wie Aquacomputer mit dem Ampinel hat, fest verbaut, wäre die Lösung. Oder halt ein weniger pfriemeliger Stecker mit ordentlich Sicherheitsmarge on top.
Um den Bogen zum Thema zu spannen: Dass das bei NVidia auch mal passiert ist zwar sehr unwahrscheinlich aber auch nicht unmöglich. Vielleicht läuft Volta in 10 Jahren ja unter Nouveau/Nova besser als mit dem NVidia-Treiber.
Zitat:
Zitat von Sardaukar.nsn
(Beitrag 13825902)
Die neuen Standards bestimmt in Zukunft maßgeblich China.
Ja. Natürlich. Klar :ufinger:
Zitat:
Daher kommt eh schon 90% der Ware. In den nächsten 10 Jahren wird man auch bei den ganzen Normen und Standards entscheiden: https://www.vdma.eu/viewer/-/v2article/render/4665076
Du meinst wie sie sich bei Wifi 6 auch einbrachten, und dann allen hinterherliefen Lizenzen für OFDMA zu zahlen?
Aber ok, wer kennt denn nicht die chinesischen Normen bei Netzteilen für Kleingeräte... Oder die chinesische Norm für Werkzeugstahl. Alles sehr sehr beeindruckend :freak:
PS:
Zitat:
Zitat von Shink
(Beitrag 13825920)
Warum denn auch nicht, wenn die den Krempel fertigen müssen und die Standards so auf Kante genäht sind.
Wir sollten sowas alles jetzt nicht auf den HPWR reduzieren ;)
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
Zitat:
Zitat von robbitop
(Beitrag 13823141)
Die sind da seit >10 Jahren drin - vor allem für den Imageprocessingteil. Da gab es noch keine GPUs mit Matrix Cores. Entsprechend hat sich dort historisch ein Ökosystem entwickelt. Und bis heute haben embedded GPUs noch keine Matrixcores.
A19/A19Pro haben diese.
Und werde die bis zur 6090 auch nicht hergeben. Mit dem 5800X3D wäre ich eh oft CPU limitiert und mein relativ kleines Gehäuse mag 400W+ Abwärme auch nicht so. Beides wird bei Zen 6 Release geupgraded, dann ist Platz für die 6090 da ;)