Zitat:
Zitat von Dr. Lars Sahmströhm
(Beitrag 13874126)
Vielleicht besteht das "throttling" aber auch darin, dass der Speicher selbst dynamisch seine Timings verschlechtert.
Genau das meinte ich. Der Speicher hat eventuell intern eine Tabelle, welche Timings er bei welchem Taktbereich anlegt und du hast bei deinem Sweet Spot einfach die Stelle erreicht, wo die Timings alle auf eine schlechtere Stufe springen.
Der VRR-Flicker ist jetzt wirklich fast weg, wenn ich V-Sync always on und Enhanced Sync benutze. In KDC2 habe ich allerdings manchmal, wenn der Gro des Panels sehr dunkel, fast schwarz ist, dass manche OLED weiß aufleuchten, so als wären es Glühwürmchen, wobei ich mir sicher bin, dass es nicht die Game-Engine ist, sondern tatsächlich OLEDs die machen, was sie eigentlich nicht sollen. Wie auch immer, es tritt nur sehr kurz auf und verschwindet dann wieder völlig. Wahrscheinlich ein Bug in der Steuerung. Ein Defekt scheint es mir nicht zu sein.
Zitat:
Zitat von DerKleineCrisu
(Beitrag 13873837)
zur zeit gibt es halt ein Spiel noch dazu...
...und abgeschlossen das es noch einen Nachfolger für die A770 geben sollte.
Mittlerweile habe ich sogar zweifle das überhaupt noch eine weitere Desktop Intel Graka kommen könnte.
Warum ? Der Chip soll doch in Form einer B70 kommen, wieso sollten Sie es dabei belassen ? Ausser der künstlich hochgetrieben Preise (HBM / KI Gate ;) ) und Verfügbarkeit von GDDR6
Es gab Gerüchte das Nvidia sein ARM/Blackwell Chip in 2026 für Gameing Laptops bringt daher gibt es jetzt mher Halo Laptops mit weniger CPU Kernen aber voller GPU.
Du nutzt die eingebaute WiFi Card und hast keine per PCIe zugesteckt, richtig?
Weil es gibt manche AddOn WiFi Cards (von Intel.. ), die harte Inkompatibilitäten mit AMD Prozessoren haben, so dass das System teilweise einfach nicht startet oder random crashed.
Gib mal ruhig ein wenig mehr Infos zum System und was genau "Kann Windows nicht installieren" bedeutet.
Zitat:
Zitat von Twodee
(Beitrag 13874074)
neue Generationen auf S1851 ? ;D
Ja. Ein einmaliges Upgrädchen. Zwar anscheinend feststellbar weniger als von 9800X3D auf 9850X3D (mehr so von 9800X3D auf 9810X3D) - und wohl nur aus PR-Gründen nach all den Shitstorms - aber immerhin der Ansatz eines mikroinkrementellen Umdenkens :usweet:
Ich habe mir das "AsRock B850 Steel Legend WiFi" Board zugelegt und bei der Windows Installation musste ich feststellen, dass keine Wifi-Hardware erkannt wird.
Ein Blick ins Bios zeigt: Wifi ist eingeschaltet ! Neustes Bios wurde auch geflasht. Ergo: Wifi stellt sich weiterhin tot, da die Hardware überhaupt nicht erkannt wird. Dadurch lässt sich natürlich auch kein Windows installieren, da Windows die Hardware nicht findet.
Hat jemand ne Idee woran das liegen könnte oder ist da irgenndetwas bekannt ?
Auf dem Board hab ich ne "Rizer Card " und drei NVME SSDs stecken.
Zitat:
Zitat von gedi
(Beitrag 13873933)
Also 6400 1:1 sollte eigentlich auf fast allen 9xxx CPUs möglich sein, wenn der RAM dies zulässt. Schwieriger wirds ab 8200 mt/s. Stabil schaffen dies mit vertretbaren Spannungen nur sehr wenige CPUs. Mein alter 9950 konnte dies, der 9950x3d geht nur bis 8100 mt/s. Hier natürlich 1:2!
Wie spielt da der Prozessor mit rein? Bei 8200 muss man ja auch 2:1 nehmen, das sind ja dann nur 2100 MHz
UCLK - beim 1:1 geht der ja min auf 3 GHz.
AMD wird sicher nicht Alte Treiber veröffentlichen vielleicht das ist eine Beta ?
den aktuellem den ich mir grade runter geladen hatte von AMD ist AMD_Chipset_Software_7.11.26.2142.
Mobil AM4 keine Neue Updates ,
Desktop AM5 waren 2 Sachen die Neu Aktualisiert werden wollten.
Wenn du mal weiter in die Zip rein klickst kommt das vom 4.12.25
ich würde davon die Finger lassen und den Original Treiber von AMD
7.11.26.2142. nehmen.
Miniaturansicht angehängter Grafiken
Natürlich angestoßen durch den anderen Thread bei dem es um die Distributionen geht. Ich bin dadurch ein bisschen zum nachdenken gekommen und es würde mich wirklich interessieren.
Würde mich hier auf die hauptsächlich genutzten Geräte, die man quasi täglich, oder mindestens mehrfach pro Woche, hauptsächlich privat einsetzt. Also bei mir wären das eben mein PC und, seitdem ich einen separaten Spiele-PC habe, den eben auch noch. VMs, Ausprobiersysteme oder Live Systeme lass ich auch weg.
Dann komme ich auf:
Windows: ca. 13x (98, 2000, XP, 7)* in etwa 28 Jahren
Linux: 6x in 20 Jahren**
Linux habe ich also deutlich seltener "erneuert" als Windows, aber das mag ja nur bei mir so sein.
Wie schaut es bei euch aus? Ist es da ausgeglichener oder sieht man da auch eine Tendenz?
* Windows 3.11 habe ich auch selbst genutzt, ich kann mich aber nicht erinnern das mal selbst installiert zu haben. 95, ME, Vista und 8+ habe ich privat nie eingesetzt.
** Eigentlich 7x in etwa 25 Jahren. Ich hatte so um 2001/2002 rum mal eine kurze Phase in der ich versucht habe Linux auf dem Desktop zu verwenden, kein Dual Boot. Half-Life ging damals tatsächlich schon, aber sonst konnte man zocken größtenteils vergessen. Daher ging das nur so 1-2 Monate, wenn ich mich recht erinnere.
Zitat:
Zitat von Relex
(Beitrag 13873784)
Aber wie gesagt, im Endeffekt ist es eh egal, da die AMD User FSR wählen und die Nvidia User DLSS4.5.
Warum sollte da irgend jemand für DLSS4.0 stimmen, außer die 0,001% der Nutzer die vielleicht wirklich ehrlich abstimmen und dann vielleicht bei irgend einem Vergleich tatsächlich zu dem Schluss kommen, dass DLSS4.5 schlechter aussieht als DLSS4.0.
Solche Abstimmungen machen höchstens als Blindtests Sinn. Dafür sind die Computerbase-Beispiele IMO aber auch nicht repräsentativ genug. Sonst erschlagen menschliche Biases jede Erkenntnis.
Zitat:
Zitat von aceCrasher
(Beitrag 13873694)
Sagt mal, denkt ihr dass Gebrauchtpreise der 4090 noch weiter steigen könnte, jetzt wo durch die Speicherkrise die restlichen Grafikkartenpreise wieder anziehen? Sie sind ja immer noch stabil bei ~2000 auf Ebay. Werden wir da eventuell noch mehr sehen? Was denkt ihr?
Ich liebäugele immer noch mit dem Gedanken meine 4090 zu verkaufen (dann hab ich sie quasi "für lau" besessen) und mir etwas deutlich günstigeres zu kaufen, da ich mittlerweile eh nicht mehr so viel spiele.
Die Gebrauchtpreise steigen gezwungener Maßen.
Zitat:
Zitat von dildo4u
(Beitrag 13873711)
Ja Modell M schärft das Bild was zum Flimmern führt,
Nicht Modell M schärft, es erzeugt noch weniger Unschärfe als K und je nach Spiel ist dann die Standardschärfung zu stark.
Zitat:
das würde nur schlimmer werden mit einer höheren Basis Auflösung.
WTF, wieso sollte das mit mehr Auflösung schlimmer werden?
Zitat:
Aus diesem Grund erzwingt Nvidia das alte Modell für den Qualitäts Modus.
Nvidia erzwingt gar nichts du kannst das neue Modell auch mit DLAA wählen.
Nvidia empfiehlt das neue Modell mit Performance weil hier der Vorteil der Quality/Performance-Ratio am höchsten ist.
Zitat:
Zitat von mobsy
(Beitrag 13873429)
ich verneige mich vor eurer unfehlbarkeit, euch, denen noch nie im leben ein dummes mißgeschick passiert ist...
Das ist jedem schon passiert. Nur macht niemand außer dir ein Drama wegen eines Kratzers auf einem Bauteil das im Inneren des Computers verbaut wird.
Jeder normale Mensch ignoriert das einfach und findet es nichtmal Wert ein Wort darüber zu verlieren.
Wenn es sich um die Außenseite des Gehäuses handeln würde wäre es ja noch irgendwie verständlich.
Und viel Spaß beim Umbau, den ohne eine einzige Schraube zu verkratzen hinzubekommen ist gar nicht so einfach.
Die Entwicklung von Amuse wurde offensichtlich eingestellt, Comfy UI ist sowieso die bessere Alternative mit deutlich besseren Modellen für Bilder, Videos, Musik etc. Leider liefert AMD mit dem Treiber eine Uralt Version davon aus, wenn ihr Interesse daran habt ist es besser eine aktuelle Portable Version zu installieren.
Hey Leute, ich experimentiere gerade mit der Leistungskurve meiner 4090 Laptop GPU herum. Es geht darum, mit welchen Setting die Karte die höchste Taktfrequenz erreicht.
Ich suche daher einen Test, wo ich On-the-Fly sehe, wie sich die Boostclock/Spannung/Verbrauch verändern, wenn ich etwas im MSI-Afterburner oder im G-Helper verändere.
Dazu bräuchte ich quasi einfach irgendeine Art Benchmark, der die ganze Zeit denselben Inhalt zeigt, also wie ein Standbild aber mit maximaler GPU-Belastung. Mit Unigine geht es ganz gut, aber da hängt die Clock schon von der Szene ab, so dass die Vergleichbarkeit schwierig ist.
Die reguläre per Profil VRR-Option off im Treiber war schon immer Müll mit komisch langem Umschalten. Probier mal per Inspector im Anwendungsprofil Gsync - Application State Force Off. So handhabt der Treiber das standardmäßig auch für einige Videoplayer wie MPC HC, ohne, dass es zu dem langsamen Umschalten kommt.