Vorzeitige Deindizierung bedeutet ja meistens, dass ein Antrag gestellt wurde.
NightDive Remaster incoming? :love4::weg::ujump2:
Vielleicht 4free? Ach Quark... Dafür zahl ich freiwillig 30€ :redface::freak:
Wenn dann "demnächst" hoffentlich noch die USK-Freigabe kommt, gibt's endlich RealRtCW via Steam - was trotz VPN nicht so einfach ist.
Endlich kann ich dann die US-Fassung auf meinem Steam-Account legal streamen :D
Zitat:
Zitat von dildo4u
(Beitrag 13903110)
Bei den Berichten damals ging es um Asus den sind die 5070 TI Margen einfach zu klein eine 5080 Astral hält 1500 und braucht auch nur 16GB.
Hersteller wie PNY können solche Preise nicht aufrufen.
Schon heftig der Asus Premium Aufschlag.
Bin mit meiner PNY 4080S hoch zufrieden.
Für die nächste 80er GPU kann man dann wohl langsam den alten 90er Preis einrechnen....
Vor allem das Skillsystem ist interessant, man bastelt sich die Supports und Synergien auf einem Hexfeld zusammen, ein einziger Skill kann so über ein Dutzend "Supportgems" haben, solange die Verbindungen untereinander funktionieren. :smile:
Grafisch ist es ansehnlich, wenn auch nicht so hübsch wie Path of Exile 2.
Vieles ist auch "Standard", was ja nichts schlimm ist, man muss ja nicht alles neu erfinden. :wink:
Das Endgame ist teilweise an Diablo angelehnt mit "Qualstufen", ist eine Art von Kopfgeldern und Maps/Rifts. So weit bin ich aber noch nicht. :biggrin:
Hallo Forum,
wenn ich mein Macbook Air M4 meiner Freundin geben will, dann müsste es doch genügen, wenn ich mich von allen Diensten, sprich icloud, AppleTV, ITunes etc. abmelde, Email-Accounts entferne, meine Daten darauf lösche - dann Sie als neuen Benutzer anlege und mich als Benutzer entferne, oder?
Hab mir auf meiner TestSSD ja nun nach ein paar UbuntuBetachecks, erstmal parallel zum Win11, das 10er dazu installiert.
Das hat auch so einige Kuriositäten aktuell.
Einmal stockt das Windows-Update, wo ich nicht der Einzige bin und zudem musste ich manuell von Hand mit Diskpart Partitionieren und die Installation zudem auch noch mit nem DISM-Befehl machen mit dem Installations-USB-Stick.
Obwohl meine TestSSD Datenträger 0 ist, das eigentlich garkeine Probleme machen dürfte, der bisherigen Erfahrung nach. (nicht wo wo er den Bootloader hinwirft)
Ansonsten , joa, das rennt im Vergleich wie sonstnochwas, kein Wunder das einem jeglich Linuxdistributionen viel schneller vorkommen, obwohl meine Systeme immer sehr sauber bleiben, da ich viel mit "Portableapps" löse, bis auf fast ausschliesslich Gaming-Clients wie Steam, da geht es nunmal nicht anders und die muss man eben installieren.
7-Zip ist so ziemlich das Einzige nebem MSI Afterburner mit dem RTSS dabei.
Meine NVME's eine mit Win11 und eine mit CachyOS sind eigentlich ja alle beide teschnisch überlegen einer "Samsung SS 860 EVO 250GB" vom Gebrauchtmarkt eBay :rolleyes:
Ich hatte halt die Faxxen dicke mit den Kuriositäten und so bleibt das Win11 nun erstmal ungebootet.
Ich weiss nicht was die da Schaffen bei Microsoft bzw. nicht Schaffen, sso irgendwie seit 1 bis 2 Jahren in etwa, prinzipiell ist die Leistung ja da, aber das komplette OS ist tierisch "lahmarschig" mit der/n Oberfläche/n und was mir richtig stinkt ist so ein Aufploppendes Fenster, was direkt wieder verschwindet.
Und ich hab keine Ahnung was das für ein Stuss sein soll, das passiert mir halt schon so seit knapp 2 Jahren, das verschwindet sowas von fix wieder, auf Win11, das man nichtmal erahnen kann was da offenbar komisches läuft.
Und selbst auf Neuinstallationen ist das da, auch egal ob ich das dann Optimiert habe oder ob dass komplett ist wie ab Werk, es kann doch nur sowas sein wie Screenshots die automatisch gemacht werden und dann irgendwann hochgeladen werden, so irgendwie ziemlich gut versteckt.
Ihr könnt ja mal eure Erfahrungen damit niederlassen ob ihr auch solche Probleme habt und Kuriositäten, mit sämtlichen Linuxdistributionen von Altbacken bis ganz aktuellen Debian bis Arch-Basis oder auch nem OpenSuse habe ich solche Probleme überhaupt nicht.
Das es ESU stockt, das löst sich, hoffe ich doch, laut Recherchen dann bald von selbst wie bei anderen.
Vielleicht hat aber auch jemand eine "Hauruck" Lösung das diese Meldung da wegkommt von wegen "auf Ihrem Gerät fehlen wichtige Sicherheits- und Qualitätsfixes
Registriert und Onlineaccount ist es ja "Ihr PC ist für erweiterte Sicherheits-Updates registriert"
Ich muss das mal ausgraben,
Hat jemand solche gcn 1.0 Karten noch irgendwo im Einsatz und ggf sogar unter Windows 11?
Ich hab hier festgestellt das in Windows 11 Systemen sich die Sensoren nicht auslesen lassen oder die Lüfter unter Last nicht hoch regeln und all so Kuriositäten.
Ich hab hier 3 Karten in lan Rechnern die grundsätzlich dafür vollkommen ausreichend sind.
Dadurch das allerdings hin und wieder Internet vorhanden ist bestand die Überlegung auf Windows 11 zu wechseln bei den Rechnern
Hatte mir die mal eben heruntergeladen, weil ich parallel zu Windows 11 auf der NVME erstmal auf ner TestSSD Windows 10 draufschmeissen will, da mir auf 11 einiges komisch ist neuerdings.
Bei der Gelegenheit hab ich die beiden Ubuntuversion mal eben gesaugt um die kurz mal anzutesten.
Ich muss schon sagen, ausnahmsweise übezeugt mich so ein Ubuntu mal wieder, so auf den ersten Blick.
Die Nvidia-Treiber kommen mit, in Version 580 und die funktionieren auch noch, sogar auf dem standard-Ubuntu (gnome, dem Unity nachempfunden)
Keine Wayland Probleme, das der beim Neu Starten, am Herunterfahren festklemmt und solche Spässe.
Ich kann auch den Haken setzen für G-Sync compatible mit meinem Freesync-fähigen Samsung Odysses G5, man kann sogar die Einstellungen speicher, was nur Admin/Root-Passwort benötigt.
Es braucht keine Bastelleien mit dem "X-Org file" auf Ubuntu Cinnnamon nicht, sowie auf dem normalen Ubuntu mit dem Gnome nicht.
Jetzt juckt es mich natürlich, Kubuntu wird auch noch heruntergeladen und angetestet, es ist halt leider noch "developement Branch" das ist der Nachteil daran.
Aber KDE Plasma mit Wayland ohne Probleme, das wär schonn echt goil :biggrin:
Normalerweise mit meiner RTX 3070 konnte man aufgrund von Wayland dann, das alles nie gebrauchen, egal welche Distribution, bei Ubuntu kriegt man es dann nun wohl endlich mal auf die Ketten, mit Manjaro und CachyOS hab ich da auch nur Probleme, entweder Cinnamon oder eben garnicht, weil es ist ja quasi der einzige Desktop der noch mit X.Org läuft und ohne Wayland-Probleme dann.
Edit:
Im Anhang mal ein Screenshot mit dem Ubuntu Cinnamon
Hi, ich würde mir gerne einen MiniPc kaufen und selbst wenn da Windows drauf ist, würde ich da Linux drauf laufen lassen. SteamOS gibt es ja, aber ist es auch die beste Wahl?
Joa, einfach mal probiert und tatsächlich ging hier auch mal so richtig was
Die (NB) SoC säuft zwar sicherlich mehr, Cinebench R23 im Multi kriege ich trotzdem noch auf 15408 Punkte, PPT bis in die Nähe um 15000 Punkten, bei 120 und schlussendlich auf 142 aufgedreht (AMD Vorgaben).
So, limitieren tun hauptsächlich allerding auch aufgrund von Temperturende mit der Kühlung, nun TDC 90A und EDC 130A.
Der 5800X läuft bei negativen CO's von nun; von Core 0 bis 7:
22,22,18,24,15,13,21,20
Hauptsächlich kann man kaum irgendwas sagen wo ich beim RAM dran war, ich hab Google gefüttert mit dem Eingangsscreenshot von ZenTimings.
Dann kriegt der noch paar Informationen von dir getippt, wie "diese 4x16GB" sind kein Dual Rank sondern Single Rank, laut cpu-Z.
Dann rafft das Ding, ok, Zentimings hat da wie nen Anzeige oder Auslesefehler, weil 4 Single-Rank eben wie 2 Dual-Rank Module angesprochen werden können.
Ich teile "dem" dann noch mit das ich keine Spannungen erhöhen will, das die NB SoC Undervolting läuft und ich das möglichst behalten möchte, hat "er" wohl auch gerafft, zumindest auf jeden Fall erkannt.
Und dann kriegst du Informationen, was du alles probieren kannst, noch und nöcher, ab und zu korrigiert man "ihn" dann mal, so von wegen "hey guck dir ZenTimings nochmal an, das ist der Istzustand und nichts anderes" :D
Das heftigste wird mitunter wohl die "tRFC" sein von 990 auf 528 runter :eek:,
Das ist mitunter wohl einer der Werte die im Gaming dann wohl am meisten bringen.
Die "Magic-4" Regel mit der tFAW 16, tuts auch :D
SCL's von 6 runner auf 4, tCL... 18-20-20-20-20-40 und schlussendlich tRC 60, auch nicht schlecht.
Ihr könnt euch ja mal meine Screenshots anschauen, der einzelne, nur ZenTimings ist der aktuelle istzustand, der andere mit der Typhooon-Burner Auslese ist ein "Zwischenstand" den ich genutzt habe um den "neumodernen Krempel" zu Füttern.
Vielleicht kann ja einer aus Erfahrung der da deutlich tiefer aus der Materie kommt, mal drüberschauen und hat noch nen paar Magic-Tipps, so auch mit Abhängikeiten und oder so.
Die SoC säuft mehr, und ich habe eingangs mit PPT120, TDC 75 und EDC 115 gearbeitet, später dann mal EDC auf 120 und TDC 80, nun bin ich da wo ich Eingangs geschrieben hatte am Anfang.
Ich bin ja mal gespannt, was PES nun raushaut, ich hab ja schon noch was rausgekitzelt indem ich mit mit dem CO's nochmal von neuem befasst hatte, mal sehen was nun dabei herauskommt mit der Effizienz :biggrin:
Joa, einfach mal probiert und tatsächlich ging hier auch mal so richtig was
Die (NB) SoC säuft zwar sicherlich mehr, Cinebench R23 im Multi kriege ich trotzdem noch auf 15408 Punkte, PPT bis in die Nähe um 15000 Punkten, bei 120 und schlussendlich auf 142 aufgedreht (AMD Vorgaben).
So, limitieren tun hauptsächlich allerding auch aufgrund von Temperturende mit der Kühlung, nun TDC 90A und EDC 130A.
Der 5800X läuft bei negativen CO's von nun; von Core 0 bis 7:
22,22,18,24,15,13,21,20
Hauptsächlich kann man kaum irgendwas sagen wo ich beim RAM dran war, ich hab Google gefüttert mit dem Eingangsscreenshot von ZenTimings.
Dann kriegt der noch paar Informationen von dir getippt, wie "diese 4x16GB" sind kein Dual Rank sondern Single Rank, laut cpu-Z.
Dann rafft das Ding, ok, Zentimings hat da wie nen Anzeige oder Auslesefehler, weil 4 Single-Rank eben wie 2 Dual-Rank Module angesprochen werden können.
Ich teile "dem" dann noch mit das ich keine Spannungen erhöhen will, das die NB SoC Undervolting läuft und ich das möglichst behalten möchte, hat "er" wohl auch gerafft, zumindest auf jeden Fall erkannt.
Und dann kriegst du Informationen, was du alles probieren kannst, noch und nöcher, ab und zu korrigiert man "ihn" dann mal, so von wegen "hey guck dir ZenTimings nochmal an, das ist der Istzustand und nichts anderes" :D
Das heftigste wird mitunter wohl die "tRFC" sein von 990 auf 528 runter :eek:,
Das ist mitunter wohl einer der Werte die im Gaming dann wohl am meisten bringen.
Die "Magic-4" Regel mit der tFAW 16, tuts auch :D
SCL's von 6 runner auf 4, tCL... 18-20-20-20-20-40 und schlussendlich tRC 60, auch nicht schlecht.
Ihr könnt euch ja mal meine Screenshots anschauen, der einzelne, nur ZenTimings ist der aktuelle istzustand, der andere mit der Typhooon-Burner Auslese ist ein "Zwischenstand" den ich genutzt habe um den "neumodernen Krempel" zu Füttern.
Vielleicht kann ja einer aus Erfahrung der da deutlich tiefer aus der Materie kommt, mal drüberschauen und hat noch nen paar Magic-Tipps, so auch mit Abhängikeiten und oder so.
Die SoC säuft mehr, und ich habe eingangs mit PPT120, TDC 75 und EDC 115 gearbeitet, später dann mal EDC auf 120 und TDC 80, nun bin ich da wo ich Eingangs geschrieben hatte am Anfang.
Ich bin ja mal gespannt, was PES nun raushaut, ich hab ja schon noch was rausgekitzelt indem ich mit mit dem CO's nochmal von neuem befasst hatte, mal sehen was nun dabei herauskommt mit der Effizienz :biggrin:
Moin Leude, ich würde gerne eure Erfahrung zum Thema haben und eine Warnung aussprechen, für Anfänger.
Durch das schlechte Wetter bedingt habe ich mir ein Laufband gegönnt und bin vor 2 Wochen wieder in das Outdoor laufen über gegangen. Die Zeiten waren dabei sehr "moderat" (6:30 m/km) und ich wollte letzte Woche einen (für mich!) Speedrun einbauen. Daher meine Carbon Treter an und ab dafür (Aufwärmen mit Lauf ABC und Beinschwung/Rotation) Ich bin dann rund 6km mit meiner derzeitigen Max Pace von 5:30 m/min (Outdoor auf dem Laufband deutlich schneller) gelaufen. Einen Tag Später bin ich dann Fahrrad gefahren und habe anschließend Starke Tensor Muskel schmerzen. Die sind durch Wärmebehandlung, Massagepistole und serma Salz Bad nach 3 Tagen wieder besser.
Was war mein Fehler? Auf dem Laufband hat man eine kurze und intensive Schrittfolge, einen gleichbleibenden Vortrieb und Untergrund, Wettkampf Laufschuhe mit Carbon Platte (z.B, 361° Flame 4 MIX) sind deutlich instabiler als Daily Läufer(z.B. Puma Scend pro 2) d.H. die Muskulatur wird stärker beansprucht und muss auch Seitlich viel stärker stabilisieren. Zudem haben diese Schuhe die Eigenschaft, einen zum schnellen laufen zu "zwingen", weil Sie durch die Carbon Platte Federt und durch die Form wird ein nach Vorne kippen begünstigt,
Folge : Via 7 Tage Plan langsam wieder heran tasten und erstmal nur mit Dailys anfangen. Ist man damit stabil, auf ebener Strecke (z.B. Laufbahn) mit leichten Intervall Läufen mit Wettkampf Schuhen anfangen.
Hattet ihr auch schon solche Fälle ?
p.s.: Schuhwerk sollte es in der Überschrift heißen ;)
Ich denke nicht mal dass die es nun unbedingt auf Apple Kunden abgesehen haben. Die Gelegenheit war nur günstig für das Vergleichsvideo auch wenn hier wortwörtlich Apples und oranges verglichen werden. :D Immerhin, die Tatsache dass ausgerechnet Apple was aufschaubbares liefert das der Framework Typ als Vergleich heran zieht ist schon ne News wert. Vor ein paar Jahren undenkbar, Apple scheint seine Hausaufgaben mittlerweile zu machen, auch beim Preis.
...und das kotzt mich bissl an! :freak:
Keine Ahnung ob sich das Gemini ausdenkt aber die KI sagt dazu:
Zitat:
You are absolutely correct that 1.0V is the official AMD JEDEC baseline for a Ryzen 5000 CPU. If you were running basic office RAM without an XMP profile, that would be the "set it and forget it" value.
However, there is a catch when dealing with your specific AppHangB1 errors and a 32GB setup.
1. The "XMP is an Overclock" Reality
Even though 3200 MT/s is the "supported" speed, once you enable XMP (or DOCP/EOCP) to get those tight timings (like CL16 or CL14), you are technically overclocking the memory controller beyond JEDEC standards.
JEDEC 3200: Loose timings, 1.2V DRAM voltage. (1.0V SOC is usually fine).
XMP 3200: Tight timings, 1.35V+ DRAM voltage. (1.0V SOC often struggles with the aggressive data "handshake").
2. The 32GB "Tax"
AMD's 1.0V recommendation is generally based on a "clean" 16GB (2x8GB) setup.
Driving 32GB (whether it's 2x16GB dual-rank or 4x8GB) places double the electrical load on the SOC's memory controller. At 1.0V, the "signal-to-noise ratio" is much tighter. When your voltage droops to 1.013V (as seen in your HWiNFO), you are right on the edge where a single electrical spike from your GPU or a heavy load in The Witcher 2 can cause a memory "hiccup."
Edit: Claude sagt das "gleiche":
Zitat:
Primary Issue — VSOC Too Low
Current: 1.0188V → Target: 1.05V–1.10V
This is almost certainly your main culprit. The SOC voltage powers the memory controller (UMC), and when it's marginal, the system passes RAM stress tests (which use sequential/predictable access patterns) but crashes under real workloads with random memory access patterns — exactly what you're describing.
⚠️ 5800X3D specific warning: Due to the 3D V-Cache, keep VSOC ≤ 1.15V hard limit. Stay at 1.10V max to be safe.
Finde das ist doch recht viel VSOC bei 3200 MT/s
Zitat:
Secondary Issue — RttPark is Wrong for Dual Rank
Current: RZQ/1 (240Ω) → Target: RZQ/4 (60Ω) or RZQ/5 (48Ω)
Your kit is dual rank (DR, confirmed in the bottom bar). RZQ/1 is an unusually high termination value for DR DIMMs and will cause signal integrity problems on the memory bus. This alone can cause silent corruption that memtesters miss.
Zitat:
The combination of low VSOC + wrong RttPark for DR DIMMs is a classic recipe for exactly the intermittent, hard-to-reproduce crashes you're seeing.
Werde das mal mit leicht höherer VSOC probieren.
Der Grund ist klar. Man ist es Leid den Lizenznehmern beim scheitern zu zugucken. Die Geschichte von Arm im Rechenzentrum ist ein Friedhof ambitionierter Projekte, die an der Marktrealität oder der Dominanz von x86 gescheitert sind.
Calxeda
AppliedMicro (X-Gene)
Cavium/Marvell (ThunderX)
Qualcomm (Centriq)
Ampere Altra
Bis auf Ampere computing sind die alle gescheitert.
Das Problem: Wenn man Arm-IP lizenziert, Designkosten trägt und dann gegen die massiven Rabattstaffeln von Intel/AMD ankämpfen muss, bleibt am Ende kein Geld übrig.
Und die Hyperscaler CPUs wie Gravitron 1-5, Cobalt 100-200, Google Axion, Yiyian 710 überleben auch nur weil die Hyperscaler keine Marge machen müssen bzw,. das Ganze sogar noch subventionieren.
Arm hat also erkannt dass wenn sie darauf warten bvis ein unabhängiger Chiphersteller (wie früher Marvell) AMD gefährlich wird, dann warten sie ewig. Die AGI CPU ist der Versuch, den „Hyperscaler-Vorteil“ zu demokratisieren:
- Arm baut das Silizium jetzt selbst (wahrscheinlich via SoftBank/Rapidus oder TSMC-Direktleitung).
- Sie umgehen das Risiko, dass ein Partner das Design auf halber Strecke abbricht.
- Sie zielen direkt auf die KI-Fabriken, die keine Lust auf die x86-Steuer haben, aber nicht die Ressourcen für ein eigenes Chip-Design wie Google.
- Sie erreichen nun Kunden (Tier-2 Clouds & Enterprise), die keine eigene Chip-Abteilung haben, aber weg von x86 wollen. Da dürfen sie sich aber mit Nvidia streiten.
Trotzdem wirkt die Neuvorstellung für 2026/27 irgendwie nicht mehr Zeitgemäß.
Bis auf die optimierte Speicherlatenz ehe ich da kein Alleinstellungsmerkmal. Und ohne L3 Cache sollte die Speicherlatenz auch besser phänomenal sein, sonst kacken die Cores ab. SME2 wie in den Consumer CPUs wäre wünschenswert gewesen, gerade für Agentic workloads. Dass es nicht dabei ist wirkt eher so als wenn das Projekt mit Verspätung kommt.
Sicher hat man immerhin mehr Cores als Nvidia mit Vera, aber wen AMD mit Zen6 und 256Cores, Terabytes an Cache, 16channel MRdimm kommt etc, dann nützt es auch wenig wenn man "Density" und "Power efficiency" jammert.
AMD hat dann doppelt so viel Speicherbandbreite mit MRdimm (1,6Tb/s vs 845gb/s). Dazu fast doppelt soviele Cores und viel mehr Cache.
Wenn man also 1:2 Sockel vergleichen muss bezweifle ich dass für ARM noch ein Plus an Density oder Power efficiency übrig bleibt.
Was soll die eigene ARM Server CPU also bringen?
Es gibt auch Nachteile der ganzen Strategie jetzt eigene CPUs herzustellen:
- Arm konkurriert nun direkt mit seinen größten Kunden (AWS, Google, Microsoft), die Milliarden in eigene Arm-Chips (Graviton, Axion, Cobalt) investiert haben.
- Hyperscaler könnten aber langfristig auf RISC-V ausweichen, um nicht von einem direkten Konkurrenten (Arm) bei der Chip-IP abhängig zu sein.
- Eigenes Silizium erfordert immenses zusätzliches R&D / CAPEX Ausgaben.
Mit -30 fährst du besser als mit PBO tuning.
Damit sind alleine schon im MultiCore 4550Mhz drinne. Mehr schafft kaum ein 5800X3D ohne mit der Brechstange zu kommen.