Die Frage ist doch nicht, wie es passiert ist, sondern ob man das Teil austauschen würde mit dem Wissen, dass die Garantie flöten geht.
Und in der aktuellen Zeit würde ich es nicht austauschen. Das Risiko, dass die Karte dabei kaputt geht ist evtl. groß - je nachdem wo man da ran muss. Und Garantieverlust wäre mir das auch nicht wert, da man ja weiß, dass 2026 und 2027 jedes Stück Hardware ein Vermögen wert ist, wenn es ersetzt werden muss. Wenn man überhaupt Ersatz bekommt. Die Hardwarekrise fängt ja gerade erst an. Der Höhepunkt ist noch nicht erreicht.
Ich würde den Kratzer auch erstmal lassen - every scratch tells a story.
Und dann, wenn die Garantie eh nach 2 Jahren vorbei ist, austauschen.
Zitat:
Zitat von masteruser
(Beitrag 13885150)
Da ich jetzt ein Auge auf die OLED Technologie
geworfen haben; meine Ausschluss Strategie.
34 Zoll zu breit und zu flach - bin an 32 Zoll gewöhnt.
Preis weniger als 700€.
UHD -> denn es gibt keine andere Auflösung.
Der Nachteil, das extrem teurere Grafikkarten benötigt werden, wird dadurch aufgewogen, das die Arc580 entsprechende KI Hochskalierungsfunktion nutzen und
es auch bei geringfügig schlechterer Bildqualität dies auch in 2K nutzen kann; wenn das Spiel durch zu wenige FDS in mittleren Details nicht spielbar ist.
Möglichst glänzende Oberfläche - semiglossy - QD-OLED
Lenovo Legion Pro 32UD-10, 31.5"
- schlechter Support und Qualität
Samsung Odyssey OLED G8 G80SD bzw. ähnlich
- sinnlose Smart TV Oberfläche
+ aber das beste Design
Somit verbliebe der : AOC Agon AG326UD, 31.5" !
Wenn der Preis unter 600€ / Angebot vorhanden ist, wird zugeschlagen.
- meine Präferenzen auch Design
- eigene Einstellsoftware für Windows
- überragende Bewertungen
Erfüllt dieses Modell; da gibt es noch ein Nachfolger, der KVM Switch ist
aber nicht im Interesse, was auch mit höheren Preis bezahlt wird.
Was auch immer du tust, kauf auf jeden Fall nicht den G80SD, auch wenn er billiger ist. Mach nicht den gleichen Fehler wie ich :redface:
Der AOC hat halt kein gutes EOTF Tracking und nur 165Hz, da würde ich vermutlich eher einen Anderen nehmen.
Zitat:
Zitat von robbitop
(Beitrag 13885198)
Man kann schon skeptisch bleiben ob PSSR2 wirklich in irgendeiner Form zu einem fsr4 lite für RDNA3 kommt. Wäre schön - aber ob es wirklich so kommt?
Das war nur so ein Gedanke, weil die PS5 Pro ja auch kein FP8 kann. Da könnte man ja auch die Idee kommen wenn man schon eine angepasste Version baut, die auch für PC RDNA 3+ zu bringen.
Steam Maschine hatte ich gar nicht auf dem Schirm, auch da besteht Hoffnung, allerdings muss die erstmal erscheinen ;)
Das FSR Modell für RNDA 4 könnte ja auch irgendwann mal ein Upgrade auf "4.5" vertragen, dann gäbs auch weiterhin eine Differenzierung zur RX 9000 (was ja ein Grund sein dürfte, warum es bisher kein offizielles FSR 4 auf RDNA 3 gibt)
Alle Stecker ab vom Board bis auf 24 Pin - 8 Pin CPU - CPU Lüfter und Power Knopf
Alle usb Buchsen am i/o mit ner Taschenlampe und nen Zahnstocher kontrollieren
Ich kann gar nicht in Worte fassen was alles sein kann aber es ist fast immer irgend nen Mist den man eig nicht auf dem Schirm hat. Genau gucken lautet die Devise
Zitat:
Zitat von BlackBirdSR
(Beitrag 13885107)
Wäre es denn für Entwickler so schwierig einen Schieberegler mit Vorschau für die Bildschärfe zu implementieren, ähnlich wie bei Helligkeit und HDR heute schon?
Dieser triggert direkt beim ersten Mal aktivieren von DLSS und Co. Und dann bei Bedarf?
Die Herausforderung ist, dass Spiele irgendwann fertig sind und die Entwickler aus einem zeitlich statischem Punkt eine Konfiguration ausliefern bei der sie der Ansicht (über die man diskutieren kann) dass sie für out of the box gut gewählt ist. Schärfefilter, Denoiser usw
Aber Upsampler sind hingegen ein moving target. Inbesondere seit 2025 ist da ja richtig viel passiert. Und jetzt injectet man die neuen Modelle in eine alte Konfiguration (so dass eine neue nicht valdidierte Konfiguation entsteht) und da gibt es dann negative Auswirkungen.
Klar wäre es vermeidbar wenn Scharfefilter und Denoiser usw alle exponiert gewesen wären. Da ist bei jedem die Philosophie anders. Ich denke einige Studios wollen einfach dass es out of the bix gut aussieht.
IMO ist es schwierig da einen Schuldigen zu finden. Einfach weil es eine dynamische Situation ist.
Und klar: das lässt sich für alte Spiele sofern der Entwickler will einfach patchen (Schalter für Schärfefilter/Denoiser oder heutistik für die Erkennung welcher upsampler genau aktiv ist die dann beides parametriert). Und ab jetzz auch in neuen Spielen umsetzen.
Was wir ja immer sehen, dass viele verschiedene Studios nicht immer alles optimal machen werden. Insofern halte ich viel davon solche Sachen aus den Händen des Entwicklers zu nehmen. Das wirkt übergriffig, führt aber zu Konsistenz.
Beispiele aus der Vergangenheit:
- specular flimmern obwohl man als Entwickler das verhindern kann (high frequency content verhindern oder den shader so schreiben dass für diesen die Abtastrate höher ist) -> der user musste brustl ineffizient mit ssaa gegensteuern
- Artefakte bei Alphatests trotz MSAA (Entwickler hätten Geometrie nehmen können oder wenigstens alpha to coverage usw) -> die IHVs haben mit TSAA gegensteuern müssen und bevor es das gab mussten die user mit ssaa gegensteuern
- hohe Latenz bei FSR-FG weil Antilag2 optional und nicht verpflichtend ist (dlss fg hingegen erfordert reflex)
uswusf
Ich denke was man seitens des SDKs da mehr Kontrolle übernehmen muss. Das war mit DLSS ein wesentlicher Baustein, der zu besserer Konsistenz über die Spiele hinweg führte. Wenn man Dinge per Empfehlung im guide dem Entwickler überlässt wird es nicht immer gemacht.
Kann mir gut vorstellen, dass in zukünftigen DLSS SDKs darüber dann die Kontrolle eingefordert wird.
Bald ist es soweit, das wohl beste Deckbuilder Roguelike jemals bekommt einen Nachfolger.
Early Access startet am 5.3.2026. Wenn es ähnlich ist wie im ersten Teil ist der Early Access bereits sehr umfangreich. Neben neuen Fähigkeiten, Klassen etc. gibts auch einen Coop Modus.
Den ersten Teil habe ich seit Kauf durchgehend installiert und spiele immer mal wieder ein paar Runden. Grade unterwegs auf dem Steam Deck ein absoluter Dauerbrenner.
Ein "Anime" Arcade Rennspiel mit Twin-stick Steuerung von Milestone (bekannt für Ride und MotoGP) was durchaus Potenzial hat wie ich finde. Ihr letztes Spiel war Hot Wheels Unleashed was ich aber technisch durchwachsen fand. Hoffentlich wird Screamer in der Hinsicht besser. Scheint die UnrealEngine 5 zu benutzen und ist etwas überschärft in Videos.
Moin!
Ich überlege meine Fritzbox 5530 durch ein Ubiquiti Cloud Gatway Fiber zu ersetzten. Hauptgrund ist die mangelhafte WLAN-Abdeckung der FB (trotz Mesh) bei uns in Haus und Garten. Die AP sollen letztendlich UniFi 7 Lite werden oder ähnliche. Da die Schwiegereltern (Ü70, DAU) mit im Haus wohnen und eine unserer Rufnummern nutzen (um Kosten zu sparen), ist ein DECT-Mobilteil pflicht. Aktuell nutzen sie ein FritzFon. Ich könnte für wenig Geld an eine Gigaset Go Box 100 kommen ... wenn ich das richtig verstehe, klemme ich die einfach an mein Gateway und die Zugangsdaten werden über ein SIP-fähiges Mobilteil aus der HX-Serie eingegeben. Alternativ bin ich über das Yealink W73P DECT gestolpert, welches relativ günstig in der Anschaffung ist und für die alten Herrschaften aufgrund der Tasten wohl gut bedienbar sein sollte.
Hat jemand von euch genau dieses Szenario oder etwas ähnliches umgesetzt und kann Erfahrungen teilen oder hat ggf. Alternativen? Das Thema DECT-Telefonie ist der letzte Punkt, der mich von diesem Projekt abhält. Unser ISP ist aktuell 1&1.
und stelle mir die Frage, was könnte ihn nach nur 5 Monaten Betrieb gekillt haben (Kaufzeitpunkt allerdings schon 3 Jahre her)?
Betriebsparameter CO-30mV, VSoc 1050mV, VDDR 1.45V (XMP)
Temps laut Steam Overlay, selten aber doch mal gelegentlich 80°C,
natürlich Anschlag 90°C in Stresstests und beim Shader Kompilieren.
Lief bis zuletzt absolut fehlerfrei, bis der Bildschirm einfror und danach
das Sys nicht mehr booten wollte.
[ ] AsRock B550 Phantom Gaming ITX/ax
[ ] AMD Wraith Stealth (Alublock, kein Kupfer oder Pipes)
[ ] 1.45V DDR4 Spannung
[ ] X4 Foundations
[ ] Fortuna
die zweite Frage ist, wo bekomme ich noch einen her,
wird AMD heuer performante AM4 CPUs wieder neu auflegen?
Wir hatten die Limits doch zum Launch gesehen viel mher als 700 gibt kaum einer aus und natürlich können immer weniger Leute dank den Ram Preisen komplett neue Systeme bauen was die Nachfrage senkt.
Man muss den aber nicht vollständig Neu installieren ,
klickt in die Fehler wenn da steht bereits installiert sonst nix abwählen weil aktuell ist ,
wenn da steht Update An lassen wird nur das Aktualisiert was notwendig ist .
Zitat:
Zitat von DrFreaK666
(Beitrag 13884205)
Na dann :)
Have fun
Haha ja danke👍 mit Steam einfach runder das Teil und bevor ich dauernd Treibern nachjage😆!
Kommt momentan nicht, weil die neue .bat noch nicht gemerged worden ist. Ist halt ausversehen aus der letzten pre9 vom Discord reingerutscht :redface:
Halte mich aber auch jetzt strikt an den master-Branch auf GitHub, da ich auch alles andere mitbauen kann und nur die neueren FSR-DLLs austauschen/einfügen muss
Irgendwie will mein Ryzen 9850X3D nicht über 5650 boosten. Habe PBO Enabled, +200 Mhz.
Im Bios steht auch ein ausgegrauter Wert: "Cpu fused boost clock limit" und der steht auf 5650. Kann man den Ryzen 9850X3D nicht die üblichen +200 Mhz höher boosten?
Zitat:
Zitat von Holundermann
(Beitrag 13883339)
Spiel gerade High on Life 2 und was einem da geboten wird für die verlangte performance ist nicht gerade gut. Lumen ist ein Witz - überall popen Lichter auf in kürzester Entfernung, Die Reflexionen in die BVH Struktur schauen furchtbar aus und sind mit SSR überlagert - zu allem überfluss hat das Spiel zumindest in den ersten Levels überall reflektierende Oberflächen. Die Schatten sind teilweise broken (zu geringe Auflösung/verbugt?) und auch mit Screen Space Shadows überlagert - auch überall popin.
Das lightning schaut in innenräumen aus wie ein Ameisenhaufen - man erkennt die sehr grobe Probe Struktur und die temporale Instabilität - fast schlimmer als PT Cyberpunk mit Standard denoiser :).
Hab jetzt mal HW Lumen in der Config aktiviert und es schaut zwar besser aus aber immernoch meilenweit entfernt von gut. Vorallem wenn man das mit Insomniac Reflexionen vergleicht (Ratchet und Clank) ist das ein Trauerspiel - das kam vor bald 5 Jahren auf der PS 5 - und nichtmal die Qualität schafft die UE5 nach 5 Jahren! Performed dafür richtig schlecht - bin jetzt unter 60 FPS mit Q Upscaling auf einer 5080 - was gut spielbar ist aber für das gebotene ein Witz.
Die UE5 enttäuscht fasst auf allen Ebenen in dem Spiel:
Nanite scheint weitestgehend gut zu funktionieren auch wenn man weiterhin minimales Popin erkennen kann wenn man sich darauf konzentriert - fällt aber im allgemeinen Spielgeschehen nicht auf.
Irgendwie kommt die Engine auch nach all den Jahren nicht in die Gänge - hoffentlich richtet megalights das schlechte Lightning.
Du bist gleich doppelt angearscht, weil UE5 absolut miserabel auf nVidia-Hardware läuft. ;D
UE5 ist ein großartiges Beispiel, wenn Firmen mit zu viel Geld eine Marktmacht erreichen, die in ein Monopol endet. Mit der kostenlosen Verfügbarkeit hat man schlussendlich jegliche Innovation im Engine Markt abgewürgt und nun bekommt man den selben 08/15 UE5 Rotz von fast jeder Firma vorgesetzt.