Zitat:
Zitat von mobsy
(Beitrag 13873429)
viel spaß mit eurer hardware, wie sie auch aussehen mag. ich bleib dabei, daß ich neuwertiges aussehen bevorzuge...
Also ich hätte lieber die Garantie als einen Kratzer am Kühler :freak: Also abwarten und erst tauschen, wenn Garantie erloschen ist.
Gigabyte wird sich ins Fäustchen lachen, sollte deine 5080 mit getauschtem Kühler innerhalb des Zeitraumes defekt sein :biggrin:
Zitat:
Zitat von Nightspider
(Beitrag 13873331)
Das hat weniger mit Physik zu tun als mit Chemie weil da unterschiedliche Emitter verwendet werden.
Vor allem wenn du die neuen 27 Zoller mit den alten 32 Zollern vom letzten Jahr vergleichst.
Abgesehen davon ist BurnIn kein Thema mehr.
Und wenn hält ein neuer 4k mit 27 Zoll länger als so ein alter 1440p OLED Screen mit 2 Jahre altem Panel.
Bei gleicher Bildschirmhelligkeit ist da mit Sicherheit kein relevanter Unterschied.
Die reguläre per Profil VRR-Option off im Treiber war schon immer Müll mit komisch langem Umschalten. Probier mal per Inspector im Anwendungsprofil Gsync - Application State Force Off. So handhabt der Treiber das standardmäßig auch für einige Videoplayer wie MPC HC, ohne, dass es zu dem langsamen Umschalten kommt.
GI auf 4 (Cinematic) ist deutlich weniger anspruchsvoll geworden (ca. 30% anstatt 50% Performance Reduktion)
"FastGeo Streaming" ist ein riesen Gewinn hinsichtlich Traversal Stutter
Mit 5800X3D bin ich ziemlich CPU limitiert (RTX 4090). Mehr als 80fps liegen auf der Strasse nicht drin. Bei GI = 3 ist nur 4K DLAA sinnvoll, bei DLSS-Q sinkt der GPU Verbrauch auf ~180W :D
Hallo,
welche Passwortmanager benutzt Ihr, wenn ja, warum welchen.
Ich steige langsam nicht mehr durch und ich will mich nicht allein auf den Browser verlassen.
ich weiß nicht so recht, wo ich das bringen kann. Es geht zwar um Gigabyte, aber eben auch um eine RTX 5080.
Ich möchte kurz meine sehr positive Erfahrung, die ich gerade mit dem Support von Gigabyte habe, schildern. Oft ist der Support der Hersteller und Anbieter ja eher mau, aber das, was Gigabyte gerade machen, das hatte ich so auch noch nie...
Vor zwei Monaten habe ich mir am Black Friday eine RTX 5080 Gaming OC gekauft. Die eigene Ungeschicklichkeit, Unachtsamkeit, von mir aus auch Blödheit, hat dazu geführt, daß ich mir etwa 4 Wochen später beim Reinigen einen Kratzer in den Lüfterrahmen, nunja, gekratzt habe. Keine Ahnung wie oder warum, aber er ist da und das deutlich sichtbar - AAARRRRGGGGHHHHH!!! :freak::freak::freak:
Mal geschaut, ob man da irgendwie Ersatz bekommt. Einen Laden in den USA gefunden sonst nichts. Joah, zur Not...
Also Gigabyte bzw. deren Support direkt angeschrieben und das Problem geschildert. Auch das eigene Verschulden erwähnt, und daß ich gerne für das entsprechende Teil bezahlen würde.
Erste Antwort: Bild der Seriennummer bitte - ok, kein Problem, gleich noch ein Bild der Rechnung mitgeschickt...
Zweite Antwort: Bild vom Kratzer bitte - ok, Problem! Weil ich ihn mit einer selbstklebenden Folie nach langem hin und her so verdecken konnte, daß man ihn nicht mehr sieht, und erst gar nicht bemerkt, wenn man es nicht weiß. Das sinngemäß so geantwortet.
Drei Tage Funkstille...
Ok, war wohl nichts, hab ich mir gedacht und dann kommt die Mail:
Sinngemäß vom Gigabyte Support:
Es tut uns leid, aber neu haben wir leider gerade keinen Ersatz da. Wir haben aber einen gebrauchten kompletten Kühler der Karte hier (Kühler, Rahmen, Lüfter), den wir ihnen kostenlos geben würden, wenn sie die Versandkosten übernehmen. Sie verlieren aber die Garantie, wenn sie das selber tauschen. Hier die Daten für den Versandschein...
Ja bitte und herzlichen Dank! :smile:
Und jetzt warte ich auf den "neuen" Kühler für meine RTX 5080 für 7,69€ ;D
Ein megadickes Dankeschön an Gigabyte!!! Ich bin schon ein wenig baff im Moment, weil DAS habe ich sicherlich so nicht erwartet. Hut ab und Wow!!!
So, danke fürs lesen. Finde kann man ruhig auch mal erwähnen sowas :smile:
Zitat:
Zitat von Relex
(Beitrag 13873303)
Perfekt sehen ist eh relativ. Und genau da hilft ein Scharfzeichner. Für viele sieht ein Bild mit scharfzeicher dann einfach besser und klarer aus.
Leute die hingegen sehr hohe Sehkraft haben oder mit einer Brille sehr gut sehen, würden den Scharfzeichner als störend und "zu viel" empfinden.
perfekt ist nicht relativ, es gibt ein biologisches max bei einem visus von etwa 2.
ziel sollte imo sein die unterste reihe der sehprobentafeln lesen zu können.
ich wage zu behaupten:
wer auf monitordistanz vom einsatz eines schärfereglers profitiert, profitiert im alltag von einer brille und sollte zum augenarzt.
Zitat:
Zitat von Relex
(Beitrag 13873303)
Aber egal, wir kommen vom Thema ab.
ich denke nicht.
wir haben doch identifiziert, dass sharpening zu ringing und damit zu problem mit dlss führt.
nach meiner argumentation ist sharpening für leute mit anständiger sehkraft überflüssig.
Hallo.Ich habe 2 LED Strips als Hintergrundbeleuchtung am PC im USB Anschluss. Ich habe eine schaltebare Steckdose und habe auch schon den Netzteilschalter ausgeschaltet. Trotzdem flackern beide LED Strips auch nach Stunden wenn der PC schon lange ausgeschaltet ist immer wieder für ne halbe sekunde auf. Das Problem habe ich erst seitdem ich das Netzteil getauscht habe und ne neue Grafikkarte eingebaut habe. Netzteil ist ein 750 Watt BeQuiet aber nach stunden entlädt sich ja kein Kondensator mehr. Bin ratlos.
Zitat:
Zitat von Semmel
(Beitrag 13873010)
Muss man doch nicht. Sonst würde man nicht verkaufen.
Am Ende ist es eine Preisfrage.
Wenn ich meine 5070 Ti in ein paar Monaten zum doppelten Preis verkaufen kann, dann mache ich das vielleicht. Dann kann jemand anderes seinen Spaß daran haben und ich hol mir eben wieder eine alte Karte auf dem Gebrauchtmarkt. Die Grafikkarte ist für mich nicht das Wichtigste und die 5070 Ti habe ich vor allem aus FOMO-Gründen gekauft. (was rückblickend betrachtet völlig richtig war)
Gebrauchtmarkt? Als ob die Preise dort, stabil bleiben...
Zitat:
Zitat von Daredevil
(Beitrag 13872906)
RAM im Spec zu nutzen ist kein OC
Eine 120 Low Cost CPU zu testen, die ihre Leistung erst mit teuersten HighEnd Ram halbwegs auf die Straße bringen kann, ist nicht realitätsnah. Spec hin Spec her. Für die großen Core i9 Modelle würde dieses Argument natürlich nicht gelten.
Besagter RAM kostet aktuell mindestens 1.200 zum Einstieg ;)
Zitat:
Zitat von robbitop
(Beitrag 13873219)
Statt einem „es wird so sein“ ein „es kann so sein“ liest sich IMO nicht schlechter und ist eindeutiger. Und durch die ganze Poständerei ist es gar nicht mehr so ersichtlich dass der Ursprungspost da unklarer war. Aber ok. :)
Es gab ein einziges "es wird" und das war beim Thema INT8 für PSSR2. Ist das 100% sicher? Nein. Macht es 100% Sinn aufgrund HW Specs der PS5 Pro und DNN Output-Qualität? Definitiv Ja.
Zitat:
Zitat von robbitop
(Beitrag 13873219)
Kannst du das etwas weiter ausführen? :)
3x3 convolution Acceleration ist ziemlich spezifisch. Es ist zwar eine sehr weit verbreitete Operation bei ML aber wenn man sich Tensor Cores von Nvidia anschaut (was seit Turing öffentlich ist), welche deutlich generellere Operationen zulassen, ist die Wahrscheinlichkeit sehr hoch, dass Sony bereits ein Konzept hatte. Also ein Co-Design von Algorithmus und dazu nötiger HW Acceleration. Das spart am Schluss Chipfläche und somit Kosten (massgeschneiderte Lösung). Eine NPU oder WMMA von RDNA3 wären deutlich flexibler gewesen, Sony hat sich aber dagegen entschieden. Jetzt sehen sie mittlerweile, dass man mit reiner 3x3 Convolution Acceleration etwas eingeschränkt unterwegs ist. FSR4 kann man mit einigem Aufwand noch auf die verfügbare HW umbiegen. Andere Dinge allenfalls nicht (FG, RR, generell neural rendering).
Zitat:
Zitat von robbitop
(Beitrag 13873219)
Ja waren sie eindeutig. Die Frage ist nur hätten sie es sein müssen? Aus technischer Plausibilität.
[...]
Ja so war es. Aber hätte es aus rein technischer Sicht so sein müssen? Wenn jemand überrascht ist was wie schnell wo rauskam spricht das potenziell dafür, dass zu der Zeit die Zusammenarbeit noch nicht so intensiv war und jeder noch seinen eigenen Weg ging.
Wie gesagt, Sony hat deutlich früher mit PSSR1 angefangen. AMD hatte mit FSR4 andere Vorraussetzung und HW-Grundlagen (RDNA4) sowie neuen und jüngeren Algorithmen Ansätzen (Visual Transformer und Co.). Hätte nicht zwingend parallel sein müssen, ist aber aufgrund der Rahmenbedingungen und Umstände so passiert. Vielleicht war AMD mit der absehbaren Qualität von PSSR1 nicht zufrieden. Ist auch eine Möglichkeit. PSSR1 ist evtl. bereits lange vor PS5 Pro Relase fertig gewesen. Das wissen wir halt nicht.
Zitat:
Zitat von robbitop
(Beitrag 13873219)
Mir ging es ja nicht darum, wie es gekommen ist sondern nur um aufzuzeigen dass leider viel zu selten das passiert was aus rein technisch plausibler Sicht auch ideal wäre. :)
Ja, ist leider so. Das liegt meistens nicht an den Ingenieuren ;)
Bin mir auch am überlegen eine Sparkle B580 als Ersatz zu holen. Wobei ich dann wieder sehe, dass eine gebrauchte deutlich günstigere RTX 3070 immernoch schneller ist. 12Gb Speicher, klar ja...
Zitat:
Zitat von Bismarx
(Beitrag 13872057)
Ist eine 9070 "High end"? Ich habe mir meine 9070 XT jedenfalls in ein altes System gesetzt (B450-Board mit 5700X3D). Die Karte war zum Kaufzeitpunkt schon wertvoller als der Rest des Systems. Das macht aber nichts, da selbst mit der alten CPU der Rechner eh eher im GPU-Limit liegt.
Vielleicht hat der eine oder andere keine Lust sich eine 1000-Karte in einen PC mit 400-500 Restwert zu schrauben. Aber wenn es keine Alternative gibt und es von der Performance noch halbwegs harmoniert...
HEHE meine ist noch in einem Intel i7 4990k die mehrpower im vergleich zu einer 6700xt ist jetzt nicht so prickelnd :) Der neue rechner wartet aber noch auf den zusammenbau.
Zitat:
Zitat von RoNsOn Xs
(Beitrag 13873044)
Cool, danke für die Info mit dem deutsch.
Edit: Scheint er aber nicht sehr gut zu verstehen.
Die KI von Amuse zaubert nicht immer 100% perfekt, was man ihr so vorgibt. Trotzdem bin ich sehr oft beeindruckt vom Output.
Ein weiteres Beispiel auf Deutsch: 2 Cowboys reiten in Sonnenuntergang
Miniaturansicht angehängter Grafiken
Ich habe mir neue Lüfter gegönnt und dabei ist erstmals aufgefallen das mein 5800x3d unter Last immer 90c erreicht.
Die neuen haben ein breiteren Drehzahlbereich - die alten hat man schlicht nicht so raus gehört.
Allcore boost sinkt dabei auf 4,07ghz
Wenn ich im Bios minus 25mv einstelle bei dynamischer Kernspannung
Einstelle sinkt der Takt sogar noch weiter - die Temperatur sinkt nicht
Sowas wie pbo oder ähnliches hab ich nicht gefunden - bin ich mit der Einstellung da auf dem Holzweg oder wo versteckt sich das?
Board ist ein Gigabyte - da sind Anleitungen gefühlt spartanischer als bei Andren Marken
Gibts da ne elegante Möglichkeit im Bios oder muss es ein Tool sein?
Bin leider die letzen 10 Jahre komplett raus mit Tuning
Als mein FX neu war hab ich mich zuletzt damit beschäftigt
Bei am4 war out of the box alles für mich in Ordnung bisher :ulol: