Gerade für Ryzen kam letztes Jahr (iirc zweite Jahreshälfte oder so) durch Windowsupdates nochmal ordentlich Leistung hinzu. Sowas wie 10-15% waren das iirc. Benchmarks die älter sind kann man deshalb knicken.
Zitat:
Zitat von TheGood
(Beitrag 13871508)
Sorry das ist doch Quark, da sie es ja implementiert haben. Die Frage ist doch warum sie es 1. nicht finalisieren oder 2. wenns fknal ist, es nicht releasen.
Wo haben sie FSR4 für RDNA3 implementiert?
Zitat:
Zitat von Dr. Lars Sahmströhm
(Beitrag 13871479)
Es ist auch auflösungsabhängig. Elden Ring 4K musste ich auf -30mV, aber 2K scheint auch mit -40mV zu laufen, evtl. sogar etwas mehr, da muss ich noch testen.
Sag bloß... GPU-Last skaliert mit Pixeln? Mal was ganz Neues. :wink:
Zitat:
Zitat von Dr. Lars Sahmströhm
(Beitrag 13871479)
Die 9070 XT, die ich mit 60€ Cashback Ende Dezember für 609€ (effektiv 549€) gekauft habe, kostet jetzt 779€. Ich hab sogar noch das verlängerte Rückgabefenster. Bis 31.01.26 könnte ich sie noch retournieren. Was würden die sich freuen. Wenn das so weitergeht, ist sie dann bei knapp 900. :crazy:
Die Speicherkrise hast du verschlafen? :D Die Preissteigerung bei Grafikkarten war sogar angekündigt.
Zitat:
Zitat von OgrEGT
(Beitrag 13870377)
Wäre aber besser für die Augen da sie dann entspannter auf größere Entfernung fokussieren müssten/dürften...
Ich sitze in ziemlich genau 1m Distanz zu einem 55 Zoll TV. Glaubst du, meine Augen sind besser dran, wenn ich auf einen 27 Zoll OLED in 60-65cm Distanz wechsle?
Im Verhältnis ist der Kleinere weiter weg oder nicht? Er müsste in 50cm stehen, um die nur etwa halbe Bildfläche annähernd 1:1 wett zu machen. Also müssten meine Augen besser dran sein mit dem OLED, weil ich im Verhältnis zur Bilddiagonale weiter weg bin, ergo: Sitze ich zu nah vor dem 55er. Aber die Augen wären auf ein kleineres Fenster fixiert, würden sich in Summe weniger bewegen bzw. weniger stark hin und her springen, was u.U. langfristig den Augenmuskeln schaden, bzw. diese schlapp machen könnte, was dann zu Unschärfen in Weitsicht führen könnte, die aber theoretisch reversibel sein müssten.
Jetzt wo die Preise spürbar angezogen haben lohnt sich wieder die non XT besser. :ulol: Wahrscheinlich aber auch nur weil die alten Lagerbestände der non XT noch vorhanden sind. :tongue:
Hab immer wieder bemerkt, wenn ich beim ASUS Shop eine Benachrichtigung kriege (sogar mit guten Preisen) und die Ware ausverkauft ist, findet man später bei Alternate etc. wenige Tage später wenige lagernd zu extremen Preisen.
Ist es möglich, dass die mittlerweile über den ASUS Shop kaufen? Irgendwie kaum zu glauben.
Zitat:
Zitat von r3ptil3
(Beitrag 13871244)
Interessant... hatte den 285k nicht so stark in Erinnerung.
Er nutzt DDR5 8200 für Intel vs 6000 für AMD.
Kann sein das andere Reviews 6000 für beide nutzen.
Hogwarts Legacy machte doch beim zweiten Start immer nur eine art verifizierung die schnell durch lief.
Wobei das game vermutlich die gleichen calls wie bei der tatsächlichen kompilierung sendet und der Treiber dann entscheidet ob die kompilierung geskipped werden kann oder ob sie durchgeführt wird.
Meine 9070 Nitro+ ist nach wie vor unauffällig, vor einigen Wochen gab es auf Reddit jedoch eine weitere, ich glaube damit die fünfte Verlustmeldung für eine solche Karte. Bislang habe ich auch nicht vor, mir eine weitere Überwachungslösung zu kaufen.
Zitat:
Zitat von robbitop
(Beitrag 13869994)
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.
Da gebe ich dir recht, aber ich denke mit Raytracing/Pathtracing wird in Zukunft die Last auch bei geringen Auflösungen noch hoch genug bleiben.
Zitat:
Zitat von robbitop
(Beitrag 13869994)
Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27 32) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.
Ich träume ja auch eher von einem 37"/38" OLED für den Schreibtisch (42 sind mir zu groß), ich denke da wären 5K oder 6K schon angemessen, groß denken! :biggrin:
Zitat:
Zitat von Radeonator
(Beitrag 13869426)
Dann leg dich mal fest, hat nur mit der bisher bekannten Datenlage nichts gemein.
;)
NUn es ändert sich aber nichts daran das offiziell eben keine Stellungsnahme zu einer B770 kommt.
Da können noch so viele "Firmware B770" in einer software auftauchen wenn nix gesagt wird.
So lange sind es einfach nur Gerüche die da ständig aufkommen und auf Gerüche in Heutiger Zeit kann man einfach im moment nichts geben.
Ich für meinen Teil habe es echt aufgegeben auf eine B770 zu hoffen.
Die wird meine Meinung nach nicht mehr veröffentlicht.
Ich denke mal das dieses Secure-Boot-Zertifikate nur Wichtig ist
wenn man oft von verschieden von fremden Datenträgern öfters den PC bootet ,
oder fremde Datenträger am PC anschließt, was hier eh nie der Fall ist ,
Ältere PCs haben ja diese Funktion nicht im Bios und da ist oft Windows 10 installiert .
Ganz Alte PCs hatten ja früher im Bios die Funktion Boot.Sek oder so ,
da wurde der Bootsektor der HDD Schreibgeschützt das ist meiner viel Sinnvolle gewesen da gab es das Problem mit den Zertifikaten nicht,
wenn man dann z.b. von Windows auf Linux wechseln wollte musste man lediglich nur im Bios das nur kurz frei geben das der Bootsekttor Neu erstellt werden konnte .
Ich lasse das hier lieber auf ausgeschaltet weil es ja angeblich möglich ist das Updates dieses Zertifikate installieren können,
wenn da z.b ein Trojaner was installieren danach der PC nicht mehr läuft .
Zitat:
Zitat von Snoopy69
(Beitrag 13868682)
Dann nehme ich die Andere (noch org verpackt)
Und dann hat die nicht alle ROPs und du wirst nie wieder Spaß mit deinem Computer haben, weil du immer wenn du ihn einschaltest, daran denken musst, dass du nicht alle ROPs hast. :)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Das heißt, das erste Bild mit 16x, zeigt eine LOD-Berechnung schnell einigermaßen kreisförmig wird. Das zweite Bild, mit 8x, macht deutlicher dass der Kreis relativ genau aber nicht exakt getroffen wird.
Die 16x-Berechnung wird ungenau. Allerdings ist das halbwegs im Rahmen. Die widerlichen Zacken die bis 2x runtergehen trotz 16x sind zum Glück Vergangenheit. Dennoch interessant, woran es genau liegt. Textursamples sparen? Präzision bei der LOD-Formel sparen?
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von ItsMeK
(Beitrag 13868630)
Naja, der Framework stand bei mir auch zu Debatte. Ist schon cool. Aber wäre bei gleicher Ausstattung nochmal 100-200 mehr gewesen gegenüber meinem HP Mini inkl. 3 Jahre Vorort Service.
Gewinnst auch nicht wirklich viel an Modularität. Ich habe ja sowohl den HP auf Arbeit als auch das Framework Board daheim. Beide haben 2x M2 für SSD und 1x für Wireless. Framework hat noch einen PCIe x4 dazu. Für Netzwerk/USB hat der HP auch noch zwei so Erweiterungsslots.
Zudem ist der HP die Pro Version vom SoC der auch Memory Link ECC anbietet.