Ich frage mich, wann der Peak erreicht ist. Ich tippe auf Januar/Februar 2027. Dann verticke ich den RAM und die 5090 und spiele wie der räudige Casual, der ich bin, mit 32GB RAM und der 9070XT. Ich hoffe, dass ich für das Geld, was die 5090 + der RAM Anfang 2027 bringen, ich Ende 2027 dann die 6090 gegenfinanzieren kann.
Zitat:
Zitat von dargo
(Beitrag 13868737)
Ihr habt Sorgen. :freak:
Da hat man als AMD-Graka-User natürlich einen Riesenvorteil, da ist man an den Mangel und die Notwendigkeit zur Improvisation ja gewöhnt.
Langsam kann ich die Vergleiche aber nicht mehr ernst nehmen.
Warum nehmen alle Reviewer ständig so viele Games die durch erzwungene Scharfzeichner ein absolutes schrott Bild erzeugen.
Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?
Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.
Müsste ebenfalls ein Gen3 QD sein. Ich würde auf 160Hz verzichten (120vs280), aber ich bin mittlerweile sicher, dass 120Hz in Kombination mit der überragenden gtg-Motion eines OLED völlig ausreichend sind für ein geschmeidiges und detailliertes Spielerlebnis. Ich kann selbst auf 60Hz kein LCD typisches Geschmiere erkennen. Diese UFO-Bilder auf den Test-Seiten sind auch nicht wirklich aussagekräftig, da sieht ein 120Hz Ufo immer beschissen aus, aber das nimmt man so nicht wahr.
Haupttreiber sind der günstige Preis, es ist der mit Abstand günstige 32er OLED, sowie die Möglichkeit DolbyVision nutzen zu können, falls mal ein Film geschaut wird. Die Lautsprecher brauche ich zwar nicht, aber mir gefällt auch optisch die entsprechende Verlängerung nach unten mit dem schönen, weichen Boxenüberzugflaum. edit: Erstaunlich ist auch, dass er zwar "nur" 120Hz hat, aber die Response Times, die Rtings gemessen hat, dürften so ziemlich die Besten aller 31.5er OLEDs sein. Selbst die Top-Tier Modelle mit 240Hz erreichen nur ca. die Hälfte (nicht, dass es real einen Unterschied macht, aber dennoch) wenn man die Hz-Stufen jeweils 1:1 vergleicht. Ergo: Ein 240Hz ist bei 240Hz zwar noch ein Stück schneller/responsiver, aber bei 120Hz deutlich langsamer und das setzt sich nach unten fort. https://www.rtings.com/monitor/reviews/dell/s3225qc
Bild1 war halt ne ungünstige Tageszeit, sprich wenig Schatten in der Morgendämmerung.
Bild2 mit der Sonne im Rücken hat doch ne richtige Schattengrenze.
oder
Du läufts mal ein bisschen rum, bis in den Bereich wo die Sonne nicht durch die Häuser verdeckt ist.
siehe Anhang (ultraperf, ... evtl. müsste man da bezgl. Schrift nachschärfen)
k.A. ob Megalights oder SoftwareLumen für die Schatten verantwortlich sind, sieht erstmal stimmig aus
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von Lawmachine79
(Beitrag 13868410)
Framework ist einfach völlig überteuerter Scheiss.
Da muss ich dir leider zustimmen. Hatte viel Hoffnung in die Firma und nahm an, dass sie nach einer schwierigen Startphase ihre Produktion so weit skalieren können, dass sie auch mal die Preise senken. Was glaube so sogar mal kommuniziert wurde. Aber offenbar wird auch Framework eher teurer statt billiger und fast den doppelten Preis zu zahlen im Vergleich zu ähnlich ausgestatteten Laptops, nur weil man eben modular ist und die nicht, finde ich übertrieben. (Aktuelle RAM Situation mal außen vor gelassen). Zumal Framework Dinge wie z-B. Lärmentwicklung bei Lüftern wohl immer noch nicht wirklich im Griff hat im Vergleich zur Konkurrenz.
Immerhin, man kann z.B. sein altes Framework-Mainboard ausm Laptop ausbauen und in ein kleines Desktop Gehäuse stecken zwecks Weiterverwendung.
Das Konzept der Modularität ist wirklich gut und das Design größtenteils durchdacht. Aber wie so oft stellt sich am Ende heraus dass es auch nur eine teure Hipser-Trend-Firma ist die sich an wenige, gut betuchte Leute richtet und gar nicht vor hat mit ihrem Konzept den Massenmarkt auf zumischen und so auch wirklich was zu bewegen.
Habe jetzt mal quick and dirty mit dem CP77 Bench getestet. Die Ergebnisse sind extrem nah beieinander. Avg FPS +1 bei 2800Mhz, dafür min FPS - 1. Bei 2.750Mhz das Ganze dann umgedreht. Werde bei 2.750 bleiben, schadet dem Speicher sicherlich nicht.
Zitat:
Zitat von Twodee
(Beitrag 13874074)
neue Generationen auf S1851 ? ;D
Ja. Ein einmaliges Upgrädchen. Zwar anscheinend feststellbar weniger als von 9800X3D auf 9850X3D (mehr so von 9800X3D auf 9810X3D) - und wohl nur aus PR-Gründen nach all den Shitstorms - aber immerhin der Ansatz eines mikroinkrementellen Umdenkens :usweet:
Zitat:
Zitat von aceCrasher
(Beitrag 13873694)
Sagt mal, denkt ihr dass Gebrauchtpreise der 4090 noch weiter steigen könnte, jetzt wo durch die Speicherkrise die restlichen Grafikkartenpreise wieder anziehen? Sie sind ja immer noch stabil bei ~2000 auf Ebay. Werden wir da eventuell noch mehr sehen? Was denkt ihr?
Ich liebäugele immer noch mit dem Gedanken meine 4090 zu verkaufen (dann hab ich sie quasi "für lau" besessen) und mir etwas deutlich günstigeres zu kaufen, da ich mittlerweile eh nicht mehr so viel spiele.
Die Gebrauchtpreise steigen gezwungener Maßen.
Um ehrlich zu sein hatte ich das Insolvenz Thema nicht mehr auf dem Schirm und die Dezember Zahlen vergleichen. Aber ja auch wenn man auf August weit nach der Insolvenz guckt bleibt die Aussage dennoch richtig. Weihnachten ist normalerweise der beste Monat im Jahr, dieses Jahr gab es hingegen die Halbierung.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Zitat von r3ptil3
(Beitrag 13871244)
Interessant... hatte den 285k nicht so stark in Erinnerung.
Er nutzt DDR5 8200 für Intel vs 6000 für AMD.
Kann sein das andere Reviews 6000 für beide nutzen.
Hogwarts Legacy machte doch beim zweiten Start immer nur eine art verifizierung die schnell durch lief.
Wobei das game vermutlich die gleichen calls wie bei der tatsächlichen kompilierung sendet und der Treiber dann entscheidet ob die kompilierung geskipped werden kann oder ob sie durchgeführt wird.
Meine 9070 Nitro+ ist nach wie vor unauffällig, vor einigen Wochen gab es auf Reddit jedoch eine weitere, ich glaube damit die fünfte Verlustmeldung für eine solche Karte. Bislang habe ich auch nicht vor, mir eine weitere Überwachungslösung zu kaufen.