Zitat:
Zitat von mironicus
(Beitrag 13874835)
Es gibt auch noch Laptops mit RTX 5090 mobile für unter QUOTE=Gouvernator;13874787]Damit kann man noch böse auf die Schnauze fallen. Der Trend wird bis dahin auf Pro Modelle ab 10k€ gehen. Gaming Karten wird es keine mehr geben. Und wie ich vorher schon sagte, man braucht für ein vollwertiges KI/Zocker System mehrere GPUs. Das heißt schlimmstenfalls 1x Pro für 10K€ und paar kleinere Pro's für 3k€-5k€.
Man wird wenigstens mit einer alten billigen 5090 die nötigen Pro Karten ersetzen müssen. Oder wenn es ganz schlimm kommt , und die Pro's auf 15k-20k€ steigen - dann kann man mit seiner 5090 die nächsten 10 Jahre überbrücken.
Ich sehe das gerade an meiner 3090, da kostet eine Pro mit 24Gb 1800€.
Von dem Trend höre ich zum ersten Mal. Wofür zur Hölle brauche ich mehrere Karten? Und selbst wenn man da Nischen Szenarios stricken kann. eird niemand Spiele dafür entwickeln. Wer hat sowas und wer soll das bauen und bezahlen? Bestenfalls läuft dann ein kleines Modell auf der NPU.
Zitat:
Zitat von mironicus
(Beitrag 13874835)
Es gibt auch noch Laptops mit RTX 5090 mobile für unter 3000 Euro. Die hat ja auch 24 GB VRAM und ist besonders effizient, auch wenn sie nur mit 175 Watt läuft. Da spürt man noch nichts von der Krise. R9-9955HX 32GB 2TB SSD RTX 5090. Schaut euch den Idealo-Preisverlauf an. Tendenz war fallend in den letzten 3 Monaten. https://www.idealo.de/preisvergleich...6-captiva.html
Das war schon während der Mining-Zeit so. Die Preise für Laptops liegen stabil, während im Desktop Bereich alles explodierte. Das ergibt für mich irgendwie keinen Sinn, scheint aber wieder so zu sein. Effizienter sind die auch nicht. Ich kann meine 5090 auf unter 200 Watt drosseln, den 9800X3D in den ECO Modus setzen und und die Kombi wischt immer noch den Boden mit meinem Laptop auf. Da eine 5090 mobile maximal 10% schneller als mein Laptop ist, macht mich das aktuell nicht an.
Also Sample and Hold meint ja eig. nur, dass das Frame solange angezeigt wird, bis zum nächsten Refresh. Das schlieren entsteht nur auf deiner Netzhaut bzw. im Gehirn dann weil:
In Echtzeit betrachtet: Irgendwas bewegt sich auf dem Bildschirm beim zocken: Du folgst z.B einem Gegner und fokusierst den Kopf. Während der Bewegung folgt dein Auge eben "gleichmässig" dem Objekt.
In Zeitlupe: Eigentlich bewegt sich das Objekt "Stockend" über den Bildschirm, z.B alle 16.7ms bei 60fps (im Gegensatz zu deinem Auge, dass nicht alle 16.ms eine ruckartige Bewegung macht und dem Objekt folgt).
D.h das Auge bewegt sich gleichmässig weiter, während dem aber das Bild jedes mal 16.7ms stehen bleibt. D.h der Kopf des Gegners, den du fokussierst, "wandert" auf deiner Netzhaut, weil dein Auge bewegt sich weiter, während dem das Objekt (Kopf) auf dem Bildschirm gerade für 16.7ms still steht. D.h relativ gesehen bewget sich das selbe Objekt für 16.7ms über deine Netzhaut hinweg und "brennt" sich eine "spur" während dessen. So entsteht dann der "schmiereffekt", der allein durch die physiologie des Auges passiert und nicht durch das Display selbst.
Deswegen gibt es BFI und sowas: Es wird trotz 16.7ms refreshrate nur für ein paar wenige millisekunden das Bild angezeigt und beim Rest wird die Hintergrundbeleuchtung ausgestellt. D.h das Auge bewegt sich weiter, das Bild wird aber kürzer angezeigt, also ergibt sich dadurch eine weniger lange "Spur" auf deiner Netzhaut und somit ist es eben weniger verschmiert. Dadurch steigt die Schärfe bei Bewegung.
Das kann man auch durch eine höhere Refreshrate machen, aber man kanns eben so auch machen mit BFI. Das alles hat aber nichts mit der Displayqualität zu tun oder sowas. Das kann man nur durch diese 2 Wege verbessern (oder eigentlich auch durch weniger schnelle Bewegungen, also z.B die Empfindlichkeit nicht so hoch einstellen, z.B indem man mit nem Controller zockt).
Im Grunde ist das so ein bisschen wie bei einer Kamera, wenn die Belichtungszeit hoch ist und sich während dessen das Objekt bewegt, dann "brennt" sich eine Spur ein. Also zumindest das Ergebnis ist ähnlich. Bei der Kamera bewegt sich einfach das Objekt gleichmässig, während dem die Kamera stehen bleibt (also quasi genau anders rum).
Deswegen gibt es ja diese speziellen Kamerasetups, wo die Monitor-Tester die Kamera ein sich bewegendes Objekt am Bildschirm verfolgt, um Motion Blur des Monitors abzufotographieren, denn wenn die Kamera still stehen würde und das Objekt sich auf dem Bildschirm bewegt, würde es einfach wegen dem Effekt auf dem Kamerasensor schlieren ziehen (wenn man nicht grad mit 10'000 fps filmt).
Edit: Aber eben, man ist es sich eben gewöhnt, dass alles schmiert bei Bewegung.
Zitat:
Zitat von dildo4u
(Beitrag 13874600)
Es wird kein RR für 4.5 erwartet?
RR nutzt wohl schon ein teures Upsampling Modell und FP8.
https://www.reddit.com/r/hardware/co...struction_and/
Das sind doch völlig haltlose Spekulationen. Dass RR (insbesondere D und E) bereits ein deutlich größeres Modell verwendet ist seit Release bekannt, dass es asynchron zu SR geupdatet wird, ist auch nichts Neues.
Also kanns genauso gut sein, dass da noch in ein paar Monaten was kommt. Ich bezweifle, dass das nur wegen der Kosten jetzt zwingend stehen bleiben muss.
Zitat:
Zitat von Relex
(Beitrag 13874650)
Und dann kreidet man bei Horizon auch noch DLSS4.5 Artefaktbildung an, obwohl der Scharfzeichner im Performance Mode extrem übertrieben ist, selbst mit DLSS3... Was soll der Scheiß?! Warum kapiert das kein Reviewer und warum richten sie die Kritik an Nvidia und nicht an die Spieleentwickler?
Das ist einfach nur unprofessionell, technisch unsauber und irreführend. Zumindest wäre eine Aufklärung darüber das mindeste, so wie es Digital Foundry auch getan hat. Einfach nur die Scharfzeichner so hinzunehmen und dann DLSS4.5 für weniger Blur auch noch zu bestrafen ist lächerlich. Je schärfer ein Bild bereits ist, desto mehr Artefakte erzeugt ein Scharfzeichner nunmal. Das kann absolut jeder mit einem Bildbearbeitungsprogramm nachvollziehen.
Man kann ja faktisch feststellen, dass einige Spiele mit 4.5 out of the box zu scharf dargestellt werden. Wieso mann dann aber nicht die Ursache klar benennt und hier die Entwickler in die Pflicht nimmt, ist mir rätselhaft.
Das grottige Zwangs-Sharpen bei den Sony-Ports war schon immer völlig bescheuert...
Zitat:
Zitat von dargo
(Beitrag 13868737)
Ihr habt Sorgen. :freak:
Da hat man als AMD-Graka-User natürlich einen Riesenvorteil, da ist man an den Mangel und die Notwendigkeit zur Improvisation ja gewöhnt.
Zitat:
Zitat von Lawmachine79
(Beitrag 13868410)
Framework ist einfach völlig überteuerter Scheiss.
Da muss ich dir leider zustimmen. Hatte viel Hoffnung in die Firma und nahm an, dass sie nach einer schwierigen Startphase ihre Produktion so weit skalieren können, dass sie auch mal die Preise senken. Was glaube so sogar mal kommuniziert wurde. Aber offenbar wird auch Framework eher teurer statt billiger und fast den doppelten Preis zu zahlen im Vergleich zu ähnlich ausgestatteten Laptops, nur weil man eben modular ist und die nicht, finde ich übertrieben. (Aktuelle RAM Situation mal außen vor gelassen). Zumal Framework Dinge wie z-B. Lärmentwicklung bei Lüftern wohl immer noch nicht wirklich im Griff hat im Vergleich zur Konkurrenz.
Immerhin, man kann z.B. sein altes Framework-Mainboard ausm Laptop ausbauen und in ein kleines Desktop Gehäuse stecken zwecks Weiterverwendung.
Das Konzept der Modularität ist wirklich gut und das Design größtenteils durchdacht. Aber wie so oft stellt sich am Ende heraus dass es auch nur eine teure Hipser-Trend-Firma ist die sich an wenige, gut betuchte Leute richtet und gar nicht vor hat mit ihrem Konzept den Massenmarkt auf zumischen und so auch wirklich was zu bewegen.
Habe jetzt mal quick and dirty mit dem CP77 Bench getestet. Die Ergebnisse sind extrem nah beieinander. Avg FPS +1 bei 2800Mhz, dafür min FPS - 1. Bei 2.750Mhz das Ganze dann umgedreht. Werde bei 2.750 bleiben, schadet dem Speicher sicherlich nicht.
Zitat:
Zitat von Twodee
(Beitrag 13874074)
neue Generationen auf S1851 ? ;D
Ja. Ein einmaliges Upgrädchen. Zwar anscheinend feststellbar weniger als von 9800X3D auf 9850X3D (mehr so von 9800X3D auf 9810X3D) - und wohl nur aus PR-Gründen nach all den Shitstorms - aber immerhin der Ansatz eines mikroinkrementellen Umdenkens :usweet:
Zitat:
Zitat von aceCrasher
(Beitrag 13873694)
Sagt mal, denkt ihr dass Gebrauchtpreise der 4090 noch weiter steigen könnte, jetzt wo durch die Speicherkrise die restlichen Grafikkartenpreise wieder anziehen? Sie sind ja immer noch stabil bei ~2000 auf Ebay. Werden wir da eventuell noch mehr sehen? Was denkt ihr?
Ich liebäugele immer noch mit dem Gedanken meine 4090 zu verkaufen (dann hab ich sie quasi "für lau" besessen) und mir etwas deutlich günstigeres zu kaufen, da ich mittlerweile eh nicht mehr so viel spiele.
Die Gebrauchtpreise steigen gezwungener Maßen.
Um ehrlich zu sein hatte ich das Insolvenz Thema nicht mehr auf dem Schirm und die Dezember Zahlen vergleichen. Aber ja auch wenn man auf August weit nach der Insolvenz guckt bleibt die Aussage dennoch richtig. Weihnachten ist normalerweise der beste Monat im Jahr, dieses Jahr gab es hingegen die Halbierung.
Zitat:
Zitat von aths
(Beitrag 13869089)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Interessant, bei mir läuft der nimmer. Der 3dcenter Filtertester läuft noch, aber der zeigt das bei weitem nicht so krass.
Zitat:
Zitat von r3ptil3
(Beitrag 13871244)
Interessant... hatte den 285k nicht so stark in Erinnerung.
Er nutzt DDR5 8200 für Intel vs 6000 für AMD.
Kann sein das andere Reviews 6000 für beide nutzen.
Hogwarts Legacy machte doch beim zweiten Start immer nur eine art verifizierung die schnell durch lief.
Wobei das game vermutlich die gleichen calls wie bei der tatsächlichen kompilierung sendet und der Treiber dann entscheidet ob die kompilierung geskipped werden kann oder ob sie durchgeführt wird.
Meine 9070 Nitro+ ist nach wie vor unauffällig, vor einigen Wochen gab es auf Reddit jedoch eine weitere, ich glaube damit die fünfte Verlustmeldung für eine solche Karte. Bislang habe ich auch nicht vor, mir eine weitere Überwachungslösung zu kaufen.