Jup, bei frühen Revisionen des Boards war neben dem ATI Crossfire Logo auch das nVidia Logo für SLi abgebildet, aber das Board hat (egal in welcher Revision) kein SLi Zertifikat von nVidia. Also SLi lässt sich nicht aktivieren, es sei dann man nutzt direkt eine Dual-GPU wie z.B. eine GeForce 7950 GX2 oder GTX690.
Spiele seit ein paar Wochen auf meinem Asus Pulsar Monitor und bin absolut zufrieden. Habe seit einem Jahr einen Philips CRT HD mit 720p und der hat mich bzgl. Bewegtbildschärfe einfach wieder angefixt. Spiele sehen soviel besser aus, wenn die einfach ultrascharf in Bewegung sind. Könnte man am PC mit hohen Hz und FrameGeneration noch irgendwie das erreichen, OLEDs sind einfach nicht wirklich nutzbar dank dem VRR-Flimmern.
Die aktuellen Pulsar-Geräte sind dann doch ziemlich gut. Ich sehe kaum VRR Flimmern, die Implementierung läuft astrein, ist selbst auf dem Desktop nutzbar. Der Lichtsensor funktioniert auch einwandfrei. Das Coating ist dieses semi-glossy Ding, das auch schon andere IPS Panels haben. Nichts zu vergleichen mit den Unsinn den bei den 360Hz G-Sync Monitoren verbaut wurde.
Das Firmware-Update hat nun auch die Möglichkeit von ULMB2 bei 60Hz und 120Hz sowie per HDMI hinzufügt. Und beim Hz60 kann man auch die "Pulse-Weite" einstellen. Da kommt schon sehr nah an CRT ran. Aber als PC-Monitor durch das Flimmern eher bedingt nutzbar.
Naja, wer sich nicht alles ansehen will: Geometrie ist der Input für das fertige Bild, somit dient Geometrie als Grundlage für DLSS 5. Also exakt alles so, wie bisher auch.
Viel lustiger finde ich, dass der Mensch aus dem Fernseher immer noch denkt, man könnte anhand eines 2D Bildes keine Aussagen zur Geometrie und zur Tiefeninformationen treffen.
Also hier mit einer 9070XT unter Arch mit Proton-GE reicht es aus:
- OptiScaler ganz normal zu installieren, wenn ich DLSS oder FSR < 3.1 auf FSR 4.1 upgraden möchte
oder
- PROTON_FSR4_UPGRADE=1 zu den Startoptionen in Steam/Heroic/etc. hinzuzufügen wenn FSR 3.1 oder höher verfügbar ist.
Hauptsache die amdxcffx64.dll liegt in beiden Fällen neben der Game.exe, dann wird auch die alte 4.0 DLL im Prefix ignoriert. Kann man mit PROTON_FSR4_INDICATOR=1 überprüfen...zeigt als Build-Datum dann den 26. Feb. an.
Keine Ahnung was die Leute für verkorkste Setups fahren...
Zitat:
Zitat von Gouvernator
(Beitrag 13881226)
Noch 8 Stück verfügbar unter 4k. Greift zu. ;D
Beste KI-GPU zur Zeit ist 5070Ti. Läuft alles 1A. Als eGPU im Laptop mit Pinokio WAN2GP. Wichtig sind nur 64Gb RAM im Laptop.
Dies läuft 0 Stück besser als auf einer 9070 non-XT! Der NV geht wie der AMD, bevor man anfängt zu rendern der VRAM aus. Woher ihr eure Infos zieht.,,
Es ist sicher ganz coool soviel power zu haben und das man Microsoft Pluton gleich mit in der Hardware hat, ein Security Chip auf Kernel Ebene von Microsoft.:biggrin:
Have fun den scheiss brauch ich sicher nicht.:freak:
Ich hab die KX 7000er auf dem Radar, mir egal was diese zu neuen westlichen CPU an Leistung hat aber so eine CPU + Board daheim zu haben ist doch schön:biggrin:
Soo schlecht kann die KX 7 Serie nicht sein, hatte ich doch erst vor einem Monat mit einem FX 8350 Arc Raiders mit avg 76 FPS gezockt:P
Ja Bilder wären toll, klingt so als lief die Karte nur auf 3 von 6 Powerpins oder dein Kollege ist der schlimmste Kettenraucher aller Zeiten und das Nikotin hat sich auf die Pins gelegt :-D. Ich hatte mal ne RX 580 gebraucht gekauft die kam direkt aus der Shisha Bar, die war klebrig und stank wie die Pest. Komplett zerlegt und mit viel Ethanol gewaschen läuft seitdem aber ein HDMI Anschluss geht trotzdem nicht mehr richtig.
So, are you looking for reliable Scientific Paper Writing Services in Avondale, Arizona, US? Yeah, that search can get frustrating pretty quickly. Thats where WordsDoctorate steps inkind of like someone who actually gets what youre dealing with. They offer expert academic writing support thats tailored to meet proper scientific and research standards, not just surface-level stuff. And their writers? They come from real scientific backgrounds, which honestly makes a difference when you need something accurate, well-researched, and clearly structured.
With Scientific Paper Writing Services in Avondale, Arizona, US, WordsDoctorate handles the whole process. Topic selection, literature review, data analysis, formatting, editing all of it. You dont have to juggle everything yourself, which, lets be real, can be overwhelming.
They focus on plagiarism-free work that actually fits journal and university guidelines. Plus, theyre reliableon time, confidential, no stress. Whether youre a student or researcher, WordsDoctorate just makes things easier.
Zitat:
Zitat von Sonyfreak
(Beitrag 13896540)
Welchen Nachteil hättest du, wenn Nvidia selbst solche Einsteigerkarten ausschließlich mit der doppelten RAM-Menge (12GB) anbieten würde? Die kosten Nvidia im Einkauf vermutlich 10 bis 15€. :confused:
mfg.
Sonyfreak
Die Frage lässt sich im Kontext des Themas für mich nicht sinnvoll beantworten, daher versuche ich es anders zu formulieren:
1.) Wenn es nur 12GB Minimum gäbe, erübrigt sich das Thema - da fehlende Alternativen/Auswahl.
2.) Was Speicher irgendwem kostet ist irrelevant; der Preis für mich als Endkunde zählt bei der Kaufentscheidung - es geht hier nicht um einen Preis/Leistungsvergleich. sie
Fazit: Die 3050 mit 6GB braucht keinen Stromstecker, sie bedient Frigate wie ein Karnickel auf Koks und war die billigste brauchbare Alternative.
Zitat:
Zitat von Raff
(Beitrag 13896626)
12 GiByte wären perfekt – nur die RTX 3060 12GB schlägt sich in diesem Vergleich tadellos:
Die RTX 5050 9GB wird dort aber sicher auch auftrumpfen.
MfG
Raff
Meine 3060/12GB zeichnet im Wohnzimmer @4K (jawohl, richtig gelesen) Spiele wir TES IV remastered, Satisfactory oder Reanimal mit RT+DLSS komplett zufriedenstellend schnell - und zwar ohne irgendwelche Detailregler unter normal/hoch zu stellen.
Natürlich ist der Gesamteindruck auf der 4090 das Bild "weicher", da mehr fps - und auf der Workstation spiele ich bevorzugt mit Keyboard/Maus. Im Wohnzimmer dagegen mit Controller.
Zitat:
Zitat von Raff
(Beitrag 13896700)
Welcher Riegel soll das sein? Und wer sollte ernsthaft ewige Stagnation wollen?
MfG
Raff
Ich wäre dafür.
Dann lernt man mal wieder ordentlichen Code zu schreiben, zu optimieren und vorhandene Ressourcen über mehrere Jahre sinnvoll auszunutzen.
Softwaretests sind mein täglich Brot - und somit wird mir dieser Mangel an entsprechendem Können sowie grundlegendem mathematischem und logischem Verständnis täglich erneut vor Augen geführt.
Gute Code-Optimierung findet man IMHO ja mittlerweile nur mehr bei Raumfahrtmissionen oder beim Militär.
Abseits von Hardcore-Gaming auf dem >300Hz-Monitor - der Kundenkreis wird weiter auf X3D schauen - zementiert ARL damit mMn sein herausragendes P/L. Top Anwendungsleistung, gute Effizienz inkl. Teillast, gute I/O-Features (breite Thunderbolt-Verfügbarkeit, Intel Wifi7).
Gespannt bin ich darauf, was der schnellere Speicher und die D2D-Optimierungen am Ende bringen. Könnte reichen, um beim Gaming an Zen 5 ohne X3D vorbeizuziehen?
Zitat:
Zitat von basix
(Beitrag 13873763)
Hier nochmals das selbe mit der Electric Dreams Demo mit UE 5.7.2 (Shipping Build):
HitLighting für detaillierte Reflexionen usw. = Aktiviert
FastGeo Streaming = Aktiviert
DLSS Plugin integriert (DLSS 4.5)
DLSS UI hinzugefügt (Einstellung von Auflösung, DLSS SR / FG / RR, Reflex, ...)[/url]
sieht auch noch ohne RTX, = software Lumen (?) noch erträglich aus, bezogen auf Vegetation fern
(k.A. wieviel der neuen Features dann noch aktiv sind)
sharpen = 0, damit bei der sehr kleinen Resi das AA nicht so sehr flimmert (eigentlich nicht wahrnehmbar)
Alles = 3, wie bei Dir voreingestellt, reicht damit die Vegetation nicht mit LOD fluktuiert
Miniaturansicht angehängter Grafiken