Zitat:
Zitat von Dr. Lars Sahmströhm
(Beitrag 13879343)
WOLED
-Mehr Helligkeit in SDR (sinnlos, mEn)
-Bessere Beschichtung (Tandem layer schon verfügbar, QD bekommt das später)
QD-OLED
-Mehr Helligkeit in HDR (Farbhelligkeit sticht Weißpunkt aus, mEn)
-schlechtere Beschichtung (noch)
Du redest vermutlich nicht von der Beschichtung, die ist nur Mittel zum Zweck, sondern vom Schwarzwert des Panels wenn Licht darauf fällt. Das wird auch in Zukunft bei WOLED deutlich besser sein, weil QD-OLEDs Bauartbedingt keinen Polarizer haben können der verhindern würde dass Umgebungslicht die Quantum Dots anregt.
Die angekündigten Beschichtungen a la "black shield" reduzieren das Problem zwar, die Schwarzwerte in einem hellen Raum sind aber weiterhin nicht so gut wie die von WOLEDs.
Ich hab hier sowohl einen QD-OLED (meinen Monitor) und einen WOLED (meinen Fernseher) und ich werde in Zukunft vermutlich eher wieder WOLED kaufen statt nochmal QD-OLED. Außer es tut sich noch sehr viel mehr was die Schwarzwerte angeht.
Zitat:
Zitat von Dr. Lars Sahmströhm
(Beitrag 13879343)
Es gibt das Gerücht, dass WOLEDs häufiger Pixelfehler entwickeln und wohl auch schneller einbrennen. Mein Bauchgefühl sagt mir, dass die Qualitätssicherungsprozesse bei Samsung härter sind, als bei LG. Meiner Ansicht nach war das auch schon immer so und hat sich nicht fundamental geändert, auch wenn LG aufgeholt haben mag.
https://www.rtings.com/monitor/learn/woled-vs-qd-oled
"We've been running an accelerated longevity burn-in test on 100 TVs since November 2022. There are no significant differences between QD-OLEDs and WOLEDs when it comes to burn-in, though, so if this concerns you, neither panel type offers a clear advantage."
Stimmt halt einfach nicht was du sagst, beide sind sehr ähnlich was das Thema burn-in angeht.
Zitat:
Zitat von Radeonator
(Beitrag 13874149)
Warum ? Der Chip soll doch in Form einer B70 kommen, wieso sollten Sie es dabei belassen ? Ausser der künstlich hochgetrieben Preise (HBM / KI Gate ;) ) und Verfügbarkeit von GDDR6
Mittlerweile wurde es bestätigt das b770 nicht mehr kommt sondern nur noch als Arc Pro B70 .
Intel wird sich auf den Datacenter-GPU markt allem Anschein konzentrieren.
Bis jetzt bleibt zumindest die Arc B580 und B570 als einziges im Consumer Markt bestehen.
Da kann man sich wirklich fragen ob es überhaupt noch sinn macht allgemein eine Arc Graka zu kaufen, wenn Intel eh den Markt aufgegeben hat.
Ich sehe echt schwarz das von Intel noch einmal eine Graka kommt, auch wenn die "bekräftigten " das es weiter GPU´s von ihnen geben soll.
Da hilft es auch nicht das man Eric Demers nun verpflichtet hat. Man schaut nur mal darauf von wo er kommt und wie dort die Graka einheit "verbaut" ist.
Sollte man meinen, bei Acer würde ich aber meine Hand dafür nicht ins Feuer legen. :tongue: Zudem läuft diese Karte @Stock nicht mit nur 220W. Kann natürlich trotzdem jeder bei 220W oder gar weniger, je nach Lust und Laune, deckeln.
wären davon 2 oder 3 nicht besser? nicht wegen noch mehr übergangswiderständen, aber um zu kontrollieren, dass das messgerät überhaupt richtig misst? gelebte paranoia oder gesunder menschenverstand, wenn man den blick über das netzteil von ali express kreisen lässt; ich gucke nicht mal in mein case.. ausser ich sitze unterm tisch ziehe es vor und bastle.
@SentinelBorg
ich dachte bis 200 Watt wäre PBO nicht mehr an.Weil mir einer geschrieben hatte,PBO sei erst ab 230 Watt aktiv.Ist es der auch bei 200 Watt Aktiv?
Da sind es ja dann maximal 5,2 ghz .Also zumindest beim 9950x3d soll das so sein.
Oder ist das einfach nur falsch die Infos?
Bei 10 Watt wäre es dann wohl jeweils pro Kern 100 mhz weniger Takt,richtig ?
Beim 265k sind es 215 Watt mit 90 Grad und es sind bei P Kerne 5,2 ghz und 4,6 ghz e Kerne
Also auf gut deutsch die standard.Will ich es das bei AMD,9950x,wären das bestimmt 5 ghz Maximal.
Vorsprung sinkt leicht,st jedeoch noch immer vorhanden.Wll ich es kühl haben sind beides mit drossel verbunden.bei unter 200 Watt wird wohl der 265k gewinnen,wenn auch knap.
3000 Std. mixed content. Die sind bei WfH inkl. privaten Gaming Session mit etwas über einem Jahr schon drinnen. :freak:
Ich sehe nach einem Tag Home Office am IPS den Afterglow für eine halbe Ewigkeit. Wie sieht das inzwischen bei euch so aus.
Soweit ich mich erinnere, geht das auch nicht in jedem Game/engineabhängig!? (hatte nur mal in 2-3 Games getestet, wo ich gehofft hatte, das MFG im Gamemenü drin ist,
k.A. ob die Games bei der Installation erkennen, ob ne RTX5000 da ist und z.T. nur dann MFG verfügbar machen,
müsste dann irgendwie mal rechtzeitig getäuscht werden, weil z.Bsp. das spoofing als 4090 nicht reicht)
evtl. ist da in deinem game ne dxgi, die man rausnehmen müsste
(in CP2077 hatte ich nur die asi für Oscaler und die winmm für Enabler)
bei UE/games muss der Oscaler vermutlich als dxgi installiert werden, aber sobald man den Enabler drüberbügelt geht
auch bei mir der Oscaler nicht mehr, ... abwarten und Tee trinken, ob der Enabler mal auf ne höhere passende Version
kommt
btw.
ROG Ally mit SteamOS läuft ohne Enabler 3.0.0.2 nur mit 4.0.0.7 https://www.youtube.com/watch?v=4EoJ-j221ho
(er benutzt da keinen extra Oscaler, so das man gar nicht richtig weiss, was mit Dlls-Input als Output läuft,
theoretisch wäre sogar FSR4-FP8/16 machbar, obwohl er speziell immer gerne XeSS auf dem Ally nimmt)
edit: und hier neu Dying Light: The Beast https://www.youtube.com/watch?v=HJrxx3GEPzU
(kein Problem mit Enabler+Oscaler Overlays)
btw.
hab auch mal in HL reingeschaut und für Interessierte die Einstellungen in der gameuser.ini bezgl. MFG 3x:
k.A. ob man die Zeile zu X3 auch in Games reinschreiben könnte, wo es kein MFG gibt
btw.
in der Krass-engine@Outlaws gibts die Probleme mit Oscaler vs Enabler nicht, beide Overlays aktiv (da spassenshalber normal installiert als dxgi mit Reflexboost=ON im Gamemenü)
Miniaturansicht angehängter Grafiken
Nachdem ein TDR jetzt auch ingame in Detroit auftrat: Evtl. habe ich die Ursache gefunden. Habe die Karte nochmal aus- und wieder eingebaut und die hatte ziemlich viel Spiel im Slot. Vielleicht passten die Kontakte dadurch nicht mehr.
Nach zwei Stunden Indi gabs jetzt jedenfalls kein Problem mehr, und das hat es zuletzt ja recht zuverlässig ausgelöst. Ich beobachte mal weiter...
Zitat:
Zitat von skar
(Beitrag 13827110)
Alphacool ungleich Aqua Computer, das sind unterschiedliche Firmen.
Ach?
Alphacool produziert wie Aqua Computer keinen Schrott, die Frage ist nur wie weit stecke ich als Reviewer selbst im Konzept bzw. Entwicklungsprozess als Berater bzw. Ideengeber drinnen und inwieweit ich mich mit solchen Jubelmeldungen dann am Ende als unabhängiger Reviewer verkaufen kann. Geht mMn gar nicht sowas, dann lieber wie Roman machen.
Auf Dauer geht sowas in die Hose und ob das Ampinel noch kommt, naja. Da gibt es wohl schwerwiegende Probleme und der Exclusive Vorab-Jubelperser Test ist für die Gallerie. Aber Igor wurde als Werberampe "missbraucht". :D Ich verweise auf meinen alten Kommentar. Absehbar.
Id tech engine kannst nicht als Referenz heranziehen, die belegen einfach statisch einen gewissen Speicher je nach eingestellter Pool size, deswegen sehen die Texturen aber auch nicht schlechter aus.
Jep, Arrow Lake ist einfach deutlich komplexer vom Aufbau, da muss man seinen Horizont ein wenig erweitern und wegkommen von "CPU Takt = Leistung", weil drumherum so viel passiert zwischen diesem ganzen Tile Konstrukt. Hier schliddert man beim OC immer von Flaschenhals zu Flaschenhals und muss strategisch vorgehen, siehe hier:
Wenn man sich das Gesamtkonstukt mal anschaut und wirklich an jeder Ecke tüfelt, wie die PCGH es gemacht hat in einem Tuning Artikel, wo sie mit der Brechstange drauf gegangen sind, dann kommt bei Arrow Lake auch was ganz ordentliches raus. Ich lass AMD jetzt mal aus dem Vergleich raus, das erspart uns allen hier viel Zeit zum Wochenende. :D
Dafür säuft die Kiste beim zocken halt auch wieder soviel wie ein 14900K. ;D
Aber gerade weil es so viele Flaschenhälse gibts von der CPU zur GPU, erhoffe ich mir ein wenig mehr bei Refresh als einfach nur +100Mhz und ein paar Kerne. Hoffnung kann allerdings auch schnell zerstört werden bei Intel. :V