Zitat:
Zitat von Niall
(Beitrag 13836500)
Glückwunsch! Wie ist dein Eindruck bzgl. Text bei dem Panel?
Hehe, ich bin hier an den Schreibtisch ‚gefesselt‘. :D
Welchen Abstand hast du denn aktuell grob?
Text scharf, einem 4k-Panel entsprechend, ohne Ausfransen o.ä., bei ganztägiger Office-Nutzung würde ich aber immer nen guten IPS nehmen, auch weil die OLED-Vorteile dann kaum was bringen.
btw Abstand:
Das Modell hat ja diesen sehr flachen, kleinen Metallstandfuß und einen geil kompakten Ständer, der sehr nah an die Wand ran kann, so daß ich meine Vogels-Halterung gar nicht mehr benötige, also ca. eine gute Armlänge Abstand.
Klotziges Netzteil inkl. Verstecken sollte man aber einplanen.
Zitat:
Zitat von Lurtz
(Beitrag 13836529)
Bei mir siehts so aus als müsse auch der XG27UCDMG zurück gehen, ich habe jetzt wieder konstante Kopfschmerzen davon :frown: :facepalm:
Scheiße, bei mir hat's ein paar Tage gedauert, immer sorgsam den begrenzten Farbraum aktiviert, oder woran es auch immer gelegen hat.
Zitat:
Zitat von Lurtz
(Beitrag 13836529)
Dabei ist das Ding abseits der Helligkeit, da ginge sicher noch was, praktisch perfekt. Besonders die Abstimmung bei niedriger Helligkeit ist sehr gut. Das ist eine um Dimensionen bessere Darstellungsqualität gegenüber anderen Displays - man sieht einfach alles in dunklen Bereichen, wo es sonst entweder absäuft oder überstrahlt wird.
Ja, unglaublich viel besser, jetzt werd ich sehen, wie lange so Kisten halten, da meine (immer schon) gedämpften HuschelnEinstellungen mMn der Lebensdauer weit entgegenkommen müssten.
Kann mit Netzhaut-Brennern am Desktop einfach nix anfangen
Blöde frage, aber schlagen LoDs nicht auch auf die CPU in form von draw calls, weil für jede LoD Stufe ein neues Objekt verwaltet werden muss? (Also ganz allgemein, nicht in bezug auf Auto LoD Generierung in UE4)
Ich würde mir vorstellen, dass dieser Overhead bei Nanite dann wegfallen könnte.
Zitat:
Zitat von mironicus
(Beitrag 13836232)
Triumphierend und mit einem breiten Grinsen segnen sie das Zeitliche, während die eigenen Kinder leer ausgehen.
Warte mal, das ist doch jetzt schon so.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Bis 31.12. wird es schon in zwei, drei Sony-Titeln verfügbar sein. Viel mehr wahrscheinlich auch nicht. Wobei immerhin der Super Resolution-Part ja jetzt in jedem upgradebaren 3.1-Spiel verfügbar sein dürfte (ansonsten Optiscaler).
Zitat:
Zitat von LDNV
(Beitrag 13835671)
Nee auch mit dem aktuellen.
Hab den aktuellen 25.10.2 mit den alten Dll´s aus 23.9.1 und es klappt.
Klingt doch gut ... :up:
Sofern die 3090 jemals FG/MFG bekommt. Vermutlich nie von nvidia. Aktuell geht es nur über Optiscaler (XeSS-FG bzw FSR-FG über Nukem). Aber ersteres ist nicht schnell weil über dp8. Ggf erbarmt sich Intel und/oder AMD ihr (M)FG mittelfristig über cooperative vectors zu implementieren, dann würde es ein speedup geben.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Zitat:
Zitat von Hakim
(Beitrag 13834009)
Ich finde die Erklärung gegen ein Balacing wie bei er Konkurrenz ehrlich gesagt nicht sehr überzeugend. Ich persönlich würde eher das von Ampinel holen. Aber muß jeder für sich selber Wissen.
Er hat ja Elektrotechnik studiert oder? Da wird er sich schon auskennen. Macht aber schon Sinn was er sagt, wenn du einen schlechten Kontakt hast musst du den widerstand auf allen anderen guten erhöhen, mehr wärme und Verlustleistung.
Aber wie schon gesagt, wenn es da wirklich viele fälle geben würde könnte er unmöglich die erweiterte Garantie anbieten.
Spoiler: old posts
Zitat:
Zitat von Sweepi
(Beitrag 11813208)
... Stand 09/2018
Zitat:
Zitat von Sweepi
(Beitrag 11840364)
... Stand 11/2018
Zitat:
Zitat von Sweepi
(Beitrag 12889668)
... Stand 01/2022
Zitat:
Zitat von Sweepi
(Beitrag 13714231)
... Stand 02/2025
Hatte ganz vergessen, den Kauf der 9070 XT einzupflegen...
@Robbitop: Dein "Update" fängt in der Uhrzeit mit FX 5900 und 6800 Ultra an, fügt 11 Einträge hinzu, und trotzdem war die ursprüngliche Liste bereits länger (12), hättest noch ein Update abwarten sollen für perfekte Symmetrie ;D
Radeon 9600 (9250? 9200? 9500? keine Ahnung....)
Nvidia 8800 GTS 640 MiB GDDR3 (erste selbstgekaufte... auf einer Lanparty das neue System gebaut - damals noch mit 5600+)
9800 GT Green 1 GiB (8800 ging 2 Wochen nach Garantieablauf vor die Hunde - G80 Speichergate)
3870 512 MiB GDDR4 (3850? leihweise von 'nem Freund)
GTX 285 1 GiB GDDR3 (hat jemand im Studentenwohnheim für 90.- verkauft)
GTX 680 4 GiB GDDR5 @Wakü
XFX Fury X 4 GiB HBM @Wakü
PNY GTX 1080 FE 8 GiB GDDR5X @Luft
Nvidia RTX 2080 Ti FE 11 GiB GDDR6 @Luft (Für 1260 im 10/2018 gekauft und für 850 im 06/2020 verkauft)
Asus Strix OC RTX 3090 24 GiB GDDR6X @Wakü (Für 2150 im 02/2021 gekauft und für 2550 im 12/2021 verkauft)
EVGA GTX 980 Ti SC2 6 GiB GDDR5 @Wakü (Die lag hier noch rum, hatte ich vorher nie benutzt. Jetzt habe ich sowohl Fury X als auch 980 Ti in Betrieb gehabt, und beide mit Wakü :D)
??? RTX 3060 Ti 8 GiB GDDR6 @Luft (Gebrauchte Karte aus einem OEM system... HP? gekauft fuer 300-400 (?!))
PNY RTX 4090 XLR8 VERTO 24 GiB GDDR6X @Luft @Linux :uban: (Für 1710 im 05/2023 gekauft und für 1880 im 02/2025 verkauft)
PowerColor(?) Vega 56 Nano 8 GiB HBM2 @Luft @Linux :freak:
Asus Prime OC 9070 XT 16 GiB GDDR6 @Luft @Linux :freak: (Für 700 im 03/2025 gekauft)
Ausgaben für Grafikkarten im Spielerechner:
Name Einkauf Verkauf Result Notes8800 GTS 640 330 0 -330 Broken, daher kein Verkauf 9800 GT Green 1 GiB ??? ? ?? Auch kaputt?GTX 285 90 verschenkt - 90 -GTX 680 4 GiB ~550 verschenkt(?) -550 -Fury X ~700(?) verschenkt(?) -700 -GTX 1080 ~800 300 -500 -RTX 2080 Ti 1260 850 -410 -RTX 3090 2150 2550 +400 -GTX 980 Ti 0 0 + 0 [1]RTX 3060 Ti ~350 verschenkt -350 -RTX 4090 1710 1880 +170 -Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner9070 XT 700 n/a -700
[1] Hab eine Zeitlang alte High-end Karten gekauft/gesammelt, dann aber die meisten verkauft - mit Gewinn, da Covid. Werte daher die 980 Ti als kostenneutral - hat natürlich Zeit "gekostet".
Spoiler: Tabelle
Name Einkauf Verkauf Result Notes
8800 GTS 640 330 0 -330 Broken, daher kein Verkauf
9800 GT Green 1 GiB ??? ? ?? Auch kaputt?
GTX 285 90 verschenkt - 90
GTX 680 4 GiB ~550 verschenkt(?) -550
Fury X ~700(?) verschenkt(?) -700
GTX 1080 ~800 300 -500
RTX 2080 Ti 1260 850 -410
RTX 3090 2150 2550 +400
GTX 980 Ti 0 0 + 0 *1
RTX 3060 Ti ~350 verschenkt -350
RTX 4090 1710 1880 +170
Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner
9070 XT 700 n/a -700
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Wir haben mit Hilfe eines metallischen Kontaktes, der Strom in eine organische Leuchtdiode fließen lässt und gleichzeitig das emittierte Licht verstärkt und aussendet, ein Pixel für orangefarbenes Licht auf einer Fläche realisiert, die gerade einmal 300 mal 300 Nanometer groß ist. Dieses Pixel ist genauso hell wie ein herkömmliches OLED-Pixel mit Abmessungen von fünf mal fünf Mikrometer, beschreibt Bert Hecht das zentrale Ergebnis der Studie. Zur besseren Einordnung: Ein Nanometer entspricht dem Millionstel Teil eines Millimeters. Damit würde ein Display oder Projektor mit einer Auflösung von 1920 mal 1080 Pixeln bequem auf eine Fläche von einem Quadrat-Millimeter passen. Ein solches Display könnte in die Bügel einer Brille integriert werden und das Bild auf das Brillenglas projizieren.