Zitat:
Zitat von Lurtz
(Beitrag 13836130)
Ich schätze vor FSR Redstone wird nVidia DLSS nicht aktualisieren. Und auch dann vielleicht nur, wenn das Echo so ausfällt, dass AMD ihnen damit zu nah kommt oder sogar überholt.
Ergibt ja irgendwie auch Sinn, aktuell ist der Tenor, dass DLSS 4 die beste Lösung auf dem Markt ist, wieso da investieren und vielleicht spätere Sprünge erschweren, wenn man eh schon bequem Marktführer ist, auch was die Integration in Spiele angeht.
Das Transformermodell ist nichtmal ein Jahr alt. Was erwartest du an Tempo?! Die ganzen Entwicklungen spielefähig zu machen, dauert einfach. Vielleicht gibt es zur CES ein Update.
Nutzt kein Nanite/Lumen/VSM, die Features können nicht gut skalieren. Ist ja auch völlig ok, das nicht zu nutzen, wenn man mehr fps anvisiert. Sie werden aber auch händisch gut optimiert haben, dass das Streaming etc. keine Slow-Downs verursacht. Das liegt definitiv in der Verantwortung des Entwicklers und es ist gut, wenn es da ein weiteres Positiv-Beispiel gibt.
In Fortnite hat man die Wahl, kann man mit den entsprechenden Entwicklungsressourcen auch so anbieten.
Würde sogar fast sagen, Fortnite sieht selbst mit dem 2017er OG-Content auch ohne Nanite/Lumen, auf seine eigenwillige Art, besser als Arc Raiders aus :freak: :
Sieht seit dem Simpsons-Update imho nochmal deutlich besser aus. Würde mich fast aus dem Fenster lehnen und Substrate unterstellen wollen, die Materials reagieren imho deutlich anders als bisher auf Licht. Und läuft auch nicht langsamer als vorher, was ja das Ziel war.
Zitat:
Zitat von ChaosTM
(Beitrag 13836494)
Aber je länger ich vor diesem Ding sitze, desto mehr mag ich es.
Nur 4k120 aber es ist so schön groß!
Will ich noch eine 42er Monitor, nein ich glaube nicht ;)
funktioniert natürlich nur, wenn man Platz nach hinten hat
Die Idee nach einem Gerät (spaat Geld) habe ich mir auch schon oft überlegt. Aber das wird schwierig, wenn man einerseits auf dem Sofa vor dem TV sitzen will und andererseits vor dem Monitor am Schreibtischt (bzw. aufrecht mit Armen abgestützt und tastatur gerade vor einem liegend).
Wie schaust du da drauf Filme? Sitzt du da etwa auf dem Schreibtischstuhl? Oder nutzt du das nur als Gaming- und Arbeitsbildschirm und für Filme hast du nochmals einen TV?
Wie nah sitzt du denn beim Gaming bzw. fürs Arbeiten vom TV entfernt?
Ich habe heute ein Szenario erlebt wo die NPU in meinem HX370-Laptop endlich mal stark genutzt wurde in Windows 11. Beim Indizieren von Dateien (40-100% Auslastung, über 60.000 Dateien). Auch Bilder werden gescannt. Gebe ich also z.B. in der Windowsfotoanzeige "Messer" ein als Suchbegriff, listet er mir alle Bildern mit Messern auf ohne größere Wartezeit, oder bei Begriffen wie "Rechnung" entsprechend Scans von Dokumenten. Bei Systemen ohne NPU gibt es diese erweiterten Funktionen nicht, so eine Funktion kenne ich bisher nur bei der Google Fotosuche, doch hier ist es ja offline. Nicht schlecht.
Zitat:
Zitat von Laz-Y
(Beitrag 13836578)
Der Preis ist gut, aber die Karte wird nicht von Amazon verkauft schon von einem Drittanbieter - und die Bewertungen sehen nicht gut aus.
Stimmt.
Zitat:
Zitat von mironicus
(Beitrag 13836232)
Triumphierend und mit einem breiten Grinsen segnen sie das Zeitliche, während die eigenen Kinder leer ausgehen.
Warte mal, das ist doch jetzt schon so.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.
Zitat:
Zitat von LDNV
(Beitrag 13835671)
Nee auch mit dem aktuellen.
Hab den aktuellen 25.10.2 mit den alten Dll´s aus 23.9.1 und es klappt.
Klingt doch gut ... :up:
Sofern die 3090 jemals FG/MFG bekommt. Vermutlich nie von nvidia. Aktuell geht es nur über Optiscaler (XeSS-FG bzw FSR-FG über Nukem). Aber ersteres ist nicht schnell weil über dp8. Ggf erbarmt sich Intel und/oder AMD ihr (M)FG mittelfristig über cooperative vectors zu implementieren, dann würde es ein speedup geben.
Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.
Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.
Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.
Zitat:
Zitat von Hakim
(Beitrag 13834009)
Ich finde die Erklärung gegen ein Balacing wie bei er Konkurrenz ehrlich gesagt nicht sehr überzeugend. Ich persönlich würde eher das von Ampinel holen. Aber muß jeder für sich selber Wissen.
Er hat ja Elektrotechnik studiert oder? Da wird er sich schon auskennen. Macht aber schon Sinn was er sagt, wenn du einen schlechten Kontakt hast musst du den widerstand auf allen anderen guten erhöhen, mehr wärme und Verlustleistung.
Aber wie schon gesagt, wenn es da wirklich viele fälle geben würde könnte er unmöglich die erweiterte Garantie anbieten.
Spoiler: old posts
Zitat:
Zitat von Sweepi
(Beitrag 11813208)
... Stand 09/2018
Zitat:
Zitat von Sweepi
(Beitrag 11840364)
... Stand 11/2018
Zitat:
Zitat von Sweepi
(Beitrag 12889668)
... Stand 01/2022
Zitat:
Zitat von Sweepi
(Beitrag 13714231)
... Stand 02/2025
Hatte ganz vergessen, den Kauf der 9070 XT einzupflegen...
@Robbitop: Dein "Update" fängt in der Uhrzeit mit FX 5900 und 6800 Ultra an, fügt 11 Einträge hinzu, und trotzdem war die ursprüngliche Liste bereits länger (12), hättest noch ein Update abwarten sollen für perfekte Symmetrie ;D
Radeon 9600 (9250? 9200? 9500? keine Ahnung....)
Nvidia 8800 GTS 640 MiB GDDR3 (erste selbstgekaufte... auf einer Lanparty das neue System gebaut - damals noch mit 5600+)
9800 GT Green 1 GiB (8800 ging 2 Wochen nach Garantieablauf vor die Hunde - G80 Speichergate)
3870 512 MiB GDDR4 (3850? leihweise von 'nem Freund)
GTX 285 1 GiB GDDR3 (hat jemand im Studentenwohnheim für 90.- verkauft)
GTX 680 4 GiB GDDR5 @Wakü
XFX Fury X 4 GiB HBM @Wakü
PNY GTX 1080 FE 8 GiB GDDR5X @Luft
Nvidia RTX 2080 Ti FE 11 GiB GDDR6 @Luft (Für 1260 im 10/2018 gekauft und für 850 im 06/2020 verkauft)
Asus Strix OC RTX 3090 24 GiB GDDR6X @Wakü (Für 2150 im 02/2021 gekauft und für 2550 im 12/2021 verkauft)
EVGA GTX 980 Ti SC2 6 GiB GDDR5 @Wakü (Die lag hier noch rum, hatte ich vorher nie benutzt. Jetzt habe ich sowohl Fury X als auch 980 Ti in Betrieb gehabt, und beide mit Wakü :D)
??? RTX 3060 Ti 8 GiB GDDR6 @Luft (Gebrauchte Karte aus einem OEM system... HP? gekauft fuer 300-400 (?!))
PNY RTX 4090 XLR8 VERTO 24 GiB GDDR6X @Luft @Linux :uban: (Für 1710 im 05/2023 gekauft und für 1880 im 02/2025 verkauft)
PowerColor(?) Vega 56 Nano 8 GiB HBM2 @Luft @Linux :freak:
Asus Prime OC 9070 XT 16 GiB GDDR6 @Luft @Linux :freak: (Für 700 im 03/2025 gekauft)
Ausgaben für Grafikkarten im Spielerechner:
Name Einkauf Verkauf Result Notes8800 GTS 640 330 0 -330 Broken, daher kein Verkauf 9800 GT Green 1 GiB ??? ? ?? Auch kaputt?GTX 285 90 verschenkt - 90 -GTX 680 4 GiB ~550 verschenkt(?) -550 -Fury X ~700(?) verschenkt(?) -700 -GTX 1080 ~800 300 -500 -RTX 2080 Ti 1260 850 -410 -RTX 3090 2150 2550 +400 -GTX 980 Ti 0 0 + 0 [1]RTX 3060 Ti ~350 verschenkt -350 -RTX 4090 1710 1880 +170 -Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner9070 XT 700 n/a -700
[1] Hab eine Zeitlang alte High-end Karten gekauft/gesammelt, dann aber die meisten verkauft - mit Gewinn, da Covid. Werte daher die 980 Ti als kostenneutral - hat natürlich Zeit "gekostet".
Spoiler: Tabelle
Name Einkauf Verkauf Result Notes
8800 GTS 640 330 0 -330 Broken, daher kein Verkauf
9800 GT Green 1 GiB ??? ? ?? Auch kaputt?
GTX 285 90 verschenkt - 90
GTX 680 4 GiB ~550 verschenkt(?) -550
Fury X ~700(?) verschenkt(?) -700
GTX 1080 ~800 300 -500
RTX 2080 Ti 1260 850 -410
RTX 3090 2150 2550 +400
GTX 980 Ti 0 0 + 0 *1
RTX 3060 Ti ~350 verschenkt -350
RTX 4090 1710 1880 +170
Vega 56 0 0 + 0 Aussortierte Work-GPU, jetzt wieder im Work-2. Rechner
9070 XT 700 n/a -700
Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.
Zitat:
Wir haben mit Hilfe eines metallischen Kontaktes, der Strom in eine organische Leuchtdiode fließen lässt und gleichzeitig das emittierte Licht verstärkt und aussendet, ein Pixel für orangefarbenes Licht auf einer Fläche realisiert, die gerade einmal 300 mal 300 Nanometer groß ist. Dieses Pixel ist genauso hell wie ein herkömmliches OLED-Pixel mit Abmessungen von fünf mal fünf Mikrometer, beschreibt Bert Hecht das zentrale Ergebnis der Studie. Zur besseren Einordnung: Ein Nanometer entspricht dem Millionstel Teil eines Millimeters. Damit würde ein Display oder Projektor mit einer Auflösung von 1920 mal 1080 Pixeln bequem auf eine Fläche von einem Quadrat-Millimeter passen. Ein solches Display könnte in die Bügel einer Brille integriert werden und das Bild auf das Brillenglas projizieren.