Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 1 Stunde 38 Minuten

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

vor 1 Stunde 52 Minuten
Zitat: Zitat von Lurtz (Beitrag 13691101) In Indy sieht man auch gleich wie überlegen Preset J ist. Das witzige ist, dadurch dass J so extrem ruhig ist, fallen einem die Patzer paradoxerweise noch mehr ins Auge :ugly:
Es flimmert einfach gar nichts mehr, bis dann ein high contrast Zaun kommt, der doch noch ein wenig flimmert, und das sieht dann ganz schlimm aus... ;D


https://limewire.com/d/150911f8-409f...IbUmVtnIgKAY_g Was macht welche der DLLs? Was muss ich machen, um DCS mit dem neuen DLSS zu spielen?

Unreal Engine 5

vor 3 Stunden 17 Minuten
Ninja Gaiden 2 Black hat ein UE5 Remaster bekommen

https://store.steampowered.com/app/3...AIDEN_2_Black/

Frame Generation für jede GPU (Lossless Scaling)

vor 11 Stunden 46 Minuten
@aufkrawall
Ich teste gerade ein bisschen mit Optiscaler und MW5 Clans und The Witcher 3 (DX12) herum.
Was mir auffällt (zumindest out of the box) kann man in Spielen die kein FSR 3.1 Frame Generation haben mit Optiscaler nicht vorgaukeln, dass DLSS 3 FG funktioniert (und dies dann in FSR 3.1 FG umleiten).
Muss man da noch was mit FakeNVapi machen? Bei der Installationsabfrage von Optiscaler hab ich Nvidia GPU ausgewählt.

Den DLSS Enabler Mod nutzen?

edit: hab den mal installiert. Aber in Witcher 3 (DX12) bietet er mir trotzdem kein DLSS 3 FG an. Ichg kann das Optiscaler Interface benutze um Frame Generation zu erzwingen - vermute aber mal, dass er sich die Inputs dann selbst holt und das nicht zu den besten Resultaten führt?

Bessere Monitore?

Mi, 22.01.2025 19:25
Zitat: Zitat von Gast (Beitrag 13690143) Logisch, es bräuchte keine Auswahl wenn es den perfekten Modus ohne Kompromisse gäbe. Die Kompromisse sind aber derart groß, das keiner aus meiner Sicht wirlich Sinn macht. HDR True Black 400 überzeugt mich nicht, das HDR Erlebnis ist praktisch Null. Der HDR1000 Modus macht einiges besser, was die Highhlights betrifft, dafür saufen dunkle Bildinhalte gnadenlos ab.

Real-time Raytracing

So, 19.01.2025 11:28


Ray Reconstruction von AMD!?

AMDs FidelityFX Super Resolution 2.0 und 3.0 (FSR 2.0, FSR 3.0)

So, 19.01.2025 10:07
Die kommt wann es geplant war NV Midrange kommt nicht im Januar also sind alles Tests gegen Lovelace.

Wer ist der beste Wrapper im ganzen Land (2024)?

Fr, 17.01.2025 23:33
Ich habe nur bei Remember Me Wrapper getestet. Mit dgVoodoo 2 DX9 -> DX11 hatte ich eine bessere Performance als mit DXVK

OLED macht Fortschritte

Di, 14.01.2025 00:01
Zitat: Zitat von robbitop (Beitrag 13683894) Ich könnte mir vorstellen, dass die Lichtquellen unterschiedliche Tiefen haben ist für Dinge wie zB den Brennpunkt einer Linse nicht ideal.
Unwahrscheinlich, der Emitter-Layer ist schon vorher nicht Punktförmig sondern besteht aus mehreren Layern die eine Tiefe haben, da kommt jetzt "nur" 1 Layer mehr dazu.

CryEngine 5

Mo, 13.01.2025 12:35
Yep, Raytracing ist selbst in Hunt Showdown 1896 nicht enthalten: https://www.pcgameshardware.de/Hunt-...tings-1453699/

KCD2 nutzt aber einen Fork der Cryengine, so weit ich weiß - da können Sachen aus deren eigener Feder enthalten sein, wie beispielsweise bei Indy.

MfG
Raff

Gaming auf 8k

So, 12.01.2025 16:50
Zitat: Zitat von Gouvernator (Beitrag 13682239) 48GB will ich eigentlich für 16K. Mit 8K meine ich das ich mit 5090 "nur" spielbare 8k60FPS kaufe. Für das Geld hätte ich aber 16K/48Gb mit im Paket. Es ist ja auch abzusehen das 48GB kommen... Wieso zweimal Geld ausgeben, wenn eine 3090 den Dienst in 8K auch noch tut. Ich bekomme für 2500€ quasi nur durchgehend 30Fps-->60Fps Steigerung. Zu wenig Neues für mein Geschmack. Bei 16K/48Gb kann man seine ganze Spielbibliothek neu entdecken. Das ist die 2500€ schon eher wert + LLM Zeug = winwinwin.

PS.
Ich vermute man wird auf eine 48GB Version noch so lange warten, bis NV ihre RTX A6000 48GB abverkauft hat. Scheinen einige auf Lager zu sein. Nach eigener 8K-Nutzung sage ich: 8K macht ab 77 Zoll wirklich Sinn. 16K wird vermutlich in 10 Jahren kommen, und schon jetzt eine 16K-Grafikkarte auf den Markt zu bringen, finde ich wirklich nicht sinnvoll. Die 8K-Ära beginnt mit der 6090 und Monitoren mit 8K/120Hz/VRR.

Ich teste aktuell FG in CP2077 und HZD (8K). Der Eindruck ist zweigeteilt.

Zum Glück steht für mich die Frage „5090 kaufen oder nicht“ nicht zur Debatte. Ich hoffe, dass in 8K etwa 50 % mehr Leistung möglich sein werden, auch ohne MFG.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Sa, 11.01.2025 14:06
Neural Rendering in the DirectX API.
Cooperative Vector Support coming soon.

https://devblogs.microsoft.com/direc...t-coming-soon/

Neuer HDMI-Standard kommt

Sa, 11.01.2025 13:09
Das wird ja auch langsam nötig...

Nur dumm, dass (wie immer) HDMI schon beim herauskommen schon wieder veraltet ist: https://www.heise.de/news/HDMI-2-2-9...-10225837.html

Schon beim Herauskommen ist kein 8k 120Hz ohne Kompression möglich. 4k 240Hz zwar, aber kein 8k 120Hz. Für 100" Gaming-TVs brauchts nunmal 8k und 120Hz. Aber hoffentlich gibts trotzdem welche, dann eben mit Kompression. Sieht man eh nicht bei so einer niedrigen Kompression dann.

Monitore/TVs mit HDMI 2.2 wirds vermutlich aber auch frühestens 2026 geben. Auch wenn hier von "Geräten" mit HDMI 2.2 in Q3 2025 die Rede ist. Ich denke, TVs werden da frühestens 2026 aufgleisen und Monitore vlt. sogar noch später. (https://futurezone.at/produkte/hdmi-...ocol/402996180)

Intel Xe Super Sampling (XeSS)

Fr, 10.01.2025 23:50
Ich packe das mal hier rein, es tut sich was an der Frame Extrapolation Front:
- Originales Intel Paper (Dezember 2023, ExtraSS): https://dl.acm.org/doi/pdf/10.1145/3610548.3618224 -> G-Buffer guided warping
- Neues Intel Paper (Mai/Dezember 2024, GFFE): https://arxiv.org/pdf/2406.18551 -> G-Buffer free frame extrapolation

Hier GFFE noch mit Video (ExtraSS wird auch verglichen):
https://poiw.github.io/publication/gffe/

Fazit:
- GFFE zeigt deutliche Verbesserungen gegenüber ExtraSS
- Qualität der generierten Frames an sich ist "im guten ExtraSS Fall" nicht wirklich besser als bei ExtraSS (also nicht ein Qualitäts- und Bildschärfe Anstieg wie DLSS4 vs. DLSS3), aber viel weniger Artefakte, nur noch relativ wenige
- Qualität kann mit einigen Interpolations-Verfahren mithalten
- 1080p/30fps ist die Ground Truth. Dass es mit 30fps bereits so gut funktioniert ist noch erstaunlich

PC vs. Konsole: Nur Politik oder tatsächlich technische Gründe

Do, 09.01.2025 10:07
Ego-Shooter wären für mich ja so garnichts auf ner Konsole oder auch Third-Person. Da brauch ich M&T :smile:

Wer mit so Controllern gut ist und auch gut genug ist vom Empfinden na denn is doch alles gut.

Ich hab es aber lieber so das es gut wartbar ist und gut instandzusetzen geht und da kann man bei so einer Konsole einfach quasi nichts machen im Vergleich, das System ist so "geschlossen", da ist einfach 0 Modularität.

Ich hab in der Tat allerdings einen PS4 Controller hier und die Tage beispielsweise Giana Sister 2D gespielt, für sowas is son Controller schonn echt klasse :smile:

Viele Games sind darüber hinaus, auch am PC echt für Controller ausgelegt, SOTTR geht noch so eingermaßen, geübt am Controller würd ich das aber auch besser spielen denk ich.
So ein "Detroit: Become Human", "Heavy Rain" ist teilweise aber denk ich echt grausam umgesetzt, die werden save auch auf Controller ausgelegt sein.

Es sind denke ich viel mehr auch die Entwickler an denen es liegt, dürfte sich dann aber auch vielleicht mal bald ändern, die Hardware ist ohnehin dieselbe, da steckt ja nun schon ne Weile PC-Hardware drin in den Kisten.

Ich hab ehrlich gesagt nicht so richtig Lust dadrauf immer irgendwas wieder rauskramen zu müssen und anschliessen zu müssen.
So ne Tastatur und ne Maus, die haben ihren festen Platz, da gibt es auch keine Kontaktprobleme...
Ich musste mein PS4 Controller erst Reparieren, hab mir die passende Platine mit neuer USB-Buchse bestellt gehabt samt Flachbandkabel, die Buchse hatte nen üblen Wackler.
Bestimmt weil das so doof auf dem Stecker aufliegt wenn es angeschlossen ist..., benutz das Ding am PC halt mit USB-Kabel, hatte das einige Tage dauerhaft angeschlossen, das Thema halt "keine Lust an/ab -zu stöpseln...

Meine Rennwagensteuerungen die haben solche Verschleisserscheinungen jedenfalls nicht in solchem Ausmaß und das wird ja relative oft, abgestöpselt, losegeschraubt um dann den Platz zu Wechseln am Schreibtisch damit Maus und Tastatur wieder richtig frei sind zum Arbeiten.


mfG

AMD Anti-Lag 2.0

Sa, 04.01.2025 12:12
Wenn man ein Singleplayed Gamer ist kann man es aber aktuell ja per Mods nutzen oder? :)
Aber ja out of the box ist es bescheuert. Da hat Nvidia auch einfach den Vorteil der installierten Basis an GPUs. 90% der verkauften GPUs sind Nvidia. Da steckt man in einer Teufelsspirale die man nur durch Marktanteilgewinne wieder brechen könnte. Dazu müssten Radeons aber auch konsistent besser werden und eine Weile dies mit deutlich niedrigeren Preisen erkaufen.

AI/Machine Learning in Gaming

Do, 19.12.2024 08:42
Zitat: Zitat von Ben Carter (Beitrag 13317501) Ich denke, dass das recht gut und auch halbwegs einfach funktionieren kann.
Der NPC benötigt natürlich einen Hintergrund. Dieser kann auch über eine AI erzeugt werden, der gewisse Rahmenparameter übergeben werden (Allgemeines Setting, Charakter des NPCs, Job, Geschlecht, Intelligenz, etc. pp.).
Anhand dieser Parameter und der dann erzeugten (und ggf. überarbeiteten) Hintergrundgeschichte wird dann das eigentliche Charakter-Modell für die AI erzeugt. Dieses kann dann natürlich auch um die Ereignisse, die im Verlauf rund um den NPC geschehen erweitert werden. Somit reagiert der NPC auch immer aktuell. Das heißt, wenn sein Kumpel ermordet wurde, weiß er das auch und erzählt nicht, dass er von diesem zur Grillerei eingeladen wurde.

Kombiniert muss das Ganze natürlich noch mit gewissen Grenzen bzw. Bedingungen werden. Sodass ein NPC, der als Questgeber dient, auch tatsächlich die Quest anbietet und nicht nur anderes Zeug von sich gibt.

Das ganze Konstrukt einmal aufzubauen wird nicht leicht, aber ich kann mir gut vorstellen, dass das größtenteils in eine Engine, wie der UE, wandert und dann von den Entwicklern "nur noch" benutzt werden muss. Am Ende des Tages kann es, sofern auch die Sprachsynthese gut klappt, eine ganze Menge Arbeit sparen bei zugleich deutlich besseren NPCs.

Ich denke, alles in allem ist so etwas mit einem Model wie GPT-4 schon gut möglich. Schwieriger wird es sein, das ganze Model soweit runter zu brechen, dass idealerweise keine Cloud benötigt wird, um das Ganze zu berechnen, sondern es lokal basieren kann.

lg Ben Selbst wenn man einen relativ engen Gesprächsrahmen (Thema / Fakten / Antwortoptionen) vorgibt, könnte man die exakten gesagten Sätze generieren lassen. Schluss damit, sich 1000x die gleiche Geschichte über den Pfeil im Knie anzuhören.

Und noch besser: Damit könnte man auch Wissen glaubhaft in der Welt verteilen - auf der abstrakten Ebene lässt sich das ja gut modellieren.

NPCs lernen über ein Topic indem sie sich mit anderen NPCs darüber austauschen - was a) durch den Spieler beobachtet werden kann und viel wichtiger b) dann hinterher auch mit dem NPC zu dem Thema interagiert werden kann - ganz ohne, dass es wieder dutzendfach der Standardsatz ist.
Oder schlimmer - der NPC der eben noch über das Thema geschwätzt hat vom Spieler gar nicht darauf angesprochen werden kann/nichts davon wissen will, weil kein Dialog dafür existiert.

Es können sogar Charakter/Stimmung/Sitation einbezogen werden.

Geforce Now: Nvidia holt auf

Mo, 02.12.2024 14:00
Zitat: Zitat von r-or (Beitrag 13660200) Das wirft auch ein anderes Licht auf DLSS und frame interpolation. Da koennen sie sicher extrem an GPU power sparen, und den meisten Leuten faellt es eh nicht auf, zumindest denen, fuer die streaming lag akzeptabel ist. GeforceNow startet ganz einfach die Windows-Version der jeweiligen Spiele, du kannst die Grafikeinstellungen ganz gleich wie auch bei einer lokalen Version selbst konfigurieren.

Diamantkühlung

Mi, 20.11.2024 22:31
Zitat: Zitat von Sweepi (Beitrag 13653816) Ich verstehe leider immer noch nicht.
Afaik hat Wasser im Vergleich zu Metallen etc einen sehr schlechten Wärmeleitung (Faktor 500-1000*). Im Vergleich zu Luft einen sehr guten (Faktor 25).

Als Konsequenz kühlt man Systeme, bei denen viel Energie über eine kleine Fläche abgeben wird, dass auf die Hitzequelle ein Metallkörper gesetzt wird, der die Oberfläche stark vergroessert. Diese Oberfläche wird dann wiederum von Wasser gekühlt.
Wo liegt der postulierte Vorteil, den Die direkt mir Wasser zu kühlen?
ich würde mal behaupten, gute wärmeleitpaste wird dort gebraucht wo die temperaturdifferenz besonders groß ist. das ist bei wasserkühlungen meist der fall, denn wasserkühlungen setzt man nicht bei einfach zu kühlenden flächen ein. soviel erstmal zu der ausgangsbasis.


als nächstes versuchst du herauszufinden was die optimale wärme abfuhr von den hitzequelle zum wasser sicherstellt. dazu verwendet man möglichst wärmeleitende materialien. aber genau hier setzt die Direct Water on Die methode an.


denn, statt nur den kupferboden eines wasserkühlers zu kühlen, ist es besser den Die selbst mit dem wasser in kontakt zu bringen. statt durch wärmeleitpaste durch zu müssen geht die wärme direkt ins wasser, und die pumpe kann dann das wasser sogar ohne zusätzliche durchflussminderung durch den kühler noch schneller wegbringen von der hitzequelle.


das kann man dann nachträglich noch weiter optimieren durch lasergravur auf dem Die, um eine höhere oberfläche zu erzeugen, so wie basix das mit den bildern gepostet hat.

EL-QD- oder QDEL-Displays, Nachfolger von OLED?

Fr, 15.11.2024 17:28
EL-QD und QDEL gelten als potenzielle Nachfolger der OLED-Displays, da sie eine verbesserte Helligkeit und Effizienz bieten.

x86 Advisory Group

Fr, 08.11.2024 11:51
Zitat: Zitat von Gast (Beitrag 13632395) Bleibt es eben nicht.

ARM hat große Vorteile in typischen Alltagsszenarien mit kurzen Bursts und dazwischen geringen Lasten. Das Verhältnis in der Akkulaufzeit bleibt! :|