Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 5 Stunden 51 Minuten

AMDs FidelityFX Super Resolution 2.0 und 3.0 (FSR 2.0, FSR 3.0)

Mo, 18.03.2024 22:01
Zitat: Zitat von Tesseract (Beitrag 13510603) hab das hier grob erklärt.

trainiert wird das mit hochauflösenden bildern als referenz. samples werden geclampt und verrechnet und das resultat mit dem referenzbild verglichen. je näher man dran ist umso besser. danke, jetzt hab ich ne idee davon.

Gast, hast du mal ein Beispiel für deine These, dass es am Content liegt?

Bessere Monitore?

Mo, 18.03.2024 19:48
Ja, VA ist auch betroffen. IHMO sogar stärker als OLED. IPS ist der einzige Displaytyp aktuell, der praktisch gar keine VRR Flacker/Flimmern hat. Dafür aber auch nur 1000:1 Kontrast in der Regel.

Unreal Engine 5

Sa, 16.03.2024 07:36
Zitat: Zitat von ChaosTM (Beitrag 13508992) https://youtu.be/JwXLT4zBmrU


hatten wir vielleicht schon.



Next Level Graphics Kannte ich noch nicht, aber sehr geil sofern das alles auch wirklich in Echtzeit ist. Was mir bei der UE5 auch sehr gut gefällt sind die Partikeleffekte. :up: Animationen sind überwiegend auch auf höchsten Niveau hier. :)

btw.
Beautiful Light = Nachfolger von "The Division"?
Retrieval = Nachfolger von "The Callisto Protocol"?
Off the Grid = Angelehnt an den Film "Universal Soldier"?

:D

OLED macht Fortschritte

Fr, 15.03.2024 17:46
Dann hat er ein schlechte Gerät erwischt.
Da fringed absolut nichts.
Irgendeine Kompression bzw. niedrige Farbtiefe oder ein beschränkter Ausgabebereich könnten das auch erklären.

Pixeldichte ist natürlich vom Betrachtungsabstand abhängig, aber selbst aus geringster Entfernung gibt es keine Artefakte.

add.: ich kenne die Paneele nicht, die für die "kleineren" Monitore verwendet werden.
Das hier ist eines das auch für die TVs verwendet wurde.
Vielleicht hat LG da irgendwo gespart.

Real-time Raytracing

Fr, 15.03.2024 11:38
Zitat: Zitat von Lurtz (Beitrag 13508548) Du hast ja nur Behauptungen, keine Nachweise geliefert ;) Dein Text klang so, als müsste man das recht eindeutig unterscheiden können. Kann man auch ;)
Ich mach nachher auch mal Screenshots, wo man den Unterschied sehr gut sehen sollte.

EDIT: Okay, das wird nix. Ich kanns in Screenshots nicht festhalten. Die Unterschiede sind einfach zu subtil oder nur in Bewegung sichtbar.
Man sieht aber, dass es definitiv Unterschiede gibt, wie das Bild auf mittlerer Entfernung aufgelöst wird, wenn man zwei Screenshots hin und her schaltet. Das sieht einfach anders aus. Ob es besser/schlechter ist sieht man dann aber nur in Bewegung.

Unreal Engine 4

Do, 14.03.2024 18:23
Zitat: Zitat von The_Invisible (Beitrag 13508251) Hört sich mal wieder nach Problemen mit den zwei CCDs an... Weil AMD ein Nischenspiel nicht im Profil hat um es auf den richtigen Kernen laufen zu lassen.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Di, 12.03.2024 16:22
Work Graphs API: First Look At Performance Of DirectX 12's Latest Feature

Ab 1:20 wirds interessant was den möglichen Performanceunterschied angeht.


Portal mit RTX IO off und on:

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Di, 12.03.2024 12:59
Für das "Computing" an sich? Aktuell nicht. Aber nVidia stellt Software bereit, dass in dem Bereich über deren GPUs schneller und besser geforscht werden kann.

MicroLED Displays

So, 10.03.2024 07:49
Zu letztgenanntem Punkt möchte ich meine Nachfrage nochmal stellen. Nightspider hat weiter oben geschrieben, dass es angeblich auch high PPI microLED gäbe. Hat jemand dazu einen Link?

nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3

Fr, 08.03.2024 21:12
Zitat: Zitat von basix (Beitrag 13504970) Ach ja? Eigene Vorlieben für z.B. SW Features, unterschiedliche Speichermengen, Nutzungsprofil usw. haben keinen Einfluss? Für all diese Punkte gibt es eine eindeutige Definition was besser und was schlechter ist. Der einzig subjektive Unterschied ist wie schon erwähnt wie viel einem persönlich jeder einzelne Punkt wert ist.

Zitat: Wenn man das Radeon Control Panel nice findet oder etwas mehr Speicher für den gleichen Preis braucht, landet man eher bei AMD. Mehr Speicher ist immer besser, das ist vollkommen objektiv und unabhängig von AMD oder Nvidia, der Preis spielt dafür keine Rolle.

Zitat: Vielleicht finde ich einfach das Nvidia grün hässlich, was machst du hier mit einem "objektiven" Argument? Kann man subjektiv finden, allerdings hat weder das Nvidia grün noch das keinerlei Einfluss auf die Qualität der Karte.

Du zählst Punkte auf warum jemand die eine oder andere Kaufentscheidung tätigt. Und ja Kaufentscheidungen werden nicht immer, sondern sehr oft durch subjektive "Gefühle" beeinflusst die nichts mit der objektiven Produktqualität zu tun haben.

Ändert nichts daran, dass fast alle Eigenschaften einer Grafikkarte objektiv messbar sind und auch klar definiert ist wann welche Eigenschaft besser ist.

DirectX DirectSR "Super Resolution"

Mi, 06.03.2024 07:12
Für alle Win11 Verweigere: Schaut euch AtlasOS an ;) Und jetzt btt.

Intel/Micron 3D XPoint

Mi, 28.02.2024 13:04
"ERWACHE!" :whistle:

Zum Ende der Woche bringt mir jemand bei dieser Gelegneheit einfach mal so eine P1600X :| Wurde auf dem Job im Schrank noch verpackt gefunden und zum Entsorgen freigegeben.

Was kann ich damit anfangen? Kann ich damit was anfangen? :rolleyes:

Der zweite M.2 auf dem X99 - auf welchem ein Xenon steckt, ergo volle Lines - ist grad frei. Gebootet wird von 970EvoPlus. Dahinter ist ein 2x860Pro RAID0.

Geforce Now: Nvidia holt auf

Di, 27.02.2024 18:01
Finde ich legitim im Free Tier.
ich habe jetzt schon einige Monate das Ultimate-Abo und habe nicht vor es zu kündigen. Ich merke nicht, ob es lokal oder bei GFN läuft. Bin sehr happy mit dem Dienst! Selbst bei kompetitiven Shootern ist es kaum noch bemerkbar, gute Anbindung vorausgesetzt.

rabbit r1 - your pocket companion - AI Device

Do, 22.02.2024 18:18
das ging schnell
Zitat: „Buche mir einen Flug zum Viertelfinale“. Einfach per Sprachbefehl gehorcht der intelligente Assistent aufs Wort. Der Showcase zeigt anhand von konkreten Beispielen wie ein KI-Smartphone bei Reiseplanung, Einkauf, Videoerstellung oder Fotobearbeitung das Leben erleichtert. Möglich macht das ein digitaler Assistent der Telekom. Mittels KI übernimmt er die Funktionen unterschiedlichster Apps und kann alle täglichen Aufgaben erledigen, für die normalerweise mehrere Anwendungen auf dem Gerät benötigt würden. Ganz mühelos und intuitiv lässt sich der Concierge über Sprache und Text steuern. https://www.telekom.com/de/medien/me...n-apps-1060268

OpenAI Sora - Creating video from text

Fr, 16.02.2024 18:41
Ich sehe schon das Video vor mir, in dem Kanzler Scholz alles zugibt, Chemtrails, 11.9. Inside Job, Impflüge, Corona Verschwörung, QAnon, gezielter Bevölkerungsaustausch in Deutschland/ Europa.....
Und die Hälfte der Deppen in den einschlägigen Telegramgruppen wird das glauben, weil das Video beweist das ja und so.

ChatGPT (KI-Chat, "HTML/Javascript"-Code erzeugen lassen)

Mi, 14.02.2024 18:07
Zitat: Zitat von Troyan (Beitrag 13491317) Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.

/edit: Paar Infos von nVidia: https://blogs.nvidia.com/blog/chat-w...available-now/ Was kein CUDA? TensorRT-LLM setzt auf CUDA auf, alles andere wäre dämlich... CUDA kann sehr gut mit den Tensor Kernen umgehen, oder was macht denn eine H100 damit? ;)
Kannst selbst nachschauen: https://github.com/NVIDIA/TensorRT-LLM

Offiziell aus der TensorRT Homepage:
Zitat: TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]

Zitat: Zitat von Trap (Beitrag 13491360) Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB. Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)

Gaming auf 8k

Sa, 10.02.2024 13:06
Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.

Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)

Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:

Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.

"Raytracing in Spielen" von Daniel Pohl

Sa, 03.02.2024 15:37
Zitat: Zitat von betasilie (Beitrag 6350270)
...IBM/Sony/Toshiba und MS) RT positiv gegenüber, mit Ausnahme von nVidia, die das ganze zumindest hinauszögern werden wollen. Wie AMD/ATi dazu stehen mögen, würde mich allerdings mal interessieren.
Stellt sich raus es ist genau andersrum. ;D

DLSS 2.2 vs Temporal Super Resolution (UE5) - Großer Vergleich

Di, 30.01.2024 23:44
OK, hier mal ein Vergleich in Baldurs Gate 3:
https://imgsli.com/MjM2ODk2

Wobei das Standbilder sind und eigentlich zu scharf. In Bewegung sieht das nicht so gut aus.

Ich habe das aktualisiert, mehr Optionen eingebaut und bissl Bewegung eingebracht. :)